人民網
人民網>>IT

防范倫理道德風險 保障人工智能健康發展

李傳兵
2020年07月13日08:49 | 來源:人民網-人民日報
小字號

  人工智能作為一種具有代表性的顛覆性技術,正在釋放科技革命和產業變革積蓄的巨大能量,深刻改變著人類生產生活方式和思維方式。習近平總書記強調:“要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德。”保障人工智能健康發展,需要採取合理有效的舉措,防范人工智能技術可能帶來的倫理道德風險,讓這一技術更好服務於經濟社會發展。

  人工智能發展存在倫理道德風險。在新一輪科技革命和產業變革中,人工智能是一項戰略性技術,具有很強的“頭雁效應”,在有力推動經濟社會發展的同時,也帶來一系列風險與挑戰。其中,倫理道德風險是一個重要方面。實際上,伴隨人工智能技術的發展,關於其可能誘發倫理道德風險的討論從未停止。有人擔憂,信息時代,人工智能創造物已不僅僅是技術化的工具,而是越來越具有類似於人類思維的能力,甚至在某些方面具有超越人類思維的能力。人工智能發展到一定程度,有可能威脅人類思維主體地位。也有觀點認為,人工智能應用存在隱私泄露的倫理風險。人工智能應用需要以海量信息數據作支撐,正是由於大數據的使用、算力的提高和算法的突破,人工智能才得以快速發展、廣泛應用,並呈現出深度學習、跨界融合、人機協同、群智開放、自主操控等特征。人工智能越“智能”,就越需要獲取、存儲、分析更多的信息數據。在這一過程中,涉及個人隱私的信息,如個人身份信息數據、網絡行為軌跡數據以及對數據處理分析形成的偏好信息、預測信息等,往往以數據的形式被存儲、復制、傳播。獲取和處理海量信息數據,不可避免會涉及個人隱私保護這一倫理問題。如果缺乏倫理道德規范,就有可能誘發隱私泄露的倫理道德風險。此外,隨著人工智能自主性的提高,人工智能侵權責任中的因果關系、過錯等要件的判斷日趨復雜,人工智能應用的權利責任歸屬問題也被廣泛關注和討論。

  增強人工智能倫理道德風險防控意識。人工智能之所以存在倫理道德風險,究其主要原因,一方面是這一技術還不夠完善﹔另一方面是目前人工智能健康發展的倫理道德保障機制仍然不夠健全,同快速發展的人工智能技術相比,與之相關的倫理道德規章制度發展相對滯后。解決這些問題,一項基礎性工作是增強人工智能倫理道德風險防控意識。目前,在一些地方和領域,公眾對人工智能可能誘發的倫理道德風險重視程度還不夠高。增強人工智能倫理道德風險防控意識是一項系統工程,涉及科技研發、應用各環節。在科技研發環節,重在完善人工智能從業機構與倫理道德研究、教育、監督機構之間的長期溝通交流機制,不斷提高科技從業人員的倫理道德水平,引導研發人員增強風險防控意識,嚴守科技倫理底線,強化倫理責任。在研發初始環節,尤須增強道德風險防控意識,預測和評估人工智能產品可能引發的道德危害,從設計源頭進行規范。進而將這種倫理意識貫穿於研發全過程,防止人工智能被非法利用進而危害社會,確保科技研發活動始終在倫理道德的軌道上平穩運行。在應用環節,同樣需要繃緊倫理道德風險防控這根弦,在全社會加強涉及人工智能的倫理道德教育,普及與人工智能相關的法律法規知識,引導社會公眾以正確的價值觀念看待和運用人工智能技術,在享受其帶來的便利的同時,對其中的倫理道德風險始終保持高度警惕,推動全社會共同參與科技倫理治理。

  依靠制度確保人工智能安全可控可靠。將人工智能可能誘發的倫理道德風險降到最低,保障人工智能健康發展,必須根據人工智能發展實際,針對其可能帶來的倫理道德風險,不斷完善指導和規范人工智能發展的倫理道德原則。在此基礎上,建立健全相關制度體系,從而及時發現、有效解決人工智能技術發展中的各類倫理道德問題,確保人工智能安全可控可靠。2019年6月,國家新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》,對促進新一代人工智能健康發展,加強人工智能法律、倫理、社會問題研究提出明確要求。依靠制度建設,防范和化解人工智能可能帶來的倫理道德風險,需要相關從業人員大力弘揚社會主義核心價值觀,在技術開發和應用過程中,嚴格遵守標准、流程等方面的規定,充分尊重和保護個人隱私,保障個人的知情權和選擇權。不斷加強人工智能的倫理道德監管,在相關法律法規中,進一步強化隱私權保護,充分保障公民在人工智能應用中的知情權和選擇權。嚴格規范人工智能應用中個人信息的收集、存儲、處理、使用等程序,嚴禁竊取、篡改、泄露和其他非法收集利用個人信息的行為,確保人工智能朝著對全人類、全社會及自然生態有益的方向發展,更好為經濟社會發展和人民美好生活服務。

  (作者為貴州大學馬克思主義學院教授)


  《 人民日報 》( 2020年07月13日 09 版)

(責編:趙超、呂騫)

分享讓更多人看到

返回頂部