人民網
人民網>>IT

“智能+”更應重視安全挑戰

 喻思南  劉詩瑤
2019年03月26日07:59 | 來源:人民網-人民日報
小字號

  觀眾在首屆中國國際智能產業博覽會上體驗醫療人工智能產品。
  新華社發

  核心閱讀

  人工智能技術和應用飛速發展,在推動經濟社會創新發展的同時,也帶來安全、倫理、法律法規等方面的風險挑戰。

  隨著數據越來越多被收集,應用場景增加,用戶個人信息泄露的風險也隨之提升。

  人工智能的研究和應用要有倫理和法律界限,即應以人類的根本利益和責任為原則。

  

  剛剛結束的全國兩會上,“拓展‘智能+’”首次被寫入今年的《政府工作報告》,作為未來的重要基礎性技術,人工智能已連續三年出現在《政府工作報告》中。可以預見,隨著人工智能、大數據的深入應用,生產生活的數字化轉型是大勢所趨。

  人們在擁抱人工智能、邁向數字社會的同時,也需要正視人工智能等新技術應用在安全、倫理、法律法規、社會治理等方面的挑戰。隻有未雨綢繆,研判和防范潛在風險,才能安享“智能+”的時代紅利。

  人工智能應用方興未艾,同時也帶來安全風險隱患

  前不久,一項人工智能深度換臉技術引發爭議。原來,這項技術能做到幾乎毫無痕跡地給視頻中的人物“換臉”,引發人們對隱私和肖像權被侵犯的擔憂。更深的擔憂在於,如果這一技術被濫用,是否意味著大量視頻會被“移花接木”?

  今年全國兩會上,人工智能、大數據等技術應用帶來的安全風險,成為代表委員關注的焦點之一。全國政協委員、360集團董事長兼首席執行官周鴻祎就表示,安全應該成為人工智能發展的基礎與前提。全國人大代表、蘇寧控股集團董事長張近東也提出,數據安全是數字中國建設的重中之重,發展高質量的數字經濟,需要加強對數據的安全保護和合規共享。

  從信息安全角度看,當前人工智能應用的安全風險點主要有哪些?

  中國信息通信研究院移動安全聯盟秘書長楊正軍說,人工智能高度依賴海量數據的採集和訓練分析。隨著數據越來越多被收集,應用場景增加,用戶個人信息泄露的風險也隨之提升。

  “人工智能算法不僅能直接採集用戶個人信息,也會深度挖掘分析看似不相關的數據。”楊正軍介紹,他們開展的一項調研顯示,當前濫用個人信息現象較為普遍。同時,人工智能及大數據場景下無所不在的數據收集、專業化多樣化的數據處理技術,使得信息主體難以了解、控制其信息是如何被收集和利用的。信息安全保護已經成為人工智能發展的重要課題。

  專家表示,技術本身是中性的,隻要利用得當,人工智能也能用來提升網絡安全水平。比如,人工智能在識別惡意代碼方面就很有優勢。

  北京神州綠盟科技有限公司安全研究員吳子建說,惡意代碼往往是基於一些開源代碼修改而成,它們通常有相似的行為模式。借助人工智能技術訓練的檢測工具,能夠比較高效地發現惡意代碼。

  人工智能技術也普遍用於企業內網安全防護。吳子建介紹,傳統的防護手段是在網絡的入口處設置防御措施,但內網之間很少進行防御。採用人工智能等技術手段關聯數據,可以有效檢測內網中的異常。與傳統的方法相比,這種方法不僅能發現已知威脅,還可以檢測到未知風險。

  吳子建認為,業內還需要做更多深入的研究,不斷提升人工智能在安全防護上的價值。

  應提前研判智能時代的法律倫理風險,引導人機良性合作

  人工智能的應用越來越多,衍生出一系列倫理、法律難題。比如,無人駕駛汽車發生交通事故時如何界定責任,醫療外科手術機器人出現意外怎樣處置……

  “人工智能的研究和應用要有倫理和法律界限,即應以人類的根本利益和責任為原則,以實現人類根本利益為終極目標。這一要求也是人工智能和人的關系決定的。”中國人民大學法學院副教授郭銳認為。

  “當前技術條件下,智能機器尚未具備倫理決策的能力,但其決策會引發有倫理意義的后果。”郭銳認為,通常法律針對的是能夠遵循這些原則的主體,也就是自然人或者法律看作是主體的組織(法人),但考慮到人工智能的特征是對人的智能的模擬、延伸和擴展,因此倫理原則應當適用於人工智能系統。

  北京師范大學哲學學院教授田海平認為,人工智能的主體構成不是孤立的個體,而是多種關聯形態的總和。“人工智能的構成主體分為研發者(包括算法的開發者)、生產商、運營商、電信網絡服務商等。一旦發生交通或醫療事故,由於無法找到某個確定的責任主體,給責任界定帶來很大困難,因此需要確立代理人來界定責任與權利。”

  近年來,學界和產業界日益重視人工智能中的倫理與法律問題,並推動制定相關技術標准及社會規范。專家表示,人工智能倫理法律涉及科學界、企業界,哲學、法學等多個領域,有必要成立應對人工智能發展的聯盟組織,吸納各方面的力量,共同推進相關研究。

  郭銳建議,要考慮到人工智能開發和部署過程中的權責歸屬,通過為技術開發者、產品生產者或者服務提供者、使用者界定權利和義務,讓自動駕駛、無人機等人工智能應用安全落地。

  專家表示,人工智能大規模進入人們生活之前,還應建立相對統一的風險評估指標體系,設立具體、可操作的指標,為相關研究及應用提供指引。

  專家特別提醒,人和機器各有優勢,要互相了解才能實現人機協作,但人還是人機關系的主導者。惟其如此,才能將人工智能引向人機合作的良性發展道路。

  全球人工智能法律治理面臨共同難題,當前應加強個人隱私安全管理

  針對人工智能應用在安全、倫理等領域的潛在威脅,世界各國已經開始了相關法律治理研究。

  楊正軍介紹,各國對人工智能風險的關注重點和重視程度有所不同。以安全為例,美國關注人工智能對國家安全的影響,2018年3月美國國會發起提案,建議成立國家人工智能安全委員會,並將制定相關法案﹔歐盟和英國關注人工智能對隱私、就業及倫理的影響﹔俄羅斯、以色列、印度則重點關注人工智能在國防領域的應用以及對軍事安全的影響。

  北京師范大學刑科院暨法學院副教授、中國互聯網協會研究中心秘書長吳沈括表示,在規范人工智能發展方面,我國起步較早。2017年7月,國務院頒布《新一代人工智能發展規劃》﹔2017年12月,工信部發布《促進新一代人工智能產業發展三年行動計劃(2018—2020年)》,都對人工智能產業的規范發展提出了要求。

  “這些政策能夠引導和助推相關產業的發展。關於人工智能技術標准,我國也發布過一些文件。然而,當前立法中對於人工智能帶來的安全問題還存在比較大的空白,這也是全球人工智能的法律治理面臨的共同難題。”吳沈括說。

  隨著人工智能應用的深入,其附屬的相關風險也日益凸顯,加強對人工智能相關的法律治理至關重要。人工智能法律治理呈現出哪些趨勢,現實中又有哪些需要迫切注意的問題?

  吳沈括認為,人工智能立法治理上可能會呈現出三個趨勢:一是立法將更加細化,更有針對性。比如,針對自動駕駛、機器人、生物識別等領域頒布一些規范性文件,立法監管也會更加多元﹔二是立法將與產業特性緊密結合﹔三是立法將以規范為主,監管則重在為產業發展提供指引。

  “由於法律往往存在一定的滯后性,考慮到人工智能等新技術應用前景廣闊,立法需要預留一定的空間,盡量實現產業應用與風險前瞻的恰當平衡。在確定監管什麼內容、如何監管以及怎樣執行時,要把握好力度,不宜影響產業的發展活力。”吳沈括說。

  楊正軍說,從行業調研情況來看,當前應該加強個人隱私安全管理。他建議,隱私保護應從立法監管和技術能力提升兩方面入手:一方面,針對我國個人信息保護法律條款分散、不成體系的現狀,加快統一立法,明確數據不當收集、使用、泄露等的責任,同時也要界定好數據歸屬權等問題﹔另一方面,應加強新技術在個人隱私保護方面的應用。

  數據的合理合法收集是數據利用的前提。專家表示,我們不應回避智能化與隱私安全保護的沖突,而應積極作為,找到智能時代技術應用與風險防護的最大公約數,為智能生活保駕護航。


  《 人民日報 》( 2019年03月25日 19 版)

(責編:趙超、楊波)

分享讓更多人看到

返回頂部