人民網
人民網>>IT

創造良性互動的智能時代

喻思南
2018年11月02日08:18 | 來源:人民網-人民日報
小字號

  人工智能算法潛在的安全隱患、認知偏見、法律倫理沖突等往往是現實社會缺陷的反映。隻有在機器與使用機器的人上兩頭著力,我們才能創造一個人工智能與人類良性互動的未來。

  語音點菜、刷臉買單、無人車送回家……60多年前,當一批年輕的科學家首次提出人工智能的概念時,或許沒想到它帶來的巨大變化﹔而今,得益於計算能力的提升、大數據的驅動以及深度學習的突破,人工智能正加快“進化”,日益改變著我們的生產、生活。

  技術是把雙刃劍。應當看到,人工智能在高歌猛進的同時,對安全、法律倫理等也提出了新挑戰。比如,一些專家擔憂人工智能可能模糊虛擬世界和物理世界的界限,甚至重塑人類的生存環境和認知形態,並由此衍生出一系列棘手的道德倫理難題。知名物理學家霍金生前就認為,人工智能的短期影響由控制它的人決定,而長期影響則取決於人工智能是否完全為人所控制。

  從技術發展進程和邏輯看,這些擔憂或許來得早了點。好在我們沒有僅僅停留在爭論上,針對人工智能潛在的風險,科學家和工程師們防患於未然,從產品設計標准、規范約束等方面提出了一系列試圖控制智能機器系統的可行性方案。面對智能算法不可理解、缺乏透明造成的機器偏見,人們正加強評估人工智能使用的數據、算法以及模型,剔除可導致偏見的潛在因素﹔對於未來強人工智能環境下,具有准人格的機器如何與人協調相處問題,科學家也試圖探索通過算法給智能機器嵌入人類的價值觀和規范,讓它們具有和人類一樣的同情心、責任心、羞恥感等等。我們希望,在對人工智能程序進行監管的同時,讓人工智能的算法遵循“善法”,吸取人類道德規范“善”的一面,從而控制機器的風險。

  當然,構建好機器法律倫理體系並不容易。現實中豐富的語言表達,微妙的情感訴求能被機器理解、接受嗎?用量化的指標衡量善、惡等倫理概念可行嗎?還有,誰來決定算法、設定標准?這些都是我們試圖規范人工智能發展需要面臨的難題。但給機器嵌入倫理的困難,並不意味著我們隻能無所作為。機器學習輸出的判斷和行為,往往取決於它接受的信息。從這點看,人工智能本身並無對錯,理想的狀態下,當前基於深度學習的人工智能算法應當是中性、客觀、高效的,其潛在的安全隱患、認知偏見、法律倫理沖突等往往是現實社會缺陷的反映,隻不過在技術的視野中被放大了。因此,要讓智能機器變得更完美,除了通過技術手段對算法進行審查或引導外,更重要的或許是正視、理解並改善現實社會環境。隻有在機器與使用機器的人上兩頭著力,我們才能創造一個人工智能與人類良性互動的未來。

  倫理學家說,人工智能的道德水准將是一面鏡子,它反映的是人類文明的道德高度。人類社會不可能十全十美,未來的機器智能時代亦然。我們要繼續不懈努力,去創造更好的智能時代。


  《 人民日報 》( 2018年11月02日 18 版)

(責編:孟哲、易瀟)

分享讓更多人看到

返回頂部