人民網
人民網>>IT

智能機器人還不能成為法律上的人

馮玨
2019年06月19日08:22 | 來源:經濟參考報
小字號
原標題:智能機器人還不能成為法律上的人

  意志、理性均源於人類心靈的能力,正是這種能力使得為人類確立道德法則成為可能。而在現有的技術水平下(弱人工智能時代),智能機器(人)顯然不具備人類心靈的能力。不能基於這種人工的“智能”,就認為智能機器(人)可以與自然人比肩而成為法律中的人。

  從功利的角度出發,是否需要為智能機器(人)擬制主體地位,取決於這種擬制的目的是否正當、手段是否合適,即是否符合工具理性的要求。僅出於限制智能機器(人)的制造商或設計者的責任的目的,不構成為擬制法律人格的正當目的。

  或許在將來的某一天,從功利的角度出發需要擬制智能機器(人)的法律人格,這種必要性就需要有實踐的基礎並得到充分的論証。

  隨著人工智能技術的發展,“人工智能”、“智能機器”、“智能機器人”這些概念進入了人們的視野。內華達州開了美國自動駕駛汽車立法之先河,於2011年通過AB 511法案,對“人工智能”下了一個定義:人工智能是指使用計算機和相關設備以使機器能夠重復或模仿人類的行為。當智能機器的概念與人們原已擁有的“機器人”的觀念相結合的時候,“智能機器人”的概念又被提出來了。這樣,人們不禁疑惑,智能機器(人)在法律上能不能算人?

  2017年2月16日,歐洲議會投票表決通過《就機器人民事法律規則向歐盟委員會的立法建議﹝2015/2103(INL)﹞》(以下簡稱“機器人民事法律規則”),其中最引人注目之處,就是建議對最復雜的自主智能機器人,可以考慮賦予其法律地位,在法律上承認其為“電子人”(electronic person)。不過,是否承認智能機器人具有法律人格,存在激烈的爭論。

  討論智能機器(人)是否可以被賦予法律人格或法律主體的問題,首先需要厘清的是,什麼是“法律中的人”?

  有權利能力

  才能成為法律認可的“人”

  為了確定誰可以成為法律中的人,民法學引入了“權利能力”這一概念。權利能力成為法律中的人的“標簽”。簡言之,有權利能力,就是法律中的人﹔沒有權利能力,就不是法律中的人。

  作為近代以來“人的解放”的重要成果,每個自然人(man)生而為人(person),不分年齡、性別、民族、種族、職業等具體情形的不同,都具有權利能力,此為各國國內立法和國際公約所普遍承認。但是,法律中的人(person)與我們通常所理解的“人”,並非同一個概念。為了將這兩者相區分,我們將“法律中的人”用“法律主體”這個概念來替換。

  法律中的主體,除了自然人之外,尚有“法人”。我國《民法總則》第57條明確規定,法人具有權利能力。其實,“法人”本來就是“法律中的人”的簡化表達形式,從這個意義上講,自然人具有權利能力,也是“法人”。但是習慣上,人們將“法人”概念限縮為專門用來指稱除自然人以外的法律中的人,按照《民法總則》的規定,法人是具有權利能力的組織。

  若是將智能機器(人)定位為電子人(electronic person),即一方面是說,智能機器(人)也是法律中的人(person)﹔另一方面,這種法律中的人既不是自然人(natural person)也不是法人(legal person),而是一種新的類別——電子人。若是智能機器(人)與自然人、法人一樣,可以是法律中的人,也就意味著他們之間必然具有某種共性。

  那麼,智能機器(人)是在哪些方面與自然人或法人相類似,以至於需要賦予其法律人格或法律主體地位呢?

  智能機器(人)

  還不具備自然人的心靈能力

  法律中的人的“權利能力”,究竟是誰的能力、又是什麼樣的能力呢?權利能力是法學對人的理性能力的抽象化和概念化。依現有的哲學,意志、理性均源於人類心靈的能力,正是這種能力使得為人類確立道德法則成為可能。用康德的話說,“可以把純粹理性看成是一種制定法規的能力”。

  即使是尚不具備理性能力的嬰幼兒、雖然成年但卻喪失了理性能力的不幸者,法律也承認其具有權利能力。對此需要加以解釋,人的意志、理性是人類區別於自然界其他事物、生命的本質特征,因此,即便某些人類個體與一般情況有所偏離,仍不妨礙我們將其視為同類,並且依“等者等之”的正義觀,承認其仍然為法律中的人。

  智能機器(人)與自然人的類比,顯然不是從其外在物理或形體特征角度出發的。智能機器(人)不是因為外形與人類相似,而使人產生它們也是“人”的聯想的。從目前的討論來看,智能機器(人)與人類的比較,著眼點在於其“智能”。

  AlphaGo戰勝人類最優秀的棋手、微軟小冰能夠“創作”詩歌,這些人工智能技術的新成果,使得不少人認為有的智能機器(人)可以比人類更聰明。而歐洲議會建議賦予電子人地位的智能機器人,也是著眼於最復雜的自主智能機器人。這種類比思維使我們回過頭來反思,究竟什麼才是人類的理性能力?是不是會下圍棋、可以寫詩,就具備了人類的理性能力?

  需要指出,機器人的所謂自主性,具有的是純技術本質。歐洲議會建議的“機器人民事法律規則”明確說明:機器人的自主性可以被界定為,在外部世界作出獨立於外在控制或影響的決定並實施這些決定的能力﹔這一自主性具有純技術本質,且其自主性程度取決於機器人被設計成的可與其環境進行交互的復雜程度。歐洲議會關於賦予智能機器人電子人格的建議,並非因為其自主性使其具有了人類的理性能力。

  近期,中科院院士張鈸接受記者採訪,指出引發這一輪人工智能技術進展的深度學習算法,本質上是概率統計。深度學習是尋找那些重復出現的模式,重復多了就被認為是規律(真理)。因此,現在形成的人工智能系統非常脆弱,容易受攻擊或欺騙,需要大量的數據,而且不可解釋,存在嚴重的缺陷。張院士認為,我們現在還沒有進入人工智能的核心問題。人工智能的核心是知識表示、不確定性推理等,知識表示、在開放系統中進行不確定推理的能力等,才是人類理性的根本。

  總結而言,在現有的技術水平下(弱人工智能時代),智能機器(人)沒有自主目的、不會反思、不會提出問題、無法進行因果性思考、沒有自己的符號系統,顯然不具備人類心靈的能力。雖然人工智能使用了“智能”這一語詞,但是這個“智能”前面還有“人工”這一限定語。因此,不能基於這種人工的“智能”,認為智能機器(人)可以與自然人比肩而成為法律中的人。

  智能機器(人)

  與法人的比較

  智能機器(人)與法人的比較,則存在更多的爭議與不確定性。這是因為,法人是否具有自然人據以成為法律中的人的權利能力的內核即理性能力,一直存在極大的爭論。

  關於法人本質的幾百年來的爭論,隨著各國立法普遍承認(或賦予)法人以權利能力、承認其作為法律主體的地位,而逐漸淡出人們的視野。而智能機器(人)的法律地位問題,使這個古老的問題又煥發出生機。一些人正是從與法人的對比中獲得靈感,主張或呼吁賦予智能機器(人)以法律主體地位,這就要求對作為被比較對象的法人有進一步的認識。關於法人本質的問題,有一些共識是學界已經達成的,這些共識可以作為我們對比智能機器(人)與法人的出發點。

  首先,法人的背后其實離不開自然人。

  法人的目的由自然人設定,法人通過自然人的代表(或代理)從事民事交往,法人通過自然人的理性響應法律的行止要求。人類社會之所以可以由法律來調整並構建秩序,是由於人的理性決定了法律能夠通過規范人們的行為來調整社會關系。那麼,智能機器(人)能否理解法律的行止要求?能否根據法律的要求來規范自己的“決策”?在現有技術條件下顯然無法做到。這樣,智能機器(人)也不得不依賴於其背后的人來響應法律的要求。例如,德國《道路交通法第八修正案》第1a條要求高度或者全自動駕駛汽車能夠在高度或者全自動駕駛期間遵守交通法規,這就要求設計或制造自動駕駛汽車的人將道路交通規則內化於自動駕駛汽車的決策邏輯之中。所以,德國的法律是對人提出了要求,而不是對自動駕駛汽車本身提出要求。

  其次,法人作為其背后眾多自然人所構建的法律關系的結點,有利於簡化法律關系,便利民事交往。

  以社團性法人為例,如某釣魚俱樂部,可能有眾多的俱樂部成員甲、乙、丙等等。如果該俱樂部需要購買釣魚用品,或者需要租用釣魚場所,以俱樂部的名義來締結合同並享有權利、承擔義務,比起以甲、乙、丙等等的名義來締結合同,要簡便得多。那麼,將智能機器(人)類比於法人,能否實現簡化法律關系、便利民事交往的目的呢?至少從目前來看,還無法想象如何通過賦予智能機器(人)法律主體地位以實現法律關系的簡化。

  再次,法人能夠實現將特定財產用於特定目的的財產特定化需求。

  財產的特定化,在遺產的限定繼承和將遺產本身作為一個財團法人方面,就有所體現。近代以來,企業的產生、主權者之間的經濟競賽的需要,使得財產的特定化以法人或者信托的形式得到極大發展。從人們對智能機器(人)成為電子人的遐想來看,也要求其制造商、設計者、銷售者或者其他利益相關者以智能機器(人)登記為基礎,為其設立責任基金。在本質上,這一做法就是為智能機器(人)分配一定的財產並且將其特定化為智能機器(人)的責任財產。但是,通過法人實現的財產特定化,實際上是對近代以來法人作為社會生產的基本組織單位的法律認可。相較而言,目前關於智能機器(人)致損事故法律責任的討論,包括歐洲議會建議的“機器人民事法律規則”,均將智能機器(人)的生產者或設計者的產品責任作為處理智能機器致損事故的主要法律機制。顯然,智能機器(人)的生產者和設計者通常都是法人。法人本來就已經實現了財產的特定化,並且經過特定化的用於生產、經營等的法人財產同時也是其責任財產。這樣,賦予智能機器(人)以法律人格,在實際效果上就是將法人的財產加以進一步分割和特定化,從而限制為其設計或制造的智能機器(人)的致損事故承擔的責任。這就涉及到下面將要論及的法人與其他法律主體之間的關系問題。

  最后,法人的法律主體地位導致了法人與其成員的關系以及法人與法人以外的其他法律主體之間的關系這樣兩類需要法律予以關注和解決的問題。

  法人與其成員的關系引發了法律上關於成員資格、成員權等的相關制度構建﹔而法人與其他法律主體的關系,則主要涉及勞動者、消費者以及法人的一般債權人這三類法律主體。在法人與其一般債權人的關系上,問題的核心在於法人是否僅以自己的責任財產承擔責任,換句話說,法人的成員是否僅承擔有限責任。雖然有限責任制度在近代以來的經濟發展過程中發揮了巨大的作用,並且至今仍然佔據主導地位,但是隻有在可以與法人的債權人的利益達成大致平衡的情況下,才是可持續的。並且,經濟社會發展到今天,有些公司的股東主動或被動地承擔補充出資責任,承諾在公司資不抵債的情況下對公司的債務負責,這是我們在思考有限責任的合理性時所必須注意到的。

  智能機器(人)並非組織,無所謂成員問題,因此考慮賦予其法律人格,主要就涉及與其可能的債權人之間的關系。目前來看,智能機器(人)充當經營者或從事其他商事活動還只是人們的想象,其涉及的主要對外關系就是與其致損事故的受害人之間的損害賠償責任問題。智能機器(人)若成為法律主體,就意味著其損害賠償責任應由其自己承擔,而智能機器(人)的制造商或設計者則可以類比法人的有限責任而在原則上無須擔責。若果真採取這樣的制度設計,固然有利於鼓勵更多的公司致力於智能機器(人)的設計與制造,使得他們不用擔心被人工智能技術可能存在的不可預見的風險引發的損害賠償責任所擊垮,但是對於智能機器(人)致損事故的受害人而言,卻是極不公平的,因為他們將可能承擔無端的、自己根本無法預防和控制的風險。

  可以看出,目前學界普遍承認從功利的視角看待法人。法人之權利能力,是對近代以來社會生產方式和社會組織方式的法學構建。在某種意義上,權利能力一方面解放了自然人,另一方面又將其禁錮於法人之中。回到智能機器(人)的法律地位問題,若是其主體地位不能通過與自然人的類比而得到承認,那麼與法人相類比的結果,就是要求回答下面的問題:從工具理性的角度出發,為什麼要將其擬制為人?

  為何承認智能機器(人)是“人”

  是有待回答的問題

  從功利的角度出發,是否需要為智能機器(人)擬制主體地位,取決於這種擬制的目的是否正當、手段是否合適,即是否符合工具理性的要求。

  若是僅服務於限制智能機器(人)的制造商或設計者的責任的目的,不構成為擬制法律人格的正當目的。從手段的角度來講,作為法人的制造商或設計者正處於便利的地位,可以通過產品定價等機制在全社會范圍內分散新技術應用所可能帶來的風險。另一方面,他們還可以通過保險機制進一步分散風險。因此,即便僅從手段的角度來講,也不必採取擬制主體地位的方式來達到本來已經可以達到的目的。

  但是,也應該看到,技術和產業的發展日新月異,我們今天想象不到的為智能機器(人)擬制法律人格的必要性,或許在將來的某一天會凸顯出來。但是,既然這是從功利的角度出發考慮是否需要擬制法律人格,並非出於智能機器(人)在倫理上的應然地位,這種必要性就需要有實踐的基礎並得到充分的論証,並且,這種論証責任應該在主張賦予其擬制法律主體地位的一方。

  在人工智能產業發展如火如荼的今天,關於智能機器的法律地位的探討,可能被某些產業界人士詬病為不利於產業的發展。然而,產業發展與事故受害人的救濟應該是並行不悖的。這也是眾多的自動駕駛汽車設計者或者制造商主動聲明願意承擔責任的原因所在。沃爾沃總裁宣稱將“對其自動駕駛模式下汽車造成的損失承擔全部責任”﹔谷歌和戴姆勒也都提出,如果他們的技術有缺陷,他們將承擔責任。因此,產業的發展隻有在能夠平衡產業內外不同主體之間的利益關系尤其是在高度尊重自然人的生命、身體、健康等倫理價值的情況下,才是可持續的。

  (作者單位:中國社科院法學所)

(責編:畢磊、孫紅麗)

分享讓更多人看到

返回頂部