尹志強
“人工智能”(Artificial Intelligence,簡稱AI)作為當下熱詞頻繁出鏡于各類新聞,人工智能應用范圍的拓展①例如,特斯拉、Waymo、Cruise、百度等不斷推進自動駕駛技術的研發和實際應用;以“微軟小冰”為代表的人工智能進行音樂、美術、文學“作品”的“創作”;Googleassistant、Siri、Cortana等智能助理軟件不斷提升與人類的交互能力等。、人工智能相關政策的出臺②2017年7月8日,國務院印發《新一代人工智能發展規劃》,對發展人工智能的指導思想、基本原則、戰略目標、總體部署、重點任務等予以明確,為搶抓人工智能發展的重大戰略機遇、構筑我國人工智能發展的先發優勢提供指引。等不斷沖擊著人們的神經,提醒我們已經處于人工智能時代。③2018年4月25日,歐盟委員會向歐洲議會、歐盟理事會、歐洲理事會、歐洲經濟與社會委員會及地區委員會提交的《歐盟人工智能報告》指出,人工智能不再是科幻小說,而是我們日常生活的一部分,人工智能已經成為現實。Vgl.Europ?ische kommission,Mitteilung der Kommission an das Europ?ische Parlament,den Rat,den Europ?ischen Wirtschaftsund Sozialausschuss und den Ausschuss der Regionen,Künstliche Intelligenz für Europa,COM(2018)237 final,Brüssel,2018,S.1.立足于當下的時空環境,雖然人工智能的前景存在不確定性,但是,一方面,現有人工智能技術的應用,為人類提供便利的同時引發一系列問題,例如自動駕駛汽車發生交通事故時責任承擔的問題、人工智能創造物是否屬于“作品”以及著作權歸屬問題等,有必要對這些問題進行規范、引導;另一方面,從技術發展趨勢來看,即使人工智能不能達到科幻電影所描述的水平,但機器人通過不斷學習、訓練,能自主思維、有感覺甚至感情,其將更加深入地融入我們的生活進而對人類社會產生深遠影響,卻是可預見的。①可以樂觀地估計,人工智能的潛力巨大,將推動社會的發展。參見Vgl.Justin Grapentin,“Die Erosion der Vertragsgestaltungsmacht durch das Internet und den Einsatz Künstlicher Intelligenz,”NJW,2019,S.183.人工智能對現有法律制度提出了挑戰②例如,合同塑造權力(Vertragsgestaltungsmacht)因人工智能的投入而被削弱(Erosion)。Vgl.Justin Grapentin,“Die Erosion der Vertragsgestaltungsmacht durch das Internet und den Einsatz Künstlicher Intelligenz,”S.183-185.自主化系統(Autonome Systeme)使法律面臨巨大挑戰(enorme Herausforderungen)。Vgl.Georg Borges,“Rechtliche Rahmenbedingungen für autonome Systeme,”NJW,2018,S.978-980.自動駕駛(Das automatisierte Fahren)帶來許多法律問題。Vgl.Eric Hilgendorf,“Automatisiertes Fahren und Recht-einüberblick,”JA,2018,S.801.,要求我們重新審視人工智能的發展并尋求正確的應對之策,以便更好地實現以技術進步造福于人類的初衷。
對于新事物,法律總是保守且相當謹慎的,往往直至其引發社會現實問題且無法從既有法律制度中尋得有效解決方案時,立法者才會考慮通過制定或修改法律以因應新的情勢。相對于技術發展之迅速,法律的改變有時顯得如此緩慢③為了將工業革命時期的技術進步所創造的利益最大程度地惠及廣大的中產階級,人類在20世紀近100年的時間里,通過修改法律建立了最低工資,限制勞動時間,禁止童工以及保障勞動場所安全等制度,這一過程非常緩慢。參見John Frank Weaver:《機器人也是人:人工智能時代的法律》,鄭志峰譯,臺北:元照出版有限公司,2018年,第68—72、280、292頁。,面對社會發展過程中出現的新問題有時顯得力不從心。進入數字時代,人類感受到法律嚴重滯后于技術的苦澀,直到現在,互聯網領域的有關問題還在法律界產生困擾。④溫德爾·瓦拉赫、科林·艾倫:《道德機器:如何讓機器人明辨是非》,王小紅等譯,北京:北京大學出版社,2017年,第180頁。誠然,是否需要為新技術立法,立法者應當保持謹慎,在新技術充分發展和發展成熟之前,其對社會的影響無法確定,過早進行立法存在風險。但是,不能由此否定對新技術可能引發的法律問題在理論上進行前瞻性思考的必要性,故應當加強對大數據、互聯網、人工智能、基因技術等的創新發展及風險挑戰的前瞻性研究和約束性引導。⑤張文顯:《數字技術立法尤其要超前》,《北京日報》2019年1月21日,第13版。這種思考恰恰是分析判斷是否有必要為新技術立法的過程。否則,在新技術引發現實問題后,由于欠缺充分的思考、分析,法律面對新的時代要求很難迅速作出反應。尤其在人工智能技術爆炸式發展的時代,人工智能對現有法律制度的挑戰可能是根本性的,對人工智能已經或可能涉及的法律問題進行理論探討更顯重要,即使有些問題在當下看來一定程度上帶有未來主義的色彩。
2017年2月16日,歐洲議會表決通過了《就機器人領域的民事法律規則向歐盟委員會的立法建議(2015/2103(INL))》,其第59.f條指出,“從長期來看,應當為機器人設立一個特殊的法律地位,在這一點上,至少對于精致的自主機器人可以被確認為具有電子人的地位,對由其引發的全部損害負責賠償以及在機器人作出獨立自主決定或者在其他方面與第三人以獨立方式交互的情形下可能有電子人格的適用”。⑥Vgl.Europ?isches Parlament,P8_TA-PROV(2017)0051,Zivilrechtliche Regelungen im Bereich Robotik,Entschlie?ung des Europ?ischen Parlament vom 16.2.2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik(2015/2103[INL]),URL:https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_DE.html.abgerufen am04.November 2022.問題在于,是否需要承認人工智能具有法律人格?對此,國內學界近來不乏相關討論,承認抑或否定以及認為未來人工智能可以成為法律主體者皆有之。⑦在承認人工智能可以成為法律主體的觀點中,有的學者將人工智能稱為“電子人”(參見郭少飛:《“電子人”法律主體論》,《東方法學》2018年第3期);有的學者主張,應承認智能機器人的工具性人格(參見許中緣:《論智能機器人的工具性人格》,《法學評論》2018年第5期)。也有一些學者否定人工智能可以具有法律人格(參見馮潔:《人工智能體法律主體地位的法理反思》,《東方法學》2019年第4期;劉洪華:《論人工智能的法律地位》,《政治與法律》2019年第1期)。此外,有的學者認為,雖然現階段的人工智能尚不能成為法律主體,但不排除未來的人工智能可以具有法律人格(參見王利明:《人工智能時代對民法學的新挑戰》,《東方法學》2018年第3期)。從整個民法體系來看,人工智能是否為法律主體關涉民事主體制度在新的時代背景下是否需要調整的問題,一旦承認人工智能的主體地位,其影響范圍將極為廣泛。因而,人工智能可否成為法律主體,乃是重要而根本的問題,需要在理論上予以澄清。人工智能成為法律主體并非憑空想象,一方面,人工智能相關具體問題之現有討論,已經涉及承認其主體地位的可能性①例如,有觀點采“人工智能作者說”及“虛擬法律人格說”,認為人工智能本身應為人工智能生成物的作者,享有著作權。參見朱夢云:《人工智能生成物的著作權歸屬制度設計》,《山東大學學報》(哲學社會科學版)2019年第1期。;另一方面,基于現有技術積淀以及技術發展趨勢,強人工智能之實現是極有可能的,如果人工智能廣泛介入人類生活,成為不容忽視的社會存在,面對是否賦予其主體地位的問題,法律必須給出回答。另外,是否承認人工智能的主體地位代表了解決相關具體法律問題的不同思路。例如,如果認為人工智能仍屬于人類制造的產品,則需要按照產品責任以及機動車交通事故責任的規則確定自動駕駛汽車引發交通事故時責任如何承擔,剩下的是如何對現有規則進行完善或解釋適用的問題;如果承認人工智能為法律主體,則要進一步思考其作為責任主體的可行性問題,構建具體的權利義務歸屬及責任承擔機制。而就包括自動駕駛在內的產品責任而言,因參與設計、開發、部署和操作高風險人工智能系統的人數眾多,這使得受傷害者難以確定對所造成的損害可能負有責任的人,也難以證明損害索賠的條件。此時如果認為受害人獨自承受損害不公平,則應當尋求產品責任之外的其他責任主體。總之,人工智能是否具有法律主體地位的問題需要深入探討。
人工智能可否為法律主體,始于“什么是人工智能”的追問,如果討論的對象不明確,不僅難以保證結論的科學性,而且可能會給學術對話帶來困難。在討論人工智能法律地位問題時,有的學者立基于“人工智能體”的概念,將人工智能理解為一種實體。②彭誠信、陳吉棟:《論人工智能體法律人格的考量要素》,《當代法學》2019年第2期。而有的學者將人工智能理解為一種能力,屬于行為范疇。③李愛君:《人工智能法律行為論》,《政法論壇》2019年第3期。顯然,上述觀點對于人工智能這一概念本身存在不同認識。本文以人工智能是否可為法律主體為題,主要是在“人工智能體”的意義上使用“人工智能”這一概念,并非指研究人工智能的學科或一種能力,而是指具備“人工智能”的實體。當然,無論從何種意義出發,對于“人工智能”本身的理解均為關鍵。
盡管人工智能的概念早在20世紀50年代即已提出,但關于“何為人工智能”這一“最基本的概念性問題”至今“依然難以形成定論”。④梅立潤:《國內社會科學范疇中人工智能研究的學術版圖》,《內蒙古社會科學》(漢文版)2019年第3期。這主要是因為,自人工智能的概念誕生以來,其已發展成為跨學科的研究對象,關于人工智能的不同定義更多反映了不同學科的研究視角。
關于何為人工智能?“人工智能之父”馬文·明斯基(Marvin Minsky)將人工智能定義為“使機器做那些如果由人類來做需要智能(intelligence)的事情的科學”。⑤See Marvin Minsky,Semantic Information Processing,Cambridge:MIT Press,1968,p.5.相似的定義如:“人工智能(artificial intelligence,AI)就是讓計算機完成人類心智(mind)能做的各種事情。”瑪格麗特·博登:《AI:人工智能的本質與未來》,孫詩惠譯,北京:中國人民大學出版社,2017年,第1頁。美國著名科技記者盧克·多梅爾認為,“人工智能是研究人類智能行為規律(比如學習、計算、推理、思考、規劃等),構造具有一定智慧能力的人工系統”。⑥盧克·多梅爾:《人工智能:改變世界,重建未來》,賽迪研究院專家組譯,北京:中信出版社,2016年,第1頁。德國信息技術、電信和新媒體協會(BITKOM)和德國人工智能研究中心有限公司(DFKI)編寫的《人工智能:經濟意義、社會挑戰、人類責任》一書給出兩種在實踐中被廣泛使用的人工智能定義:(1)人工智能是IT系統的屬性,可以顯示“類人”(menschen?hnlich)智能行為方式;(2)人工智能描述信息學應用(Informatik-Anwendungen),它們的目的是,顯示智能行為。⑦Vgl.BITKOM/DFKI,Künstliche Intelligenz:Wirtschaftliche Bedeutung,gesellschaftliche Herausforderungen,menschliche Verant-wortung,Berlin:Bitkom,2017,S.28-29.歐盟委員會的《歐洲人工智能報告》將人工智能界定為“具備智能行為的系統,通過分析其周圍環境并在一定程度上自動處理以實現特定目的”。①Vgl.Europ?ische kommission,Mitteilung der Kommission an das Europ?ische Parlament,den Rat,den Europ?ischen Wirtschafts-und Sozialausschuss und den Ausschuss der Regionen,Künstliche Intelligenz für Europa,S.1.國內有學者認為,人工智能“是人機環境系統交互方面的一種學問”。參見劉偉:《關于人工智能若干重要問題的思考》,《人民論壇·學術前沿》2016年第7期。
根據上述關于人工智能的描述,可以將人工智能的特征歸納為:(1)是人工系統,例如機器或計算機系統;(2)具備智能(智力)行為;(3)與周圍環境交互;(4)自動完成在通常情況下需要人類智能(心智)的特定目標。可見,“在人工智能科學領域對人工智能的定義主要取決于‘智能(智力)’”②李愛君:《人工智能法律行為論》。,是讓機器(一定程度上)像人類那樣“智能”(或具有人類“智能”的某些特征)。由此,人工智能與人類智能顯然不同,它是“通過模擬人腦思維”,由機器或軟件所表現出來的“類人化智能”。③參見馬長山:《人工智能的社會風險及其法律規制》,《法律科學(西北政法大學學報)》2018年第6期。二者有時僅在完成特定任務的結果上一致,達致同一結果的過程可能完全不同。④著名的“中文屋”(Chinese Room)實驗表明,一臺計算機在沒有真正理解的情況下所實現的結果,與人類在理解基礎上作出的決定可以一致。由此,即使最終效果上相同,但人工智能卻可能以一種不同于人類智能的方式實現。參見溫德爾·瓦拉赫、科林·艾倫:《道德機器:如何讓機器人明辨是非》,王小紅等譯,第48頁。這種不同源于人工智能之“人工”屬性,“人工”在人工智能完成任務的過程中可以表現為不同方式,與人類智能的運作機制存在本質區別。
人工智能的各種解讀,雖然均落腳于“智能”,但未對“智能”進行具體闡釋,存在循環定義的問題。在人工智能中,一個基本的問題是,沒有人真正知道智能是什么。
“智能”并非像我們日常所理解的那樣淺顯,關于人類智能(Human Intelligence)和機器智能(Machine Intelligence)均存在不同認識。有的學者分析了關于人類智能的各種定義,總結出最一般形式的“智能”之本質是“一個實體在各種環境中實現目標的能力”,這個定義包含三個基本要素:一個實體、環境和目標。⑤See Shane Legg,Marcus Hutter,“Universal Intelligence:A Definition of Machine Intelligence,”Mindsand Machin es,vol.4,2007,pp.403-406.由于“智能”這一概念具有模糊性,人工智能研究者主要使用“理性”(rationality)的概念,指“在給定優化的特定標準和可用資源的情況下,采取最佳措施以實現特定目標的能力”。⑥See The European Commission’s High-Level Expert Group on Artificial Intelligence,A Definition of AI:Main Capabilities and Scientific Disciplines,Brussels,2018,p.1.所以,人工智能之“智能”,強調的是完成特定任務這一點,而完成特定任務是通過對人類智能的“模擬”,這種“模擬”并非追求與人類智能運作機制的一致,而是在對人類智能之運作過程進行抽象——表現為在信息收集、處理、加工、判斷、推導等基礎上⑦從更一般的層面看待心靈的核心特征,可以將其定義為信息處理,而不是神經科學,這是通過計算機實現人工智能的基礎性認知。參見溫德爾·瓦拉赫、科林·艾倫:《道德機器:如何讓機器人明辨是非》,王小紅等譯,第47頁。,使機器或其他人工系統像人類那樣行為(至少從結果上與人類行為相當)。
“人工”是理解人工智能的另一個關鍵,反映了如何在機器或其他人工系統上實現“智能”。“人工”對應英文“artificial”,基本意思是“通常在一個自然模型上人為精巧地制造即人造的”,以此強調與一個人造產物有關,被看作“自然的”之反義概念。在辭源意義上,artificial可追溯到拉丁文“ars”,不僅是一種人造的產物,而且是“精工細作”(kunstgerecht)制造的產物。也就是說“artificial”除了表達“人造的”意思之外,還有“精巧”“精工細作”的含義,借此表明制造的技術特征。不同于以往人類制造的產品,人工智能之“人工”需要更為復雜、精細的技術投入。智能機器人與以往機器的根本不同在于,它們被賦予了人工智能(算法)。⑧參見馬長山:《智能互聯網時代的法律變革》,《法學研究》2018年第4期。
那么,人工智能如何通過“人工”方式實現“智能”?歐盟委員會設立的人工智能高級別專家組(High-Level Expert Group on Artificial Intelligence)在有關人工智能的定義中對此予以概括——與周圍環境的交互,包括傳感器和感知、推理/信息處理和決策以及行動系統三部分,即“通過一些傳感器感知系統所處的環境,從而收集和解釋數據,對所感知的內容進行推理或處理從這些數據中獲得的信息,確定最佳措施是什么,然后通過一些執行裝置采取相應行動”。①See The European Commission’s High-Level Expert Group on Artificial Intelligence,A Definition of AI:Main Capabilities and Scientific disciplines,p.1.機器學習、神經網絡、深度學習、決策樹以及許多其他技術的運用,使人工智能具備學習能力。②See The European Commission’s High-Level Expert Group on Artificial Intelligence,A Definition of AI:Main Capabilities and Scientific disciplines,pp.3-4.學習能力是人工智能區別于傳統機器的顯著特征,使人工智能不再依賴于僵硬且事先在程序代碼中確定的行為指示,即可為完全未知且不可預見的事情制定解決方案,從而實現人工智能的自主性。由獨立自主學習和決策所產生的“自主(Autonomie)”是AI的核心。自主性是人工智能軟件區別于傳統軟件的標志。傳統軟件的算法機械線性地執行“如果—那么”選擇程序(Wenn-Dann-Auswahlprozesse),這個程序是由軟件程序指令(行為規則)預先規定;而人工智能使用“歸納—統計”方法和數學概率公式(概率邏輯)的“如果—那么”算法(Wenn-Dann-Algorithmen)并由其作出決定,這個過程和結果不再依賴人類尤其是人類編程者。③Vgl.Heinz-Uwe Dettling/Stefan Krüger,Erste Schritte im Recht der Künstlichen Intelligenz,MMR,2019,S.212.但是,人工智能的自主性目前看仍然是一種技術上的實現,是對人類智能的“模擬”、功能上的“相當”,無法否認人工智能之“人工”屬性所必然具有的與人類智能的差異。《就機器人領域的民事法律規則向歐盟委員會的立法建議(2015/2103(INL))》明確指出,機器人的自主性“是純粹技術性質的,并且它的程度取決于機器人與其環境的交互被設計的復雜程度”。④See Motion for A European Parliament Resolution with Recommendations to the Commission on Civil Law Rules on Robotics(2015/2103(INL)),European Parliament Report(November.4,2022),http://www.europarl.europa.eu/doceo/document/A-8-2017-0005_EN.html#title1.作為人工智能的自主性之重要體現的自主學習能力,深刻反映了人工智能的自主性所具有之技術本質。旨在讓人工智能實現自主學習的人工神經網絡,是受到人類大腦的啟發而研發的具有一個中間存在許多加權鏈接(weighted connections)的小型處理單元(類似于我們的神經元)組成的網絡。⑤See The European Commission’s High-Level Expert Group on Artificial Intelligence,A Definition of AI:Main Capabilities and Scientific disciplines,p.1.通過具有來自大量數據的反饋機制的神經網絡結構,新一代學習算法被“喂食”或“訓練”,訓練對象包含數字、文本、圖像、口頭信息或者其他信息,使之自動識別模型,進行信息分類,以這種方式“學習”并在此基礎上再進行選擇,即決定。⑥Vgl.Heinz-Uwe Dettling/Stefan Krüger,Digitalisierung,Algorithmisierung und Künstliche Intelligenz im Pharmarecht,PharmR,2018,S.514.所以,人工智能作出決定的過程乃是通過技術手段實現的,與人類的認知過程存在本質區別。人工智能與以往人類所制造的產品最本質的區別來自于“人工”實現的自主性,而人工智能的自主性意味著,人工智能的決定和行為不能被人類完全事先確定和完全理解。
關于人工智能是否可成為民事主體,除了要對人工智能本身的特點予以正確認識之外,尚需明確成為民法上的“人”所應具備之本質屬性,唯此兩方面之結合方能對此形成理性判斷。眾所周知,民法上的“人”包括自然人和法人。⑦我國立法也承認非法人組織的主體地位。參見《民法典》第2條、第102條。通過檢視民法將自然人和法人列為主體的原因,可以揭示成為民法上的“人”所應具備之本質屬性,進而基于人工智能是否符合民法所考慮之基本因素,分析其成為民事主體的可能性。
正如很多德國學者所言,自然人作為權利主體(權利的承擔者)是如此“理所當然”(“顯而易見”“不言而喻”),以至于法律只需規定自然人權利能力的開始、終止,自然人具有權利能力無需任何附加條件。①參見哈里·韋斯特曼:《德國民法基本概念》(第16版),哈爾姆·彼得·韋斯特曼修訂,張定軍、葛平亮、唐曉琳譯,北京:中國人民大學出版社,2013年,第2—3頁;漢斯·布洛克斯、沃爾夫·迪特里希·瓦爾克:《德國民法總論》(第33版),張艷譯,楊大可校,北京:中國人民大學出版社,2012年,第418頁;本德·呂特斯、阿斯特麗德·施塔德勒:《德國民法總論》(第18版),于罄淼、張姝譯,北京:法律出版社,2017年,第104—106頁。參見卡爾·拉倫茨:《德國民法通論》上冊,王曉曄等譯,北京:法律出版社,2013年,第45—47頁。相對于組織體需要國家法律授權取得主體地位而言,自然人作為權利主體是“天然的”“不與其他任何東西相關而僅與純粹的人之存在(blo?e Menschsein)相關,這一點是基于生命的本質源于人本身”。②哈里·韋斯特曼:《德國民法基本概念》(第16版),哈爾姆·彼得·韋斯特曼修訂,張定軍、葛平亮、唐曉琳譯,第3頁。然而,眾所周知,在相當長的歷史時期內,僅有“純粹的人之存在”尚不能成為民法上的“人”。
近代以來的法典化運動立基于羅馬法這一“共同的根源”,而羅馬法強調“人格人與人之間的區別”③羅爾夫·克爾佩爾:《法律與歷史——論〈德國民法典〉的形成與變遷》,朱巖譯,北京:法律出版社,2003年,第59頁。人格人與人(即法律主體與現實實體)的區分源于法律人格這一概念,現實的人屬于社會的范疇,法律主體屬于法律的范疇,這種區分至今仍為法律主體制度的起點。參見江平、龍衛球:《法人本質及其基本構造研究——為擬制說辯護》,《中國法學》1998年第3期。,并非所有自然意義上的人均為法律主體。“只有人格人是法律主體,人并非必然是法律主體”④羅爾夫·克爾佩爾:《法律與歷史——論〈德國民法典〉的形成與變遷》,朱巖譯,第59頁。,區別人格人與人的工具乃是身份,“血緣、性別、國籍等外在于人的身份”是“決定人具備怎樣的法律人格的決定性因素”。⑤參見馬俊駒:《從身份人格到倫理人格——論個人法律人格基礎的歷史演變》,《湖南社會科學》2005年第6期。這種身份人格在很長時期內存續,“18世紀以前的歐洲社會可以說是一個身份制社會,人的私法地位是依其性別、其所屬的身份、職業團體、宗教的共同體等不同而有差異的”。⑥星野英一:《私法中的人——以民法財產法為中心》,王闖譯,梁慧星主編:《民商法論叢》第8卷,北京:法律出版社,1997年,第157頁。作為人的外在屬性,每個人所屬的身份存在差異,將身份作為法律主體的基礎,必然導致人與人之間法律地位的不平等。在此背景下,“自然人可以是法律規范中的主體,有時甚至也可以是法律上的人所支配的客體”。⑦漢斯·哈騰鮑爾:《民法上的人》,孫憲忠譯,《環球法律評論》2001年冬季號。
一切自然人皆為民法上的“人”獲得法律承認,是人類對于人格平等的孜孜追求并為之不懈奮斗的結果。人格平等要求放棄以身份作為是否具有法律人格的認定標準,必須穿透不平等的身份而直擊人的本質。從古希臘自然法思想“強調人的理性是自然的一部分,人類平等是世上永恒的客觀事實和自然規律”⑧參見馬俊駒:《從身份人格到倫理人格——論個人法律人格基礎的歷史演變》。揭示了人的倫理性到啟蒙哲學和古典自然法思想,再到康德倫理人格主義之“理性人格的預設”⑨參見葉欣:《私法上自然人法律人格之解析》,《武漢大學學報》(哲學社會科學版)2011年第6期。及黑格爾所謂之“理性意志的抽象的人”⑩參見李永軍:《民法上的人及其理性基礎》,《法學研究》2005年第5期。,理性取代身份成為區隔現實中的人與法律上的人之根本標準,私法主體的首要根據是理性。
隨著社會的發展,源于自然法的“理性”,亦不斷發展演進。基于天賦人權、人人平等的自然法思想,《法國民法典》將人的自然理性作為人之所以為人的原因,而《德國民法典》以康德所創立的倫理人格主義哲學為基礎○1參見哈里·韋斯特曼:《德國民法基本概念》(第16版),哈爾姆·彼得·韋斯特曼修訂,張定軍、葛平亮、唐曉琳譯,北京:中國人民大學出版社,2013年,第2—3頁;漢斯·布洛克斯、沃爾夫·迪特里希·瓦爾克:《德國民法總論》(第33版),張艷譯,楊大可校,北京:中國人民大學出版社,2012年,第418頁;本德·呂特斯、阿斯特麗德·施塔德勒:《德國民法總論》(第18版),于罄淼、張姝譯,北京:法律出版社,2017年,第104—106頁。參見卡爾·拉倫茨:《德國民法通論》上冊,王曉曄等譯,北京:法律出版社,2013年,第45—47頁。,反對把人的理性系于自然法則之上,而主張它來自于人的內心意志。根據倫理人格主義哲學,理性不僅指人類認識可感知世界的事物及其規律性的能力,而且包括人類識別道德要求并根據道德要求處世行事的能力。至于人類如何具有這種能力?康德將意志自由作為實踐理性的公設,“人是可以不受感性世界擺布的,能夠按照靈明世界的規律,即自由的規律,來規定自己的意志的”。○12北京大學哲學系外國哲學史教研室編譯:《西方哲學原著選讀》下卷,北京:商務印書館,1982年,第319頁。意志是一種“合目的的行動的能力”。至此,倫理學上的人的概念建立起來:“人依其本質屬性,有能力在給定的各種可能性的范圍內,自主地和負責地決定他的存在和關系,為自己設定目標并對自己的行為加以限制。”自然人成為權利主體即“淵源于將倫理學上的人的概念移植到法律領域”。○13卡爾·拉倫茨:《德國民法通論》上冊,王曉曄等譯,第46—47頁。
如何“將倫理學上的人的概念移植到法律領域”?首先是康德將討論的重點由“自然人”轉向“主體”,強調“法律確定的人的作用”①漢斯·哈騰鮑爾:《民法上的人》,孫憲忠譯。龍衛球:《民法基礎與超越》,北京:北京大學出版社,2010年,第218頁。,這一視角之轉變使“人”的概念所承載的倫理屬性被剝離。之后,深受康德哲學影響的薩維尼所提出的“法律關系”學說深刻影響了《德國民法典》,法律關系是一種作為權利主體的人與人之間的關系,拉倫茨指出,《德國民法典》使用的“人”是“一個形式上的人的概念”,“這個形式上的‘人’的內涵,沒有他的基礎——倫理學上的‘人’那樣豐富”②卡爾·拉倫茨:《德國民法通論》上冊,王曉曄等譯,第57頁。,而是被抽象成“權利和義務的聯結點”的權利主體。換言之,“對法律上的人而言,起決定性作用的只是對法律關系的建立發揮作用的那個特性:權利能力”。③漢斯·哈騰鮑爾:《民法上的人》,孫憲忠譯。由此,權利能力是“人”成為法律主體的唯一條件,哲學上的倫理人格通過“權利能力”這一概念進入法律領域。但是,“權利能力的承認原因和取得依據我們不應忘記,人的倫理價值仍然是取得法律人格的條件,它構成了權利能力的基礎”。④曹險峰:《論德國民法中的人、人格與人格權——兼論我國民法典的應然立場》,《法制與社會發展》2006年第4期。權利能力源于實證法,因此,法律似乎可以賦予、限制或拒絕某個人的權利能力,但是,自然人均具有權利能力已然為法律所接受,其根本原因正是權利能力背后所承載的人的倫理性,具體表現為人所具有之理性及作為其前提的意志自由。
因此,一切自然人均為民法上的“人”,具有濃重的倫理色彩。從自然人需要具有特定身份方能成為民法上的“人”到自然人作為一種理性存在理所當然地成為民法上的“人”,是法律對于人的價值、尊嚴的承認與保護,是人格平等這一價值理念的偉大勝利。基于“人是理性的”預設,先驗的具有意志自由,可以自主設定目標、選擇行為、締結法律關系,這種“內在于作為種屬物的人的道德的自由及其意志證明人具有資格成為人格人”。⑤羅爾夫·克爾佩爾:《法律與歷史——論〈德國民法典〉的形成與變遷》,朱巖譯,第63頁。如此,似乎只有具有理性的人才是民法上的“人”。然而,任何人均是“有理性的生靈”,依其本質即為目的本身而非手段,當然應被作為法律主體對待。
如果意志自由是成為民法上的“人”之基礎要素,那么,法人為何亦為權利主體則面臨解釋困難,因為法人“無意志而僅僅是財產集合”。⑥參見李永軍:《民法上的人及其理性基礎》。關于法人為何成為權利主體,存在擬制說、受益人說、組織體人格說、目的財產說等不同觀點。對此,目前學者大多認為,上述學說爭論屬“無益之爭”,傾向于采納中性的表述:法人就其宗旨而言被視為歸屬載體⑦迪特爾·梅迪庫斯:《德國民法總論》,邵建東譯,北京:法律出版社,2001年,第823頁。,主要表現為法人作為權利主體,避免以其多數、單個成員為主體而導致法律關系的繁瑣與復雜,并且,法人財產獨立于其成員,產生了限制責任制度。⑧參見迪特爾·梅迪庫斯:《德國民法總論》,邵建東譯,第814—815頁。正如學者所言,“市民社會中的法人,首先在于經濟上的合理性而非哲學上的合理性,如果想從哲學上為法人的存在尋找依據是徒勞的”⑨李永軍:《民法上的人及其理性基礎》。,法人并不是“原始意義和倫理意義上的‘人’,而是形式化的‘權利主體’,僅僅意味著法律效果的承受者而已”。⑩朱慶育:《民法總論》,北京:北京大學出版社,2016年,第448頁。
因此,法人之所以成為民法上的“人”,主要基于現實需要,財產流通、風險隔離、責任劃分、法律關系穩定等為法人作為權利主體提供正當化說明。此亦表明,雖然法人的權利能力需要實在法規范和授予,但是,法人作為一種組織體獨立于實在法而客觀存在,正是這種組織體的出現引發了社會關系的變化,法律才不得不對其進行規范和調整,而承認法人獨立權利主體地位只是解決現實問題的途徑之一。“法人實體是法律認為需要做出主體承認的區別于自然人的另一類實體,這種個體(成員或財產)聯合人格化的深奧之處在于其‘體現出一種認真把某些組織體當成是有別于個人總和的一個目的統一體的一種法律需要’”。○1漢斯·哈騰鮑爾:《民法上的人》,孫憲忠譯。龍衛球:《民法基礎與超越》,北京:北京大學出版社,2010年,第218頁。換言之,先有這種組織體的現實存在,而后由法律賦予其主體資格。
然而,社會現實的組織體,并非意味著必然賦予其法律人格,法律世界的法人,與現實世界的團體現象差異巨大,畢竟法人只是一種法律構造。那么,法人如何獲得法律人格?人的概念的形式化,為法人成為法律主體鋪平了道路,“使法律制度可以將人的概念適用于一些形成物”。①卡爾·拉倫茨:《德國民法通論》上冊,王曉曄等譯,第57頁。換言之,法人與自然人成為法律上的“人”具有“實質上的相似性”,即都以權利能力作為判斷主體適格的標準。②參見曹險峰:《論德國民法中的人、人格與人格權——兼論我國民法典的應然立場》。借助權利能力的概念,法人得以進入民法并取得與自然人平等的主體資格。但是,權利能力之于法人的意義與自然人不同,自然人基于理性的預設自出生起即當然地具有權利能力,而對于法人而言,權利能力的獲得更多的是法律技術的產物。一個組織體符合法律所規定的法人成立條件而獲得法律承認后方具有權利能力,足見法律在其中的重要性。
人工智能可否為民法上的“人”,相對于自然人,關鍵在于人工智能是否具有理性以及自由意志;與法人相比較,主要問題則在于承認人工智能為法律主體是否具有現實需要。
在倫理人格主義哲學中,康德所謂的德性概念、道德法則“都完全先天地在理性中有其位置和起源”,“除非有人否定道德概念的真理性、否定它與某一可能對象的全部聯系,他就不得不承認,它的規律不僅對于人,而且一般地,對于一切有理性的東西都具有普遍的意義”。③康德:《道德形而上學原理》,苗力田譯,上海:上海人民出版社,2002年,第28—29頁。這里“有理性的東西”,不僅指人,還包括“上帝、天使及當時設想可能存在的外星人”,“人只是一般理性存在者中的一個特例”。④參見鄧曉芒:《康德〈道德形而上學奠基〉句讀》,北京:人民出版社,2012年,第287頁。可見,在康德看來,并非只有人類是理性存在。以此推之,如果人工智能具有理性,亦可具備倫理學上的人所具有的能力和特征。果若如此,人工智能是否亦可為法律主體?
對于人工智能是否具有理性的問題,有學者認為,人工智能“雖有一些自主判斷和自主選擇的能力”,但其“沒有自我意識,沒有自身目的,不可能成為自由自律的理性主體”。⑤劉洪華:《論人工智能的法律地位》。而有學者主張,應當根據“人工智能體發揮具體功能或完成特定任務的算法能否與設計者、生產者等發生分離”而區別對待,如果“人工智能體可以擺脫既有算法的束縛,能夠自主地發揮特定功能,完成某種動作或行為,那就可以說它具有某種程度的意志能力,法律便可以賦予其主體資格,或至少具有這種可能”。⑥彭誠信、陳吉棟:《論人工智能體法律人格的考量要素》,《當代法學》2019年第2期。還有學者認為,兼具自主性及學習性的智能機器人能夠具備與人類相當甚至超越人類的‘理性’,能夠理解并遵守人類社會的道德、法律等規則。⑦葉明、朱靜潔:《理性本位視野下智能機器人民事法律地位的認定》,《河北法學》2019年第6期。由此觀之,問題的關鍵在于人工智能的自主性與理性之間的關系,這種自主性是否即為人們所認知的理性。
如前所述,人工智能的自主性是一種技術上的實現,“技術意義上的‘自主性’”不能使人工智能具備“人類的意識、目的、意志、理性等根本要素”⑧馮玨:《自動駕駛汽車致損的民事侵權責任》,《中國法學》2018年第6期。,人工智能本質上區別于人類智能。但是,就如同法人尤其是財團法人與自然人的不同一樣,并不影響其在法律上同為主體對待。在此,應當跳出人工智能一定要像人一樣的思維定勢,即使人工智能不具有同人類一樣的理性,也不能就此否認人工智能具有理性之可能。應當更加強調理性能力,與人類智能運行機制的不同并不能說明人工智能不能達致一種理性主體的狀態或能力。從現階段的情況來看,人工智能的自主性仍是算法作用下執行相應規則的規律性行為,與人類自我意識支配下有目的之行為不同。但是,不排除的可能是:技術的發展使人工智能具有自我意識、自主目的、能夠真正獨立思考,或者基于人工智能“世界”之特殊性而建立類似的一整套運作機制,從而使人工智能的自主性與理性沒有區分的必要。有的學者即認為,“鑒于智能機器人自主意識方面的技術飛躍和它在商業活動及社會文化生活中越來越重要的角色,智能機器人擺脫人類的純粹工具地位而獲取主體身份,將是一個必然的趨勢”。①馬長山:《智能互聯網時代的法律變革》。
理性分為理論理性和實踐理性,即“認識世界的規律性的能力”和“根據道德律令的要求行為處世的能力”。②參見李中原:《康德的倫理哲學與近代民法上的個人主義》,《公民與法》2010年第6期。對于理論理性,有的學者認為“人工智能是技術理性的代表”,“將人類心智的活動‘無機化’,簡化成一系列的數據分析和運算”。③龍文懋:《人工智能法律主體地位的法哲學思考》,《法律科學(西北政法大學學報)》2018年第5期。從人工智能的發展現狀來看,可以肯定的是,人工智能已經具備一定的認知能力。例如,抖音等短視頻平臺,可以根據用戶以往觀看視頻的類型,通過數據分析和機器學習,自動向用戶推送其可能感興趣的視頻內容,在音樂類、購物類等軟件中均有類似技術的運用,這至少說明現階段人工智能已經可以基于接收的外部信息分析和學習用戶的使用習慣,并以此為基礎作出挑選合適內容并推送給用戶的行為,這其實就是認知外部世界的能力。當然,認知能力是否符合對于理性主體的要求則更為重要,現階段人工智能的認知能力是有限的,尚未達到作為理性存在的水平。盡管人工智能在某些方面表現出的能力已經超越人類,但在更普遍的領域人工智能僅表現為特定功能、運算能力的展示,其與理性的要求存在差距,同百度等搜索引擎超越人工搜索、掃地機器人代替人類做家務等并無本質區別。但這并不意味著人工智能不可能具備理性能力。強人工智能甚至超級人工智能目前來看雖然仍不具有現實性,但是,未來技術發展到何種程度非現在的人所能準確預見,可以完成人類能夠做的大多數活動的通用人工智能(general AI)④See The European Commission’s High-Level Expert Group on Artificial Intelligence,A Definition of AI:Main Capabilities and Scientific disciplines,p.6.或許已在路上。照此發展趨勢,越來越強的自主性至少說明人工智能具備認識可感知世界的事物及其規律性的能力。
與理論理性相比,實踐理性的問題更為復雜。人工智能是否可以識別道德要求并根據道德要求處世行事?不少科學家對于實現人工智能的理解能力和機器意識仍然滿懷信心,追求人工道德智能體的實現⑤參見溫德爾·瓦拉赫、科林·艾倫:《道德機器:如何讓機器人明辨是非》,王小紅等譯,第49—59頁。,人工智能在未來或許會具有道德意識、能夠明辨是非善惡、懂得規范行事。不過,人工智能的自主性之技術本質仍為重大障礙。康德指出,“(法律上的)人是指那些能夠以自己的意愿為某一行為的主體”,起決定作用的是“人能夠或者應該為其權利或者義務所抱有的善意或者惡意的心態,以及他對自己行為是有益還是有害的內心意思”。⑥漢斯·哈騰鮑爾:《民法上的人》,孫憲忠譯。作為技術產物的人工智能,是否能夠具備這種“意愿”確實存在疑問。有學者即認為,“智能機器無法理解和響應法律的行為要求、無法接受法律的調整”。⑦馮玨:《自動駕駛汽車致損的民事侵權責任》。在技術上讓人工智能如同人類成長過程所經歷的那樣自主學習道德準則、法律規范、價值標準從而形成自己的道德、規范意識,雖然在有些領域如自動駕駛等已在嘗試,但目前顯然尚不能給出完美答案。另一方面,人類也不能強行通過編寫算法為人工智能注入道德準則、法律規范、價值標準,否則即是對人工智能自主性的否定,因為在這種情況下人工智能的行為不過是人類意志的體現,沒有自主性的人工智能已違背了這項技術的初衷。雖然人工智能一定程度上確實體現了理性的特征,但“體現”并不等于具有。然而,暫且不論人工智能是否具有理性,人工智能的某些行為在人類看來是理性的,卻是不容否認的客觀現實,制造出“與真正的道德智能體不可區分的人工道德智能體”⑧溫德爾·瓦拉赫、科林·艾倫:《道德機器:如何讓機器人明辨是非》,王小紅等譯,第49頁。的可能仍是可期待的。
從目前來看,人工智能并非理性主體,未來的強人工智能甚至超級人工智能存在成為理性主體的可能。即便如此,也應該意識到,與人類作為理性主體不同,人工智能作為一種技術產物,并不具有人類成為法律主體時的倫理性考量。⑨“自主”的概念亦是如此,在倫理相關的意義上,“自主”只能歸于人類,人工智能的“自主”、自主系統用以描述最高程度的自動化和最大限度地不依賴于人類,并不涉及“自主”的原初意義所包含的人類尊嚴之倫理價值。Vgl.Europ?ische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien,Erkl?rung zu künstlicher Intelligenz,Robotik und autonomen Systemen,Brüssel,2018,S.10-11.人工智能的自主性所具有的技術性特征,為人類對人工智能的最終控制提供了可能。人工智能仍是人類設計、制造的,在這一環節人類仍然可以設法控制人工智能使之避免作出損害人類之事,所謂人工智能對人類生存的威脅不能處于失控狀態。
理性、自由意志等充滿先驗色彩,很難有清晰的描述和認識,即便人類是否具有理性及自由意志的問題,也并非毫無疑問。所以,人工智能是否具有理性的問題真的如此重要也值得反思。人工智能可以像人類那樣行為,是否足以改變社會關系而引發承認其為法律主體的現實需求?
與自然人不同,“法人制度的出現純粹是經濟發展的需求導致法律技術進步的結果,是一種經濟生活的客觀現實與法律技術運用相結合的產物”。①尹田:《論自然人的法律人格與權利能力》,《法制與社會發展》2002年第1期。因此,有學者認為,“倫理性并不是民事主體的必然要求”,“倫理性人格到經濟性人格的轉變為智能機器人的主體論鋪平道路”,智能機器人具有工具性人格。②參見許中緣:《論智能機器人的工具性人格》。有的學者指出,不能通過與法人的類比來論證人工智能法律人格的正當性,因為“法人只能借助于自然人才能從事民事活動”。③馮玨:《自動駕駛汽車致損的民事侵權責任》。誠然,在法律構造上,法人與人工智能存在差別,但是,法人被法律賦予主體地位,對于人工智能仍有說明意義,人工智能是否可為法律主體,并不要求與法人具有相同的法律構造。法人與人工智能的共同之處在于,作為自然人以外的實體獲得法律主體地位,并無自然人為法律主體時的倫理考量,而是基于現實需要通過法律技術進行構造。如前所述,人工智能的自主性隨著技術發展而逐漸增強,意味著人工智能可以不依賴于人類從事更多的行為,人工智能將擁有更強的認知能力且未來可能具有規范意識而能夠接受法律調整,這些都為人工智能廣泛介入法律生活提供了條件。對此,我們應當承認事實上參與法律關系對獲得法律主體資格的重要影響。例如,在人類歷史上,曾經只有家長有權代表家庭單位對外締結法律關系,家庭成員在家庭以外并無主體資格,但是,自然經濟的崩潰和商品經濟的發達,促使家庭成員與外部的人發生法律關系,就不得不承認其主體地位,以便此類法律關系能夠發生效力。④在雇傭契約上亦有類似體現。參見星野英一:《私法中的人——以民法財產法為中心》,王闖譯,第159—160頁。
根據現有人工智能技術及其發展趨勢,人工智能在自動駕駛、輔助醫療、投資顧問等領域大有作為,并且將會引發大量法律問題。在機器的創造性成果、意思表示、新的法律機構、自主化系統造成損害等方面,自主化系統給現有法律提出巨大挑戰。隨著技術發展進步,人工智能更加深入地介入我們的生活并非奢談。在可預見的將來,人工智能或許能夠獨立于人類預先設置的條件而自主地作出決定。隨著人工智能的發展,甚至實際的合同談判以及合同簽訂本身亦可能被軟件接管。⑤Vgl.Justin Grapentin,“Die Erosion der Vertragsgestaltungsmacht durch das Internet und den Einsatz Künstlicher Intelligenz,”S.183.屆時,法律行為中的表示越來越多地通過軟件實體發出和接收,機器與機器的表示可以決定合同的締結和撤回。⑥Vgl.Christiane Wendehorst,“Die Digitalisierung und das BGB,”NJW,2016,S.2609.在此情況下,人工智能作出的表示行為的法律效力如何是不能回避的問題。
技術的發展具有漸進性,人工智能的自主性亦是漸變的。人工智能區分為自動系統和自主系統。自動系統仍需人類的預先設置,人類的干預和控制相對確定,其引發的法律問題通過對現行法進行解釋,以便將自動系統的行為之法律效果歸屬于使用人尚可解決。但是,不同于自動系統作出的自動意思表示,自主系統作出意思表示不再根據事先準確定義或者至少概括的條件,相對于自動意思表示而應稱之為“自主的意思表示。⑦Vgl.David Paulus,“Die automatisierte Willenserkl?rung,”JuS,2019,S.965.當自主性到達特定程度時,就不再能夠確定地說,通過自主系統產生的表示行為是否源自系統的使用人以及是否可以歸責于使用人。如果人工智能的自主性達到可以完全脫離人類控制的程度,那么,通過對現行法的解釋適用能否解決屆時出現的法律問題則存在疑問。有的觀點認為,自主系統具備有限的部分權利能力,在作出自主的意思表示時應視為使用人的代理人。⑧Vgl.David Paulus,“Die automatisierte Willenserkl?rung,”S.965.有的觀點則認為,自主系統具有部分權利能力而可以類推適用關于未成年人的法律。⑨Vgl.Malte Grützmacher/J?rn Heckmann,“Autonome Systeme und KI-vom vollautomatisierten zum autonomen Vertragsschluss?-Die Grenzen der Willenserkl?rung,”CR,2019,S.559.當人工智能的自主性足以支持其獨立自主參與法律關系之時,法律必然需要賦予其特定的法律地位,人工智能的自主性決定了不能簡單將其作為客體對待,承認其主體地位或許成為現實需要。不管人工智能是否像人類一樣思考,并不妨礙人工智能可以像人類那樣在社會生活中為各種行為,甚至從外部行為來看那就是一個人,果若如此,我們也沒有理由絕對否定其成為法律主體的資格。
如果基于現實需要承認人工智能主體地位,那么,人工智能是否為自己行為獨立承擔責任?實際上也有學者認為,當下圍繞著強人工智能法律主體的構建,其主體性的本質是責任。需要為人工智能構建一種以責任承擔為基礎的特殊財產性法律主體。當人工智能因不可歸責于他人的行為造成損害或傷害時,需要承擔相應的民事或刑事責任。而為落實責任承擔,需要為人工智能建立特殊的財產制度。①鄭文革:《人工智能法律主體構建的責任路徑》,《中國應用法學》2022年第5期。要獨立承擔責任,人工智能必須具備自己的責任財產。對此,已有學者提出有意義的且可行的建議,例如,通過為人工智能強制投保責任保險、設立人工智能儲備基金為人工智能注入“第一桶金”。②彭誠信、陳吉棟:《論人工智能體法律人格的考量要素》。對有學者認為的人工智能沒有獨立財產,責任基金“只能來源于人的資產的分割與特定化”。③馮玨:《自動駕駛汽車致損的民事侵權責任》。本文以為,財產歸屬比財產來源更為重要,只要特定財產歸屬于人工智能,該財產是否來源于人類并不重要,法人不也是從自然人獲得責任財產的嗎?即使人工智能從人類獲得財產,亦不能成為否認其成為法律主體之可能的原因。由于人工智能自主性是漸進發展的,在人工智能自主性達到一定程度時,承認其具有部分權利能力而可以作為代理人是可行的,一方面人工智能的行為可以發生法律效力,另一方面通過代理規則將法律效果歸于其使用人承擔,在特定階段將是比較合理的方式。
人工智能的“人工”屬性決定了其必然異于人類智能,人工智能的自主性是一種技術上的實現。因此,否定人工智能具有理性,進而否定其可為法律主體,有其理論依據和邏輯基礎。但是,人工智能是否具有理性并沒有確定的答案,即使目前的弱人工智能不具有理性,未來強人工智能具有理性則是極有可能的。人工智能的理性排除了倫理色彩,主要指向人工智能的自主性。無論如何,人工智能可以作出在人類看來具有理性的行為,這些行為亦應接受道德和法律評價。另外,人工智能介入社會生活的事實不容否認,如果人工智能強大到能夠廣泛參與法律關系,那么,基于現實需要從承認其作為責任主體開始,逐漸承認其完整法律主體地位并非不可能,這與人工智能的自主性程度密切相關。當人工智能的自主性達到一定程度而成為自主系統時,承認其具有權利能力便具有合理性。