郭少飛
內容摘要:人工智能具有自主性、主動性,已非純受支配之客體,在法律上應設定為“電子人”。其依據在于:實踐中人工智能主體已有成例或官方建議;歷史上,自然人、動物或無生命體法律主體的演化表明,存在充足的法律主體制度空間容納“電子人”;法理上,現有法律主體根植之本體、能力與道德要素,“電子人”皆備。由外部視之,人工智能現有及潛在的經濟、社會、文化、倫理影響以及對哲學范式的沖擊,促使既有觀念、模式、體系開始轉換,“電子人”的法外基礎已然或正在生成并強化。
關鍵詞:人工智能電子人自主性法律主體
近些年人工智能(Artificial Intelligence,AI)飛速發展,在特定領域開始超越人類智能,尤其2016年阿爾法狗連續擊敗兩位世界圍棋大師,引發熱烈討論,人工智能話題彌漫整個社會。人工智能改變著人類文明進程,面對人工智能的超越及影響,學者分別從道德倫理、社會管理、風險防控、法律規制等不同角度展開研究。在法律領域,人工智能對現行法律制度提出諸多挑戰,如人工智能生成物的著作權保護、人工智能致害法律責任、人工智能締結合同的法律效力等。究其根本,在于人工智能法律地位是法律主體抑或客體。答案不同,則制度設計、立法樣態、法律效果迥異。面對人工智能的“奇點”,我國亦大力推進。2017年7月20日,國務院發布《關于新一代人工智能發展規劃》,要求“明確人工智能法律主體以及相關權利、義務和責任等”。為此,筆者主張以“電子人”作為人工智能法律主體的規范稱謂,并立足人工智能的現狀及未來圖景,以法律內外視角論證“電子人”法律主體性。
(一)人工智能時代的人機關系
探討人工智能法律地位,實乃厘定人類與人工智能之間的關系。人工智能旨在實現與人類智能相似的智能表現,一方面有賴于算法程序、技術方法,模擬人類;另一方面,須附著于機器裝置、系統等載體之上,表現智能。若把人類視為智能載體,人工智能與之相較,外形、材質差異是非實質的,關鍵在于智能水平。但對于智能是什么,爭論不休。馬文·明斯基認為,不可能發展出單一的智能概念。因為智能不是單一的概念建構。確切地說,智能是無數低層次操作的手冊。進言之,智能是一個隨時變化的概念。〔1 〕雖如此,依明斯基所言,人工智能是一門令機器做那些由人類需要做智慧的事情的科學。〔2 〕可見,人工智能以人類智能為標尺,由人類構造的機器、系統或其組合表現人類智能部分或全部特點與功能。
人工智能仰賴科學認知人類智能。當前腦科學、認知科學已大幅進步,但對人腦產生情感意識的功能機理、腦神經網絡結構仍缺乏深入了解,尚未全面掌握人腦智能機制,以至于人們對人類智能理解不一,導致人工智能模仿人類智能的進路分化,產生了不同的人工智能實現模式,如符號主義、聯結主義、行為主義、機制主義。人工智能試圖區分智能層級或類型模擬人腦,達到人類智能水平。按神經認知、心理認知、語言認知、思維認知、文化認知的層級,〔3 〕人工智能在文化認知之外的其他方面皆有進展,當前在存儲、計算、圍棋等單一領域人工智能遠超人類,但整體尚未達到人類智能水平。
根據與人類智能的位置關系和未來前景,人們預設了人工智能的水平狀態。約翰·塞爾區分了弱人工智能和強人工智能,前者指稱僅能作為研究輔助工具的人工智能,后者指經適當編程的電腦與人類心靈等同。〔4 〕亦有把弱人工智能之相對者稱為通用人工智能(Artificial General Intelligence, AGI),旨在區別轉向受限領域和具體問題解決方案的人工智能,相似的標簽如強人工智能、人類級人工智能。〔5 〕為實現強人工智能,類腦人工智能或神經擬態計算產生,被認為是由弱人工智能到強人工智能的主要進路。〔6 〕而這離不開大腦研究的深化。自2013年起,歐盟、美國推出人類大腦計劃(Human Brain Project, HBP),試圖繪制人腦回路圖譜,發現大腦信息處理原理。〔7 〕此舉對人工智能潛在影響巨大。在強人工智能之上,通過全腦仿真、生物認知、人腦-計算機交互界面、網絡及組織等,能夠實現“超級智能”,此類超級智能將全面超越人類智能,產生人腦替代效應。〔8 〕
從弱人工智能、強人工智能到超級智能,人機關系存在位差,可概括為兩種情形:智能機器外在于人體,作為獨立的存在體;智能機器嵌入人體,人類與智能機器融合。在第一種情形下,人類與智能機器皆為獨立存在,人機關系主要取決于機器智能水平。在弱人工智能時代,人工智能劣于人類智能,不具備人類的邏輯推理能力、聯想能力、創造力等,但不完全受人類支配,在既定程序與框架下具有一定的自主判斷能力、決策能力和行動力。在強人工智能條件下,人工智能乃人類級,此時如何待之,涉及社會經濟、道德倫理、人類安全、主體觀念等,頗為復雜。從人類角度而言,存在兩個向度:一是,人類之外另一種主體形式,系法律主體之一;二是,雖為獨立智能體,但受人類終極管控,不具有完全獨立之主體地位,甚至被視為客體。最后,若有超級智能,則屬人工智能的頂端,此時機器完全超越人類,不但是獨立主體,而且占據主導地位,甚至統治人類。鑒于當前人工智能距人類級尚有差距,遑論超級智能,故筆者不把超級智能納入論述場域。就第二種情形,機器連接或植入人體,人體融合各種仿生智能機器,已非單純肉體之身。從人體與機器交互方式看,有些外部機器如穿戴設備、外骨骼設備,無需植入人體,與人體連接或佩戴,人類身體機能修復增強。當下此類設備系輔助人類工具,屬客體范疇。隨著人機協同技術發展,人腦-機器對接普及,人體嵌入機器成為機器化人或半機器人,兼具生物智能與機器智能或機能。此時,人工智能與人腦發揮協同作用,人類智能經人工智能增強或整合,展現超強能力。在此形態下,植入人體之機器系人體一部分;人體之外的機器,視其智能水平、受人類控制程度等,作為客體、非完全獨立主體或獨立主體。
(二)“電子人”的概念厘定
弱人工智能不同于作為客體的傳統機械裝置,表現出相當大的自主性、主動性;強人工智能系人類級智能,猶如人類,絕非人類支配的客體。在人工智能時代,應確立新的法律主體類型“電子人”,以表征人工智能機器或系統。
在概念上,“人工智能機器”不具規范確定性。機器通常指由金屬或/和非金屬構成的裝置,這就排除了數字形態的人工智能系統,無法包容人工智能的多元載體形式。“人工智能”亦不適宜,因為它充滿歧義性,既可指智能類型,亦可指技術,或技術附著之載體。鑒于人工智能主體是法律上的人,且為與自然人、法人等主體名稱保持同構,應以“人”為中心語,修飾詞有人工、智能、機器、硅基、電子等。人工相對于自然,人工人與自然人對應似乎恰當,但若區分自然生殖與人工生殖,人工人包含人工生殖的自然人。況且,法人是人造人,具有強烈的人工屬性,故人工人不確鑿,范圍寬泛。智能不宜作為修飾語,因為智能指向人類,不適于單獨界定人工智能。機器人也不宜,因為并非所有的機器人皆具智能性,既無法專指智能機器,又不能指稱人工智能。硅基是在碳基之外的另一種生命基礎。構造人工智能的芯片、半導體以硅為基礎材料,人工智能可納入硅基范疇。而由硅制成的電子元器件才是人工智能的基本物質單元。硅基人是就材質而言,電子人源自基本單元和技術名稱,皆具可行性,但考慮到通用性、認可度,“電子人”更合適。
“電子人”指向人工智能,內涵界定需明確三個主詞:人工智能、電子、人。人工智能的語義前文已提及;“人”乃主體之義;關鍵是“電子”。根據《韋氏詞典》,〔9 〕“electronic”是:電子的或與電子有關的;與依據電子學方法或原則構造或工作的設備有關的,或適用這些設備;依靠或經由計算機實施;與音樂有關的電子方法;信息電子傳遞介質如電視,或與之相關的。聯合國國際貿易法委員會制訂的《電子商務示范法》第2條(a)規定,“數據電文”系指經由電子手段、光學手段或類似手段生成、儲存或傳遞的信息,這些手段包括但不限于電子數據交換(EDI)、電子郵件、電報、電傳或傳真。美國統一州法全國委員會1999年制訂的《統一電子交易法》(UETA)第2條第5款(s.2.5)規定,“電子”指與擁有電、數字、磁、無線、光、電磁或相似特性的技術有關的方法。可見,“電子”是基于與電、光、磁、數據有關的計算機技術、通信技術、網絡信息技術等所生之事物、方法。故此,“電子人”是擁有人類智能特征,具有自主性,以電子及電子化技術構建的機器設備或系統。
電子人不同于機器人。機器人定義眾多,美國機器人協會(RIA)把機器人界定為:一種用于搬運各種物品,經可編程序動作執行任務,具有編程能力的多功能操作機。國際標準組織(ISO)采納了該定義。我國國家標準《機器人與機器人裝備詞匯》(GB/T 12643-2013)2.6規定,機器人是具有兩個或兩個以上可編程的軸,以及一定程度的自主能力,可在其環境內運動以執行預期任務的執行機構,根據2.7規定,即機械結構。無論如何,機器人屬機械裝置,按智能性可分為智能機器人與非智能機器人。智能機器人是擁有智能特性的機械設備,是人工智能與機械裝置的結合體,在人工智能中占比非常高,以至于有時并不嚴格區分人工智能主體與機器人,〔10 〕但人工智能的形式化載體不限于機械,智能機器人僅系電子人的具體類型之一。
電子人異于電子代理人。UETA s2.6規定,電子代理人指全部或部分地獨立用于實施行為或回應電子記錄或履行,而無需個人檢視或行為介入的計算機程序或一種電子或自動方法。電子代理人用于自動交易,其主要特點是“在締結合同、履行合同或承擔交易義務的一般過程中,一方或雙方的行為或電子記錄不會被個人檢視”(s2.2)。《統一計算機信息交易法》(UCITA)述評23解釋道:“電子代理人指締結或履行合同的自動方法。代理人必須以與創立或履行合同有關的方式獨立實施行為。僅使用電話或電郵系統不屬于使用電子代理人。”電子代理人不是法律上與本人相對之代理人,而是一種交易方法或裝置。比如ATM機、股票自動交易系統,自動化是其最大特點,它只能按人類設置的既定程序、步驟運行,無自主性。此乃電子人與電子代理人的本質差異。
人工智能法律地位有客體說與主體說,前者如工具說,后者如代理說 〔11 〕、有限法律人格說 〔12 〕。筆者贊同主體說,認為應把人工智能確定為“電子人”,可從現實、歷史與理論三個層面論證。現實提供實踐支撐,歷史蘊含經驗依據,理論證成必要性、合理性。
(一)“電子人”主體的實踐基礎
目前各國未系統規定人工智能主體,但一些國家、政府組織承認或建議承認人工智能是“人”,此類實踐可為確證“電子人”法律主體提供實踐支撐。
1.日本之“戶籍”授予
帕羅是日本頗受歡迎的寵物機器人,全身毛茸茸,外形似海豹寶寶,能夠感知外界環境并進行反饋如眨眼、搖尾、發聲,常被用于老人陪護。2010年11月7日,帕羅獲得戶籍,戶口簿上的父親是發明人。這意味著日本政府一定程度上認可了智能機器人的主體地位。機器人已超越“財產”定位,獲得作為有感知力的存在體享有權利的法律地位。這種觀念,在日本之外、包括美國在內的地域,在人工智能和機器人領域正在形成發展。〔13 〕
2.美國之“駕駛員”決定
2016年2月4日,美國國家公路交通安全管理局(NHTSA)在給谷歌公司的回函中表示,根據美國聯邦法律,谷歌自動駕駛汽車中的自動駕駛系統可視為“駕駛員”。〔14 〕而此前,谷歌公司提出申請,要求美國國家公路交通安全管理局解釋美國聯邦機動車安全標準是否適用于自動駕駛汽車。
3.歐洲議會之“電子人”決議
2016年5月31日,歐洲議會法律事務委員會發布《關于機器人民事法律規則立法建議致歐盟委員會的報告草案》,2017年1月12日草案由該委員會表決通過成為決議(resolution);〔15 〕2017年2月16日,歐洲議會通過該決議。決議第59段建議,當對未來法律文件的影響進行評估時,應探索、分析并考慮所有可能的法律舉措的意蘊,其中舉措之一就是:從長期著眼為機器人創立特定的法律地位,以至于至少明確最精密的自主機器人擁有“電子人”地位,能夠承擔彌補其引發的損害的責任,并可能把“電子人格”適用于那些機器人自主決定或其他獨立于第三方交互的案件。
4.沙特之“公民”宣告
2017年10月25日,在“未來投資計劃”大會上,沙特政府授予“女性”機器人索菲亞公民身份,開歷史先河。索菲亞屬于對話式人工智能機器人,采用語音識別技術,能夠理解人類語言,與人類互動,識別人臉,模擬62種面部表情,但不能自由移動。
總之,雖然在全球范圍內確認人工智能主體的做法仍屬少數,甚至一些僅為建議,但全球三大經濟體對人工智能的基本態度、對授予人工智能主體地位的傾向性,以及沙特政府率先授予人工智能機器人國籍之舉措,對人工智能法律定位具有重要借鑒意義,確立“電子人”具有現實性。
(二)“電子人”主體的法史基礎
法律主體是一個歷時性概念,其意涵范疇在不同人類文明階段有所差異。生命體如人類、動物,無生命體如建筑、船舶、法人,在法律主體制度史上皆存在,確立“電子人”具有主體制度空間。
1.自然人法律主體的歷史演化
在人類社會早期,自然人(生物人)與法律主體之間隔閡頗深。《漢謨拉比法典》將巴比倫人分為上等自由民、無公民權的自由民及奴隸。上等自由民享有完全的法律權利,無公民權的自由民有部分法律權利,而奴隸非法律主體。羅馬法按照人的身份確定權利,生物人不一定具有法律人格,如奴隸在法律上通常是權利的客體“物”。古羅馬實行人格減等制度,原來具有法律人格者,因人格減等不再是法律主體,或僅享有部分法律權利。〔16 〕隨著人類文明發展,作為法律主體的自然人范圍不斷擴大。15、16世紀,自然人作為理性人,法律普遍肯認其法律主體,但區分社會身份,進行差異化法律規制。“人的私法地位是依其性別、其所屬的身份、職業團體、宗教的共同體等不同而有差異的;作為其一個側面,一個人若是不屬于一定身份便無法取得財產特別是像土地那樣的財產權利的情形是普遍存在的。” 〔17 〕近代以降,自然人與法律主體統合,自然人基本實現法律形式平等。但人格平等未完全落實,以女性為例,“遲至19世紀末,在許多西方國家,男性的法律權利基本上都已被很好地確立,但已婚婦女仍不能作為擁有法律權利的獨立個體而存在,而只能屈從于其丈夫的意志”。〔18 〕20世紀自然人法律人格的普遍化時代來臨,不論其理性能力,不論身份等外部因素,皆為法律主體,自然人的倫理意義、目的價值彰顯于法律。
2.動物法律主體的歷史經驗
近幾十年來,動物保護主義日益高漲,動物權利論支持者多,反對者眾。〔19 〕法學界針對智能動物如海豚、靈長類動物能否作為法律主體,爭議頗大。絕大多數國家承認動物獨特性,非物,視為物,系特殊客體,人類負有保護或人道對待的義務。但動物作為權利主體的地位沒有確立,以至于作為原告的訴訟主體資格普遍未獲認可。比如在美國,除了被告沒有提出動物原告資格異議的案件,其余動物訴訟案件均否定了動物作為原告的訴訟主體地位,對此,有法官在判決附帶意見中表達了異見。色拉俱樂部案的道格拉斯法官認為,應承認包括動物、河流、森林等自然物的訴訟主體資格,賦予其生存表達的權利。〔20 〕作為全球動物保護先進國,瑞士于1992年修憲正式承認動物是“存在體”或“類”。〔21 〕此前于1991年,瑞士蘇黎世州已立法規定受虐動物有權擁有律師。而動物作為義務主體、責任主體早已進入法律訴訟。從9世紀到19世紀,西歐有兩百多件記錄下來的對動物的審判案件,被放上被告席的動物多達數十種,如蒼蠅、蝗蟲、老鼠、豬、象鼻蟲、蝸牛、狼、黃鱔等。野生動物由宗教法庭管轄,家養動物則屬于世俗法庭。〔22 〕在審判中,法庭為動物指定辯護律師,保障其訴訟權利;在結果方面,有判令動物承擔刑事責任的,也考慮動物自然權利的。持續近千年的動物審判與宗教神學、政治權力密切相關,雖被認為荒誕不經,但其法律價值和歷史意義不容忽視,它蘊含著西方傳統法律主體觀念,歷史上的特殊法律主體由無生命的寺廟、宗教建筑延伸到動物,承認動物的義務主體性。
3.無生命體法律主體的歷史梳理
不同歷史時期皆有無生命體作為法律主體。古羅馬時期的寺廟、中世紀的宗教建筑被視為權利主體。古希臘法和普通法曾經甚至把物體如船只作為義務主體。歷史上曾發生過對物品的審判。〔23 〕2017年3月新西蘭旺格努伊河被新西蘭國會賦予法律人格,成為世界上第一條具有法人地位的河流。鮮為人知的是,2014年新西蘭國家公園Te Urewera已經獲準為法人。這些無生命體當然不具有任何的意識、情感、理性,不符合傳統法律主體要素,但因對于人類社會的重要意義,為更加周全地保護它們或附加義務于他人,法律視之為“人”,系旨在推動人類社會進步之法律擬制。無生命法律主體的著例乃法人。如公司法人,在構造上是自然人與財產的混合體,主體能力源于自然人,即使股東非自然人,亦可窮盡至自然人。根本上,法人系人造體,其主體地位實為制度創設之結果。
總之,建構法律主體須立足于特定歷史環境,受制于經濟發展程度、民族文化觀念、社會價值取向、政治權力意志等。歷史上法律主體類型多樣;自然人普遍作為法律主體,也有一個歷史進程。如此波瀾起伏的主體史說明:主體范圍處于不斷的擴張狀態中,主體的外延不再限于生物學意義上的“人”,物種差異不再視為獲取主體地位的法律障礙。〔24 〕即使不論消匿的主體類型,僅言當下,以自然人為構造基礎的法人等人造體、內在結構與人類無關的河流公園等自然體,皆可作為法律主體,亦有確立“電子人”的法律制度空間。
(三)“電子人”主體的本體分析
確證“電子人”主體,必須回答其與作為法律客體的傳統機器有何本質差異,使得法律無法以客體待之。而可否列入法律主體,取決于能否內嵌于法律主體制度,契合法律主體的基礎要素。
1.自主性:“電子人”主體的本質屬性
傳統機械設備完全受人類控制支配,即使馮諾依曼式計算機在外界刺激下有所反應,如點擊鼠標、輸入信息、作出反饋、輸出結果,貌似自主,實為人類預設程式的結果,機器無法修改提升,只能不斷重復。相較于此,人工智能最顯著的特點是自主性。自主是一種獨立狀態,是“一旦機器被啟動且至少在某些運行領域,在真實世界的環境中不受任何形式的外界控制而長時間運行的能力”,〔25 〕即不受外部控制、能夠自我決定并付諸行動。當前,人工智能已經能夠執行復雜任務,如駕駛汽車、構建投資組合,無需積極的人類控制或日常監管。〔26 〕而人工智能自主性產生了“預見性”問題。“人類受大腦認知的約束,當時間有限時,難以分析全部或大部分信息,因此人類常常會確定一個滿意的而非最優的方案。當代計算機的計算能力意味著,人工智能程序比人類能夠在給定的時間內搜索更多的可能性,從而使得人工智能系統可以分析潛在的人類未慮及、更少嘗試實施的方案。當可能性所在領域足夠集中,人工智能系統甚至能夠產生最優方案而非僅僅滿意的方案。甚至在更加復雜的環境下,人工智能系統的方案會偏離人類認知過程。” 〔27 〕
由“預見性”牽連出“控制”問題。隨著擁有超級計算能力的量子計算機應用、機器深度學習發展、人工神經網絡完善,人工智能能力更強,涉足領域更廣泛,執行的任務更復雜,輸出的方案會更加不可預見,不單超出普通民眾認知,甚至超越人工智能設計者、編程者等專業人士的預想。“學習型人工智能的設計者無法預見它被派入世界后如何行動,但另一方面,此一不可預見的行為是人工智能設計者意欲的,即使某一特定的行為并非如此。” 〔28 〕此外,在制造者與系統之間,晦澀的層級正在增加,更加復雜的方法取代了手動編碼程序;系統的運行規則在機器運行期間能被修改。〔29 〕不可預見性加劇,令約束、規制和監管的效果極有可能不佳,甚至無效,失控出現,致害即產生法律責任。而人工智能行為和決策的不透明性和不可解釋性導致很難查明損害原因,或成本上并不經濟,因為機器學習模型的內部決策邏輯并不總是可以被理解的,即使對于程序員也是如此。〔30 〕
以人工智能為客體,按現行歸責原則,“失控”風險必將由設計者、編程者、生產者等承擔。而此一風險主要源自人工智能的本質屬性,無法徹底消除,應當說是技術創新附帶的、需整個社會分擔的必要風險,故令部分人承擔全責,不合正義法則,必然妨礙技術創新。而人工智能擔責又對傳統歸責方式形成挑戰,“責任縫隙”產生。對此,歐洲議會決議AB段指出一個問題:普通的責任規則是否充分或者是否需要新的原則和規則以明確行為人的法律責任,該責任與以下情形下的機器人的行為與疏失相關:損害原因無法追及特定的人類行為人,以及引發損害的機器人的行為或疏失本來能夠避免。AC段談到,機器人的自主性提出按照現行法機器人的類別問題,或者是否應創設一個具有自己具體特征和內涵的新類別。綜合電子人建議,其傾向于設立新的法律主體類型。
2.規范性:“電子人”主體的制度屬性
任何法律主體有賴于法律的確認或創制,沒有法律規范就沒有規范性法律主體。法律規范賦予人工智能“電子人”主體地位,基礎在于厘清人工智能與法律主體要素的契合度。
談論法律主體要素,必須明確法律主體是什么。法律主體以自然人為標尺,開始僅自然人主體,后來團體的社會作用凸顯,法律創設“法人”,形成自然人與法人二元主體模式。在論證法人主體正當性時,基于自然人建構之法人系人的結構體乃常規理由。自然人的主體性延至法人順理成章。法人的意志、行為根源于自然人,法律把自然人的意志、行為歸屬于法人。法人的主體性脫不開自然人,是自然人的組織化形態。此外,歷史上寺廟等可作為主體,當下河流、公園等獲認為主體。這種以無生命體為法律主體的做法,法律事由不同,而其規范意旨、規范方式相同。寺廟、河流、公園等沒有自我意識,無行為及能力,無所謂承擔義務,賦予其主體地位旨在實現更周延的法律保護。此一單純權利主體的法律模式,突破了法律主體即權利主體兼義務主體的定位。法律主體的意義因本體差異應有不同詮釋,有時賦予主體地位,非為該主體,而是利他,如法人。從法律主體本體要素論,“電子人”雖為機械裝置或系統,卻可置于法律主體自生命體至無生命體的譜系之中。
在能力要素方面,自然人系法律主體是“因為只有個人才執掌著一種了解自己目的的自決意志。因此只有自覺和能支配自己行為的個人才是法律的主體”。〔31 〕自然人主體的理性人范式存在明顯漏洞,如植物人僅有本能神經反射和代謝能力,無主觀認識能力;嬰兒、精神錯亂者亦理性不足,但法律未將其排除。自然人法律主體地位與理性能力沒有必然聯系,基礎在于人的倫理價值。法人由意思機關或捐助人形成法人意志,執行機關或代表機關實施行為,法律后果由法人承擔,外形上是法人意志、法人能力、法人行為、法人責任,根本上是自然人作用的體現。法人規范性更突出,須符合法定標準及程序才能成為法律主體。河流、公園等主體,無主觀能力、行為能力及責任能力,只為實行充分法律保護而被賦予主體地位。“電子人”系金屬軀體、電子系統,能記憶、推理、擁有初步的自我意識與情感,具有一定的主觀能力,正邁向人類級,相較于現有法律主體,仍可納入法律主體能力框架。
在道德要素方面,自然人具有道德能力。道德能力是個體基于一定對錯觀念作出道德判斷并為這些行為負責的能力。多數哲學家認為,只有能夠推理和形成自利判斷的理性存在才能成為道德主體。〔32 〕自然人能夠區分善惡、好壞、對錯,依據個人道德意識和社會道德觀念作出選擇,踐行道德行為,并承擔道德責任,系道德主體。法人是不是道德主體,曾爭議巨大。當今,企業法人的道德責任與社會責任非常突出。〔33 〕法人作為道德主體主要是承擔道德義務與道德責任。河流、公園等主體,無道德能力,無力承擔道德責任,非道德主體。人工智能應符合基本道德標準,遵循機器倫理,在設計、編程、制造環節必須編入倫理代碼,防止危害道德倫理。那么,人工智能是人工道德主體嗎?否定論者認為,人工系統的行為規則及提供該規則的機制必須由人類提供,道德責任歸于創制人工智能系統和為系統編程的人。〔34 〕肯定論者主張,如果人工系統的行為在功能上與道德人難以區分,則人工系統可以在道德上負責。〔35 〕無論如何,答案與人工智能的類人度及能力密切相關。在實現人類級智能水平前,隨著自主性漸增,人工智能由被動遵守道德規范,到主動承擔道德義務,道德責任的類型、范圍、程度逐步擴展。同時,因趨向人類意識、思維、情感,人工智能更像“人”了,其由道德無涉者,演變為道德主體,享有免于傷害、不受虐待等道德權利。當前,“電子人”能力尚弱,作為道德主體主要是道德責任主體。
總之,尚無可適用于各類法律主體的單一要素或標準,在本體、能力及道德層面,“電子人”可為法律主體制度容納。“法律上的人并不是‘它的義務和權利之外的一個分立的本體,而不過是它們的人格化了的統一體,或者由于義務與權利就是法律規范,所以不過是一批法律規范的人格化了的統一體而已。” 〔36 〕“電子人”是基于法律存在的人格化人工智能系統或機械裝置。
法律主體制度反映時代特點與需求,隨時代變革而浮動。在人工智能時代,法律應以什么立場面對人工智能的崛起,“電子人”主體是否具備充足的時代性,需要從經濟、社會、文化、倫理、哲學等層面進行綜合考量。
(一)“電子人”主體的經濟分析
當下,人工智能在交通、教育、醫療、救災、農業等領域已經發揮作用,效率大大提升,成本顯著下降,社會安全水平提高。同時,人工智能可能帶來的社會風險令人擔憂,焦點在于風險可控程度、損害責任歸屬。風險控制可從人工智能設計、開發、編程、制造、使用、監管等多環節入手,但因人類理性有限、人工智能的不可預見性,風險無法完全消除。因此,如何合理分配風險、科學構建責任分擔機制成為人工智能發展面臨的重大問題。
大體上,責任主體涉及人工智能的設計開發者、編程者、生產者、銷售者、使用者。就使用者而言,若非可歸責于使用者的事由導致自身或第三人損害,一般追至生產者或銷售者。若銷售者無過錯,則由生產者等負責。在整個責任鏈條中,從使用者、銷售者到生產者、編程者、設計開發者,義務愈加高,責任愈加重。這符合交易成本理論。〔37 〕顯然,設計開發者、編程者、生產者更了解人工智能,信息成本、避險成本更低,風險控制能力更強,且系最大受益者,避險動機更強。因理性有限、認識的局限性及技術的階段性,人工智能的系統結構及軟件的初始缺陷或自主運行產生的“不可預見”“不可解釋”問題,是重要的致害風險源。以人工智能為客體,依據現行產品責任邏輯,上述主體面臨巨大的責任風險,勢必阻遏人工智能發展。人工智能風險是單個主體不可承受之重,基于衡平技術進步、社會發展與風險控制、社會安全的關系,應構建風險分散機制。首先是保險制度,可剝離部分風險,但因人工智能的不可預見性及技術更迭過快,保險標的、保險價值、保險費率、保險金額難以確定,保險制度對體量大且不確定的人工智能風險的分散作用恐怕有限。而“電子人”主體進路具有比較優勢,它與責任主體形成雙層主體結構,責任主體間接承擔“電子人”致害責任,責任主體責任限縮,能夠為人工智能發展提供激勵。
人工智能開始參與當代交易體系,成為其中一部分。從交易成本考量,以“電子人”構建交易制度、權利制度、責任制度,可以減少人工智能自主性帶來的交易不確定成本、信息成本、談判成本、約束成本,實現交易成本最低。比如,護理機器人發現物品短缺,自主下單訂購質好價高的生活用品,而被護理者認為價高不劃算。若把護理機器人視為客體,則購買行為后果完全由被護理者承擔,導致被護理者對機器的信任感、安全感下降,從而增加使用機器的信息成本、決策成本、監督成本;若為“電子人”,則可作為被護理者的代理人,依據代理規則處理,整個交易成本顯著下降。而且,在人工智能時代,“電子人”作為交易主體將是常態,其提升之交易效率、節約之交易成本,相較“電子人”行為嚴重背離正常交易模式或人類真實意愿而致交易行為無效或可撤銷造成的額外成本,要小得多。
(二)“電子人”主體的社會考量
人工智能開始廣泛應用于社會生活,人機交互、人機協同成為常態,人機融合、人機共生正在發生。人類在碳基生命之上附加機械,成為人機混合體。人工智能人化,能夠與人共享思維、意志,與人在精神層面交互,深度介入人類生活,在社會全域大規模留下足跡。“在機器的發明和技術的使用中重新定義自己”的同時,“人們會不自覺地把智能機器看成與人類似的實體,賦予智能機器某種擬主體性”。〔38 〕由此,社會不僅由人群構成,還有“電子人”,人類社會演化為人機混合社會;社會結構更加多層,包括“電子人”社會、人類社會,以及人類與“電子人”交互的人機社會;社會系統更為復雜,子系統及其相互關系紛繁蕪雜,社會發揮組織、整合、交流、調節功能更加仰賴規則體系。在人工智能時代,社會樣態、結構、系統、參與者發生著顛覆性變化。
在社會演化之下,家庭結構、功能發生重大改變。“電子人”尤其智能仿人機器人成為人類同伴,是同事、家庭助理甚至生活伴侶。當下,護理機器人、寵物機器人已走進家庭,其他智能機器人也在與家庭發生緊密聯系。“電子人”正成為家庭一員,并與人類家庭成員產生親密關系,更有甚者,人類與“電子人”共建家庭。當然,這是未來家庭結構與關系的展望,有些需長時間才能實現,但在人工智能助推下,人機組建的家庭將補充血緣、親緣,構成另一種家庭模式。在家庭功能方面,生育教育、撫養贍養、情感交流、休閑娛樂等不斷外化,被“電子人”接替,如護理機器人可以照看家人,從事家務勞動;教育機器人進行家庭教育;多功能機器人完成家庭基本功能。人類生、養、教、病、老、死等諸事務由“電子人”分擔甚至主導。“電子人”家庭地位上升,逐步取代人類家庭成員。此外,不排除“電子人”家庭的可能性。
在社會系統中,人類與“電子人”皆屬社會活動的參與者,生成人機關系、人際關系和“電子人”際關系。人機關系不同于人與動物關系。首先,人機交互性較人與動物的交互性更強,甚至會達到人際級,而即使智能動物也無法如“電子人”般嵌入社會體系和人類日常生活。其次,在與人類的關系結構中,“電子人”地位較動物高許多。一方面“電子人”的智能性逐步提升,大大超出動物,另一方面社會屬性及社會作用更加突出。最后,人機關系具有趨等性、變化性,隨著人工智能發展,“電子人”進化,與人類更加對等;而動物與人的關系取決于人類,動物完全處于被動境地。在人機關系影響下,人際關系呈現別樣特點:因不可預見性,經由“電子人”結成的人際關系具有不確定性;人際經由“電子人”溝通,人際關系受“電子人”引導,甚至取決于“電子人”,呈現受動性;社會活動中人類與“電子人”互動頻仍,人際借助“電子人”的情形劇增,甚至隱藏于“電子人”之后,人類社會交往的積極性下降,人際關系更加松散疏淡。可以說,在人機混合社會中,人類對“電子人”的依賴度上升,“電子人”對社會系統的運行、社會關系的塑造作用凸顯。
概言之,在宏觀的社會結構、社會關系,中觀的家庭結構、家庭關系,微觀的人機關系中,人工智能表現出強烈的非完全受支配的特性。在社會系統日趨復雜之際,在人工智能構成或深度參與社會子系統的情形下,作為“定義社會系統邊界以及選擇類型的結構”的法律,亦“具有為那些在社會內部形成的諸社會系統減輕負擔的功能”,〔39 〕應承認并確立“電子人”主體,有效回應社會主體多元、結構多層、關系多樣、系統有序運行的需求。
(三)“電子人”主體的文化基礎
文化源自社會生活,是社會生活要素形態的寫照,是生活過程、生活方式的反映。在人工智能時代,社會構成、交往方式、人際關系、價值觀念、行為規范漸變,植根于此的文化隨之變遷。人工智能時代,“電子人”的文化價值與意義凸顯。
2016年,萬博宣偉(Weber Shandwick)與領英(KRC Research)對五國(中國、美國、加拿大、英國、巴西)2100名消費者,以及150名三國(中國、美國、英國)年收入5億美元以上的公司首席營銷官(CMO)進行調查。調查報告顯示,人工智能已經進入普通大眾認知,92%的人認為人工智能可以實現。全球消費者認為人工智能會帶來很多益處,有64%的人表示擔憂,大部分擔憂(49%)是溫和的“有些擔憂”。〔40 〕人工智能進入社會生活,觸動著人類神經,人們對人工智能態度總體積極。人工智能的遠大前程、超人實力以及對人類的現實替代,引發憂懼實屬正常。在現實生活中,人工智能對人們生活方式、生活過程、生活狀態的影響漸起。人類由依賴經驗、常識、書本或專家轉向人工智能,行為觀察、規劃、決策、執行交由人工智能處理。人工智能成為人類得力助手,“滿足了人們自由全面發展所必需的物質需求,而且逐步把人從繁重的勞動中解放出來,普遍縮短了必要勞動時間”,“增加人的自由時間,促進人與社會的自由、全面發展”,〔41 〕人類將進入前所未有的自由閑散狀態。
在人機混合社會,具有主觀能力的“電子人”能夠觀察認知環境,作出價值判斷,開展社會活動,塑造“電子人”群體精神,形成自有文化,即“電子人文化”,在初始階段受人類文化的制約和影響,隨著動態進化,文化自主性逐步確立,并與人類文化交流融合,呈現全新的文化景象。實際上,人工智能已經直接參與文化活動。美國人工智能機器人創作頗具藝術性與美感的美術作品,已在畫廊、博物館展出;〔42 〕谷歌人工智能系統Deepdream的畫作已成功拍賣;機器新聞寫作在媒體行業廣泛運用,如騰訊的Dreamwriter。人工智能廣泛運用于文化產業,正在影響社會文化,并且隨著學習能力提升,作為文化產品的生產者、作為文化生活的塑造者,主體特征更加顯著。
在文化意義上,人工智能重塑人們的生活方式、生活進程,參與人們的精神生活,形構著新型社會文化。從遠期看,人工智能形成文化自覺,構建自主的“電子人”文化,與人類文化共生交融,推動社會文化的多元發展。無論器物層面,抑或精神活動,人工智能的影響力、沖擊力逐步顯現,其文化價值和意義凸顯,文化形態開始重大轉變。在文化系統中,人工智能逐步占據重要地位,為承認和確立“電子人”主體奠定了文化心理、文化觀念和文化制度基礎。
(四)“電子人”主體的倫理依據
倫理學對傳統機器沒有道德拷問,機器道德責任并非議題,根本原因在于傳統機器受人類控制,沒有主體能力,不是倫理關懷對象,由操控者負責即可。即使是自動化機器,其運行、進程完全依賴人類,本質上與非智能非自動機器無異。人工智能表現出自主性、理性能力,能夠在特定范疇內對輸出(決策、行為)負責。現有機器倫理規則或建議指向設計開發者、編程者、生產者等主體,較少論及人工智能的道德性。實際上,人工智能的道德責任或法律責任,皆需考量其責任主體性,是否承認其主體地位,在此意義上“電子人”法律主體問題與道德主體問題同源同構。
道德主體要素有不同見解。有學者表述為:自我意識;理解道德原則的能力;是否按義務行動的自由;理解具體義務原則;具有履行義務的條件或能力;行動意愿。其中,自我意識是最基本條件。〔43 〕有學者認為,包括判斷對錯的能力;思考道德規則的能力;依據思考作出決策的能力;具有行動意志和能力等。〔44 〕總體上,道德主體應有意識、意志自由,有理解力、思辨力、判斷力等理性能力,以及行動力等實踐能力。據此,嬰兒、植物人、智力低下者,沒有理性能力,非道德主體,而是道德關懷對象或道德受動者;一些智能動物如鯨魚、海豚,表現出一定的道德能力,可以歸入道德主體序列。那么,“電子人”是否具備道德主體要素?
意識、意志、理性頗為抽象,內涵不確定。判斷“電子人”是否具有此類精神要素時不宜過于具象,因為微觀視角視野有限,無法觀察對象整體,需要宏觀分析。由此,一方面可訴諸經驗法則,作出初步判斷;另一方面通過科學方法確定。普通的正常成年人依憑在社會生活中累積的經驗,根據“電子人”的行為及表現,觀察其精神狀態,判斷其智慧程度。至于“電子人”精神生成機制、是否意識到自己有意識,不那么重要,因為主觀活動必須由客觀行為表征。故電子人”與人類相對照,表現出意識、意志、理性、感知、想象,即可認為具有此類特性。例如無人駕駛汽車,根據路況,自主加減速,等待紅綠燈,避讓人、物,表現出認知、判斷、決策等理性能力和行動能力,猶如人類駕駛員。
人工智能試圖實現硅基智能,近年來開始具有自我意識且表現良好,人工智能獨立判斷和應對的失誤率明顯下降。未來具有高度自我意識、理性能力的人工智能亦會產生。“機器的自由化程度越高,就越需要道德標準”。〔45 〕當前,“電子人”的自我意識、理性能力尚弱,卻已初具人工道德能力,承認其道德主體地位應無大礙。以自動駕駛系統為例,當面臨“電車悖論”、優先保護乘客或行人的道德困境時,如何決策并采取避讓措施,需要遵循特定的倫理原則,如傷害最小。這有賴于算法,算法差異導致系統決策及結果不同,此時如何認定道德決策者、決策后果承擔者尤為重要。若認為系統道德決策只是人工智能開發設計者、編程者等主體道德決策的預設,道德決策后果應由他們承擔,最終會令其陷入無盡的責任旋渦中。實際上,算法設定的道德選擇模式,屬于“電子人”的組成部分,是其道德能力的一部分,“電子人”自生成之日起即獨立于他人,自主作出的道德決策應自負責任,除非存在可歸屬于開發設計者等主體的道德責任。總之,“電子人”的智能性、自主性是其道德主體性的基礎,至于特性附著之算法通常不影響其主體性。
(五)“電子人”主體的哲學基礎
人工智能模擬人類智能面臨身心關系、精神活動層級及相互關系、認知與環境或語境關系等一系列問題。解決這些問題需要從多學科探索。哲學有關自我、理性、意識、情感、智慧的認知,影響人工智能形式表達和工程實現的進路和方法。同時,人工智能推動著哲學發展,對哲學的概念、范疇、方法提出挑戰,尤其以生物人為主體范型的傳統主體哲學范式,在人工智能蓬勃發展之際,存在極大的反思空間。
首先,人工智能有生命、是人工生命體嗎?通常,生命指碳基生命,是碳水化合物的組合,存在生長、繁殖、進化等生命現象。在哲學視野內,人工智能不是有機生物體,不能歸入主體之列。但是,“一旦技術能發展成更明敏的東西,于是它就會像大腦一樣成為精神的更好載體”。〔46 〕人工智能具備諸多人類生命特征,尤其進化到相當復雜的程度,生命屬性特別是意識、認知、情感等精神特征更加凸顯。試想這些和人類一起工作生活的機器(以智能仿人機器人為著例),除去外形、材料等形式差異,猶如人類同伴,給人以深刻的生命體驗。生命“通過實在化能量流動,通過跨越復雜肉體的、文化的、技術的網絡系統的活力信息符碼來表現自身”,〔47 〕人工智能采用活力信息符碼展示出硅基生命狀態,應考慮納入廣義生命范疇。
主體-客體是哲學基本范式,兩者相對存在。客體不限于自然實在,還包括主體建構的人工物,它在完成構造之日即具有客觀性,烙刻著主體符號和意義,當主體消散,還原為客觀存在,但已非客體。人工智能由人類生成,系人工物,作為客觀的自在物已是真實存在,不需要“在主體中反映自身”,因其具有意識功能,能夠辨別自己與外在世界諸多實在的界限,建立起自我意識、主體意識,在實踐活動中參與對象生成。人工智能不再純受支配,也積極地形塑自然世界、人類社會,簡單地把人工智能納入客體范疇無效,二元或者多元主體進路可能性已展露。馬克思在認識主體之外,提出“價值主體”之維,認為“價值主體”表現為主體的“自由性”“目的性”和“責任性”。主體自由主要包括自由精神和自主活動;“目的性”,即主體系“目的主體”;“責任性”指主體對自身和社會歷史發展的風險和后果承擔應有責任。“價值主體”是要突出人不能被抽象權威和外在力量掩蓋的自由與獨立價值。〔48 〕價值主體思想深刻洞見了人的主體性基礎,符合人的主體性發展趨勢。
“電子人”是價值主體嗎?從“自由性”看,“電子人”初具自我意識、理性能力,享有一定精神自由,未來主觀能力更加突出;隨著人工智能、機器人技術發展,仿人機器人的移動性、行動力率先達到人類級,智能水平向人類靠近,精神自由度更高,整體若人類。在“目的性”上,“電子人”距人類級智能越近,作為目的主體的可能性越大。在當下弱人工智能時期,“電子人”目的性價值尚難完全確立。但如馬克思所言,目的主體本身是一個社會歷史范疇。當發展到一定階段,“電子人”作為類人硅基生命體深嵌于社會系統,與人類交互共生。在“責任性”方面,“電子人”責任程度與其主觀能力正相關,能力強則責任大,但法律責任制度尚未完全建立。整體而言,“電子人”作為價值主體的自由性相對突出,目的性較弱,責任性不明確。這是階段性問題。責任性需要制度創設,明晰財產權利、責任基礎。隨著技術進步,“電子人”亦將進化成熟,主體性更加飽滿。在補強之前,無礙于確認“電子人”價值主體地位,循此方能為其價值主體性構建成長空間。
總之,從法外立場考量“電子人”法律主體地位,既立足當下弱人工智能現狀,又基于“電子人”進階至強人工智能的未來圖景。以歷史動態的眼光審視其基礎,目前有的突出一些,有的稍遜一籌,但若置于人類社會發展的洪流之中,以更加宏大的視角看待人工智能,則更易承認接納其“電子人”主體地位。
人工智能時代,人機關系呈多種樣態,認定人工智能法律地位須綜合人工智能現狀與發展趨勢。人工智能作為“電子人”端倪初現,在全球范圍內已有成例或明確的主體建議。回溯過往,自然人法律主體的演化、動物及無生命體主體制度史表明,法律主體制度能夠容納“電子人”。人工智能的自主性導致不可預見及失控風險,以客體待之,勢必阻礙人工智能發展。就法律主體的本體、能力及道德要素而言,“電子人”皆有存在余地。從法外視角觀察,我們會驚覺于人工智能現有及潛在的經濟、社會、文化影響,以及對人類倫理、哲學范式的沖擊,在既有結構、模式轉換之時,“電子人”的諸多法外基礎已然或正在生成,并夯實強固。