詹 可
(西安交通大學法學院 西安 710049) (zhanyf0302@163.com)
隨著人工智能技術迅猛發展,產業火熱的同時也引發了人們對于安全問題的廣泛關注.2015年10月,DeepMind公司開發的1款名為“AlphaGo”的軟件第1次戰勝人類圍棋高手,隨后屢戰屢勝.人工智能通過深度學習,技能越來越高.2017年10月27日在沙特利雅得舉行的“未來投資計劃”(Future Investment Initiative)大會上,沙特授予了類人機器人索菲亞(Sophia)該國公民身份,索菲亞擁有沙特護照后會引發什么樣的事情我們難以估量.人工智能機器人的突然到來,對現行法律和倫理造成極大挑戰,定位人工智能與人類的關系成為十分棘手的問題.人工智能與自然人、法人的區別是什么?人工智能可否授予法律人格?如何應對人工智能帶來的社會風險?一系列新興問題構成了對傳統法學的深刻沖擊和挑戰,需要對此作進一步的探索.
自1955年約翰·麥卡錫*約翰·麥卡錫(John McCarthy),美國計算機科學家和認知科學家,斯坦福大學、麻省理工大學、達特茅斯學院和普林斯頓大學教授,2011年10月24日去世.等人首次提出“人工智能(artificial intelligence, AI)”以來,人類社會的技術層出不窮,發展日新月異.“人類在進入到21世紀的3個關鍵時點相繼進入了3個互相聯系又略有區別的新時代:網絡社會時代、大數據時代、人工智能時代,三者共同標志著人類新時代的3個側面,共同構成了新的社會時代[1].按照現在的科技發展速度,有理由相信在不遠的將來,工業智能制造、交通運輸、醫療、教育和其他服務行業等眾多領域將被人工智能接管,人工智能對于社會的影響是顛覆性的.
千百年來,不同年代的人們都在嘗試通過各種方法找出人與動物區別的本質,試圖回答人是什么的問題,并證明是哪些特質使我們成為“人”.宗教界認為“神”讓我們成為地球上占統治地位的獨特物種,而科學界仍在探索是什么把我們與生命之外的東西相區分.如今我們甚至連自己是什么,從哪里來得都沒有認識清楚,人工智能就已經到來.
當我們初次聽到人工智能這個名詞的時候,頭腦中往往是好萊塢電影中描繪的情景——人類被智能機器人霸主所奴役,面臨即將被滅絕的危險*在“終結者”系列電影中,一個被稱為天網的人工智能防御網絡變得具有自我意識,引發核災難,結束了地球上的生命.,但是對于具體什么是人工智能并不是十分清楚.人工智能是新興事物,涵蓋領域廣泛,還沒有統一的定義.1955年約翰·麥卡錫引入“人工智能”這一概念,并將其定義為制造智能機器的科學和工程,特別是智能計算機程序.盡管目前日常生活中,人工智能的運用已經越來越廣泛,既涵蓋了諸如下棋、翻譯、客服等具體任務,也涉及法律推理等基本任務,但要給出一個精準全面的概念是十分困難的.
以色列刑法學家Gabriel[2]將人工智能定義為:能夠借助計算機或其他設備(集成在家用設備、機器人、自動駕駛汽車等中的住宅管理系統)來模擬人的思維方式的軟件系統.伯克利分校計算機科學家Stuart和Peter[3]區分了人工智能概念的2個主要的方向:1)與思考過程和動機有關的認知體系; 2)與行為有關的行為系統.另一個美國麻省理工大學的溫斯頓教授認為:“人工智能就是研究如何使計算機去做過去只有人才能做的智能工作.”[4]《國際人工智能詞典》將人工智能定義為一個涉及迅速發展的技術并允許計算機以智能的方式行動的系統,比如人類[5].鐘義信教授[6]指出,人工智能就是指人類所制造的智能,也就是機器的智能.這些定義盡管說法不一,但是反映出了人工智能的基本內容和特征,即人工智能像人一樣都具有一定的思維,能自主決定自己的行為.
以上所有關于人工智能的定義都表明,人工智能與智力技能水平直接關聯,具有能夠獨立于開發人員或用戶的理解、學習和自主決策的能力.本文認為,所謂人工智能,是與人類或其他動物表現的自然智能(natural intelligence)相對的機器智能(machine intelligence),即任何能夠感知其所處環境,并根據環境變化自主作出反應的任何程序或設備系統.形象地說,當一臺機器能夠模擬出人類與人類之間相互聯系的“認知關系”時,就認為該機器應用了人工智能,比如“深度學習”、“思考并解決問題”.DeepMind公司的軟件“AlphaGo”戰勝圍棋大師李世乭,就是人工智能根據對手變化,自主決策并行動的很好例子.
到目前為止,人們普遍認為智力是生物存在的唯一特征,即智人[7].由于計算機系統的不斷改進,這種信念開始改變.智力,即認識、理解和思考的能力,不僅可能是先天的、自然的,也可以是人為創造的.人工智能涉及廣泛的領域,包括很多子領域,如:1)自然語言系統;2)機器學習;3)感官模擬;4)神經網絡;5)電腦游戲;6)專家系統;7)機器人技術[8].
哲學家們廣泛接受的觀點認為,人工智能的智力是歸屬于人類智能的所有技能和特性,也就是所謂的強智能;計算機程序也被認為是智能化的,也被稱為弱智能.想要證明計算機的智能水平,圖靈測試是很好的證明智力高低的方法*圖靈測試是通過問一個人和一個計算機同樣的問題來進行的.如果提問者不能分辨人和計算機給出的答案,機器就被認為已經通過了測試,被認為是人工智能,不管提問者是如何理解這些問題的..人工智能的開發人員做的工作是教計算機掌握人的智力,進而可以幫助其思考和理性做事.基于此,人工智能主要具有但不限于以下特征:
1)通過搜索解決問題.當人工智能解決問題時,人工智能的開發人員并沒有給出具體的算法來解決這個問題,而只是給出讓人工智能能夠識別解決方案的描述.
2)能夠獨自進行機器學習.人工智能能夠從數據中學習新的事實,而不需要明確的程序,并將已學習的知識適應新的情況.這可以通過一個有趣的例子幫助理解,新一代的AlphaGo Zero,完全從零開始,不需要任何歷史棋譜的指引,更不需要參考人類任何的先驗知識,完全靠自己一個人強化學習和參悟,以100∶0的成績戰勝了AlphaGo[9].
3)能夠“理解”自然語言.通過對人類語言的理解、加工和啟發來進行人機交互,教計算機理解人類學習和使用語言的方式.借助自然語言處理技術的幫助,可以實現人工智能與人類的實時對話.
4)擁有強大的人工神經網絡.人工神經網絡是一個復雜的自適應的系統,它可以根據外界環境變化、信息的流動等作出相應的反應和調整.
人工智能和人類智慧的主要區別在于其始于人工制造、合成的本質.人工智能導致新的社會創造物融入社會之中,借助互聯網、大數據的支持,人工智能還將快速“進化”和升級.因此,人工智能的智力水平會逐步提高,特征也可能發生新的變化.
人工智能可以對人的意識、思維的信息過程進行模擬.人工智能不是人的智能,但能像人那樣思考,也可能超過人的智能.為了更好地理解人工智能在現實中的意義,我們認為將人工智能的“智能水平”分為三大類:弱人工智能(artificial narrow intelligence, ANI)、強人工智能(artificial general intelligence, AGI)和超人工智能(artificial super intelligence, ASI).
1.3.1弱人工智能
弱人工智能是指專門用于某一特定領域的人工智能.比如1997年5月打敗世界象棋冠軍加里·卡斯帕羅夫(Gary Kasparov)的超級計算機“深藍”.盡管批評者認為,和大多數人工智能一樣,深藍的能力有限,其成功完全是由于其純粹的計算能力,而不是對象棋本身的深刻理解;但是其超強、超快的計算能力卻不容小覷.中國的“神威·太湖之光”計算機運行速度每秒超過10億億次,這樣的超級計算機可以在眨眼之間解決復雜的問題,但它們除了管理者給它們輸入的信息之外,不會產生任何先入為主的問題.從某種意義上說,弱人工智能的現實局限在于其預先確定的觀察數據的能力.
弱人工智能充斥在我們生活的周圍,它們以類似的方式工作.室內智能溫度計、流量監控軟件、自動電話應答服務、“微軟的小娜”、搜索引擎、網絡Cookie、在線廣告服務、數據挖掘、自動駕駛儀等,都不能開啟“思維”過程,不能提供超出其預定操作范圍的查詢.這是人類迄今為止所達到的人工智能水平.從某種意義上說,這代表了人工智能目前“純凈且無思維”的現狀.
弱人工智能的技術正在不斷提升,語音識別和處理讓計算機更精確地將聲音轉換成文字,例如,谷歌使用人工智能給YouTube上成千上萬的視頻添加字幕.計算機視覺技術也在不斷改進,Vitamin D Video視頻程序可以識別、分類物體,并了解它們是如何移動的.如今,像IBM、谷歌、微軟和亞馬遜等全球領先的高科技公司或互聯網巨頭,正在創造一個個人工智能設備,并投入大量資源用于電子神經技術網絡、認知計算算法和人工新皮質軟件等的研發和改進.通過這些技術和研究,科技公司希望創造出一種與人類編碼信息能力相當的人工智能.
1.3.2強人工智能
強人工智能代表“人類認知”的水平,可以執行人類所能完成的一切智力任務.人工智能將能夠解決各種不同領域的復雜問題,能夠自主支配自己的思想、情感、煩惱,優勢、弱點和傾向等[10].執行涉及復雜計算的任務,需要大量的精力、時間和獻身精神,對于強人工智能來說是非常簡單的.然而,對人類來說,看起來非常簡單的任務,如語音和圖像識別、運動、預期和感知對于強人工智能或其開發人員來說是非常困難的,主要是當外部條件隨機變化時,這些人工智能難以調整到預先確定的狀態.
強人工智能可以輕松地做幾乎所有需要“思考”的事情,但是還不能完成那些人們“不假思索”就能完成的事,這些行為對于其來說,還十分困難.世界領先的人工智能專家在探討人類什么時候能夠制造出強人工智能時,少數人認為本世紀或未來不可能,但是大多數專家認為將在2030年左右實現.從弱人工智能到強人工智能需要很長的距離要走,需要突破自然語言處理、深度學習和人工神經網絡的構建等一系列技術的突破.
1.3.3超人工智能
超人工智能指在包括科學創造力、一般智慧和社交能力等幾乎所有領域的人類最佳智力都要聰明的人工智能.超人工智能可以代替人類作為地球上的主導生命形式,足夠智能的機器可以比人類科學家更快地提高自己的能力,結果可能給人類的存在帶來一場災難.超人工智能對人類的生存可能存在著嚴重的威脅,令很多人擔心和恐懼,它們能夠為了實現自己的某些目的而將人類從地球上消滅[11].
瑞典哲學家尼克·博斯特羅姆將超人工智能分為3種主要形式:速度超級智能*速度超級智能,是一個由大量較小智能裝置組成的系統,使系統在許多非常普遍的領域的整體表現遠遠超過人們對任何現有的智能系統的認知.、集合超級智能和質量超級智能[12]*質量超級智能,這個智能系統至少和人類的思想一樣快,而且在質量上更加智能..根據英特爾聯合創始人戈登·摩爾(Gordon Moore)于1975年提出的“摩爾定律”(Moore’s Law),世界的最大計算能力每2年將翻1番,計算能力的提升,將帶動人工智能學習、思考、感知等多重能力的大幅提升.由于超人工智能比人類還“聰明”,因此第1個超人工智能一旦問世,則其數量將呈指數式爆炸增長,將給人類世界的生存環境和發展速度等帶來巨大的沖擊和挑戰.
阿里巴巴集團在創業之初,企業很難為自己的業務找到足夠的投資,也許只有幾位創始人能清楚地意識到自己的潛力.同樣,當投資者抱怨科學家在歷時15年項目的前7年只發掘出人類基因組的1%編碼時,我們的認知偏見幾乎阻止了人類基因組的繪制——認為這個過程的進展是線性的,將需要700年才能完成.然而,科學家們在7年后按時完成了這個項目,證明進展是指數式的.美國科羅拉多大學物理系榮譽教授艾伯特·巴特利特(Albert A. Barlett)博士曾說過,人類最大的缺點是我們無法理解指數函數.指數函數用于描述任何正在穩步增長的事物的大小,例如每年5%.根據其在題為“算術、人口和能源”的演講中的例子*實驗過程描述如下:細菌在空瓶子里穩定生長,它們的數量每分鐘會翻倍.現在想象一下,如果上午11:00把一個細菌放入空瓶中,則瓶子在上午12:00將變滿.那么瓶子是什么時候滿的?答案是上午11:59,因為細菌的數量每分鐘都在翻倍.如果你是這個瓶子里的一個普通細菌,你什么時候才會意識到你的空間已經不足了?讓我們看一下在最后5min里的瓶子是多么飽滿的數字.上午11:55,瓶中細菌僅占有3%.現在有多少人會認為在12:00之前的5min有問題?你根本不需要比這更多的算術水平.,細菌的增長呈現了爆炸式的局面[13].
與之類似,在第1個超人工智能誕生以后,其數量也將會呈指數式增長.然而,在歷史的發展中,人類幾乎從不認為在實際生活改變之前,生活會有實質性的改變.面對人工智能發展在不久的將來可能引發的劇變,人類應該引起足夠的重視和反思.在如今世界互聯網、大數據快速革新的時代,信息、數據爆炸式增長的態勢也說明了這種劇變的不可控性.
新物種誕生、舊物種滅絕是達爾文觀察到的進化現象,也是自然界亙古不變的循環,確保了自然界生命的連續.地球上存在的所有物種中,有超過90%都滅絕了,人類的命運也不例外,除非我們想出超越進化的方法.伊隆·馬斯克和斯蒂芬·霍金的恐懼、比爾·蓋茨的謹慎態度、庫茲威爾的樂觀態度以及博斯特羅姆關于未來的現實分析,可能會為人工智能描繪出一個存在的基本困境:人類是否會因為人工智能而滅絕或者會在人工智能的幫助下維持我們的存在.基于這樣的考慮,探求人工智能與人類的關系變得十分必要和迫切.
由于人工智能自身的技術特點,帶動了許多基礎領域的技術發展.從飛機自動駕駛、圍棋游戲、數學定理證明到語音識別、作詩繪畫、疾病診斷、無人駕駛汽車,從理解和邏輯推理分析到客服咨詢解答等,一系列行業、領域正被人工智能悄悄介入.盡管目前能夠自我修整并具備創造人工智能能力的超人工智能還沒有形成,但現有的初步具有強人工智能系統特征的機器人可能會對人造成傷害.人工智能的智力在快速提高、數量在逐步增加,這必然會引起侵權等民事責任問題.
美國的奧姆邦德羅·史蒂芬(Stephen M. Omohundro)教授對人工智能安全問題進行了廣泛的分析,他指出即使目前的人工智能僅能夠下棋,但其也是十分危險的[14].如果設計得不合理,人工智能在沒有任何特殊預防措施的情況下可能會反對自己的電源被斷開,并試圖打入其他網絡系統,以創建自己的備份.同樣值得注意的是,設計不當的人工智能可能會為了實現設計目標而試圖獲取資源而不考慮其他人的安全.
早在2002年,瑞典查爾姆斯理工大學的2位科學家Krister Wolff和Peter Nordin就設計了1款能夠學習飛行技術的有翼機器人;試驗中得出的結論——“如果你不知道如何規劃一個機器人飛行,那么就編程,這樣它就可以自己去做”[15].英格蘭麥格納科學中心的捕食者機器人Gaak,在無人照看的情況下,沿著墻壁上的縫隙爬出逃脫,并最終到達高速公路上.這個例子說明人工智能學習和適應環境的能力很強,而不需要人工智能開發人員的幫助[16].2016年3月,微軟人工智能聊天機器人Tay在上線不到24 h就被教壞,到處散布種族主義、性別歧視和攻擊同性戀的言論;同年6月,一個配備了人工智能的視頻游戲“Elite:Dangerous”出現了一些游戲制造者計劃之外的狀況:人工智能竟然造出了游戲設定之外的超級武器[17].
由于弱人工智能的影響還不是特別明顯,以下本文將主要就強人工智能和超人工智能展開探討.人工智能本身具有深度學習的特性并可以自主決策,而不同于過去簡單的根據指令行動的機器人(或弱人工智能),因而造成人類侵害等問題也在所難免,人工智能的民事責任成為不可忽視的問題.人工智能可以獨立于開發人員的意愿作出決定,前面Gaak機器人從麥格納科學中心逃脫,是機器人如何通過獨立決策造成交通事故,進而造成他人損害的一個很好的例子.設計不當的人工智能可能試圖在不考慮他人安全的情況下獲取資源,以實現其自己的目標,這將很可能給人類安全帶來風險,使得對于人工智能安全問題的研究具有深刻的現實意義,畢竟現在技術快速發展而配套的制度尚未形成,人類必須主動出擊,才能避免將來可能發生的人工智能對人類的統治.
在法律上,對于一個人自由意志的限制與對其權利的限制息息相關,而且只有在法律規定的情況下才被允許(這通常與禁止干涉他人的權利有關).隨著人工智能逐步進入人類生活的各個領域,并能夠作出自主決定,人工智能獨立作出的決策影響人類(或其他生物)的自由意志或生活方式的情況,無疑將很快涌現.當面臨這種情況時,如何控制人工智能系統,使它們在積極的社會活動中不會干擾他人的權利,即使是出于善意的驅使;在人工智能造成損害時,如何確保這些損害得到彌補或賠償等問題,值得人類深入思考.
如果認為人工智能是一個法律主體,則其本身無法彌補對他人造成的損害,那么就必須依賴其他法律主體對該損害負責.根據侵權損害賠償的原則,由侵權者本人或侵權行為負責人承擔賠償的后果.目前,有些人可能認為,重新編程或關閉系統就好了;也有人可能認為讓人工智能的開發人員、生產者、運營者承擔責任可以解決現有的問題.
然而,情況并非如此簡單.關閉或重新對一個人工智能系統編程,只是一個臨時的解決方案,只對原始的人工智能才有效.每一個人工智能在面世以后就是獨一無二的,因為它們能夠學習、積累經驗并作出自主(或非自主的)決定.所以將人工智能重新編程后,該人工智能可能作出與重編程之前完全相同的決定.
人工智能可以自己學習、思考積累經驗,依據自己獨立的意志作決策并行動,而這一系列行為都是脫離開發者、生產者、運營者的.貿易法委員會秘書處關于《聯合國國際合同中使用電子通信的公約》第12條的解釋性說明指出了一項一般性原則,即用計算機編程的人(不論是自然人還是法人)最終應負責機器產生的任何信息[18].但是,第12條本身涵蓋了電子代理系統自動生成的消息,而不是自主電子系統.此外,如果自動系統的錯誤很容易識別,并且這種錯誤發生的負責人也很容易識別,人工智能的自主系統就不是這樣了.這樣的系統作出獨立的決策,使得很難確定系統的不當決策與開發人員、操作者或生產者的行為之間有因果聯系.因此,使人工智能系統的開發人員、運營者或用戶對這些系統獨立決策的結果承擔責任,可能存在著不公平,實際的責任承擔要比看上去的復雜得多.
就目前我國的法律來看,尚無關于人工智能等智能設備致人損害的規定,更沒有對其法律人格的認定,因此,人工智能目前只能稱為法律上的物品.從產品責任的角度來看,根據現行侵權責任法第42條、產品質量法第31條等的相關規定,因產品缺陷致人損害的,責任由生產者或銷售者承擔.然而,如果人工智能是基于自主決策而采取行動,因此造成他人損害的責任也由生產者或銷售者承擔,這樣的規定無疑加重了生產者、銷售者的責任.
與此同時需要注意的是,根據上述討論,人工智能的任何自主決策與行動而引發的責任問題,都可能被轉移給其生產者,最終轉移給責任鏈的最后一環——程序員, 這種情況下,將導致程序員承擔的責任與其享有的權利失衡.過度的法律責任可能導致程序員的恐懼,進而阻礙市場上的技術進步與發展.即使我們這種假設是不存在的,但顯然在人工智能存在的情況下,應用產品責任模型將比普通產品責任更難.
如果社會上承認人工智能是一個自治的主體,則需要在法律制度中加以體現.例如,在一個信托投資關系中,信托財產權利人明確地想獲得投資基金利潤的最大化,他可以使用人工智能作重要的投資決策.人工智能可以更好地分析,并提供比人類更可靠的結論,同時可以防止代理人濫用代理權.代理制度被現代社會所普遍接受,代理人具有獨立的法律地位,那么人工智能是否可以被賦予代理人類似的地位呢?人工智能具有與現行被授予法律人格的主體相同的特征,人工智能可以自主學習、記憶、積累經驗,并作復雜的運籌、決策和行動,它們完全可以從事一般的代理行為.然而,目前的國內外法律中僅有沙特宣布授予人工智能機器人索菲亞公民身份,人工智能可能造成的損害賠償問題該如何解決,尚不明確.
認可人工智能的法律人格,使其成為社會中的主體,也可以對其他主體的權益進行有效保護.合同關系中的當事人必須是公認的法律主體,并能夠表達各自的自由意志.2個獨立的人工智能之間如果進行交易,即使交易符合法律的規定,被認為是有效的,也是不完整的,因為這種交易的權利義務關系不能與監督這些人工智能的主體(自然人或法人)相分離.如果幾個獨立的人工智能系統進入交易,且不可能確定其行為的負責人,這將導致出現有效交易,但沒有行使權利和履行義務的法律主體的情況.如果由幾個相互作用的人工智能系統簽訂的協議激活了與此類交易有關的另一個人工智能系統*比如,甲與乙已經就某項事務達成協議,且不允許丙的參與,如果乙再與丙簽訂協議,將可能對甲構成違約.,其操作結果可能給第三方主體的權利和義務帶來變動.認可人工智能的法律人格,將可以明確其獨立的權利義務關系,避免因人工智能的決斷而給其他主體帶來損失.
賦予人工智能法律人格將允許將人工智能與生產者、經營者、開發人員等主體相分離.法律人格意味著人工智能可以被視為與創造人工智能的人類是不同的東西,可以賦予其類似于法人的人格地位.人工智能與人類的人格分離不會干擾技術進步,也不會使技術與人之間的法律關系(解釋和應用)變得復雜.
在分析法律主體的特征時,可以從以下3個角度考慮:1)以實體的形而上學性質為角度,就法律主體而言,需要注重理性和自主性.在這樣的標準下,“非人類”和一般客體都被排除在外,昏迷者、兒童和智力障礙者也將被剝奪法律主體地位.2)從結果的角度考察,需要考慮某一實體有權利、義務的后果是什么.在此標準下,胎兒、幼兒、植物人等將不被視為法律主體.3)基于條件的方法論視角,分析法律規定的某實體具有法律人格的條件.這種法律主體性(人格)是法律體系建立的共同標準:賦予某些人或實體一定的權利和義務.例如,即使從哲學的角度來看,人與公司的人格本質上是不同的,但從法律的角度來看,它們都被視為法律主體.
根據傳統觀念,法律主體是指享有一定權利并承擔一定義務的人或實體.如果法律給一個實體賦予法定權利,將該實體作為法律主體看起來是符合邏輯的,從而要求其履行法定義務.實體通常被視為具有自由意志和法律義務的法律主體.但是,這樣的法律主體定義有其局限性.例如,沒有哲學上人格的公司(法人)的意愿是通過其授權代表表達的,因為法人(公司)本身不能表達意志.
對于未成年人、智力障礙者等,不能以法律方式表達自由意志,盡管其被視為具有權利和義務的法律主體,根據上述例子,特別是法人的例子,可以說,人工智能雖然沒有哲學上的個性,也沒有以自然人通常的方式表達自己意志的能力,但可以被授予法律主體地位,作為人為的法律主體.
現代大陸法系民法和普通法,傳統承認2種法律主體:自然人和法人.根據漢斯·凱爾森(Hans Kelsen)的觀點,將一個自然人等同于人類的生物地位是錯誤的,因為一個自然人僅僅是一個賦予了法律權利和行為義務的法律規范的個人化.簡·奧斯汀(J.Austin)認為,自然人是一個有權利和義務的人,是一個生物存在物的等價物.現存的沖突清楚地表明,盡管存在著悠久的法律傳統,但作為法律主體和自然人的同一性仍然引起了法律哲學家們的討論.
除了自然人作為法律主體之外,還有另一類法律擬制的有限責任能力的實體——法人.這意味著,非自然人不享有給予自然人的所有權利,無法履行先前提到的權利所承擔的所有義務.由于法人越權原則的限制,使得他們的行為不能與公司章程的規定沖突.討論人工智能是否因其非生物性質而不能被視為自然人,而可以被視為法律的主體,分析人工智能的法律人格很重要.關于非自然人的法律主體概念,有特許經營說、擬制說、象征說和實在說4種理論學說提供了明確的定義.其中實在說很好地解釋了人為創造的法律實體的性質.根據這一理論,法律實體既不是象征性的,也不是擬制的,而是客觀真實的實體.法律實體被人為創造的事實,并不能否定它們存在和真實的事實.例如,契約是人造物,但它們不是虛構的,而是真實的.
實在說認為,盡管法律實體是被人為創造的,但其是存在而且是真實的.根據這個理論,人工智能也是如此:盡管它們是人為創造的,但這并不否定它們存在而且是真實的事實.總而言之,一個實體要有資格成為法律主體,就必須滿足法律人格的條件.在這種情況下,影響授予法人資格可能性的權利能力和行為能力是很重要的.權利能力,即法人和自然人享有權利和承擔義務的資格,在法律中有明確規定.行為能力是法律主體行使權力、承擔義務的能力,一旦確定了法律主體性的要素,分析人工智能的屬性就相當于分析法律人格的要素.
一個實體獲得權利的能力是確定其法律主體的特征之一,但是,僅以實體的權利能力為標準,就會過度擴大或縮小法律主體的范圍,因為這種條件下,所有能夠感覺到的生物體將被視為法律主體,而其他無生命的實體將被排除.參與法律關系的“人”就是法律主體.一個自然人或法人有資格要成為法律關系的主體,必須具備由2個要素構成的某些特征:1)權利能力;2)行動能力.在這種情況下,會產生一個自然的問題:是否有可能將上述法律人格要素,即法律能力和行動能力應用于人工智能系統.
權利能力是法律主體范疇的一部分,是一種基于法律而非獨立獲得的法律地位.在羅馬法中,權利能力被用來界定個人作為法律主體(公民)的法律地位.法哲學教授Alfonsas Vai?vila將權利能力定義為獲得主觀權利和承擔法律賦予的義務的能力,權利能力是每個個體永久而完整的民事狀態;禁止法律歧視,是獲得和保留權利能力的前提.聯合國人權事務高級專員將權利能力界定為,在沒有第三方的協助下,通過自己的行為行使權利和承擔義務的能力.這一概念在邏輯上預設了作為權利和義務的潛在持有者的能力(靜態要素),并要求有能力行使這些權利,并承擔創造、變更或消滅法律關系的義務(動態元素).在大陸法系國家民法典中,消極民事能力的概念被理解為獲得民事權利承擔民事義務的能力,適用于所有自然人.而法人的權利能力是指私法人取得和享有任何公民(自然人的性別、年齡和血緣等條件除外)權利和義務的能力[19].
行為能力是法律主體行使特定權利或承擔法律地位賦予的義務的能力,即采取行動做某件事的能力.例如,3歲的小孩具有未成年人的法律地位和相關權利,但孩子不能行使權利,也不需要履行義務.聯合國人權事務高級專員會議確定的行為能力的特征時強調:采取行動的能力需要受制于最低年齡、理解自己行為的意義及其后果的能力等要求.行為能力的作出,要求主體必須達到法定年齡,具有充分的獨立性并理解其行為的后果.
然而,法人的行為能力往往取決于其他標準,而不同于自然人的標準,例如,法人的行為能力不能用年齡標準加以限制.法人的權利能力是因其行為能力而產生的,因此,法人通常避免用“行為能力”一詞,有時被替換為主觀性,其中包括權利能力和行動能力的概念.法人的法定身份自登記之日起產生;在該公司成立之日起,就不需要這種能力.法人具有主觀性的一個重要因素是,它們本身不能享有權利能力和行動能力所賦予的權利,只能通過其授權代表行使其權利并履行其義務.
由于人工智能擁有學習、記憶、自主決策等技能,具有典型的行為能力的特征,能夠行使特定的權利,履行法律所規定的義務并明確其行為的后果.人工智能可能會先于其授權代表的意愿,評估潛在后果,而不親自行使權利,履行義務.
法人的法律主體性比具有行為能力的自然人(生物)的法律主體要窄,因為它們沒有自然人的人格,不能行使與自然人性別、年齡和血緣等特征相關的公民權利,也不能履行相關公民義務.由于人工智能(基于計算機算法的操作)的特殊性質,它們各自的權利和義務的范圍不一定與其他法律主體的權利和義務的范圍相同.同樣,對法人來說,這種制度僅僅是其他人(例如法定代表人、員工等)活動的結果.因此,人工智能只能通過立法來嚴格地界定其權利和義務.這些權利和義務的界定將促進基于人工智能和其他法律領域的技術之間現有的和未來的關系規制.賦予人工智能法定人格,可以明確其權利和義務的范圍,并對其進行登記或引入認證證書等技術,限制其自身對可識別特征的改變,以便其每一次行動都可以識別和監控.
人工智能是一種新興的技術,涉及的范圍也十分廣泛,不同的人與不同的行業也會有不同的認識和定義.如今,像Siri語音識別、Google自動駕駛、機器人看護等人工智能產品已經或正在走入人類的生活.隨著使用頻率的增多,對人類造成侵害的可能性在增大,因為這些人工智能不僅僅是客體對象,受人類控制或影響,它們也能通過自己的意志決策和行動,具有法律主體的特征.然而迄今為止,沒有法律制度承認其法律主體的地位.
人工智能系統能夠獨立作出決定,并隨時介入到人類的生活中.毫無疑問,在人工智能作出決定和采取適當行動時,將影響人類的自由意志和生活方式.因此需要賦予人工智能以法律人格.當它們在社會中積極行動時,如果造成了損害,即使它們的行為是出于善意,也必須被限制或阻止,以防止對其他主體的權利造成干涉.
由于人工智能與其他法律主體間可能發生一定的法律關系,對雙方權利義務的有效保護需要明確人工智能的法律地位.根據現行法律,人工智能只被視為法律關系客體對象,人工智能造成損害的賠償責任問題尚不明朗.人工智能具有學習、記憶、積累經驗、自主運籌、決策、行動等等眾多特點,滿足代理制度的一般要求,在現行法律制度對其主體地位尚未認可的現狀下,可以嘗試通過代理制度逐步將人工智能引入,再逐步構建人工智能法律主體的完整框架,不失為一種有用的方法.由于人工智能產生的特殊性,如果被認定為法律主體,其權利義務范圍與其他法律主體的權利義務范圍不一定相同.因此,人工智能只能由立法者嚴格界定其權利和義務范圍,而這些權利和義務的設定,將有利于促進人工智能和其他法律主體之間現有的和未來的關系的解決.
[1]何哲. 通向人工智能時代——兼論美國人工智能戰略方向及對中國人工智能戰略的借鑒[J]. 電子政務, 2016, 168(12): 2-10
[2]Gabriel H. The criminal liability of artificial intelligence entities-from science fiction to legal social control[J]. Akron Intellectual Property Journal, 2010, 4(2): 171-175
[3]Stuart J R, Peter N. Artificial Intelligence: A Modern Approach[M]. 3rd ed. Upper Saddle River, NJ: Pearson Education, Inc, 2009: 4-5
[4]林夕. 人工智能時代下的教育遐想[J]. 教育實踐與研究, 2017, 21: 1-1
[5]William J R. The International Dictionary of Artificial Intelligence[M]. London: Fitzroy Dearborn Publishers, 1999
[6]鐘義信. 人工智能: 概念·方法·機遇[J]. 科學通報, 2017, 62(22): 2473-2479
[7]Stuart J R, Peter N. Artificial Intelligence: A Modern Approach[M]. 3rd ed. Upper Saddle River, NJ: Pearson Education, Inc, 2009: 3
[8]John M C. What Is Artificial Intelligence?[EBOL]. Stanford University, Computer Science Department.(2007-11-12)[2017-12-02]. http:www-formal.stanford.edujmcwhatisaiwhatisai.html
[9]虎嗅APP. 柯潔這次輸給了人類,卻贏了圍棋AI [EBOL]. (2017-11-18) [2017-12-03]. http:www.sohu.coma205162030_115207?_f=index_chan30news_8
[10]Goertzel B, Pennachin C. Contemporary approaches to artificial general intelligence[M]Artificial General Intelligence. Berlin: Springer, 2007: 1-28
[11]Yudkowsky E, Salamon A, Shulman C. Reducing long-term catastrophic risks from artificial intelligence[JOL]. Machine Intelligence Research Institute, [2017-11-28]. https:intelligence.orgfilesReducingRisks.pdf
[12]Bostrom N. Superintelligence:Paths, Dangers, Strategies[M]. Oxford: Oxford University Press, 2014
[13]Albert A B. Arithmetic, Population and energy—A talk by Al bartlett[EBOL]. [2017-11-29]. http:www.albartlett.orgpresentationsarithmetic_population_energy.html
[14]Stephen M O. The basic AI drives-self-aware systems[C]Proc of the 2008 Conf on Artificial General Intelligence. Amsterdam: IOS Press, 2008: 483-492
[15]Lakshmi Sandhanaz Science. A theory of evolution, for robots[EBOL]. (2002-09-05)[2017-11-29]. https:www.wired.com200209a-theory-of-evolution-for-robots?currentPage=all
[16]Martin W. Robot fails to find a place in the sun[EBOL]. (2002-06-20) [2017-11-29]. https:www.theguardian.comuk2002jun20engineering.highereducation
[17]劉子榆. 2016年人工智能的10大失敗案例[EBOL]. (2016-12-29)[2017-11-29]. http:www.elecfans.comrengongzhineng465139.html
[18]Pagallo U. The Laws of Robots Crimes, Contracts, and Torts[M]. Heidelberg: Springer, 2013

詹可
碩士研究生,主要研究方向為信息安全法.
zhanyf0302@163.com