張 清,張 蓉
近年來,人工智能機器人研發、部署、安裝與使用的運動式發展,在引發全球討論的同時,也鼓勵著政府監管和法律責任的創新。例如,無人機在成為大眾消遣工具的同時還在反恐戰爭中發揮著重要作用;自動化智能機器可以取代工廠中的體力勞動者,由此帶來了勞動力市場的革命;人形機器人在學校協助教導學生、在日托機構中照顧老年人;輔助機器人技術廣泛應用在醫療領域,不管是在鑒別診斷還是對自閉癥患者的心理治療抑或在復雜的外科手術中,都能發現智能機器人的身影。機器人在家庭、工作、社會公共層面的廣泛存在,不僅帶給人類新的機會與挑戰,同時還改變著人類的行為方式。①Danit Gal:《聯合國的人工智能政策》,孫那、李金磊譯,http://www.sohu.com/a/132199558_556637,訪問時間2018年5月22日。2017年7月8日國務院發布的《新一代人工智能發展規劃》(以下簡稱《規劃》)認為,在移動互聯網、大數據、超級計算、傳感網、腦科學等理論創新、技術創新的多因素共同驅動下,人工智能加速發展,呈現出深度學習、跨界融合、人機協同、群智開放、自主操控等新特征。大數據驅動知識學習、跨媒體協同處理、人機協同增強智能、群體集成智能、自主智能系統成為人工智能的發展重點,類腦智能助推人工智能發展進入新階段。當前,新一代人工智能相關學科發展、理論建模、技術創新、軟硬件升級等整體推進,正在引發鏈式突破,推動經濟社會各領域從數字化、網絡化向智能化加速躍升。①國務院:《新一代人工智能發展規劃》[國發〔2017〕35號],http://finance.china.com/news/11173316/20170720/30991028.html,訪問時間2018年5月20日。《規劃》描繪了我國新一代人工智能發展的藍圖,確立了“三步走”目標:到2020年人工智能總體技術和應用與世界先進水平同步;到2025年人工智能基礎理論實現重大突破、技術與應用部分達到世界領先水平;到2030年人工智能理論、技術與應用總體達到世界領先水平,成為世界主要人工智能創新中心。《規劃》確定六方面重點任務:一是建立開放協同的人工智能科技創新體系,從前沿基礎理論、關鍵共性技術、平臺、人才隊伍四個方面進行部署。二是培育高端高效的智能經濟,發展人工智能新興產業,推進產業智能化升級,打造創新高地。三是建設安全便捷的智能社會,發展便捷高效的智能服務,提高社會治理智能化水平。四是強化人工智能對軍事和國防安全的支撐。五是構建泛在安全高效的智能化基礎設施體系,加強網絡、大數據、高效能計算等基礎設施的建設和升級。六是設立新一代人工智能重大科技項目,形成以新一代人工智能重大科技項目為核心、統籌當前和未來布局的“1+N”人工智能項目群。美國當地時間2017年10月18日,谷歌人工智能DeepMind團隊在《Nature》上發表論文,宣布新版的AlphaGo Zero計算機程序可以突破人類知識的局限,迅速實現自我學習。新版阿爾法狗從零開始自學圍棋,僅用3天時間,就以100比0的成績擊敗了舊版的AlphaGo,這是人類人工智能史的重大突破。②蔡鼎:《新版阿爾法圍棋橫空出世:自學3天,100∶0碾壓李世石版“舊狗”》,http://www.nbd.com.cn/articles/2017-10-19/1155201.html,訪問時間2018年5月28日。AlphaGo Zero除了獨立地學會了人類花費數千年時間發現的圍棋規則外,還自行學會了非常有趣的圍棋策略,并且許多走法都“極具創造性”。在沙特首都利雅得舉行的Future Investment Initiative大會上,機器人索菲亞登臺亮相,并宣布了自己的獨特身份。當主持人安德魯·羅斯·索爾金(Andrew Ross Sorkin)詢問索菲亞為何看起來如此高興時,她表示:“我為獲得這種優待感到非常榮幸和自豪,我是歷史上第一個獲得公民身份的機器人。”③小小:《沙特授予一個機器人公民身份,但它有人的權利嗎?》,2017年10月27日網易科技報道,http://tech.163.com/17/1027/09/D1OCBSK100097U80.html,訪問時間2018年10月28日。據Futurism報道,由總部位于香港的人工智能機器人公司Hanston robotics設計的機器人索菲亞(Sophia),已經被沙特阿拉伯王國授予了公民身份。這是有史以來第一次機器人被給予這樣的優待,但也引發了“機器人權利”之爭。索菲亞在演講臺上的表現非常出色,甚至熟練地避開了向她提出的“機器人自我意識”的問題。新一代人工智能是國際競爭的新焦點、經濟發展的新引擎,它帶來社會建設的新機遇,而發展的不確定性也帶來新挑戰,改變就業結構、沖擊法律與社會倫理、侵犯個人隱私、挑戰國際關系準則等問題,將對政府管理、經濟安全和社會穩定乃至全球治理產生深遠影響。④國務院:《新一代人工智能發展規劃》[國發〔2017〕35號],http://finance.china.com/news/11173316/20170720/30991028.html,訪問時間2017年11月20日。面對2030年要建成“更加完善的人工智能法律法規、倫理規范和政策體系”的目標,我們要做的事情很多很多。
人工智能最早的表現形態是機器人,以替代人類難以實現的更大數據計算、更細微量度操作或更惡劣環境等重復勞動為目標。華盛頓大學法學院Ryan Calo教授是美國最具影響力的機器人法律方面的專家之一,他通過研究美國近50多年來所有涉及機器人的案件后,發現機器人涉法問題的爭論早已有之。他認為機器人法律簡史可以通過以下四個案例來描述⑤佚名:《深度解密你所不了解的機器人法律簡史》,http://www.sohu.com/a/65846007_335773,訪問時間2018年5月26日。:案例一,肖像權案。20世紀90年代初,三星做了一個廣告,廣告中的機器人使用了女星Vanna White的肖像特征,而Vanna White認為這一舉動侵犯了她的公開權及肖像權,她以各種方式起訴三星公司,最終,她贏得這場官司。這是一個典型的關于人類是否能擁有自己版本權利的案例。法庭也由此開始考慮是否能夠視機器人為演員從而征收娛樂稅。案例二,木馬搗亂案。有一名網頁開發者在Twitter上向當地的一個時裝秀發布了一個死亡威脅,然而被逮捕后他卻表示對此事毫不知情。調查后發現,始作俑者卻是來自他編寫的一個程序,最終他被無罪釋放,一則“無犯罪實施者”的案件形成了。案例三,太空機器人律師案。2015年11月,奧巴馬簽署法案鼓勵私人公司進行太空探索,包括那些對小行星礦產感興趣的公司。Calo教授表示在未來這種工作肯定是交給機器人的,不難想象各種法律問題會由此而生,說不定太空機器人律師會成為一個正式的職業。案例四,無人駕駛車案。關于無人機和自動駕駛機器人的法律機制更為復雜,許多法律尚需實施,以便控制它們的法律風險。
Calo教授論及的這些法律案,涉及諸多法律問題,比如:機器人的肖像權,或由此衍生的人格權;是否應該像對待人類一樣給予機器人權利;如果機器人犯罪了,機器人是否具有刑法意義上的“主觀能動性”,它是否要受到法律的約束與制裁;機器人行動的程序是由人編寫的,相應的法律責任由誰承擔,抑或按比例分擔;是否允許無人駕駛車輛在道路上行駛;車輛管理部門該如何給機器人做視力檢查及駕駛培訓;當一輛無人駕駛車輛發生道路交通安全事故,誰負責賠償損失;緊急狀態時,計算機應該選擇撞向一只動物還是沖下公路;等等。
艾丹米勒也認為,隨著機器人崛起和“機器人法律”出現而引發的其他重要問題,我們必須面對:其一,機器人規制必須要針對特定機器人并結合具體場景而定。這就要求對特定領域的“機器人行為”產生的微觀與宏觀效果有深刻的認識。其二,(完善的)現有法律類型能夠被合理地應用并對機器人予以規制。其三,機器人法律受到社會“深層次規范結構”的影響。其四,如果該結構是實用主義的,那么在不遠的將來,智能機器人就會被當作人類來對待。那就意味著,智能機器人應當被賦予法律人格,并因此有能力取得和持有財產以及訂立合同。其五,反對將機器人當作人類一樣對待的理由源自于認識論與本體論層面。這些觀點都關系到機器人是否能思考(它們不能)以及成為人類意味著什么。①霍斯特·艾丹米勒:《機器人的崛起與人類的法律》,李飛、敦小匣譯,《法治現代化研究》2017年第4期。
機器人發展的最新形態是新一代人工智能。人工智能(Artificial Intelligence,英文縮寫為AI)是研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學,該領域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統等。斯圖爾特·羅素(Stuart Russell)和皮特·諾威格(Peter Norvig)②關于Russell和Norvig對人工智能分類的觀點,參見M.U.Scherer:Regulating Artificial Intelligence Systems:Risks,Challenges,Competencies,and Strategies,in Harvard Journal of Law&Technology,2016,29(2)。在《人工智能:一個現代路徑》中提出了八個不同的人工智能定義,分成四類:像人一樣思考(thinking humanly),像人一樣行為(acting humanly),理性思考(thingking rationally),理性行為(acting rationally)。③馬修·U.謝勒:《監管人工智能系統:風險、挑戰、能力和策略》,曹建峰、李金磊譯,《信息安全與通信保密》2017年第3期。人工智能可以模擬人的意識及思維的信息過程,能像人那樣思考、像人那樣行為,甚至超過人的智能。
就此,《規劃》在對人工智能理論、技術和應用作出前瞻布局的同時,呼吁加強人工智能相關法律、倫理和社會問題研究,建立人工智能法律法規、倫理規范和政策體系。《規劃》力挺智慧法庭建設,提出促進人工智能在證據收集、案例分析、法律文件閱讀與分析中的應用,實現法院審判體系和審判能力智能化。更為前瞻的是,《規劃》提出“人工智能+X”復合專業培養新模式,法學赫然在列,法學教育的變革已然箭在弦上。④曹建峰:《法律人工智能十大趨勢》,http://www.sohu.com/a/162390641_455313,訪問時間2017年10月20日。《規劃》要求,建設人工智能學科。完善人工智能領域學科布局,設立人工智能專業,推動人工智能領域一級學科建設,盡快在試點院校建立人工智能學院,增加人工智能相關學科方向的博士、碩士招生名額。鼓勵高校在原有基礎上拓寬人工智能專業教育內容,形成“人工智能+X”復合專業培養新模式,重視人工智能與數學、計算機科學、物理學、生物學、心理學、社會學、法學等學科專業教育的交叉融合。加強產學研合作,鼓勵高校、科研院所與企業等機構合作開展人工智能學科建設。
1987年,在美國波士頓東北大學舉辦的首屆國際人工智能與法律會議(ICAIL),旨在推動人工智能與法律這一跨學科領域的研究和應用,并最終促成了國際人工智能與法律協會(IAAIL)在1991年的成立,人工智能的法律面向包括但不限于十大主要議題①曹建峰:《法律人工智能十大趨勢》,http://www.sohu.com/a/162390641_455313,訪問時間2018年5月20日。:法律推理的形式模型,論證和決策的計算模型,證據推理的計算模型,多智能體系統中的法律推理,自動化的法律文本分類和概括,自動提取法律數據庫和文本中的信息,針對電子取證等法律應用的機器學習和數據挖掘,概念上的或者基于模型的法律信息檢索,完成重復性法律任務的法律機器人,立法的可執行模型。日本學者關心的議題包括:人工智能與憲法(表達自由、隱私、法律下的平等、正當程序),人工智能與民法(知識產權、合同、不法行為——尤其是產品責任),人工智能與刑法(利用人工智能實施高科技犯罪:冒充、欺詐、金融犯罪、網絡犯罪),人工智能與勞動法(雇傭環境的變化、通過人工智能進行雇傭管理與否),人工智能與國際法(安全保障、恐怖犯罪對策、人工智能武器)等。②儲陳城:《日本政府對人工智能的發展戰略和法律應對框架》,中日刑事司法微信公眾號,訪問時間2018年5月28日。
人工智能運動式發展,不僅在全球范圍內逐步建立起自己的生態格局,而且開始深度介入人類的社會生活。
人類與機器人/人工智能的關系將掀起一場對于私隱、尊嚴及安全的討論。隨著機器人/人工智能的適應性和自主學習能力不斷增強,它們可能不再是人類使用的簡單工具,“類腦”人工智能可能超越人類的智力,這將對人類控制機器人構成挑戰。一旦機器人自我意識崛起,高度自主、獨立判斷且不受人類直接控制的人工智能機器人甚至可能威脅人類的生存。歐盟議會法律事務委員會(JURI)參照美國科幻小說作家艾薩克·阿西莫夫(Isaac Asimov)在1950年出版的短篇小說集《我,機器人》中提出的“機器人學三大法則”(也被稱為“機器人學三定律”)作為立法框架,提出了機器人自我意識覺醒后的行為規范。據此,我們可以為人工智能設定三個原則,即“人工智能三定律”。③於興中:《當法律遇上人工智能》,《法制日報》2016年3月28日第007版。第一定律:人工智能機器人不得傷害人,也不得見人受到傷害而袖手旁觀;第二定律:人工智能機器人應服從人的一切命令,但不得違反第一定律;第三定律:人工智能機器人應保護自身的安全,但不得違反第一、第二定律。人工智能三定律必須在一個大前提之下方可成立,即:人工智能不得傷害人類整體,或因不作為使人類整體受到傷害,有義務保護人類的整體利益,以契合阿西莫夫在《機器人與帝國》中補充提出的第零法則。④佚名:《關于機器人時代的倫理,阿西莫夫早就給出了三條法則》,http://www.sohu.com/a/131831765_483391,訪問時間2018年5月27日。日本學者新保史生提出機器人使用的八原則,被稱為“新保試案”:人類優先原則,服從命令原則,保護秘密原則,限制利用原則,安全保護原則,公開透明性原則,個人參加原則,責任原則。⑤儲陳城:《日本政府對人工智能的發展戰略和法律應對框架》,中日刑事司法微信公眾號,訪問時間2018年5月28日。
人工智能技術在造福人類的同時也增加了人類受危害的系數,這恰恰能夠驗證技術的負面性與風險的不確定性的關聯。傳統法律治理體系無力解決新一代科技革命帶來的社會問題,這恰恰能夠驗證法律的確定性與風險的不確定性的背離。當前,人工智能發展的規制,其實是基于風險的制度選擇和法律安排,我們應“通過法律化解風險”“通過法律吸納風險”“將風險社會置于法治社會的背景之中”,即對智能革命時代的法律制度乃至整個社會規范進行新的建構。①吳漢東:《人工智能時代的制度安排與法律規制》,《法律科學》2017年第5期。人們對人工智能安全問題的普遍憂慮,涉及人類基本權益的生命與健康、尊嚴與隱私、安全與自由。1986年,德國學者烏爾里希·貝克在《風險社會》一書中首次在學理上提出了“風險社會”的概念,貝克認為,人類面臨著威脅其生存的由社會所制造的風險。現代化正在成為它自身的主題和問題,因此變得具有反思性。②吳漢東:《知識產權的制度風險與法律控制》,《法學研究》2012年第4期。風險概念表明人們創造了一種文明,以便使自己的決定將會造成的不可預見的后果具備可預見性,從而控制不可控制的事情。在風險理論中,人工智能存在著現代性的負面影響,因此有必要采取風險措施,即預防性行為和因應性的制度。對風險社會問題的法學研究,其重點是法律制度與法律秩序。③吳漢東:《人工智能時代的制度安排與法律規制》,《法律科學》2017年第5期。一方面,“法律制度的價值和意義就在于規范和追尋技術上的可以管理的哪怕是可能性很小或影響范圍很小的風險和災難的每一個細節。”④參見烏爾里希·貝克:《從工業社會到風險社會(上篇)——關于人類生存、社會結構和生態啟蒙等問題的思考》,王武龍譯,《馬克思主義與現實》2003年第3期。另一方面,法律秩序客觀上表征了法律制度實施的效果,大致是人類社會生產生活基本方面實現法律化和制度化。現代社會是法治社會,制度風險及風險法律控制是風險社會法學研究理論的基本內涵。風險社會是一種“全球風險社會”,風險的空間影響超越了地理邊界和社會文化的邊界。
中國科學院科技戰略咨詢研究院吳焦蘇提出了Graceful AI,不僅考慮AI的責任,還考慮AI的技術、倫理和法律之間的界限。Graceful AI以網絡行為學的策略相關性原理(SCP)為基本模型,其策略相關系數的上界是圖博弈矩陣的最小特征值的倒數,下界是圖博弈矩陣的最大特征值的倒數,在上下界之間的行為才是親人類行為,過之屬道德過載(Moral Overload),略少屬道德負擔不足(Moral Under?load),過多低于該閾值,則是法律管轄的范圍。⑤齊昆鵬:《“2017’人工智能:技術、倫理與法律”研討會在京召開》,《科學與社會》2017年第2期。這也正是當前人工智能發展面臨的主要法律挑戰,即人工智能法律化規制的具體面向:法律責任劃分和法律責任承擔問題。法律責任是由于違反了第一性義務(如違約、侵權等)而引起的第二性義務(如賠償等),也是因為特定的法律事實而引起的對損害進行補償、賠償或接受處罰的特殊義務。人工智能機器人的法律責任是否當然包括現有的民事責任、行政責任、刑事責任、違憲責任和國家賠償責任?此外,法律責任除了分責,還有歸責、免責、償責等諸多方面,某種程度上,人工智能機器人作為擬制人,與所有參與機器人的發明、授權和分配中的自然人或(和)法人,甚至承保相應險種的保險公司,在歸責、免責和償責等諸多方面均是法律空白,需要在既有規范之外制定新的法律責任規則。
人工智能從產品到技術都在迅猛發展,現在是人工智能立法的準備階段、摸索階段、積累階段,也是人工智能立法的促進階段,可以先制定促進人工智能發展法。立法應該優先考慮對人們生活已經有影響的領域,比如自動駕駛、服務類機器人領域,率先啟動立法立項工作。人工智能的法律應對,有必要進行體系性的討論和專題式的研究,主要包括:功能風險與法律制度、權利利益相關的風險,由于對于法律課題的討論剛剛開始需要進行個別性把握,分別列舉可能出現的風險等。⑥儲陳城:《日本政府對人工智能的發展戰略和法律應對框架》,中日刑事司法微信公眾號,訪問時間2018年5月28日。
聯合國教科文組織(United Nations Educational,Scientific and Cultural Organization)與世界科學知識與技術倫理委員會(World Commission on the Ethics of Scientific Knowledge and Technology)聯合發布的報告(2016年),主要討論了機器人的制造和使用促進人工智能的進步,以及這些進步所帶來的社會、法律與倫理道德問題。①Danit Gal:《聯合國的人工智能政策》,孫那、李金磊譯,http://www.sohu.com/a/132199558_556637,訪問時間2018年5月22日。報告呼吁在國際層面上應該在以下幾個方面加強立法控制:數據和隱私保護,創新關于機器人與機器人制造者之間的責任分擔機制,預警機制的建立,對機器人在實際生活場景中的測試,在涉及人類的機器人研究中的知情同意權,智能機器人的退出機制,為應對自動機器人的廣泛應用將給人類教育和就業帶來的巨大影響而建立全新的保險制度。②詳細分析參見Danit Gal:《聯合國的人工智能政策》,孫那、李金磊譯,http://www.sohu.com/a/132199558_556637,訪問時間2017年10月22日。聯合國作為全球最重要的國際組織,在2016年最新發布的人工智能報告中,表達了其對于人工智能的關注;同時,為應對人工智能及機器人技術的發展帶來的各種問題,提出了全新的思考方式與解決路徑,這對世界各國的人工智能監管具有重要的參考意義。
在制造一個機器人需要不同的專家和部門合作的情況下,誰該為機器人的某次操作失靈負責任?聯合國的報告援引了阿薩羅(Asaro)提出的結論,即機器人以及機器人技術造成的傷害,很大一部分由民法中產生責任的相關法律調整,因為機器人一般被視為通常意義上的科技產品。從這個角度看,機器人造成的傷害很大一部分被歸責于機器人制造者和零售商的“過失”“產品警告的缺失”“沒有盡到合理的義務”。在阿薩羅看來,這種歸責制度會隨著機器人越來越自動化及智能化而逐漸被廢棄。③Asaro,P.M.“A body to kick,but still no soul to damn:legal perspectives on robotics”,in Lin,P.,Abney,K.,and Bekey,G.A.(eds.)Robot Ethics:The ethical and social implications ofrobotics,MIT Press,2012.pp.169-186.然后,一個新的平衡機器人制造者、銷售者和最終使用者的責任分擔機制會被逐漸創造出來。④參見Danit Gal:《聯合國的人工智能政策》,孫那、李金磊譯,http://www.sohu.com/a/132199558_556637,訪問時間2018年5月22日。對此,一個可行的解決辦法,即采取責任分擔的解決途徑,讓所有參與到機器人的發明、授權和分配過程中的人來分擔責任;另一個解決辦法就是讓智能機器人承擔責任,因為智能機器人確實擁有前所未有的自主性,并且擁有能夠獨立做出決策的能力。這兩種責任分擔方式展現了兩種極端,既無視了人類在科技發展過程中的固有偏見,也忽略了科技被居心叵測的使用者用作他途的可能性。而高度智能化的機器人如何獨立承擔責任值得我們深入研究。
早在2015年1月,歐盟議會法律事務委員會(JURI)就決定成立一個工作小組,專門研究與機器人/人工智能發展相關的法律。2016年5月,法律事務委員會發布《就機器人民事法律規則向歐盟委員會提出立法建議的報告草案》⑤United Nations Educations,Scientific and Cultural Organization(UNESCO)and World Commission on the Ethics of Sci?entific Knowledge and Technology(COMEST).(2015).Preliminarydraft Reports on COMEST on Robotics Ethics.Accessible on?line at:http://unesdoc.unesco.org/images/0024/002455/245532E.pdf.,討論歐洲首份管制機器人的建議立法草案,旨在為民用機器人的使用制定法律框架。報告對機器人可能引發的安全風險、道德問題、對人類造成的傷害等情況做出討論。呼吁制定“人類與人工智能機器人互動的全面規則”,這或是首個涉及管制機器人的立法草案。報告要求歐盟為民用機器人制定法律框架,探討是否需要為機器人安裝“死亡開關”、研究機器人搶走人類工作的應對措施,等等。專家認為,此次立法將有利于人類應對機器人革命帶來的社會震蕩。⑥Lielvwang:《全球首個涉及管制機器人的立法草案或將落地歐盟》,http://www.robot-china.com/zhuanti/show-3112.html,訪問時間2017年10月26日。EU Parliament.(2016).Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics.Accessible online at:http://www.europarl.europa.eu/sides/get Doc.do?pub Ref=-//EP//NONSGML+COMPARL+PE-582.443+01+DOC+PDF+V0//EN。同年10月發布《歐盟機器人民事法律規則》。在此基礎上,2017年2月16日,歐盟議會投票表決通過一份決議,包含了立法建議,并要求歐盟委員會就機器人/人工智能提出立法提案。法律事務委員會提出的立法建議涉及多個方面,主要包括:成立一個機構,專門負責歐盟的機器人和人工智能;確立人工智能倫理準則;重構智能機器人的責任規則;長遠考慮,也許可以賦予復雜的自主機器人法律地位(所謂的“電子人”);明確人工智能在知識產權領域的“獨立智力創造”;注重隱私和數據保護;推進標準化工作和機器人的安全性;針對具有特定用途的機器人和人工智能系統(主要包括自動駕駛汽車、護理機器人、醫療機器人、無人機、人類修復和增強等)出臺特定規則,進行特殊監管;關注人工智能的社會影響;加強法律政策領域的國際合作。①司曉、曹建峰:《論人工智能的民事責任:以自動駕駛汽車和智能機器人為切入點》,《法律科學》2017年第5期。
2016年,美國弗吉尼亞州州長簽署了一條關于送貨機器人的法律,它將允許送貨機器人合法在全州的人行道上行駛,它也是美國第一條關于送貨機器人的立法。兩名弗吉尼亞州的立法者Ron Villanueva和Bill DeSteph與愛沙尼亞一家做地面送貨機器人的公司Starship Technologies合作制定了這條法律的草案。根據最新法案規定,送貨機器人被允許在道路上自動行駛,但速度不能超過每小時10英里(約16千米每小時)或者質量不得超過50磅(約23 kg)。雖然法案沒有要求機器人一定要在操作者的視線范圍內行駛,但它還是需要操作者進行遠程控制,以防止其在道路運行的過程中失控。這條州立法案的規定并不是唯一固定的,各個城市可以根據本地的運營條件對它做出適當的調整。比如市議會可以指定更嚴格的速度限制或禁止送貨機器人上路等。目前除了弗吉尼亞州之外,美國的另外兩個州愛達荷州及佛羅里達州也在提出類似的立法草案。②朱若淼:《送貨機器人在美國合法上路了,還有了第一條關于機器人法案》,http://www.qdaily.com/articles/38375.ht?ml,訪問時間2018年5月26日。
2013年,英國挑選出“機器人技術及其自動化系統”作為其“八項偉大的科技”計劃的一部分,并且宣布英國要力爭成為第四次工業革命的全球領導者。英國下議院的科學和技術委員會在2016年發布的《機器人技術和人工智能》報告,側重闡述了英國會如何規范機器人技術與人工智能系統的發展,以及如何應對其發展帶來的倫理道德、法律及社會問題,報告認為積極響應并且負責任地監管措施能促成監管的介入和領導體制的建立。英國政府總是落后于工業進步、學術研究和不斷增長的公共關注,在政府決策機制中引入人工智能,制造了非常有趣的關注點,在為社會創造利益的同時,也帶來了新的倫理、法律和社會問題。下議院的科學和技術委員會在倫理道德和法律方面的重要關注點包括:人工智能的安全與管控,管理——標準與規則,鼓勵公眾對話,研究——資金支持與創新。③騰訊研究院:《人工智能各國戰略解讀》,http://www.360doc.com/content/17/0301/09/35919193_632883078.shtml,訪問時間2018年5月26日。
作為“機器人超級大國”,日本政府希望開發推廣機器人技術,緩解勞動力短缺問題,提高生產效率,2014年9月成立了“機器人革命實現委員會”,召開會議討論與“機器人革命”相關的技術進步、監管改革以及全球化標準等具體舉措。日本經濟產業省將委員會討論的成果進行匯總,2015年1月編制發布了《日本機器人戰略:愿景、戰略、行動計劃》,機器人革命戰略的三大支柱包括:作為世界機器人創新的據點——徹底強化機器人創新能力,成為世界上主要的機器人使用大國,領導世界走向機器人新時代。同時建議制訂機器人發展“五年計劃”。④儲陳城:《日本政府對人工智能的發展戰略和法律應對框架》,中日刑事司法微信公眾號,訪問時間2018年5月28日。日本的機器人革命戰略涉及人工智能與憲法、民法、刑法、勞動法、國際法等諸領域的法律問題,法律法學界正加緊研究。
《規劃》在對人工智能理論、技術和應用作出前瞻布局的同時,還呼吁加強人工智能相關法律、倫理和社會問題研究,建立人工智能法律法規、倫理規范和政策體系。在前文人工智能法律規制的理論構造基礎上,我們依次從人工智能的權利能力、行為能力、責任能力等方面進行相應的立法規制。
其一,人工智能機器人享有法律權利。對應“人工智能三定律”第三條“人工智能機器人應保護自身的安全”,若要賦予人工智能機器人保護自身的權利,必然與一般的基本權利保護范圍由自然形成不同,人工智能機器人的基本權利形成必須通過立法來確定基本權利的范圍。具有高度智慧、獨立意思表示能力和獨立決策行為能力的高智能機器人是自然人和服務類機器人之外的特殊主體,其享有的法律權利及對應的法律義務都應當在立法中予以明確界定。
其二,人工智能機器人類型化立法技術管控。“這是最好的時代,也是最壞的時代”,狄更斯在《雙城記》中的開篇語,同樣適用于“未來已來”的人工智能時代。即:既希冀于人工智能機器人帶來的高效率、高精度、高細度的“三高”智能時代,又憂慮于人工智能優于人類的學習深度、優于人類的工作強度、優于人類的生活態度以及可能顛覆人類的潛在風險。面對這種具有共生性、時代性和全球性的風險,①吳漢東:《人工智能時代的制度安排與法律規制》,《法律科學》2017年第5期。不高估、不怯懦,不低估、不自大,以權利能力、行為能力等基本法律概念為切入點,通過分級、分類管控的方式化解、吸納人工智能風險。例如,參照自然人民事行為能力的分類,將人工智能機器人按照智能程度高低分為無民事行為能力者、限制民事行為能力者,智能程度低的人工智能機器人屬無民事行為能力者,智能程度高的人工智能機器人屬限制民事行為能力者,其行為需經相關責任主體追認方可生效。如此,權利享有者順理成章地成為責任的承擔者。
其三,全區鏈備案制的法律責任規制。自然人之權利始于出生,終于死亡,無民事行為能力人的法律責任和限制民事行為能力人的大部分法律責任由其監護人承擔。對于人工智能機器人,其權利應當始于登記備案時,登記備案是必經的法定程序,人工智能的設計者、生產者、銷售者、使用者、監管者都是法律責任的可能承擔者,任何一方不得擅自更改人工智能數據,人工智能數據“黑匣子”只在主管部門授權或司法部門鑒定時提供。唯有如此,才能倒逼人工智能行業自律,亦能保證整個生產使用鏈條在程序上的可追責性。
其四,投保強制責任險。具有深度學習能力、獨立意思表示能力的高智能機器人,性質界定遠不是學界流行的工具說、電子奴隸說、代理說等②袁曾:《人工智能有限法律人格審視》,《東方法學》2017第5期。所能囊括的。高智能機器人致人損害的責任有可能是產品責任,毫無疑問,由產品的設計者、生產者、銷售者承擔損害賠償責任;另一種可能是“類腦”機器人的損害故意,責任劃分上,單方面將賠償責任歸給使用者或管理者等“實際控制人”,顯然不妥,而投保強制責任險或許是以法律手段調整新型人機權責關系最有效的方式。
“現代法律制度的每一個建構性要素及其運作過程的每一個環節,都表現出很強的技術性特征,這使得法律成為一種典型的社會技術。……法律技術本身也是法治的基本條件之一。”③周少華:《法律理性與法律的技術化》,《法學論壇》2012年第3期。人工智能在法律領域的運用,即法律科技(LawTech)的發展趨勢/重點規制領域包括但不限于④曹建峰:《法律人工智能十大趨勢》,http://www.sohu.com/a/162390641_455313,訪問時間2018年5月20日。:智能化的法律檢索將深刻影響法律人進行法律研究(檢索)的方式;人工智能將推動法律文件自動化生成;在線法律服務、人工智能機器人法律服務等替代性商業模式(alternative business structure)不斷涌現,促進法律服務標準化、商品化、自動化、民主化;基于人工智能和大數據的案件預測將深刻影響當事人的訴訟行為或改變法律糾紛的解決模式;在線法院(online court)以及人工智能法律援助,將促進司法可得性(access to justice),幫助消除司法鴻溝(justice gap);人工智能和機器人將成為法律系統的主要進入點;律師市場評價將使法律行業更加透明,可能帶來“馬太效應”;法律人工智能職業將作為法律行業的新興職業而不斷涌現;法律教育與人工智能等前沿信息科學技術將日益密切結合起來;計算法律(computational law)以及算法裁判,或將成為法律的終極形態。基于這些預判,我們需要對其盡早作出規制設計。
在智能發展引擎的驅動下,法律的人工智能化可能遍及立法的人工智能化、司法的人工智能化、執法的人工智能化等領域,其發展進程亦離不開法律規制,人工智能技術在法律領域的開發應用必須跨過一個鴻溝,即法理學原則在智能開發領域的有效運用。有學者指出,擅長法律推理的人工智能應當可以解決以下問題:根據案例的類比推理(包括真實案例和假設案例);根據規則推理;多種推理方式的結合;處理定義不嚴密及含義開放的概念;設計論證和解釋;處理各項知識的例外和期間的沖突,比如規則間的沖突;包容法律知識基礎的變化,尤其是法律概念的變化,處理非單一性因素引起的變化,即由于更多新知識的出現而使原有的真理不再成為真理,因之而起的變化;模擬普通常識;模擬人的意向和信念知識;承擔理解自然語言的功能。①於興中:《法理學前沿》,北京:中國民主法制出版社,2014年,第102—105頁。
不難看出,法律的人工智能化過程中,不得不面對以下具體問題:其一,人工智能法律語言的規制;其二,人工智能法律解釋的規制;其三,人工智能法律推理系統的規制。無論是人工智能法律檢索還是人工智能司法裁判,都必須基于最基本的法律語言而展開,這一點恰恰是人工智能需要攻克的難題。因為現有法律語言存在模糊性,不同學者對法律概念的內涵和外延認知有差別,對某一法律問題的理解可能法律職業共同體內部就有多種解釋,而機器語言只做單向的精確推理,如需窮盡推理結果,必須在法律語言的確定性、法律解釋的一致性和法律推理的多維性等方面預先加以規制。
法律的人工智能化在智慧司法中的運用應當是“有限智能化”②黃京平:《刑事司法人工智能的負面清單》,《探索與爭鳴》2017年第10期。,尤其現階段該應用主要集中于數據檢索環節,更需兼顧效率與公正、權衡案件的共同性和差異性。2017年8月28日,由上海市社科聯探索與爭鳴雜志社和華東政法大學政治學研究院共同主辦的“人工智能與未來社會:趨勢、風險與挑戰”學術研討會上,微軟亞太科技有限公司副總裁王楓鮮明地指出:“沒有數據的人工智能是一個理論和空談,數據的完整性、專業性和準確性是最基本的。”③參見《人工智能在未來社會將有哪些風險與挑戰》,http://news.ifeng.com/a/20170831/51821471_0.shtml,訪問時間2018年5月23日。人工智能發展的原始助推力不是算法、不是推理,更不是軟件系統,而是大量的數據,所涉數據的來源、數據的使用都不可避免地帶來安全隱患或產生隱私侵權行為,這就需要在道德倫理與法律之間尋求一個平衡點,在保護數據信息安全使用的前提下,通過人工智能系統促進法律職業技術改革,總之,法律的人工智能化不僅追求效率,更要兼顧公平與正義。在使用數據方面,遵循目的明確、最少夠用、公開告知、知情同意等基本原則,④袁曾:《人工智能有限法律人格審視》,《東方法學》2017第5期。通過數據使用主體權限、數據使用者登記備案、數據使用流向注入標簽水印等方式嚴格規范數據使用,對于濫用數據或竊取使用數據的行為,在查明責任主體的前提下,以民事和刑事責任予以規制。
人工智能從技術到產品都在發展成熟的過程中,這個過程正是人工智能立法的準備階段、摸索階段、積累階段。在人工智能立法方面,就目前而言,尚沒有立法成就特別突出的國家,這是全人類所面臨的新課題,有學者提出,堅持以人為本的原則、建立全流程監管體系、明晰法律責任制度、明確數據信息保護與隱私權保護、強化涉及人工智能發展的知識產權保護、加強國際合作,加快制定專門的《人工智能發展法》。①袁曾:《人工智能有限法律人格審視》,《東方法學》2017第5期。一部體系和結構完整的《人工智能發展法》既需要廓清人工智能機器人的基本權責義,還需要厘清人(法人)機之間的責任分配以及責任承擔方式,更需要不同領域相關法律的配合和補充。
人工智能已然提升至國家戰略層面,毫無疑問,立法也將緊隨科技進步的步伐。當前,圍繞自動駕駛、服務機器人等應用基礎好的領域,加快立法進度,將人工智能復雜環境中的突發事件納入法律規制的范圍,探索歸納該場景下突發事件的應對主體、問責機制,為后續立法提供借鑒。