編者按:
面對科技的迅猛發展,我國制定了《新一代人工智能發展規劃》,將人工智能上升到國家戰略層面,提出:人工智能產業要成為新的重要經濟增長點,而且要在2030年達到世界領先水平,讓中國成為世界主要人工智能創新中心,為躋身創新型國家前列和經濟強國奠定重要基礎。我國正處于技術創新的關鍵期,融合應用的擴張期,搶占主導權的戰略機遇期,需要加快構建人工智能倫理和法律體系,形成基礎支撐和根本保障。針對這些問題,《人工智能》一書進行了初步探索和回應,為讀者提供了有價值的參考。

2016年5月7日,美國佛羅里達州一位名叫Joshua Brown的40歲男子開著一輛以自動駕駛模式行駛的特斯拉Model S在高速公路上行駛,全速撞到一輛正在垂直橫穿高速的白色拖掛卡車,最終造成車毀人亡。大家普遍關注的問題是,既然是自動駕駛,那么發生事故后應當由誰來承擔相應的法律責任呢?能否對AI或者自主系統加以問責呢?
法律責任的劃分和承擔是人工智能發展面臨的首要法律挑戰,其涉及如何確保人工智能和自主系統是可以被問責的。法律責任的設定,在于追究法律責任,保障有關主體的合法權利,維護法律所調整的社會關系和社會秩序。在特斯拉事件中,美國國家公路安全管理局(NHTSA)最終得出調查結果,特斯拉的自動駕駛模式設計并無明顯缺陷。但對于自動駕駛事故的法律責任如何界定,NHTSA并沒有給出明確的結論,NHTSA指出,其對于自動駕駛功能的可靠性監控還沒有結束,并保留了在必要時再次介入調查的權利。
進入人工智能時代后,人工智能系統已經可以在不需要人類的操作和監督下獨立完成部分工作,而機器自主性操作造成的損害如何來判斷和劃分其責任成為一大難題。特斯拉事件中,至少從目前的調查情況來看,駕駛員、汽車生產商都沒有過錯,但事故還是發生了,需要有人來承擔責任,這種情況下如何對各方責任進行界定就陷入了困境。
2016年12月,電氣和電子工程師學會(IEEE)發布了《合倫理設計:利用人工智能和自主系統(AI/AS)最大化人類福祉的愿景》,提出的基本原則之二就是責任原則。其指出,為了解決過錯問題,避免公眾困惑,人工智能系統必須在程序層面具有可責性,證明其為什么以特定方式運作。
7月5日上午,在2017百度AI開發者大會上,百度創始人、董事長兼首席執行官李彥宏通過視頻直播展示了一段自己乘坐公司研發的無人駕駛汽車的情景。視頻中,李彥宏坐在一輛紅色汽車的副駕駛座位上,視頻中駕駛座位沒有駕駛員。對此,北京交管部門發布情況通報稱,正在積極開展調查核實,公安交管部門支持無人駕駛技術創新,但應當合法、安全、科學進行。很多人認為李彥宏的做法欠妥,但根據我國現行法律法規,并沒有推出針對自動駕駛汽車的相關規定。
美國和德國在自動駕駛領域的立法主要集中在責任界定方面。美國道路交通安全管理局于2013年發布《自動駕駛汽車的基本政策》,包括內華達州、加利福尼亞州、佛羅里達州、密歇根州在內的9個州也通過了自動駕駛汽車立法,對自動駕駛汽車測試事故的責任承擔做了規定,即車輛在被第三方改造為自動駕駛車輛后,測試過程中導致財產損失、人員傷亡的,車輛的原始制造商不對自動駕駛車輛的缺陷負責,除非有證據證明車輛在被改造成自動駕駛車輛前就已存在缺陷。例如谷歌用奔馳汽車進行測試,安全責任由谷歌來承擔。
隨著智能機器人越來越廣泛地應用,其責任界定問題也引發了各方的高度關注和重視。2016年8月,聯合國教科文組織與世界科學知識與技術倫理委員會在《關于機器人倫理的初步草案報告》中對機器人的責任進行了探討,提出了一個可行的解決辦法,即采取責任分擔的解決途徑,讓所有參與到機器人的發明、授權和分配過程中的人來分擔責任。
在目前的法律框架下,機器人自身不對因其行為或者疏忽而給第三方造成的損害承擔責任。而且,既有責任規則要求機器人的行為或疏忽能夠歸因于制造商、所有人、使用者等特定法律主體,并且這些主體能夠預見并避免機器人的加害行為。更進一步,關于危險物品的責任和產品責任可以讓這些法律主體為機器人的行為承擔嚴格責任。但是,如果機器人自主地作出決策,傳統的責任規則就將不足以解決機器人的責任問題,因為傳統的規則將可能不能確定責任方并讓其作出賠償。
在非合同責任方面,既有的產品責任規則僅能涵蓋因機器人的制造缺陷而造成的損害,同時受害人必須能夠證明存在實際損害、產品缺陷且缺陷與損害之間具有因果關系。但是,目前的法律框架無法完全涵蓋新一代機器人所造成的損害,因為這些機器人將從自己變幻莫測的經歷中自主學習,并且以獨特且不可預見的方式與其所處環境進行交互。
人工智能的快速發展和應用確實給人類社會帶來了諸多問題,但是我們仍然有理由相信法律制度能夠在不阻礙創新的前提下,控制人工智能帶來的公共危險。因此,如何構建一個結構合理的責任體系,對人工智能項目的設計者、生產者、銷售者以及使用者等在內的主體責任義務進行清楚的界定變得十分重要。IEEE在《合倫理設計:利用人工智能和自主系統(AI/AS)最大化人類福祉的愿景》中對不同主體在人工智能責任方面應當采取的措施進行了詳細闡述,指出:立法機構應當闡明人工系統開發過程中的職責、過錯、責任、可責性等問題,以便于制造商和使用者知曉其權利和義務;人工智能設計者和開發者在必要時考慮使用群體的文化規范的多樣性;利益相關方應當在人工智能及其影響超出了既有規范之外時一起制定新的規則;自主系統的生產商和使用者應當創建記錄系統,記錄核心參數。
(本文節選自《人工智能》一書,內容有刪減,標題為編輯添加。)