陳全思 張浩 欒群
隨著人工智能技術的迅速普及,由其引發的侵害和侵權事件時有發生,既有因交通、生產事故引發的人身財產傷害,也有因智能系統故障引發的財產利益貶損。人工智能侵權案件與傳統侵權案件引發的損害和風險的形式不同,根據傳統侵權法規定,制造商和銷售商是主要責任主體,但人工智能情景下,還應當明確開發者的安全注意義務,建立新的人工智能侵權責任機制,保障行業健康發展。
四種人工智能侵權歸責的觀點
人工智能工具論——由使用者承擔責任。這種觀點認為目前人工智能尚不具備自主意識,只是一種工具,其行為是在人類授意下做出的,因此人工智能侵權應由使用該工具的人來承擔責任。使用者是人工智能程序和設備的控制者也是受益者,侵權風險是使用者的使用行為引起的,讓受益者承擔由其控制的工具引發的侵權責任是公平合理的。
人工智能產品論——由生產者承擔責任。根據《產品質量法》,產品質量應當檢驗合格,符合保障人體健康和人身、財產安全的標準或要求,生產者、銷售者依法承擔產品質量責任。人工智能通常是一種產品,除了個別由于使用者或者第三人故意引起的侵權以外,大多數人工智能侵權是由于產品存在缺陷造成的。消費者對于人工智能產品缺陷,既難以理解也難以發現且難以舉證,所以應當由生產者承擔產品責任,銷售者承擔不真正連帶責任。
人工智能動物論——由管理者承擔責任。由于人工智能尚不具備自主意識,其行為又與一般工具不同,不完全受人類控制,這與飼養的動物頗為相似,動物可能在人類授意下實施侵權,也可能在無人類授意下發生侵權。盡管古代立法中有讓動物承擔法律責任的規定,但現代立法不再將動物視作法律主體,因此動物的侵權行為應由飼養人或者管理人承擔侵權責任。借鑒動物侵權法律規定,人工智能侵權也應由對其負有管理義務的人承擔。
人工智能主體論——由人工智能承擔責任。人工智能最大的特點在于其擁有智能,不但可以做出行為,而且能夠自主做出分析判斷,同時擁有比人類更加強大的數據收集、記憶和計算能力。法律可以將自然人以外的實體規定為法律主體,例如法人,對于人工智能也可以參照這種做法。而且,已經有一些國家賦予或正在考慮賦予人工智能法律主體資格,如沙特阿拉伯的索菲亞機器人已獲公民資格。如果人工智能成為法律主體,則應當承擔其侵權行為引起的法律責任。
人工智能侵權的特殊性
人工智能侵權構成要素復雜。現階段人工智能的技術框架主要以機器學習和深度學習為中心。從軟件層面,人工智能系統作出的判斷、決策等行為,實際上是對人工智能模型輸入一定數據而得到的函數輸出結果,其基本模型可以用“輸出=人工智能模型(基礎算法+訓練材料)+輸入”表示。侵權的輸出結果實際受到基礎算法、訓練材料和輸入行為三個要素的影響,這三個要素可能獨立導致侵權結果,也可能相互作用累積引起侵權,這使得具體侵權案件的歸責難度加大。特別是,現有的司法人員普遍沒有接受過人工智能技術相關培訓,而技術人員又少有精通法律的,對人工智能侵權的事實認定和法律認定都非常困難。
使用人或管理人通常沒有主觀過錯。侵權案件中,通常是侵權人的違法行為造成了損害事實,違法行為與損害事實之間具有因果關系,且行為人對違法行為具有主觀過錯。但人工智能侵權,使用人或管理人通常不具有侵權的故意或者過失,侵權行為和損害事實是人工智能程序自主判斷、決策的結果。以完全自動駕駛汽車為例,使用人給車輛下達行駛的命令,途中使用人并不參與車輛的轉彎、減速、超車、避讓等各類行駛決策。在車輛自動行駛的過程中,如果發生侵權事故,盡管使用人最初下達的行駛命令與侵權事實也有一定的關系,但二者之間的因果關系太弱,使用人使用車輛的意志并不包含任何侵權意圖,此時歸責于使用人,則會給使用人施加過重的事故防范義務,既不符合公平原則,也不利于人工智能的推廣應用。
人工智能具有一定的自主性。由于難以歸責于使用人,人工智能侵權主要應當是由產品本身問題引起的,因此應當在產品責任視角下討論。一般產品侵權是由于存在缺陷而造成他人損害,所謂缺陷是指產品存在危及人身、他人財產安全的不合理的危險,通常在生產階段按照相應的產品標準或質量要求應當能夠發現這種缺陷。但人工智能產品與一般產品不同,雖然尚不具有類似人類的意志,但具有一定自主性,具有學習能力,引起侵權事故的原因既可能是設計生產階段已經存在的缺陷,也可能是人工智能自主學習后產生的“危險”。而因人工智能學習引起的危險是否屬于“缺陷”,在目前法律規定中尚不明確。
人工智能侵權責任主體與歸責機制
生產和設計者是人工智能侵權責任主體。目前人工智能還處于高級函數的階段,不具備侵權的主觀意志,也不具有承擔侵權責任的能力。人工智能侵權還是表象,本質上仍然是有安全注意義務的人由于故意或過失而未履行相應義務,而導致人工智能侵權危險的發生。對人工智能侵權負有安全注意義務的,應當是有能力知曉人工智能工作機理并控制人工智能行為的人。一般情況下,應該是人工智能的生產者和設計者。由于人工智能構成的復雜性,產品的瑕疵或缺陷是發生在算法設計、調試階段,還是發生在機器學習訓練、測試生產階段,又會決定該歸責于設計者或生產者。在人工智能時代,設計者和生產者常常是分離的,所以這是兩類不同的侵權主體。
嚴格適用產品責任免責事由。人工智能侵權主要適用產品責任,侵權法和產品質量法規定了生產者的三類免責事由:(一)未將產品投入流通的;(二)產品投入流通時,引起損害的缺陷尚不存在的;(三)將產品投入流通時的科學技術水平尚不能發現缺陷的存在的。由于大量人工智能產品屬于技術前沿成果,人工智能算法或程序中確實存在一些生產者(設計者)無法預見的瑕疵或缺陷,這三類免責事由仍有適用空間。一方面應寬容創新,對于開發者能夠證明已盡力避免,而以當時認知和技術水平確實無法發現的缺陷風險,應當免除開發者的責任;另一方面應嚴格適用免責事由,嚴格規范開發者涉及人身、財產安全的人工智能程序開發行為,強化開發者安全注意義務,預防人工智能侵權風險發生和累積。
建立人工智能責任機制。一是逐步建設人工智能產品標準,使開發者明確其產品需要滿足的保障人體健康和人身、財產安全的國家標準或行業標準,避免出現缺陷產品。引導行業建設人工智能開發者安全注意義務準則,加強行業自律規范。二是建立人工智能缺陷產品召回機制,建立算法變化節點時間表機制。對發現缺陷后的產品應及時召回或停止提供服務,并評估人工智能算法的變化節點,排查變化原因,明確引起變化并導致侵權的責任主體。三是探索類似交強險的人工智能責任險。由于人工智能可能存在無法歸責于使用者,也不宜歸責于生產設計者的侵權風險,可以設立人工智能責任險,及時為被侵權人提供救濟,分擔開發者風險,保障行業健康發展。