夏利民,王慶松
隨著人工智能在交通、醫(yī)療、生產制造、金融乃至生活服務等各領域的廣泛應用,其引發(fā)的侵權責任認定和承擔問題備受關注。在人類使用人工智能過程中,由于智能機器或設備開發(fā)以及系統(tǒng)缺陷、人類錯誤操作、人類與操作系統(tǒng)之間的交接等方面的原因,可能發(fā)生各種事故致使對他人的人身或財產帶來嚴重的損害。責任保險關注損害填補和責任轉移,增強了人工智能產品生產者的賠付能力,為民事責任的分配和承擔提供了新的思路和解決方案。因此,如何通過責任保險制度安排解決侵權救濟并兼顧智能技術創(chuàng)新發(fā)展,成為需要深入探討的重要問題。
根據我國《保險法》第65條,責任保險是以被保險人對第三者依法應負的賠償責任為保險標的的保險。沒有民事責任制度,就不會有轉嫁責任風險的要求,也就沒有投保責任保險的必要。責任保險人支付的一切賠償都以侵權法確定致害人的責任為前提。因此,要構建人工智能侵權責任的保險制度,首先要厘清侵權責任的分配與承擔。而厘清責任需要在對各方參與人權利、義務及責任全面考察的基礎上,構建以受害人救濟為主要功能的責任體系。人工智能侵權行為的法律連接點主要有兩個:一是所有人或使用人;二是生產者或系統(tǒng)開發(fā)者。當人類的決定被人工智能的自主決定所替代時,人工智能自身需要對侵權行為承擔責任,這就涉及獨立法律人格問題。
人工智能侵權責任制度為相應責任保險制度提供了理論基礎。但如果建立了以生產者為主的責任體系,對生產者課以過重的責任,則會影響其開發(fā)和推廣人工智能新技術的積極性。而責任保險安排則有利于顯著降低生產者經營成本,同時又具備及時、充分救濟受害人的功能。不過,現(xiàn)有責任保險制度建立于非智能時代的法律背景之下。當前,很多人工智能機器或設備已屬于強人工智能,其運行不再主要依賴人類操作者,而是能夠獨立做出決定,這意味著人類可能并不需要對其行為承擔全部的責任。傳統(tǒng)上,自動化機器或機動車等的責任保險的投保主體主要是所有人、使用人等,保險責任范圍并未覆蓋系統(tǒng)缺陷造成的損害;而對于自主化的人工智能,是否應將生產者(包括設計者,如系統(tǒng)另有他人開發(fā))等的責任納入責任主體體系,并設定強制投保義務等成為考慮重點。
當前,人工智能技術尚未成熟,責任保險制度的實施會增加保險公司的賠付費用,加重保險人的保險責任,進而增加投保人的保費負擔,因此有必要建立保險人代位求償權制度,賦予保險人向過錯侵權人的代位求償權。同時,在保險人追償時確定具體的侵權責任,并通過保險人代位求償制度將“過錯”(特別是智能系統(tǒng)缺陷)舉證責任壓實給生產者、設計者,避免受害人救濟賠償?shù)难舆t。
從責任保險的法律關系來看,各方當事人之間存在兩個獨立的法律關系:保險關系與侵權責任關系。兩種法律關系因人工智能的介入變得更為復雜。而責任保險以侵權人對受害人應負的侵權責任為保險標的,因此構建人工智能責任保險制度必須先厘清人工智能侵權的基礎法律關系,進而完善侵權責任分配與承擔規(guī)則。隨著人工智能越來越普及,對涉及人工智能的事故或事件的責任進行分配將會變得越來越普遍。侵權責任法最重要的立法目的就是保護民事主體不受侵害及受到侵害時得到及時救濟,因此,應將受害人救濟作為完善人工智能侵權責任制度的首要考量因素,以此確定侵權責任分配與承擔的各項規(guī)則。
1.各侵權主體及其責任分配
人工智能致?lián)p的侵權責任涉及的法律主體主要有:所有人或使用人、生產者或開發(fā)者以及人工智能機器或設備自身。智能化背景下,這些主體的責任分配與承擔發(fā)生了新的變化。
(1)所有人或使用人不再是主要的責任主體
現(xiàn)行侵權責任制度是以人類行為和決定為中心構建起來的,即機器的所有人或使用人是侵權責任承擔者。但當人類將操作權交給智能系統(tǒng)后,人工智能就可以在獨立于人類干預的情況下自主做出決定,這時再由所有人或使用人對侵權損害承擔主要責任不盡合理。以智能駕駛為例,當駕駛權從人類轉移到智能機器,在人類駕駛人不存在主觀過錯甚至身份轉變?yōu)槌丝偷那闆r下,從智能駕駛行為的控制和利益的角度考慮,智能機器造成的損失不應歸咎于所有人或使用人。此時,所有人或使用人只是在少數(shù)特定情形下,因不當行為造成人工智能發(fā)生事故時才會承擔侵權責任。英國2018年實施的《自動與電動汽車法案》(The Automated and Electric Vehicles Bill,AEV法案)規(guī)定,如果被保險人(車主)或被保險人知情的情況下(一般是司機)未經授權對機動車軟件系統(tǒng)進行更改或未更新對機動車安全至關重要的軟件而導致交通事故發(fā)生的,被保險人應當承擔事故的責任。
(2)生產者、設計者或銷售者因產品缺陷承擔責任
人工智能在沒有發(fā)生系統(tǒng)程序故障的情況下,也同樣可能發(fā)生事故導致?lián)p害,這時并不能認定人工智能存在產品責任,因為產品在生產、銷售和使用的各個環(huán)節(jié)中均可能遭受毀損。只有在損害事故歸因于軟件系統(tǒng)時,才可將人工智能機器或設備看成產品,從而適用產品責任,即當涉及人工智能的事故是由于產品缺陷造成的,相應責任才會被分配給生產者、設計者、銷售者等。智能系統(tǒng)的缺陷可能是設計缺陷、制造缺陷或警示缺陷。
因此,在智能系統(tǒng)下自主運行時,其因系統(tǒng)缺陷造成損害的責任應當由所有人、使用人之外的其他主體替代承擔,其中,產品的生產者是主要的責任承擔者。當前,主張主要由人工智能生產者承擔侵權責任已漸成主流觀點。當人工智能產品存在設計缺陷,而開發(fā)設計另有他人時,設計者應承擔相應的侵權責任。如果在產品流通的某個環(huán)節(jié)造成了毀損導致智能系統(tǒng)缺陷,則可能需要由銷售者承擔相應的責任。對于受害人來說,由于很難證明智能系統(tǒng)是否存在缺陷,為及時得到救濟應對此侵權損害實行無過錯責任。但如責任過重,也會阻礙生產者發(fā)展人工智能的積極性。為此,必須有保險制度幫助生產者承擔產品風險。
(3)人工智能本身在具備主體資格的情形下承擔責任
在人工智能正常運行的情況下,人類只是一個啟動或終止運行的角色。當人工智能獨立于人類自主做出決定時,如果損害的發(fā)生不能歸責于人工智能之外的原因,同時人工智能產品也不存在缺陷,那么賦予人工智能法律人格,讓其為自己的侵權行為承擔責任就是最好的選擇。此時人工智能成為侵權責任主體,但這引發(fā)了關于人工智能主體資格的質疑。
2.人工智能的法律主體資格
人工智能的法律主體資格即法律人格是近年來頗具爭議的話題。隨著強人工智能的逐步推廣與普及,“主體論”的呼聲也越來越高。
(1)人工智能法律人格的證成
關于人工智能法律人格,總體上有“主體論”和“客體論”兩種觀點,爭論的焦點在于它是法律關系的主體還是客體。需注意的是,爭論只發(fā)生在強人工智能背景下。在弱人工智能時代,人工智能只是法律關系中的“客體”。根據民法的基本原理,意思表示是法律行為的核心要素。強人工智能不依賴人類即可做出相對獨立的思考和行動,具備了獨立意思表示能力。因此,有些學者提出了“主體論”。
首先,法律人格的適格性以人工智能功能的復雜性為前提,其要具備獨立學習、思考和決策的能力。因此,“主體論”和“客體論”將爭議聚焦于“意思表示”,但是,意思表示是法律行為的成立要件,并非法律人格的前提。法律人格由國家通過法律規(guī)定或認可。如果從“法人”人格賦予的法理推論,是否具有獨立意思表示能力并不影響“擬制”人格的確定,法人是擬制的,其意思表示借助一定自然人(如法定代表人)完成。同理,人工智能自身能否獨立意思表示,并不影響法律對其賦予擬制人格。此外,意思表示方式只是形式問題,而非實質要件,應容許不同于自然人的“意思表示”方式。其次,法律人格的正當性以簡化人工智能參與法律關系的復雜性為必要,這是法律人格的實踐意義。當初,賦予“法人”或“其他組織”以擬制人格,確實簡化了法律關系以及法律行為涉及的權利、義務和責任分配問題。主體論充分評估了人工智能自我意識的獨立性,充分考慮了人工智能未來發(fā)展對法律人格體系的沖擊,預留了法律對未來社會關系的復雜性、虛擬性以足夠的調整空間。但將人工智能納入法律主體體系面臨的最大問題是,法人是由背后的代理人或代表人為意思表示,而人工智能卻在試圖“擺脫人類的控制”。同時,一旦賦予人工智能以法律人格,即意味其具備獨立承擔法律責任的能力,這就必然涉及財產歸屬,或通過其他途徑(如保險)解決其賠償責任的能力問題。
實踐中,在當前及今后相當長的一段時間內,各種技術等級的人工智能仍會并存。因此,筆者以為,應以德國學者薩維尼的擬制人格說作為人工智能法律人格的法理基礎,從社會現(xiàn)實性和規(guī)制必要性出發(fā),對法律人格認定實行“雙軌制”:對弱人工智能不賦予法律人格,而對經過依法嚴格認定的強人工智能賦予主體資格。
(2)人工智能法律人格的認定
賦予人工智能法律人格會帶來一系列法律后果,因此,人工智能法律人格的適格性要經過權威部門的嚴格認定,包括技術適格性和專業(yè)適格性,即“雙重許可”。
首先,人工智能的技術適格性意味著不僅要達到一定的智能化程度,而且還要具有物理意義上的“獨立性”,一般來說應當是具有一定外在形體的智能設備,而不只是附著于互聯(lián)網的某一或若干碎片化的功能。人工智能在技術上的智能化程度和獨立、完整性應由技術部門(如科技部、工信部等)認定并進行登記注冊,生成專屬編號,對其功能、用途及性能做出精確說明。其次,人工智能的專業(yè)適格性是其行業(yè)準入標準,應由行業(yè)監(jiān)管部門(如銀保監(jiān)會)或委托的機構認定并頒發(fā)許可證書,取得特定經營資格。人工智能不僅要具備能獨立完成分析、判斷和決策的能力,還應考慮特定領域的法律倫理及法技術性。如人工智能用于保險領域,就要內嵌相應的功能程序,使其能秉持保險法所特有的法律倫理,避免逆向選擇和道德風險,堅持最大誠信、損失補償、近因、保險利益等基本原則,以及由此衍生的特定主體告知義務、說明義務等所主導的具體規(guī)則,推進人工智能以最大善意訂立保險合同。
無論是強人工智能還是弱人工智能,實際上都很難甚至無法探尋其在侵權關系中是否具有過錯。同時,為了給受害人以及時、充分、有效的救濟,特別是在遭受嚴重人身傷害時,應以無過錯責任為宜。對于弱人工智能來說,智能機器人系統(tǒng)存在的瑕疵(缺陷)造成他人權益的損害,可根據產品責任予以追責。而產品責任屬于無過錯責任,只要產品存在缺陷,生產者或銷售者就應當承擔侵權責任,而無須證明其存在過錯。對于強人工智能來說,即便其具有獨立意識,通過自主的決定為一定的行為,但其依然需要依靠人來生產、制造方能得以存在,設計者、生產者所設定之目的對其后續(xù)自主性有決定性的影響。若設計者、生產者出于善意設計、制造的智能機器人侵犯了他人的權益,他人無須證明智能機器人過錯與否,也應以“無過錯責任”對智能機器人予以歸責。
基于上述分析,受害人可基于產品責任和替代責任追究人工智能的侵權責任,所有人或使用人僅在少數(shù)特定情形下承擔侵權責任。其實,強、弱人工智能均為智能化的“產品”,都可追究其產品責任,但是前提條件是存在缺陷。智能系統(tǒng)在設計或制造上是否存在缺陷,由生產者及設計者承擔舉證責任,可這通常又很難做到,但因實行的是“無過錯責任原則”,因此不影響受害人及時得到賠償。這也是責任保險制度發(fā)揮作用的優(yōu)勢所在。通過責任保險賠付受害人,避免了因責任認定導致訴訟拖延而影響救濟的及時性。如“產品”并不存在缺陷,則可依據替代責任規(guī)則,追究人工智能的侵權責任。強、弱人工智能在主體性上的差異導致二者在承擔責任上存在差異:強人工智能具有主體資格,可直接承擔侵權責任,但最終由智能系統(tǒng)的生產者、設計者承擔;弱人工智能不具有主體資格,其責任直接由智能系統(tǒng)的生產者、設計者承擔。賦予強人工智能以擬制的法律人格,可以將運行過程中產生的相關智力成果和大量數(shù)據財產歸屬于人工智能,形成特有的財產權利體系,并以此承擔侵權責任,增強其法律責任能力。這一點在智能化、數(shù)據化的背景下具有重要的法律意義。
首先,人工智能模擬人腦運作,可以自我創(chuàng)建超出預設程序以外的智力成果,產生具有一定財產價值的知識產權,主要包括專利權、商業(yè)秘密、商標權、著作權等。但將其歸屬于人工智能本身應有一定的前提條件,即應根據智力成果對人類輸入的依賴性程度來判斷。只有當人工智能成為“創(chuàng)造性主體”,且直接承擔了創(chuàng)造性工作,代替人類成為獨創(chuàng)性成分的主要乃至全部來源的情況下,其創(chuàng)作物才能歸屬于人工智能。否則,即便在主體論下,如其智力成果主要依賴人類輸入生成,仍不應歸屬于人工智能。關于這些知識產權歸屬,筆者主張借鑒職務作品相關規(guī)則并加以擴展,將知識產權直接歸屬于人工智能并由所有人或使用人代位管理。
其次,人工智能運行的基礎是海量數(shù)據收集與處理,這正是人工智能主要功能及技術的優(yōu)勢所在。同時,其在運行過程中,還會積累、儲存甚至加工形成大量的數(shù)據。在可復制性、稀缺性、真實性和價值的不確定性基礎上,數(shù)據資源的基本特性基本滿足了作為財產權利客體的重要特性。我國《民法典》第127條確認了數(shù)據財產權:“法律對數(shù)據、網絡虛擬財產的保護有規(guī)定的,依照其規(guī)定。”但“數(shù)據”權利邊界、該權利與人工智能歸屬和控制權之間的關系等仍有待明確。
人工智能侵權責任制度通過將侵權責任分配與承擔的重心轉移給生產者,從而能給受害人以及時、充分和有效的救濟。但這繼而帶來一個不可忽視的問題,即高昂的賠償成本可能會阻礙生產者對人工智能的研發(fā)及制造。若對人工智能實行責任保險制度,通過一個較低額度的保費支出將責任風險轉移給保險人承擔,則可大大降低這種經濟成本,解決現(xiàn)有民事責任承擔不足的問題。因此,責任保險制度的設計除了救濟功能外,還要考慮生產者的責任風險的降低與轉移。鑒于人工智能的高風險特征,對于生產者責任宜采取強制保險,而對于其他主體則可以商業(yè)保險形式予以輔助。
人工智能作為一種高科技產物,給人類的生產、生活帶來了不可預測的風險,將人工智能納入強制責任保險范疇非常必要。近年來,我國多地對自動駕駛車輛道路測試建立了強制責任保險。但是,在具體采取哪種保險模式上存在不同觀點。
1.“雙軌制”模式
人工智能與傳統(tǒng)機器不同,它擁有相對自主權和更高的智能水平,因此所有人或使用人的法律責任與生產者、設計者的法律責任,在性質及范圍上都不相同。前者屬于對第三者的侵權責任,后者則屬于產品責任的范疇。因此,可分別投保不同形態(tài)的責任保險,即前者投保智能機器事故責任保險,后者投保智能機器產品責任保險,建立“雙軌制”的保險模式。以自動駕駛為例:與自動駕駛汽車自身部件如傳感器、攝像頭、雷達、控制器等設備相關的事項,由生產者投保;因未盡到嚴格的檢查、維修義務或未按法律規(guī)定使用汽車等原因造成的交通事故,由汽車所有者投保。
2.“單一制”模式
隨著人工智能技術發(fā)展和應用升級,所有人或使用人角色逐漸發(fā)生變化,不同類型的保險出現(xiàn)統(tǒng)一化趨勢。在保險制度的輔助下,自動駕駛領域的產品責任和機動車保有人(所有人)責任存在合并為制造商無過錯責任的可能,而不再考慮產品缺陷的認定問題。英國AEV 法案采用了“單一保險模式”(A Single Insurer Model),使得汽車保險同時涵蓋了人類駕駛員駕駛汽車的行為以及車輛自主行駛導致的損失。
3.區(qū)分實行“雙軌制”或“單一制”模式
責任保險模式與智能技術研發(fā)與應用的程度密切相關。“單一制”適用于生產者與行為控制者同一或重疊的情形,“雙軌制”適用于生產者與行為控制者區(qū)分的情形。也就是說,智能機器生產與智能服務分離的情形,“雙軌制”具有優(yōu)勢;在智能機器生產與智能服務合一的情形下,“單一制”更具優(yōu)勢。筆者認為,在智能機器的控制權交由機器自身自主行使的情形下,人類操作者(即所有人或使用人)所應承擔的責任與智能系統(tǒng)生產者所承擔的責任并不在一個層面上。首先,既然智能機器由智能系統(tǒng)控制,此時責任承擔者自然應指向生產者、設計者,所以生產者、設計者的責任是第一位的,因此總體上應取“單一制”強制保險模式。但是所有人或使用人并不能完全置身事外,在保險人已承擔賠付責任的情況下,可再根據所有人或使用人對事故的發(fā)生是否有過錯,來分析和認定其應否承擔責任。即所有人或使用人在“單一制”保險模式下,可根據自身風險偏好決定是由自己承擔賠償責任,還是通過自愿投保商業(yè)責任保險將風險予以轉移。
根據“保險利益原則”,投保人應當是對保險標的具有保險利益的主體。就責任保險而言,保險利益主要是投保人依法對他人承擔的賠償責任。因此,人工智能投保人對其侵權責任進行投保。目前,各國對人工智能侵權損害均主張實行強制保險,因此投保人負有特定的投保義務,而對于商業(yè)責任保險,投保人則可根據自己分散和轉移責任風險的需要決定是否投保。關于人工智能侵權損害的相關責任人對強制責任保險的投保義務的設定,以及對商業(yè)責任險的投保問題,主要存在以下情形:
1.所有人或使用人作為投保人
傳統(tǒng)的機器或者弱人工智能設備的責任保險,都以所有人或使用人為投保人。如機動車保險,無論是交通事故責任強制保險(后簡稱“交強險”),還是商業(yè)第三者責任險,都由車主進行投保。但是對智能機器來說,主張由所有人或使用人投保的,主要有兩種情形:
一是仍單獨由所有人或使用人進行投保。有學者主張對于自動駕駛汽車,仍由所有人或管理人投保交強險。其認為,從交強險的設計原理看,投保義務人早已實現(xiàn)了與責任義務人的分離。交強險上存在“共同被保險人”的法律擬制,投保義務人只是“記名被保險人”,并不能簡單地將交通事故責任主體認為是交強險的投保主體。
二是由所有人或使用人與生產者共同或分別進行投保。有學者主張讓制造商為每一輛智能汽車的交強險支付一部分保費,從而將制造商納入原本提供給車主/司機的汽車交通事故責任保險,成為額外的被保險人。也有學者主張分別針對所有人或使用人、生產制造商設計不同的責任保險,并由不同主體承擔不同的投保義務。如此,一方面避免所有人或使用人承擔過重的責任,另一方面也符合權責一致原則。其認為,在完全自動駕駛階段,人類駕駛員不需要再接管汽車,風險主體發(fā)生轉移,交通模式也發(fā)生顛覆性變革,因此可強制汽車生產者與所有人分別為自動駕駛汽車投保,前者投保汽車產品責任保險,后者投保交通事故責任保險。
2.生產者、設計者作為投保人
由生產者(包括設計者)作為強制責任保險的投保人,也存在兩種情形:一是由生產者作為單獨投保人。有學者認為,自動駕駛型道路交通事故侵權責任的分擔以自動駕駛汽車的技術分級為前提,L4—L5 層級中智能系統(tǒng)完全取代了人類駕駛者,人類駕駛者無須承擔任何注意義務。此時,可以將生產者作為交強險單獨投保人。此種做法免除了車主投保交強險的義務,基于產品責任引發(fā)的事故由生產者單獨承擔責任。二是由生產者、設計者與所有人或使用人作為共同投保人。前已論及,不再贅述。但如果在生產者之外,人工智能另有設計者,則應由設計者對于可能存在的設計缺陷所造成的責任投保強制保險。
3.人工智能作為投保人
在人工智能取得主體資格的情況下,其作為投保人并沒有法律上的障礙,如人工智能為所有人或管理人在網上購物,通過自己的判斷勾選退貨運費險等,此時人工智能是適格的投保人,應當認可其締結保險合同的法律效力。但是,當對人工智能實行強制責任保險時,它可能并不一定能有效實施投保行為,此時其投保行為可由所有人或使用人,或者生產者代為行使。對此,筆者認為,可仍由生產者代為投保,但將“投保義務”歸于人工智能自身。而且,在保險人履行賠償義務后向人工智能追償時,應首先以歸屬于人工智能的財產權(如知識產權、數(shù)據財產權等)作為第一位承擔責任的基礎財產。
綜上,應建立統(tǒng)一由智能系統(tǒng)承擔投保義務的強制責任險,這一義務由生產者承擔,即便人工智能具有主體資格,因這一投保義務需要在人工智能投入實際應用之前完成。而所有人或使用人可就自己承擔的侵權責任自愿投保商業(yè)第三者責任險,侵權責任涉及的過錯行為包括未經授權更改軟件或未及時更新軟件,以及未盡必要的注意義務等。
人工智能強制責任保險的賠償建立在侵權人無過錯責任的基礎上,即只要在責任保險范圍內的損害,保險人都有給付保險金的義務,而無須被保險人證明自己是否有過錯。在強制保險之外,由侵權責任人或商業(yè)責任保險人承擔賠償責任。
1.保險責任限額的設定
責任保險的標的是法律責任風險,保險金額具有限額化特征,即投保人和保險人只能約定保險責任的最高限額即責任限額,而保險人給付均以合同約定的這一金額為限。強制責任保險與商業(yè)三者險有所不同的是,前者由法律法規(guī)設定統(tǒng)一的責任限額,保險人按統(tǒng)一標準收取確定金額的保費;而后者則由投保人與保險人協(xié)商確定責任限額,保險人按照最大賠償責任限額計算保費標準。就人工智能侵權責任強制保險而言,保險人理賠不足的部分,即超出責任限額之上的部分,仍由相關責任人予以賠償。
由于人工智能生產者是巨額利潤的主要受益者,故由其承擔第一位的投保義務,如系統(tǒng)另由第三方開發(fā)設計,則由該第三方承擔系統(tǒng)相關的投保義務,生產商投保限額相應扣減。通過保險制度,生產者和設計者大大降低了自身的風險成本和責任負擔,有利于促進智能產業(yè)的發(fā)展。強制保險期間要覆蓋人工智能壽命,如10~15 年,一般應在投入使用前一次性投保。法律可設定一個累計的賠償限額,高于強制保險責任限額的賠償,仍由原有侵權責任人承擔,或者在相關責任人投保的情況下,由商業(yè)責任保險人承擔。
2.責任保險人給付的前提條件
關于責任保險人在何種情形下負有給付義務,有兩種不同的觀點:(1)當被保險人因致人損害行為而對第三人負有損害賠償責任時,保險人即開始負給付保險金義務,即以被保險人是否對第三人負民事賠償責任為標準,判斷保險人是否負保險金給付義務。(2)被保險人事實上造成第三人損害,負有損害賠償責任,而且第三人也向被保險人提出損害賠償請求,保險人開始產生保險金給付義務。反之,即使被保險人事實上對受害人負有損害賠償責任,只要受害人未提出損害賠償請求,保險人也沒有保險金給付義務。
筆者認為,責任保險人的給付義務產生于相關主體的民事責任,只要人工智能致?lián)p事故發(fā)生,相關當事人對事故的發(fā)生負有民事責任,保險人就產生保險金給付義務;而受害人提出賠償請求,只是行使救濟權利的具體行為,而不是實體權利產生的前提。因此,為了促進人工智能應用推廣和救濟受害人權利,強制責任保險制度應對人工智能所有人或使用人設定主動行使保險賠償請求權的義務。
3.受害人的直接請求權問題
按照合同的相對性原則,受害人是責任保險合同之外的第三人,不能根據保險合同直接向保險人提出賠償請求,只能向被保險人提出賠償請求。但是,由于人工智能強制責任保險的被保險人通常是生產者,而此時智能機器或設備已經交由所有人或使用人,很難保證生產者能夠積極配合保險理賠行為。因此,有必要明確賦予受害人向保險人的直接請求權。
我國現(xiàn)行《保險法》并未直接規(guī)定第三人的直接請求權,而是采取淡化合同相對性的方式,賦予受害人一種附條件的請求權。根據該法第65條,責任保險人根據被保險人的請求向受害人賠償保險金,只有被保險人怠于請求的,受害人才能直接向保險人提出請求。甚至在強制責任保險中,也未直接規(guī)定受害人的直接請求權,如《機動車交通事故責任強制保險條例》第31條規(guī)定,保險公司可以向被保險人賠償保險金,也可以直接向受害人賠償保險金,這只是將直接賠償對象的選擇權交給了保險人而不是受害人。有學者主張,強制保險是對受害人最為有利的保護,受害人無須證明過錯,可以直接向保險人請求賠償,保險公司通常不會出現(xiàn)資力不足的問題。因此,出于人工智能強制保險的獨特性和受害人救濟的便利性考慮,應授予受害人以保險賠償?shù)闹苯诱埱髾唷?/p>
保險人在向受害人履行給付義務后,如能對過錯方行使代位求償權,既可避免相關責任方對他人的不當行為承擔責任,又有利于降低保險人的經營成本,繼而由保險人通過降低保費支出將利益返還給投保人,同時提高生產者技術革新的積極性,推進人工智能技術的廣泛應用,從而最終達成人工智能相關當事人利益的最大化。
1.代位求償權的責任基礎
人工智能責任保險的代位求償制度以相應侵權責任制度為基礎,即保險人代位求償權要以各方主體侵權責任的分配和承擔為基礎。目前,已有多國針對人工智能建立了侵權責任的代位求償制度,這為保險代位求償制度提供了底層邏輯。以自動駕駛為例,車主承擔賠償責任后可再向有責任的第三方請求賠償。根據德國2017年《道路交通法第八修正案》,自動駕駛系統(tǒng)發(fā)生故障造成事故的,車主向受害人賠償后可向汽車生產者請求賠償。類似的,根據英國AEV法案,車主對受害人做出賠付后,可以向事故責任人請求賠償。如前所述,為了給受害人及時、充分的救濟,免除受害人承擔不適當?shù)呐e證責任負擔,人工智能侵權責任實行無過錯責任,作為進一步轉移責任風險的保險制度,自然也應當按照無過錯原則進行賠付。即事故發(fā)生后,保險人按照“無過錯責任原則”先賠付受害人,之后再向相關責任人追償。
2.侵權人“過錯”對代位求償權的影響
保險人行使代位求償權,是否以侵權責任人過錯為前提條件是一個存在爭議的問題。從保險法關于代位求償權的傳統(tǒng)觀點來看,第三人的主觀過錯狀態(tài)不影響保險代位權,只要被保險人對第三人的損害賠償請求權成立,保險人的代位權就沒有任何理由予以否定。但為避免責任過重影響人工智能的生產或消費,保險人追償應堅持“過錯責任原則”。分析機器人的過錯行為是機器人創(chuàng)制者的技術漏洞導致智能系統(tǒng)瑕疵而致?lián)p,抑或是智能機器管理人的不當使用所致,以查找侵權主體構成并分擔賠償責任。過錯責任原則既限制了保險人的追償權,使保險人適當分擔賠償責任,也避免了過錯侵權人逃脫法律責任,這也是代位求償制度的重要社會功能之一。
但保險人在追究過錯侵權責任時,無論是對于生產者、設計者在智能系統(tǒng)缺陷方面,還是對于所有人或使用人在擅自更改軟件或未更新軟件,或者在未盡必要注意義務方面,都難以證明其“過錯”,因此保險人追償應在“過錯責任原則”之下追究相關責任人的過錯推定責任。如在生產者無法證明自身不存在過錯時,則推定其有過錯,那么被侵權人無須證明生產者在設計、制造、指示和產品監(jiān)督中未盡到注意義務。當生產者或設計者以及所有人或使用人能夠證明自己不存在過錯時,則免于承擔相應的責任。因此,在投保了強制責任保險的情況下,相關責任人無須再承擔無過錯責任。
根據我國《保險法》第60條,行使代位求償權的對象是對保險標的造成損害、導致保險事故的第三人。因此,在人工智能侵權損害中,對損害發(fā)生有法律責任的當事人,保險人有權請求其賠償。如前所述,在人工智能侵權損害方面,可能負有法律責任的主體主要包括:(1)所有人或使用人;(2)生產者及其智能系統(tǒng)的開發(fā)設計者;(3)人工智能自身。在人工智能侵權的情形下,可能成為求償對象的主要是生產者和所有人,而這二者可能正是對自身責任風險進行投保的主體,這就引發(fā)了投保人能否成為代位求償對象的爭論。對此,有學者認為,我國法律并沒有禁止保險人對投保人開展追償。雖然投保人是保險合同的當事人,但如果確實造成了保險標的的損害,就可以構成代位求償中的“第三人”。這一點對于人工智能侵權責任非常重要。在智能系統(tǒng)的操控下,人工智能所實施的行為,其法律責任的主要承擔方就是生產者,而生產者恰恰就應當是相應責任保險的投保人。
除所有人或使用人、人工智能生產者可能成為代位求償對象外,當智能系統(tǒng)被黑客攻擊造成對第三人損害時,保險人進行賠付后,有權對實施侵權行為的黑客進行代位追償。當然,在這種情形下,保險人找到承擔責任的黑客,比認定生產者是否應對智能系統(tǒng)缺陷負有法律責任可能要更為艱難。
保險代位求償制度是損失補償原則的派生制度,其社會功能之一,就是防止被保險人不當?shù)美8鶕kU法上的損失補償原則,被保險人不能因發(fā)生保險事故,獲得保險人的賠付而獲得額外的利益。而相應的,保險人也不應通過代位追償獲得額外的利益。因此,代位求償?shù)慕痤~不得超過保險人給付的保險金。如果保險人從第三人處取得的賠償金超出了其已支付的保險金,保險人應將超出部分返還。第三人也可基于不當?shù)美笃浞颠€。
保險人代位求償權的另一個金額限制是,相關責任人只在自身責任范圍內向保險人給付追償款,即盡管追償對象對事故損害負有責任,保險人也可能難以追償?shù)狡淙抠r付支出。需要注意的是,人工智能在應用過程中產生的知識產權和數(shù)據財產,在人工智能取得法律人格的情形下應歸屬于人工智能自身,保險人先行賠付后,可在保險金范圍內優(yōu)先以這些財產利益實現(xiàn)自身追償收益,作為財產管理人的所有人或使用人也有協(xié)助的義務。
此外,保險人在行使代位求償權時,如果求償對象為所有人或使用人,則其應配合保險人實現(xiàn)追償權益;如果求償對象為生產者,則所有人或使用人也應提供或配合保險人獲取生產者有關情況或信息,以便于保險人行使代位求償權。
智能時代,應建立適應新的技術背景的強制責任保險制度,以彌補人工智能侵權責任分配和損害救濟的缺陷與不足,使所有人或使用人、生產者及設計者、保險人等各方參與人之間的利益關系建立新的平衡。構建責任保險制度要以各方主體侵權責任的分配與承擔為基礎,因此,首先要建立以受害人救濟為主要功能的責任體系。人工智能強制責任保險要以生產者為主要投保義務人,以適應人工智能主體性特征,將保險制度的重心由人類操作者向智能機器轉移。其次,建立保險代位求償制度。保險人在理賠后可以向責任人進行追償,以減輕保險人賠付支出,提高保險人承保的積極性,進而降低生產者轉移風險的經濟成本,同時也通過壓實責任促進人工智能技術的不斷進步。在人工智能強制責任保險制度構建過程中,應始終將侵權責任分配貫穿侵權行為認定、責任保險安排和保險人代位求償權規(guī)則設計等關鍵環(huán)節(jié),最大限度地妥善安排和保障各方利益。