魏銀秀
摘要:隨著人工智能時代的到來,人工智能技術已經廣泛應用于人們的生活。人工智能的出現在給人類帶來便利的同時,還帶來了巨大的挑戰。本文將著眼于人工智能帶來的法律倫理問題,展開討論在面對這些問題時,可遵循的法律原則以及可借鑒的法律規制。
關鍵詞:人工智能; 法律倫理; 法律規制; 法益位階
一、人工智能帶來的法律倫理問題
人工智能在給人類帶來便利的同時,也帶來了許多社會問題。如人工智能侵權時該如何確定責任分配的問題,人類失業問題,對人類情感的挑戰問題等,都加深了人機關系的緊張性。本文主要討論以下三個社會問題。
(一)人工智能的侵權責任主體認定問題
人工智能的出現對現行法律的適用帶來了巨大的挑戰。有學者將人工智能分為三個發展階段,一是弱人工智能階段,二是強人工智能階段,三是超人工智能階段。弱人工智能階段的機器人停留在完成簡單的特定任務,是一個優秀的數據處理者。強人工智能階段是具有人類簡單思維的人工智能,可以在人類提前設定下,有意識的進行思考。而超人工智能階段,機器人的思維遠超于人類,能夠獨立思考,創作,進行社會交流。目前的人類社會仍處于強人工智能階段,近年來無人駕駛機器、醫療機器人等引發的侵權問題,使得認定人工智能侵權主體的問題愈加緊要。
傳統民法上,機器人僅能歸屬到“物”這個客體之中,但如今機器人的發展已經能夠自主運用信息,因此學者提出對該分類提出質疑。歐盟的法律事務委員會向歐盟委員會提出議案,認為超人工智能的機器人可增設歸為“電子人”,除享有獨特的權利和義務外,還應當為其進行登記、納稅、享有人類福利。而國內部分學者堅持機器人不宜認定為法律主體,因為機器人不是具有生命的自然人,也不同于法人,若固執的將其納入法律主體中,在法理上是站不住腳的。
在實踐中,機器人的損害主要有三種,一種是第三人對人工智能的系統進行破壞,使得機器人成為“兇手”;一種是開發者對軟件設置的過失,使得機器產品本身帶有缺陷;最后一種是機器人的所有者在使用過程中因過失產生的損害。而目前人工智能侵權責任的認定,法院主要是根據侵權責任法中產品所有人的責任以及生產者、銷售者的過錯責任來認定。
(二)人工智能產生人類失業的問題
人工智能在幫助人類完成復雜危險工作的同時,也給人類就業問題帶來了挑戰。根據《未來產業: 自動化、就業與生產力》報告指出,在對超過2000 多種工作種類以及800 多個職業的調查發現,不少于30%的工作在技術上可以實現自動化,超過95%的工作依舊無法實現完全自動化。人類利用機器人工作,生產力每年即可提高 0.8%-1.4%。因此,隨著人工智能在技術領域越來越精準,機器就會替代了人,而原本在這些行業的工人就會面臨著失業,給社會經濟帶來消極影響。
(三)人工智能破壞人類情感倫理的問題
人工智能會破壞人類長期形成的情感倫理。人類對人工智能的情感設定,機器人便能自由表達“自己”的情感,但是機器人并不能像人一樣擁有細膩且復雜的情感,不具有自發的人情世故,使得其表達過程中,會誤解或者褻瀆人類情感。比如美國,日本等國家相繼研發出了“性愛機器人”,這種伴侶的情感是人類在長期社會生活中形成,但是該機器人的情感卻根據廠家設定而千篇一律。
二、應對人工智能問題的法律原則
人工智能的迅速發展,由于社會適應的解決機制滯后于其發展速度,因此明確解決人工智能問題的法律原則非常重要。法律原則是法律規則的指導思想。因此法律原則無論是對相關人工智能法律的創制還是對處理人工智能的法律問題都具有重要的意義。本文將介紹處理人工智能的兩個原則,即個案平衡原則以及比例原則。
(一)個案平衡原則
個案平衡原則是指相同地位的法律價值之間發生碰撞時,要具體考慮案件情況,考慮各方的利益。個案平衡原則提出了以下要求,其重要性依次為:第一是生命、健康利益,人類生存的基礎法律價值。生命作為人類生存的首要前提,人工智能的存在不能對人的生命產生威脅;第二是人格尊嚴,人類情感倫理的基礎法律價值。人類情感倫理是人與人之間建立聯系,彼此信任的基礎;第三是社會公眾的整體利益,有利于促進社會和諧發展;第四是法律明確要求予以保護的法益。法官在認定人工智能案件的事實時,考慮上述原則,得出公平正義的結論。
(二)比例原則
比例原則包含適當性原則、必要性原則和狹義比例原則三個子原則。對于人工智能案件,我們首先要秉持適當性原則,即我們采用的觀點要注重手段與目的相適應;其次使用的手段是完成這一目的的必要手段;再次,我們采取的手段不能對相對人產生達成目的后更大的損害。比如國家對無人駕駛汽車的審批要比普通汽車的審批程序更加嚴格,但是在出廠后,也不當對售出的汽車進行全程實時監控,否則會削弱企業對人工智能投資的積極性,使得人工智能的研發受到阻礙。
三、應對人工智能的法律規制
人工智能的迅速發展所引發的社會問題,使得許多法學家對人工智能的法律規制產生了爭議。社會對人工智能的生產者,銷售者,使用者提出合理的法律規制已經愈加急促。本文主要討論以下兩個法律規制。
(一)安全為核心的法律規制
人工智能問題中最重要的法律價值位階就是保護生命,那么法律規制就需要考慮對安全性的管控。安全是人工智能時代的重要法價值,也是社會秩序穩定的“守門員”。人類在社會中生存,需要一個安全的環境,才能更好的實現其他的人生價值。因此人類會對人工智能的安全性產生憂慮。不成熟的人工智能技術產生損害結果,以及其社會危害性是我們在進行法律規制必須要考慮的問題。
認定責任問題是解決人工智能案件的重要法律規制目的。人工智能問題都落腳于法律責任問題,立法者要關注平等主體間產生的人工智能侵權案件中法律責任分配。比如立法機構應當說明人工智能案件中的行為,危害結果,過錯,免責事由等問題,以區分開發者,生產者,使用人的權責分配。
(二)注重人工智能透明性的法律規制
人工智能的透明性體現在系統運作過程的公開。立法者應當把人工智能的透明性放入規制的對象中,降低責任確定和責任分配的難度。人工智能的透明化對各方利益都會產生影響。對使用者來說,人工智能的透明化可讓其知道運作過程,并自主決定是否使用。對于生產者而言,要求其公開,可以接受大眾的監督,同時當發生事故時,透明性有助于查清案件事實,確認責任承擔主體,有效的監控生產者對人工智能的謹慎義務。
人工智能的發展勢不可擋,但人工智能的侵權責任主體認定問題,帶來的失業問題,破壞人類情感倫理的問題也避不可免,應對這些問題我們要遵循個案平衡原則以及比例原則,同時立法者需要建立一個以安全為核心的法律規制,注重人工智能透明性的法律規制,只有法律不斷完善,有效的調節人機關系,才能讓人工智能更好的為人類服務。
參考文獻
[1]可曉.人工智能的倫理調適與法律規制[J].桂海論叢,2019,35(05):112-116.
[2]袁曾.人工智能法益位階研究[J].地方立法研究,2019,4(05):73-84.
[3]王春暉.人工智能的倫理、法律與監管[J].互聯網天地,2018(08):20-24.
[4]高燕.我國人工智能中的法律倫理問題探究[J].法制博覽,2019(16):188-189.
[5]吳漢東.人工智能時代的制度安排與法律規制[J].法律科學(西北政法大學學報),2017,35(05):128-136.
中南財經政法大學法律碩士教育中心 430073