文/吳漢東
人工智能時代的制度安排與法律規(guī)制
文/吳漢東
人工智能是人類社會的偉大發(fā)明,同時也存在巨大的社會風(fēng)險。這種社會風(fēng)險或是“技術(shù)—經(jīng)濟”決策導(dǎo)致的風(fēng)險,或是有法律保護的科技文明本身帶來的風(fēng)險。同時,智能革命對當下的法律規(guī)則和法律秩序帶來一場前所未有的挑戰(zhàn),在民事主體法、著作權(quán)法、侵權(quán)責(zé)任法、人格權(quán)法、交通法、勞動法等諸多方面與現(xiàn)有法律制度形成沖突,凸顯法律制度產(chǎn)品供給的缺陷。對于由人工智能引發(fā)的現(xiàn)代性的負面影響,人們有必要采取風(fēng)險措施,即預(yù)防性行為和因應(yīng)性制度。面向未來時代的調(diào)整規(guī)范構(gòu)成,應(yīng)以人工智能的發(fā)展與規(guī)制為主題,形成制度性、法治化的社會治理體系。借鑒國外經(jīng)驗,立足本土需要,當前應(yīng)盡快出臺“國家發(fā)展戰(zhàn)略”,及時制定“機器人倫理章程”,適時進行機器人專門立法。
智能時代是以人工智能(Artificial Intelligence,簡稱AI)來命名的。作為研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué),人工智能將改變甚至顛覆人類現(xiàn)存生產(chǎn)工作和交往方式,由此迎來一個以新的技術(shù)結(jié)構(gòu)支撐新的社會結(jié)構(gòu)的人類新時代。一方面,智能革命無疑將給我們帶來一個更美好的社會,它是智能的、精細化和人性化的“最好時代”。但另一方面,智能革命也將給我們帶來諸多麻煩,也許帶來一個社會問題叢生和安全隱患不斷的“最壞時代”。人們在為人工智能的強大能力感到驚嘆的同時,也表達了對人工智能安全問題的普遍憂慮。人工智能是否成為人類“最后的發(fā)明”?我們應(yīng)該如何看待人工智能的潛在風(fēng)險?具體說來,人工智能時代的社會風(fēng)險具有以下特點:
一是風(fēng)險的共生性。風(fēng)險社會的內(nèi)在風(fēng)險基于技術(shù)性風(fēng)險和制度化風(fēng)險而形成,且存在共生狀態(tài)。人工智能時代是一個高度技術(shù)化的社會,科學(xué)技術(shù)的高度發(fā)展既是風(fēng)險社會的特征,也是風(fēng)險社會的成因。制度風(fēng)險可能來自我們的工業(yè)制度、科技政策乃至法律規(guī)則,或是表現(xiàn)為對新技術(shù)無措的“制度缺失”,或是表現(xiàn)為對新技術(shù)錯判的“制度失敗”。這些即是規(guī)則運轉(zhuǎn)失靈的風(fēng)險,其結(jié)果是形成制度化風(fēng)險。
二是風(fēng)險的時代性。智能革命是時代的產(chǎn)物,其特點是人類智力與人工智力的結(jié)合,智能技術(shù)導(dǎo)致智力物質(zhì)化、社會智能化,最終出現(xiàn)智能社會。人們需要應(yīng)對智能時代中現(xiàn)實世界與理念世界的分離,防范病毒、黑客對人工智能產(chǎn)品的侵蝕。這種高科技所引發(fā)的高風(fēng)險會持續(xù)貫穿整個智能革命的時代過程,它是現(xiàn)實的風(fēng)險,也是未來潛在的風(fēng)險。
三是風(fēng)險的全球性。經(jīng)濟全球化、科技全球化、信息全球化乃至治理機制的全球化,不可避免地帶來風(fēng)險的全球性。可以認為,風(fēng)險社會是一種“全球風(fēng)險社會”,風(fēng)險的空間影響超越了地理邊界和社會文化邊界。
面對智能革命,我們不能逃避它、否定它和阻止它。上述判斷依賴于兩點事實:第一,人工智能技術(shù)在造福人類的同時也加大了人類危害自身的可能性,這即是技術(shù)的負面性與風(fēng)險的不確定性的聯(lián)系;第二,傳統(tǒng)社會治理體系無力解決工業(yè)社會過度發(fā)展而產(chǎn)生的社會問題,這即是法律的確定性與風(fēng)險的不確定性的背離。我們應(yīng)“通過法律化解風(fēng)險”,“通過法律吸納風(fēng)險”,“將風(fēng)險社會置于法治社會的背景之中”,即對智能革命時代的法律制度乃至整個社會規(guī)范進行新的建構(gòu)。
智能革命的出現(xiàn),對當下的倫理標準、法律規(guī)則、社會秩序及公共管理體制帶來一場前所未有的危機和挑戰(zhàn)。就調(diào)整人工智能相關(guān)社會關(guān)系的法律制度而言,人們的擔(dān)憂多于期待、疑慮甚于創(chuàng)制。現(xiàn)擇其主要問題分析如下:
1.機器人法律資格的民事主體問題
機器人是機器還是人,在法理上涉及主客體二分法的基本問題。在民法體系中,主體(人)與客體(物)是民法總則的兩大基本制度。民法意義上的人,須具有獨立之人格(權(quán)利能力),該主體既包括具有自然屬性的人(自然人),也包括法律擬制的人(法人)。在自然人人格場合,“法律人”的成立是以倫理價值為依據(jù),將倫理價值從人的范疇中抽去之后,即通過權(quán)利能力將“生物人”自然本性與“法律人”的法律屬性直接連接的。而在法人人格場合,由于權(quán)利能力扮演“團體人格”的角色,從而形成“團體—權(quán)利能力—法律人”的邏輯關(guān)系,從而使得法人與同為“法律人”的自然人一樣在某些方面享有人格利益成為可能。基于上述分析,可以認為:機器人不是具有生命的自然人,也區(qū)別于具有自己獨立意志并作為自然人集合體的法人,將其作為擬制之人以享有法律主體資格,在法理上尚有商榷之處。換言之,受自然人、自然人集合體——民事主體——控制的機器人,尚不足以取得獨立的主體地位。
2.人工智能生成作品的著作權(quán)問題
人工智能的實質(zhì),是“讓機器從事需要人參與的智能工作”。基于此,文學(xué)、藝術(shù)和科學(xué)作品的創(chuàng)作也在機器人的智能范圍之內(nèi)。關(guān)于人工智能的生成作品,著作權(quán)法有兩個問題需要解決:機器人設(shè)計的作品是否享有權(quán)利?該項權(quán)利應(yīng)歸屬于機器還是創(chuàng)制機器的人?盡管機器人稿件的表達技巧有限,但仍可以視為著作權(quán)法意義上的作品。人工智能生成之內(nèi)容,只要由機器人獨立完成,即構(gòu)成受著作權(quán)保護的作品。機器人作品享有著作權(quán),但機器人并不能像自然人作者或法人作者那樣去行使權(quán)利,換言之,該項著作權(quán)應(yīng)歸屬于機器人的創(chuàng)造人或所有人。在這種情況下,法律可以通過保護機器人作品以達到保護機器人的創(chuàng)造人和所有人的目的。具言之,可參照著作權(quán)法關(guān)于職務(wù)作品或雇傭作品的規(guī)定,由創(chuàng)制機器的“人”而不是機器人去享有和行使權(quán)利。
3.智能系統(tǒng)致人損害的侵權(quán)法問題
智能機器人的廣泛使用,在帶來高效和便捷的同時也不可避免對人類帶來傷害。機器人致人損害有兩種情形:一是侵權(quán)人對智能系統(tǒng)進行非法控制而造成的損害;二是智能系統(tǒng)自身的產(chǎn)品瑕疵而造成的損害。這究竟是機器人創(chuàng)制者的技術(shù)漏洞,抑或智能機器管理人的不當使用,甚至可能是人工智能系統(tǒng)超越原控制方案的“自身行為”?在這種情況下,就必須對機器人的過錯行為原因進行分析,以查找侵權(quán)主體構(gòu)成并分擔(dān)賠償責(zé)任。關(guān)于智能系統(tǒng)致人損害責(zé)任的認定,有兩種責(zé)任方式可供選擇。一是基于行為人過失所產(chǎn)生的產(chǎn)品責(zé)任。二是基于技術(shù)中立原則所產(chǎn)生的替代責(zé)任。在替代責(zé)任情形中,機器人本無瑕疵,符合技術(shù)中立原則要求,但機器人的所有人或使用人,或不盡善良管理人之義務(wù),或放任機器人的侵權(quán)行為,則不能以技術(shù)中立原則免除責(zé)任。
4.人類隱私保護的人格權(quán)問題
網(wǎng)絡(luò)空間是一個真實的虛擬存在,是一個沒有物理空間的獨立世界。在今天和未來,當移動互聯(lián)網(wǎng)、大數(shù)據(jù)和機器智能三者疊加后,我們生活在一個“無隱私的社會”。面對大數(shù)據(jù)對個人隱私潛在的威脅,我們必須重視智能革命時代隱私權(quán)的保護,有三點舉措可供采用。一是增強自我保護意識。在人工智能時代,挖掘個人隱私是由機器完成的,因此保護隱私,須從自己做起,對智能電器有防范之心。二是強化企業(yè)保護用戶隱私的責(zé)任。企業(yè)須負有保護用戶隱私的意愿和責(zé)任,“這將是用戶隱私是否得到有效保護的關(guān)鍵”。三是加強網(wǎng)絡(luò)、電訊隱私保護的專門立法。隱私權(quán)的保護應(yīng)以民法保護為基礎(chǔ),明確隱私權(quán)的權(quán)利屬性、權(quán)能內(nèi)容、保護方式等;同時以專門法律保護為補充,規(guī)定特定領(lǐng)域的特定主體隱私保護的原則和辦法。
5.智能駕駛系統(tǒng)的交通法問題
人工智能在交通領(lǐng)域的重要應(yīng)用是網(wǎng)聯(lián)自動駕駛。無人駕駛汽車可能帶來的法律問題,主要有三種。一是法律規(guī)制對象的轉(zhuǎn)變。隨著無人駕駛中駕駛?cè)烁拍畹南В梢?guī)制的對象不再是車輛的駕駛?cè)藛T,而將是智能駕駛系統(tǒng)的開發(fā)者、制造者。二是法律責(zé)任體系的重構(gòu)。對于道路交通事故的認定,其歸責(zé)事由只有結(jié)果的“對與錯”,而無主觀上的“故意”或“過失”。三是交通監(jiān)管重心的變化。在智能駕駛中,避險保障和精確駕駛的軟硬件體系,是道路交通檢測、準入的重點。
6.機器“工人群體”的勞動法問題
智能機器人的大規(guī)模應(yīng)用,使以保護勞動者利益為宗旨的勞動法,面臨著前所未有的兩個難題。一是傳統(tǒng)勞動法的調(diào)整功能消減會對現(xiàn)有勞動者的權(quán)利帶來沖擊。大批勞動者離開傳統(tǒng)崗位,其權(quán)益救濟更多是尋求社會保障法,那么“勞動法是否面臨消亡的命運?”二是未來勞動法將面臨新的調(diào)整對象。機器人搶掉人類的飯碗,人工智能“工人群體”正在形成。對機器人權(quán)利保護或者說禁止對機器人濫用,在當下尚是一個社會倫理問題,而在未來就成為勞動立法問題。應(yīng)該認識到:智能機器人本質(zhì)是機器,但亦有人的屬性,對智能機器人的尊重就是對人類自身的尊重。可以預(yù)見,上述倫理規(guī)范將成為未來立法的組成部分。
面向未來時代的制度構(gòu)成,應(yīng)以人工智能的技術(shù)發(fā)展與規(guī)制為主題,形成包含法律規(guī)則、政策規(guī)定和倫理規(guī)范的社會治理體系。關(guān)于理念、規(guī)范、體制與機制的制度設(shè)計,筆者擬提出如下構(gòu)想:
1.以安全為核心的多元價值目標
安全是人工智能時代的核心法價值。安全價值是對整個社會秩序穩(wěn)定的維護。安全價值是許多法律部門共同追求的目標,且通過不同的制度或調(diào)整方法來實現(xiàn)。人工智能作為未來時代技術(shù)尚在深入發(fā)展之中,但在當下已引發(fā)人們對其安全問題的普遍擔(dān)憂。人工智能超越人類智能的可能性,人工智能產(chǎn)生危害后果的嚴重性,以及人工智能技術(shù)本身內(nèi)在的不確定性,這些因素足以構(gòu)成法律以及其他規(guī)范防止風(fēng)險的必要性。關(guān)于風(fēng)險規(guī)制的安全規(guī)范,包括人工智能產(chǎn)品的倫理規(guī)范、人工智能技術(shù)的應(yīng)用規(guī)范、人工智能安全的監(jiān)測規(guī)范等,都是相關(guān)法律制度設(shè)計和安排需要考量的問題。
創(chuàng)新是人工智能法律的價值靈魂。創(chuàng)新價值體現(xiàn)在人工智能發(fā)展政策制定與立法活動之中,其主要制度設(shè)計是:(1)謀化國家發(fā)展戰(zhàn)略,在整體性、全局性的政策層面,對人工智能技術(shù)和相關(guān)社會變革作出相應(yīng)的戰(zhàn)略部署;(2)制定產(chǎn)業(yè)促進與監(jiān)管的政策法律,在立法和政策層面,推進智能駕駛系統(tǒng)、智能機器人、精確醫(yī)療、語言識別、人腦芯片等核心技術(shù)的研發(fā)和應(yīng)用,同時明確準入規(guī)范,制定安全標準,完善配套設(shè)施,營造健康、有序的監(jiān)管環(huán)境;(3)完善知識產(chǎn)權(quán)創(chuàng)新激勵機制,通過權(quán)利保護、權(quán)利交易和權(quán)利限制等制度,促進技術(shù)創(chuàng)新和新興產(chǎn)業(yè)發(fā)展。總的說來,國家通過戰(zhàn)略指引、法律規(guī)范和政策安排,將創(chuàng)新這一行為上升為“規(guī)劃理性”的法價值,體現(xiàn)了人在價值發(fā)現(xiàn)中的能動性干預(yù)和控制。
和諧是人工智能時代的終極價值追求。和諧價值實現(xiàn)的理想狀態(tài),即是人工智能社會的良性健康和有序。在智能機器人的發(fā)展過程中,和諧價值具有引導(dǎo)性功能。為保證人類社會的和諧穩(wěn)定,對人工智能產(chǎn)品進行倫理設(shè)計、限制人工智能技術(shù)應(yīng)用范圍、控制人工智能的自主程度和智能水平等,都應(yīng)以和諧價值為指引和評價準則。
2.以倫理為先導(dǎo)的社會規(guī)范調(diào)控體系
對于人工智能社會關(guān)系的調(diào)整,倫理規(guī)范具有一種先導(dǎo)性的作用。這是因為法律規(guī)范基于現(xiàn)實生活而生成,且立法過程繁瑣,因而總是處于滯后境地;而倫理規(guī)范可以先行和預(yù)設(shè),對已變化或可能變化的社會關(guān)系作出反應(yīng)。在發(fā)達國家,對人工智能的倫理研究早于立法研究。概言之,倫理規(guī)范的調(diào)整功能非常獨到且極為重要,例如:對智能機器人預(yù)設(shè)道德準則,為人工智能產(chǎn)品本身進行倫理指引;規(guī)定人工智能技術(shù)研發(fā)及應(yīng)用的道德標準,對科研人員進行倫理約束。上述倫理規(guī)范,為后續(xù)法治建設(shè)提供了重要法源,即在一定時候,倫理規(guī)范亦可轉(zhuǎn)化為法律規(guī)范,實現(xiàn)道德的法律化。
3.以技術(shù)和法律為主導(dǎo)的風(fēng)險控制機制
人工智能時代的風(fēng)險防范和治理,可采取技術(shù)控制與法律控制的綜合治理機制。法律控制是風(fēng)險治理機制的重要手段。立法者必須重視控制風(fēng)險功能的法治化。此外,還應(yīng)輔之以相關(guān)科技法律、法規(guī),對人工智能的研發(fā)、使用和傳播建立限制機制、禁止機制以及懲戒機制。技術(shù)控制是風(fēng)險治理機制的重要措施。技術(shù)規(guī)制表現(xiàn)為法律規(guī)范、政策規(guī)定和倫理規(guī)則等。風(fēng)險社會理論指引下的技術(shù)規(guī)則有以下特點:風(fēng)險規(guī)避的主要路徑,是事先預(yù)防而不是事后補救(即從技術(shù)研究開始規(guī)制,以預(yù)防技術(shù)產(chǎn)生的負面效應(yīng)或副作用);風(fēng)險規(guī)避的基礎(chǔ)范式,是從技術(shù)研發(fā)到應(yīng)用過程的責(zé)任制度(包括社會道義責(zé)任、科學(xué)倫理責(zé)任和法責(zé)任);風(fēng)險規(guī)避的重要措施,是奉行技術(shù)民主原則(包括技術(shù)信息適度公開和公眾參與、公眾決策)。
防范人工智能的技術(shù)性風(fēng)險,不僅涉及強化法律規(guī)制的傳統(tǒng)制度改造,而且要求建立以社會監(jiān)管為重要內(nèi)容的政策體系,同時形成以全面理性(包括社會理性和科學(xué)理性)為基本內(nèi)涵的風(fēng)險控制機制。
在制度構(gòu)建方面,目前有三項重點任務(wù)。一是盡快出臺國家發(fā)展戰(zhàn)略,以此作為人工智能政策體系的支撐。國家發(fā)展戰(zhàn)略應(yīng)是關(guān)于人工智能問題的整體性謀略和全局性安排,它是一個涉及戰(zhàn)略目標、戰(zhàn)略任務(wù)、戰(zhàn)略措施的政策制度體系。中國必須高度關(guān)注智能革命發(fā)展前景及其引發(fā)的相關(guān)社會變革,盡快作出相應(yīng)的戰(zhàn)略政策部署。二是及時制定《機器人倫理章程》,以此作為人工智能研發(fā)、應(yīng)用的道德基礎(chǔ)。我國似可組織政治家、科學(xué)家、企業(yè)家、法學(xué)家參加的專家小組,編寫機器人倫理章程,構(gòu)建人工智能倫理規(guī)范。三是適時進行機器人專門立法,以此作為人工智能法律的基本規(guī)范。我國在人工智能領(lǐng)域發(fā)展相對滯后,但相關(guān)立法活動應(yīng)未雨綢繆,組建專家團隊對機器人專門法律開展研究,其重點包括:人工智能的法律地位、人工智能生成內(nèi)容的權(quán)利歸屬、人工智能損害后果的責(zé)任分擔(dān)、人工智能風(fēng)險的法律控制等。
未來時代已經(jīng)到來,這是一個創(chuàng)新的時代。創(chuàng)新不僅反映了人與自然的關(guān)系,而且反映了人與人的關(guān)系、個人與社會的關(guān)系,已成為一個具有普遍意義的關(guān)系范疇。人們在生產(chǎn)力、生產(chǎn)關(guān)系和上層建筑所有領(lǐng)域中進行的創(chuàng)造性活動,即技術(shù)進步和制度變革都是一種創(chuàng)新過程。智能革命引發(fā)的法律、政策和倫理話題剛剛開始,伴隨人類社會的知識創(chuàng)新,我們需要跟進理論創(chuàng)新和制度創(chuàng)新。法學(xué)家和法律改革家們需要秉持理性主義精神,去發(fā)現(xiàn)和探索一個理想的法律制度體系。我們有理由相信,科學(xué)技術(shù)的智慧之光與法律制度的理性之光,將在人工智能時代交相輝映。
【作者系中南財經(jīng)政法大學(xué)知識產(chǎn)權(quán)研究中心主任;摘自《法律科學(xué)》(西北政法大學(xué)學(xué)報)2017年第5期】