999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能有限法律人格審視

2017-09-07 12:39:14袁曾
東方法學 2017年5期
關鍵詞:人工智能

袁曾

內容摘要:現行法律體系下對于人工智能的法律人格規制缺位,造成實踐應用缺乏法律價值指引,人工智能的法律地位與具體規制亟待明晰。人工智能具有獨立自主的行為能力,有資格享有法律權利并承擔責任義務,人工智能應當具有法律人格。但由于人工智能承擔行為能力的后果有限,人工智能適用特殊的法律規范與侵權責任體系安排,其具有的法律人格是有限的法律人格,域外法律對此已有立法借鑒。為調整適應人工智能有限法律人格的規制安排,必須明確人工智能歸責原則,通過強制投保責任險、確立以人為本的監管體系、加速《人工智能發展法》立法等體系性安排促進人工智能在可控的范圍內發展。

關鍵詞:人工智能 法律人格 人權 數據安全

人工智能前景廣泛、應用豐富,〔1 〕現階段23%的律師業務已可由人工智能完成。〔2 〕人工智能目前已實現自動駕駛航空器、完成高考試卷,甚至有學者提出將人工智能應用于法律裁判。〔3 〕人工智能已進入社會生活,而與之相關的法律規制卻未能跟上人工智能技術前進的節奏。2017年7月,百度總裁李彥宏乘坐無人駕駛汽車行駛在北京五環路上引起了巨大爭議,交管部門認為此行為違反現行《道路交通安全法》。

2017年7月20日,國務院印發《關于新一代人工智能發展規劃的通知》,〔4 〕明確提出把人工智能發展放在國家戰略層面系統布局,牢牢把握戰略主動。一般認為,人工智能是人機環境系統交互的產物,〔5 〕但迄今人工智能尚無一個能被廣泛接受的定義。筆者認為,具有類似人類獨立思考與深度學習的能力是人工智能與其他科技最大的差異。艾倫·圖靈等計算機大師曾提出人工智能遲早會威脅到人類生存,必須在問題積重難返前,對人工智能的發展作出妥善的法律規制安排,以引導實踐的發展。在技術的發展過程中,人工智能的法律地位、法律責任、權利義務范圍等法律規制該如何界定?對于這些問題,現行法律規制并無明確的解答。在法律制度無法有效應對實際情況時,法律理論理應出場,〔6 〕首先需要明確的問題就是人工智能是否具有法律人格,即人工智能是否等同于法律意義上的人,具有什么程度的權利與義務。人工智能的法律人格問題直接關系著侵權責任承擔、知識產權應用、數據應用安全、價值一致性判斷、機器倫理學等一系列基礎理論的發展決策。

一、人工智能的法律人格規制缺位

法律人格,是指法律認可的一種享受權利、承擔義務的資格。包括自然人主體、法律擬制主體兩種形式。對于任何自然人,法律均承認其法律人格,民法上分為無民事行為能力人、限制行為能力人與完全行為能力人,但法律人格伴隨自然人終生。對于法律擬制主體的人格,則需要經過法律規定的程序方可取得,例如有限責任公司的設立等。〔7 〕簡單地說,法律人格是某一主體能否成為法律意義上“人”的資格,是其享有權利、履行義務的基礎。人格是可以擴展于自然之外的實體的,〔8 〕但現行體系下,人工智能是否具有法律人格并不明晰,造成現實的適用困境。

(一)缺乏法律價值指引

每一項重大科技應用前后,均有對其的爭論。20世紀90年代克隆技術的成功就曾產生過巨大爭議,其中最大的焦點在于是否允許生理性繁殖克隆人。1997年11月,聯合國教科文組織制定《人類基因組與人權世界宜言》第11條明確規定,應當禁止生殖性克隆人類。2000年4月,日本內閣會議通過關于《限制對人的克隆技術的法律草案》,禁止克隆人類。國際社會明確克隆人不具有法律人格,立法禁止克隆人類,但對人工智能的態度含混不清。對于克隆人的主要擔心在于其誕生將擾亂人類社會基礎的血親倫理關系,由于人工智能在繁殖方式、發展方式上均存在根本不同,因此學界主要擔憂人工智能發展程度過高后會反制人類。按照趨勢,人工智能的發展必將會在未來出現突破,但現行法律規制對于人工智能法律人格的態度模糊,〔9 〕特別是在人工智能權利、侵權責任主體等關鍵問題上的缺位,使得人工智能的發展缺乏法律價值的引領。

(二)法律地位不明

由于人工智能的法律人格概念不明,導致其法律地位并不清晰。作為具有獨立思考能力的客體,人工智能可以“深度自主學習”、使用“神經網絡”,人工智能具有此種類人特性,是否應當賦予人工智能以人權?從法哲學的角度分析,是否應當認同“人工智能等同于人”的根本問題?如果不能,人工智能技術應當作為何種法律主體、具有何種法律地位?人權,是作為個體的人對于自己基本利益的要求與主張,這種要求或主張是通過某種方式得以保障的,它獨立于當事人的國家歸屬、社會地位、行為能力與努力程度,為所有的人平等享有人權是人之為人的最基本的權利,是一切利益和權利的前提和基礎。〔10 〕如果人工智能適用人權及人權倫理體系規制,則其法律地位是否等同于人類?若其具有人類完全相同的法律地位,則是否會出現人工智能機器人享有婚姻權同人類通婚,從而導致現行法律體系邏輯乃至人類賴以生存的倫理社會的崩塌?

(三)缺少具體規則標準

人工智能的短期影響取決于誰控制人工智能,而長期影響則取決于人工智能到底能否受到任何控制,人工智能的運用與發展需要法律人格的明確。從現實情況分析,現有規制并無法有效規制快速發展的人工智能技術。根據筆者2017年7月的實地調研,目前深圳人工智能產品由深圳市場監管委進行審批,但申報的類目為玩具類,所有的申報標準與文件均按照相應玩具標準進行審批,在海關進出口過程中也并無人工智能這一單項列出,目前暫時仍作為玩具進出口,顯然無法滿足人工智能產品的生產與發展。筆者認為,有關人工智能發展的具體法律規制,至少應當包括以下幾個方面的內容:第一是明確人工智能具有法律人格,確定人工智能享有的權利與義務邊界;第二是確定人工智能侵權的相關原則,若發生侵權事故時該怎樣認定相應的法律責任,適用怎樣的歸責原則;第三是重視開發應用人工智能技術時對于數據與隱私的保護;第四是確定人工智能的有效監管規則。通過合適的具體規則標準,優化發揮法律對于人工智能的引導與監管作用。

二、人工智能具有法律人格?

法律規制的最終目標是構建和諧可靠的人工智能應用體系,在促進人工智能發展上,有必要通過法律的系統性調整以確保人工智能在可控的范圍內有序發展。《關于新一代人工智能發展規劃的通知》提出,建立保障人工智能健康發展的法律法規框架。必須開展人工智能法律人格問題研究,明確人工智能具有法律人格。

(一)人工智能是特殊性質的法律主體

對于人工智能的性質,學界一直有不同爭論。普遍流行的有工具說、電子奴隸說、代理說等。〔11 〕工具說認為人工智能是人類為生產生活應用而創設的技術,其本質是為人類服務的工具。工具說認為人工智能無獨立的意思表示能力,并不承認人工智能具有獨立的法律人格。電子奴隸說認為人工智能不具有人類特殊的情感與肉體特征,在工作時無休息等現實需要,可以認作不知疲倦的機器,有行為能力但沒有權利能力。代理說認為人工智能的所有行為均是為人類所控制,其作出的行為與引起的后果最終必須由被代理的主體承擔。上述三種觀點均存在不同程度的缺陷,工具說將人工智能作為工具,但忽視了人工智能技術已經發展到可以作出獨立意思表示的階段,瑞士已有雇主為機器人繳納雇員稅的先例。再如特斯拉公司生產的電動汽車,已經實現了不需要駕駛員操作的無人駕駛,能夠獨立自主進行選擇判斷,其工具屬性早已不屬于無意思表示能力的傳統“工具”。電子奴隸說認為人工智能并不具有權利能力,其引起的后果歸屬于其擁有者,雖解決了人工智能承擔法律責任的主體問題,但實際上是延伸的工具說,否認人工智能的獨立主體地位。代理說中對于人工智能的代理地位的確認其實已承認人工智能具有獨立的法律人格,〔12 〕即在人工智能擁有權利能力與行為能力時,其才可能作出履行被代理人指令的行為,但代理人說并無法解決主體承擔責任的公平性問題,在人工智能完全自行作出意思表示時,由制造者還是使用者作為承擔責任的被代理人?筆者認為,人工智能是人類社會發展到一定階段的必然產物,具有高度的智慧性與獨立的行為決策能力,其性質不同于傳統的工具或代理人。在現實條件下,將人工智能定義為具有智慧工具性質又可作出獨立意思表示的特殊主體較妥。

(二)人工智能享有法律權利

“機器人不得傷害人類;機器人必須服從人類的命令,除非這條命令與第一條原則相矛盾;機器人必須保護自己,除非這種保護與以上兩條原則相矛盾。”以上是著名科幻作家,“機器人學之父”阿西莫夫提出的“機器人三原則”。第2條中“機器人必須保護自己”實際就是給予人工智能自我保護的權利。西方哲學家認為技術發展到一定程度后必然會有精神,如果技術發展更加智慧,它就會像大腦成為精神的更好載體。〔13 〕按照上述觀點,人工智能應該有權利,不是因為它們像人類,而是因為它們具有精神。〔14 〕權利向新實體擴展是需要經過漫長過程的。大陸法系下,獨立的法律人格需要具備社會存在與法律確認這兩個必須條件,即需要獨立自主地作出意思表示并得到法律明確的確認。在現有技術條件下,人工智能已可簽訂合同、管理公司,其獨立自主作出意思表示的能力已得到實現,但暫時還未得到法律確認。在此境遇下,人工智能能否要求權利?其能否具有維持健康、獲得姓名的權利?其能否按照自我邏輯與算法作出價值判斷?其在過載時能否具有休息的權利?

若人工智能沒有權利,就不會有法律地位,在法律上就不是真實的。〔15 〕根據斯通納的觀點,某一主體能否擁有法律權利應滿足下列條件:第一,該主體應其要求可以提起法律訴訟;第二,法院在決定授予法律救濟時必須考慮到損害;第三,法律救濟必須滿足它的利益要求。〔16 〕人工智能已可以應用于司法裁判,其自行提出訴訟要求并無實踐難度。法院在決定救濟時應當考慮到人工智能受到的損害。例如,摧毀或“謀殺”人工智能應當受到懲罰。人工智能雖然本質上仍是工具,但這種智能可能造價高昂并且承載人類或社會的感情,因為普通機器并不具有思考與交流的能力。若有人刪除了孤寡老人的陪伴型人工智能機器人的記憶模塊,則有可能導致這種獨特記憶的永久消失并無法復原,從而造成更為嚴重的精神損害。法律救濟滿足人工智能的利益要求并非不可能。例如停止侵害、排除妨害均可適用于人工智能的救濟。綜上所述,人工智能可以滿足上述法律權利的三項條件,具有公認價值與尊嚴,理應享有法律權利。

(三)人工智能必須承擔法律責任

1978年日本廣島的摩托車廠機器人突然轉身將其背后的工人抓住并切割,1989年全蘇國際象棋冠軍擊敗人工智能機器人,但機器人自主釋放強電流致使冠軍身亡,人工智能侵權的事件事實上早已存在。隨著人工智能的不斷發展,其依靠獨立自主意識而作出的不可預測行為將變得更加危險。人類必須為自己的行為付出代價,人工智能同樣如此,并不因為人工智能并非人類就可以逃脫法律制裁,總有主體需要為作出的行為負責。

若人工智能犯罪,應當適用怎樣的懲罰機制?而又應當如何避免此種犯罪行為的發生?人工智能在未來會面臨更加復雜的倫理安全問題,Google DeepMind等機構已設立了倫理審查委員會,由不同知識背景和經驗的專家組成,最大限度地考慮此問題。人工智能作為有獨立意識特性的特殊法律實體,法律需要向更前沿發展,而人工智能必須設計成為具有可責性與可驗證性的實體,其中包括開發數據記錄全留存以便侵權后查驗、主動告知人工智能風險、擴大人工智能相關數據披露范圍、大規模商用前現行測試等,盡最大努力減少人工智能可能造成的危害從而減輕相應法律責任。

三、人工智能的法律人格有限

以法律手段調節生命社會關系,應是最有力、最有效、最穩定、最普遍的。〔17 〕從人工智能的特性分析,其具有獨立自主意識的智慧工具屬性,享有權利并承擔責任的獨特特點決定了其具有法律人格。但這種法律人格同自然人或現有的擬制法人并不完全相等,雖然人工智能可以作出獨立自主的行為,但其承擔行為后果的能力是有限的。在人工智能法律人格有限的前提下,方可對法律規制作出合理的安排。

(一)域外人工智能立法借鑒

人工智能的法律人格有限,是指其法律人格與自然人或公司不同,并不具有承擔完全責任的能力與地位。雖然人工智能可以取得權利并承擔一定的義務,但其價值觀的形成與人類畢竟存在根本不同,人工智能的深度學習與應用主要依靠的是各種復雜的算法與數據記錄應用,在運用算法的過程中,很難保證人工智能的每次獨立自主行為均能作出合理合法的價值判斷。對于人工智能的規制,還必須依賴于立法的體系性安排,確保人工智能的發展與應用在合理的區間范圍內運行。

在人工智能具有有限法律人格的層面上,國外立法已作出一定的嘗試:一是立法者和執法者應確保人工系統不被濫用,法律必須在公民隱私保護與新興技術發展間尋找到恰當的平衡。〔18 〕在使用數據的層面,已存在不少習慣法,如目的明確、最少夠用、公開告知、個人同意等原則。1998年英國《數據保護法》與2016年歐盟《個人數據保護通用條例》規定,禁止一切未經同意的非法使用公民個人數據的行為。這些法律規則非常實用,并提議建立沙箱區域以在控制所有可能的變量前提下,安全地控制和引導錯誤使用數據的行為。在“大數據”時代,數據是寶貴的財富,也直接關系人身安全,已有利用人工智能非法竊取網絡信息的先例。〔19 〕人工智能系統對于個人數據的使用必須遵循規范的準則,濫用數據或竊取隱私將受到刑罰的規制,在人工智能的發展上,必須考慮能否保護公民的數據及隱私、能否一視同仁地對待每個公民的數據,以及能否保證公民個人信息的完整。使用非公共數據必須征得數據所有人同意。二是延伸身份保證范式,以保持法律責任鏈條的明確性。個人識別信息是個人擁有絕對控制權的資產,法律應給予優先保護。2009年5月12日,歐盟委員會制定并通過《射頻識別技術應用中隱私和數據保護原則的建議》,該建議中就明確包含信息和透明度要求、零售商使用數據的特殊要求等內容。設計人員應采用身份標簽,沒有身份標簽將不被準入。三是個人信息保護規制需要完善,以尊重個人數據完整性的方式設計并應用人工智能系統。歐盟在1995年頒布《關于涉及個人數據處理的個人保護以及此類數據自由流動的指令》等多項個人數據保護指令,構建了一套嚴謹完善的個人數據保護體系。根據德國現行法律,車輛中所積累的數據所有權原則上屬于車主。2016年4月,歐盟《一般個人數據保護條例》發布,明確擴展了數據主體的權利,包括數據獲取權、修改權、刪除權、限制處理權及可攜權等。比較而言,中國在個人信息和隱私保護方面的制度建設是較為滯后的。2012年《全國人民代表大會常務委員會關于加強網絡信息保護的決定》的出臺,〔20 〕但在實踐上仍極為有限,涉及更為嚴厲制裁措施的《個人信息保護法》與相關刑法修正案亟待出臺。

(二)適用特殊的法律規制標準

筆者認為,人工智能具有獨立思考的能力是與其他科技最大的區別,但人工智能仍作為工具存在,僅應具有有限的法律人格。即便人工智能發展到具有自我意志的程度,其構造結構、生產方式與人類存在根本性的不同。人工智能具有有限的權利義務,更應適用特殊的法律規制標準。

從哲學角度分析,人工智能畢竟只是人類為追求更美好生活創造出的智慧型工具。以人工智能創造的作品為例,人工智能創作文學作品早已經投入實踐(例如由人工智能創作的小說甚至通過了日本文學獎的初審)。特別是在視覺等藝術應用領域,人工智能已可以完全脫離人類獨立生成獨創性內容。美國《憲法》第一修正案規定:作者與創作者在限定的時間內具有科學發明與藝術創作的排他權利。如果人工智能具有完整的法律人格,則人工智能創造作品的著作權等知識產權的權利主體是誰?〔21 〕因此出現的法律真空地帶,只能依據現有規制進行推論。筆者認為,人工智能創造的作品可分為兩種,一種是人類利用人工智能技術創作的作品,其作品歸屬毫無疑問歸屬創作的人類所有。例如使用計算機譜寫的樂曲,人工智能僅作為工具使用,在Burrow-Giles Lithographic Co. v. Sarony案例中,〔22 〕法院裁定使用相機拍照的人擁有照片的著作權,而不是相機制造廠商;另外一種是人工智能不受人類意志干擾而自行創作的作品,有學者認為可適用“雇主理論”,〔23 〕即人工智能的所有者擁有人工智能獨立創造的作品權利,人工智能作為被雇用者,其權利歸歸主所有。

還有判例認為非人類創造的作品應該歸公眾所有,在2011年的Naruto v. Slater案例 〔24 〕中,一名叫Slater的野生動物攝影師將相機放在印尼的雨林中,結果一只母恒猴拿起相機并按動快門,留下許多珍貴照片。Slater主張照片由其所有,動物愛好者協會則主張由母恒猴所有。法院最后認為由于恒猴并非人類,無法出庭或具有法律上的人格,而照片也并非Slater拍攝,因此將照片的所有權歸于公眾。無論上述何種觀點,均不認為機器或動物等非人類具有著作權。

筆者認為,在人工智能獨立創作的情形下可適用“刺破人工智能面紗原則”來進行論證,即權利主體是人工智能背后的實際控制人。人工智能雖然具有法律人格,但這種人格是有限的,并非完全的法律人格。歸根結底人工智能是由人類創造以服務發展的智慧型工具,即人類自身的權利優位于人工智能。人工智能的工具屬性決定了其法律地位。蘋果公司現在出產的個人電腦軟件已經可以根據現場環境獨立編曲,在此環境下產生的作品并非由蘋果公司或軟件制作者享有著作權,而是由使用該個人電腦的主體所有。采用“刺破人工智能面紗”理論將會大大鼓勵人類利用人工智能進行創作的熱情,同時促進人工智能產業自身的發展。

(三)以責任分配為基礎的侵權規制

除對人工智能的法律地位進行必要規制外,更應明晰若發生侵權事故時認定相應法律責任的原則。〔25 〕由于人工智能具有的法律人格有限,其無法獨立完全承擔侵權責任。聯合國教科文組織《關于機器人倫理的初步草案報告》提出對機器人的責任采取分擔解決途徑。讓所有參與機器人發明、授權和使用過程中的主體分擔責任。這種以侵權為基礎的制度設計初衷,是迫使機器人系統的設計者與生產者將人工智能侵權成本內部化,督促系統的設計者、參與者、生產者自覺履行安全性義務,保證受害者能夠尋找到主體獲得補償。依托侵權法分配的監管路徑可以應用于人工智能,為建立人工智能的安全屬性提供正面導向作用,強化人工智能產品責任。基于人工智能法律人格的有限性,通過侵權責任的杠桿,將人工智能系統的外部性安全成本內部化,鼓勵人工智能的銷售商、零售商、設計者、使用者、監管者,認真履行人工智能的安全責任,確保上下游鏈條不會隨意更改人工智能系統。〔26 〕

為了確保人工智能是可以被問責的,人工系統必須具有程序層面的可責依據,證明其運作方式。由于人工智能研發具有高度的秘密性與分散性、不連續性及不透明性,任何一個擁有電腦或智能手機的個體都可能參與到人工智能的開發或研制中去。因此,必須對數據進行留存,要求所有參與開發、制作、生產人工智能系統所產生的數據必須妥善記錄并永久保存,在事中授權或事后問責時向主管機關提供。由于人工智能系統復雜,普通民眾甚至主管機關的業務人員可能無法了解人工智能的所有缺陷,因此在發生事故后追尋原始數據將成為最有力的定責與索賠依據。現代存儲材料的便攜性與高容量性使得數據記錄成為低成本的事情。由于有強制責任保險配套,如果人工智能的開發者無法提供完整的數據記錄,則由其承擔無過錯責任并進行賠償。未妥善儲存數據者需要承擔嚴格的人工智能產品責任。〔27 〕在舉證責任問題上,一般使用者針對人工智能很難承擔過高的舉證標準與訴訟成本,應當考慮采用較低的舉證責任標準,即使用者證明有損害發生、并且這種損害是由人工智能造成的即可。

四、人工智能有限法律人格的規制設置

(一)明確“刺破人工智能面紗”的歸責原則

人工智能的本質依然為工具,即使人工智能具有自我意志也無法改變其服務人類社會發展的屬性。因此人工智能僅享有有限的法律人格,其自身承擔有限的法律責任,其造成的侵權損害賠償或刑事責任依據實際情況由其設計者、開發者、制造者或使用者承擔。人工智能涉及的侵權規制主要集中在責任負擔的主體、數據使用安全、破壞人工智能的責任分配等方面。在規制人工智能與促進人工智能發展的兩個維度間必須尋找恰當的平衡,促進人工智能發展的首要問題是需要有主體為人工智能的行為承擔責任。人工智能獨立意志的情況下也無法僅完全苛責新興技術的創造者。〔28 〕即使是最細心的設計者、編程者以及制造者都沒有辦法控制或者預測人工智能系統在脫離之后將會經歷些什么。假如嫌疑人醉酒駕駛無人駕駛汽車致人死亡,此種情況下將法律責任歸于開發者顯然是違背公理的。不解決此問題,人工智能的發展就缺少基礎性的理論支撐。

人工智能沒有靈魂,其法律人格畢竟有限,即使將來擁有自我意志也無法存在繁殖性的肉體或者真實感情,在刑法對待人工智能的法律地位上,與公司的法律地位無異。〔29 〕有關公司的刑罰理論中最重要的是“實際控制人說”,按照“刺破人工智能面紗”的歸責原則確定責任主體。在無人駕駛領域,美國道路交通安全管理局于2013年發布《自動駕駛汽車的基本政策》,對自動駕駛汽車測試事故的責任承擔進行了規定,車輛在被第三方改造為自動駕駛車輛后,測試過程中導致財產損失、人員傷亡的,車輛的原始制造商不對自動駕駛車輛的缺陷負責,除非有證據證明車輛在被改造為自動駕駛車輛前已存在缺陷。德國《道路交通法》規定機動車持有人的道路交通事故嚴格責任獨立于車輛的自動系統,駕駛員在車輛行駛過程中必須履行全程保持警惕、手不離開方向盤等強制義務,否則需要承擔人工智能造成的損害。谷歌公司曾經使用奔馳汽車進行測試,則安全責任由谷歌公司承擔,而非奔馳公司。因此,在人工智能具有的法律人格有限的前提下,其造成的損害由人工智能的實際控制人或責任人承擔責任是合理的。

(二)強制投保責任保險

凱西·歐尼爾在其著作《數學武器:大數據如何加劇不平等、威脅民主》中,將造成歧視、個體損害等不利后果的人工智能稱為“殺傷性數學武器”,人工智能如果利用不當,其給個體和社會帶來的危害將極大。〔30 〕在數據網絡平民化時代,單一的國家或部門均無法獨自應對人工智能帶來的責任風險。傳統的監管方式如產品許可制度、產品侵權責任,無法全面地適用于人工智能規制。事前監管措施亦存在弊端,人工智能的開發與研究一般是分散的,在網絡時代,任何人均可獲得制造人工智能的機會,外部監管人員極難在人工智能形成危險結果之前發現存在的風險。必須采取新的經濟措施以規制人工智能帶來的責任風險——強制投保責任保險。2016年,英國議會提出一份有關無人駕駛汽車法律責任問題的提案,提出將汽車強制險適用擴大到產品責任,在駕駛者將汽車控制權完全交給自動駕駛系統時為其提供保障。〔31 〕而投保人可根據英國現行《消費者保護法》的產品責任和普通法中過失原則的適用,確定應對事故發生負有責任的主體。在人工智能投入商用之前,必須為其強制投保責任險,以較小的經濟付出,獲得保險共擔風險的機會。此舉將大大減少人工智能侵權事件發生時的經濟賠償糾紛,直接促進人工智能行業的良性發展。

(三)確立“以人為本”的監管體系

人工智能行業的領軍者埃隆·馬斯克認為,政府監管介入人工智能領域是明智的選擇。人工智能應在國際或者國家層面上有相應的監管措施,防止陷入“人工智能悲劇”。法規必須同科技進步相協調,若政府監管缺位,將明顯加深公眾對于人工智能的危機感并使得人工智能的發展陷入無序狀態。在確定人工智能適用的一般原則時,主要考慮三大因素:人權、人類利益優先、削弱人工智能的風險。由于人工智能僅具有有限的法律人格,因此人工智能的本質是為人類生產生活服務的工具(即“以人為本”),這是人工智能發展的首要原則,也是建立人工智能監管整體框架的首要指導原則。由于人工智能的項目集成程度與開發難度較高,往往是眾多科研團隊協作的結果,很難在事前由政府相關部門預見或了解,由此在事前設立審批制度難度頗大,即使人工智能開發團隊將開發立項報告交予相關部門審批,相關部門的審批人員也未必能夠了解人工智能的梗概并作出及時答復。從監管者角度分析,人工智能本身并不是難以處理的主體,難處理的是人工智能研究與開發。〔32 〕由此,依據“以人為本”原則創設事前備案、事中授權、事后懲處的整體機制較為適宜。事前監管采取原則性申報,即設計建造人工智能系統前,所有開發設計者必須共同向行業主管部門備案,承諾在維護人類利益的前提下進行合法開發,并不得用于違法犯罪活動,如果不進行申報,則人工智能系統將來不得應用于包括商用在內的公開領域。由于身份是人格權的基礎,人工智能的登記備案就相當于給予人工智能法律上的身份,從而擁有法律人格。事中授權主要由政府授權的專業機構作出人工智能系統的風險評估和防控強調前瞻預防和約束引導,此授權無需徹底評估人工智能的算法、編程等技術性數據,只要企業或團隊將人工智能用于公用領域前所需的事前備案書、強制保險投保確認書、產品質量認證書、數據清單及其他要求的明示性材料備齊,主管機關即可作出準予公用的授權。如果人工智能在實踐應用中出現了危害人類的行為或其他侵權行為,則由政府機關問責懲處,特別是對于違反“以人為本”根本原則的企業或個人,加大懲處力度以促進人工智能行業和企業自律。而主管機關亦可通過已發生的事件強化人工智能安全監管和評估體系,反向構建人工智能安全監測預警機制。

(四)加快制定《人工智能發展法》

為更好地促進人工智能發展,保障中國在新科技革命的進程中占領戰略制高點,極有必要加快人工智能相關法律規定的修改完善,特別是加快制定專門的《人工智能發展法》。將設定人工智能監管的目標與目的的任務分配給立法者,利用立法機關的正當性授權監管人工智能系統安全的專門機構,創設相對完整的人工智能責任體系。《人工智能發展法》的立法目標包括:(1)堅持以人為本的首要原則,授權建立研究數據科學的“數據倫理委員會”,通過明確相關倫理準則,確保人類社會倫理道德關系不受破壞。(2)建立全流程監管體系,確保人工智能技術從研究到運用負面效應可控與確定行業準入制度、操作記錄、技術安全規制標準。確定寬容審慎的監管原則,規范人工智能技術的健康發展。(3)明晰法律責任制度等,恰當地為人工智能技術發展調整法律規制。確定嚴格的大規模商用許可制度與強制責任保險制度,確保相關權益得到保障。(4)明確數據信息保護與隱私權保護,確保數據妥善運用與信息安全。(5)強化涉及人工智能發展的知識產權保護。注重人工智能創新成果的知識產權保護最大化,創設人工智能相關技術創新標準、專利保護體系與標準化支撐機制。建立國家層級的人工智能公共專利池,加速人工智能創新技術的成果商業轉換速度與競爭優勢。(6)加強國際合作。人工智能的開發與應用往往是跨國界的活動,國際合作在解決人工智能的推廣與應用管理中起重要作用。現階段,需要加強重點領域的國際合作研究,尤其是人工智能異化和安全監管等共性問題研究,明確人工智能法律法規、倫理道德方面的國際合作原則,〔33 〕共同應對人工智能帶來的挑戰。此外,《人工智能發展法》還應該包含保留條款,確保法律生效前的人工智能項目的商業化不受追溯,以免引發混亂。

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 亚洲日韩AV无码一区二区三区人| 一本一道波多野结衣一区二区| 国产成人精品综合| 国产va免费精品| 国产精品男人的天堂| 欧美国产日产一区二区| 亚洲欧美一区二区三区蜜芽| 青青热久麻豆精品视频在线观看| 久久免费观看视频| 久久国产拍爱| 精品久久蜜桃| 亚洲国产AV无码综合原创| 中文字幕人成人乱码亚洲电影| 白浆视频在线观看| 国产无遮挡猛进猛出免费软件| 尤物精品视频一区二区三区| 波多野结衣二区| 国产精品成人一区二区不卡| 国产精品微拍| 国产成人夜色91| 日韩国产亚洲一区二区在线观看| 天天综合网在线| 波多野结衣一区二区三区AV| 亚洲欧洲自拍拍偷午夜色| 女人爽到高潮免费视频大全| 亚洲欧美不卡| 91欧美在线| 日韩美一区二区| 97se亚洲| 毛片大全免费观看| 57pao国产成视频免费播放| 亚洲浓毛av| 国产精品妖精视频| 性喷潮久久久久久久久| 蜜臀av性久久久久蜜臀aⅴ麻豆| 狠狠亚洲婷婷综合色香| 精品一区二区久久久久网站| 久夜色精品国产噜噜| 日韩在线影院| 在线免费观看a视频| 久草热视频在线| 国产综合亚洲欧洲区精品无码| 国产精品无码久久久久久| 9啪在线视频| 青青草国产免费国产| 成人午夜天| 欧美亚洲第一页| 久久久久久国产精品mv| 一区二区日韩国产精久久| 伊人丁香五月天久久综合| 国产69精品久久| 国产a网站| 国产资源站| 狠狠久久综合伊人不卡| 国产精品视频导航| 香蕉99国内自产自拍视频| 日韩欧美在线观看| 久久伊伊香蕉综合精品| 欧美激情第一区| 久久久久免费精品国产| 亚洲综合色区在线播放2019| 91精品专区国产盗摄| 亚洲V日韩V无码一区二区 | 亚洲综合久久成人AV| 久久综合国产乱子免费| 日本一区二区不卡视频| 国产福利在线观看精品| 國產尤物AV尤物在線觀看| 免费观看三级毛片| 色妞永久免费视频| 亚洲色图综合在线| 欧美日本二区| 美女扒开下面流白浆在线试听 | 亚洲无线国产观看| 综合色区亚洲熟妇在线| 无码电影在线观看| 岛国精品一区免费视频在线观看| 久久久无码人妻精品无码| 色天天综合| 人妖无码第一页| 亚洲成肉网| 超清无码一区二区三区|