999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能客體地位的證成與規(guī)制

2025-04-03 00:00:00劉宇林
宜賓學(xué)院學(xué)報 2025年3期
關(guān)鍵詞:人工智能

摘 要:人工智能即使類人化程度越來越高,但其在技術(shù)上的本質(zhì)是模擬人類智慧,因此人工智能在構(gòu)成要件上不具備理性基礎(chǔ)與獨立意志,無法突破客體束縛進(jìn)而獲得主體資格。面對這項高端技術(shù)帶來的巨大風(fēng)險,應(yīng)當(dāng)以沙盒監(jiān)管為核心進(jìn)行技術(shù)規(guī)制,以“刺破人工智能面紗”為原則的歸責(zé)方式,采用強(qiáng)制保險制度作為社會保障手段,從而實現(xiàn)人工智能在安全可控和科技發(fā)展之間的平衡。

關(guān)鍵詞:人工智能;客體地位;沙盒監(jiān)管;發(fā)展與平衡

中圖分類號:D923

DOI: 10.19504/j.cnki.issn1671[-]5365.2025.03.02

2016年2月美國國家公路安全交通管理局發(fā)布公開信確認(rèn)谷歌自動駕駛汽車內(nèi)部的智能機(jī)器人可以認(rèn)定為駕駛員[1];2017年10月機(jī)器人索菲亞被沙特授予了公民身份,史無前例[2];2022年11月自主生成內(nèi)容的ChatGPT被強(qiáng)勢推出,生成式人工智能效果驚艷;2023年12月多項性能超越GPT-4的Gemini 1.0 正式上線,再次將人工智能推向社會熱點。人工智能的技術(shù)成果不一而足,但不可否認(rèn),人工智能也引發(fā)一系列現(xiàn)實問題。人工智能生成物如何認(rèn)定?無人駕駛汽車侵權(quán)責(zé)任如何分配?機(jī)器人致人傷亡責(zé)任誰來承擔(dān)?[3]解決這些棘手問題前,必須洞悉人工智能的法律地位,即人工智能是“人”還是“物”?這是民法研究的基礎(chǔ)問題,也是用法律手段規(guī)制人工智能的前提。

近年,學(xué)界直接討論人工智能法律地位的研究逐漸增多。針對人工智能是否應(yīng)當(dāng)具備法律主體資格,存在肯定說、否定說和折衷說三種觀點。所謂肯定說,認(rèn)為人工智能技術(shù)已具備與人類相當(dāng),甚至超越人類的智能,應(yīng)當(dāng)賦予其法律主體資格以適應(yīng)社會的發(fā)展,如“擬制主體說”將法人獲得主體資格的原理移植于人工智能,以期人工智能被納入法律主體范疇參與社會經(jīng)濟(jì)生活,如電子人說結(jié)合技術(shù)發(fā)展與歷史進(jìn)程,認(rèn)為法律主體制度應(yīng)容納“電子人”。否定說多基于人工智能缺乏情感基礎(chǔ)、社會危害風(fēng)險大、不符主體要件等多重原因,認(rèn)為賦予其主體地位于情不通、于理不合、于法無據(jù),故而通過人工類人格說、工具說、控制說等途徑將人工智能安置在客體地位。折衷說對人工智能是否能獲得主體資格既不肯定、亦不否定,而認(rèn)為其在有限的范圍內(nèi)具備人格,如有限人格說、電子代理人說、電子奴隸說等。

目前的研究,各方觀點莫衷一是,針鋒相對。單以法律要件或經(jīng)濟(jì)發(fā)展或社會安全等為視角來論證人工智能的法律地位極不明智。人工智能本質(zhì)上是一項技術(shù),將人工智能技術(shù)運(yùn)作的原理作為探究其法律地位的底層邏輯,是研究這門交叉學(xué)科的應(yīng)有之義;綜合考量人工智能的社會影響、以期實現(xiàn)社會發(fā)展與安全的平衡,是技術(shù)作用于社會的必然價值追求。

一、人工智能的技術(shù)原理

人工智能(artificial intelligence)是指使機(jī)器像人一樣去完成某項任務(wù)的軟硬件技術(shù)。[4]探究人工智能的法律地位是解決社會問題的前提。而人工智能歸根結(jié)底是一項技術(shù),故從科學(xué)領(lǐng)域出發(fā),探究人工智能的運(yùn)作原理成為認(rèn)識人工智能法律地位的基調(diào)。

(一)人工智能本質(zhì)是模擬人類智慧

自圖靈測試后,1956年達(dá)特茅斯會議標(biāo)志著人工智能作為一個獨立學(xué)科的起點,如今人工智能主要包括機(jī)器人、語言識別、圖像識別、自然語言處理、專家系統(tǒng)等領(lǐng)域。經(jīng)過不間斷飛速的發(fā)展,人工智能是一門研究“如何使計算機(jī)能夠模擬和執(zhí)行人類智能任務(wù)的科學(xué)和技術(shù)”這一定義得到社會認(rèn)同。

“模仿人類智慧”是人工智能的本質(zhì)。那么,何為人類智慧?人類智慧可分為“顯性智慧能力”與“隱性智慧能力”[5]。“顯性智慧能力”主要表現(xiàn)為人的操作能力,主要包括對信息的獲取、解讀、歸納、分析、決策并執(zhí)行決策等外顯性的能力。“隱性智慧能力”則是基于人獨有的意識而產(chǎn)生的抽象能力,如動機(jī)、目的、情感、靈感、創(chuàng)作、想象等。人工智能通過對數(shù)據(jù)獲取與處理、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、自然語言處理等技術(shù)處理,基本能實現(xiàn)對人類行為的模仿;但人工智能是否能自主產(chǎn)生“隱性智慧能力”?人工智能不具備人類理性、無法全面模擬人類智慧,是阻卻人工智能獲得與人相等的社會地位的主要原因。

(二)人工智能的模擬方式

人工智能實現(xiàn)對人腦的模擬主要有三種模擬。第一,結(jié)構(gòu)模擬。1943年心理學(xué)家麥卡洛克和數(shù)學(xué)邏輯學(xué)家皮茲提出MP模型,開啟了人們對人工神經(jīng)網(wǎng)絡(luò)的研究。經(jīng)過多年的發(fā)展,目前已有上百種的神經(jīng)網(wǎng)絡(luò)模型被提出與應(yīng)用。[6]結(jié)構(gòu)模擬本質(zhì)上是一種“模擬人類大腦”的神經(jīng)元模型,組成“大腦皮層的神經(jīng)元”用于實現(xiàn)大腦各個部分的聯(lián)系與信息傳遞,然后通過對人工神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練使機(jī)器獲得仿人經(jīng)驗,從而解決問題。但結(jié)構(gòu)模擬存在的問題主要有:一是人的大腦結(jié)構(gòu)之復(fù)雜,工業(yè)難以實現(xiàn)對神經(jīng)網(wǎng)絡(luò)的完全模擬;二是人工神經(jīng)網(wǎng)絡(luò)只完成了硬件設(shè)計,更重要的軟件機(jī)制(即神經(jīng)網(wǎng)絡(luò)的工作機(jī)制)卻還沒有完全掌握。[5]

第二,功能模擬。功能模擬不再拘束于人工神經(jīng)網(wǎng)絡(luò)的硬件構(gòu)造,轉(zhuǎn)而追求模擬人的邏輯思維能力。人類的邏輯思維方式無窮無盡,所涉及的知識難以界定,也無法完全獲取,故而功能模擬出現(xiàn)了最大的問題——范圍有限。所以人工智能研究只能退而求其次,如今功能模擬集中體現(xiàn)為專家系統(tǒng)。專家系統(tǒng)是依靠人類專家已有的知識建立起來的知識系統(tǒng),是一種具有特定領(lǐng)域內(nèi)大量知識與經(jīng)驗的程序系統(tǒng)。[7]

第三,行為模擬。行為模擬的原理是“刺激-響應(yīng)”,例如常見的聲控?zé)簟J紫龋谌斯ぶ悄軐Σ煌袨槟J竭M(jìn)行分類,當(dāng)產(chǎn)生外界刺激時,人工智能會啟動相應(yīng)類型的動作予以響應(yīng);人工智能行為模擬技術(shù)瓶頸在于它只能模擬比較簡單的而且是外顯的智能行為,而對那些深刻思維過程中的智能無能為力。[5]

(三)機(jī)器學(xué)習(xí)是實現(xiàn)人工智能的重要途徑

就各種模式而言,實現(xiàn)人工智能的工作共同原理都是“信息獲取-處理-決策-執(zhí)行”。人工輸入、互聯(lián)網(wǎng)及外部數(shù)據(jù)源爬取或傳感器傳入是人工智能數(shù)據(jù)處理的前提。在處理環(huán)節(jié),機(jī)器學(xué)習(xí)是人工智能的核心技術(shù)之一,它使計算機(jī)系統(tǒng)能夠獨立學(xué)習(xí)和改進(jìn)算法模型,也使得人工智能可以自動化和智能化地處理和分析數(shù)據(jù)。根據(jù)輸入數(shù)據(jù)、邏輯和經(jīng)驗進(jìn)行分析、推理,人工智能可以生成相應(yīng)的決策結(jié)果并執(zhí)行。以上路徑中,信息獲取的途徑與范圍決定了人工智能的適用范圍,處理環(huán)節(jié)是實現(xiàn)模擬人類智慧最為關(guān)鍵的環(huán)節(jié)(見圖1)。

機(jī)器學(xué)習(xí)是人工智能模擬人類智慧、模仿人類邏輯的重要方式。監(jiān)督學(xué)習(xí)指用打好標(biāo)簽的數(shù)據(jù)訓(xùn)練預(yù)測新數(shù)據(jù)的類型或值;無監(jiān)督學(xué)習(xí)是在數(shù)據(jù)沒有標(biāo)簽的情況下做數(shù)據(jù)挖掘;強(qiáng)化學(xué)習(xí)通過強(qiáng)化得到獎勵的行為、弱化受到懲罰的行為來實現(xiàn)機(jī)器學(xué)習(xí)。[8]深度學(xué)習(xí)是現(xiàn)下研究的熱點,是實現(xiàn)人工智能目標(biāo)的根本途徑之一。深度學(xué)習(xí)是基于人工神經(jīng)網(wǎng)絡(luò)的理論和方法,通過多層次的神經(jīng)網(wǎng)絡(luò)模型來學(xué)習(xí)和表達(dá)數(shù)據(jù)中的高層次抽象特征,以實現(xiàn)自動化的分類、識別、預(yù)測和決策等。[9]深度學(xué)習(xí)通過對原始信號進(jìn)行逐層特征變換,將樣本在原空間的特征表示變換到新的特征空間,自動地學(xué)習(xí)得到層次化的特征表示,從而更有利于分類或特征的可視化。[10]深度學(xué)習(xí)算法并不是一步一步地對計算機(jī)進(jìn)行編程,而是允許計算機(jī)從數(shù)據(jù)(往往是大量數(shù)據(jù))中自我學(xué)習(xí),不需要編程者作出新的分步指令。[11]因此,機(jī)器學(xué)習(xí)是學(xué)習(xí)算法創(chuàng)建了規(guī)則,給學(xué)習(xí)算法提供訓(xùn)練數(shù)據(jù),然后,學(xué)習(xí)算法基于從數(shù)據(jù)中得到的推論生成一組新的規(guī)則,稱為機(jī)器學(xué)習(xí)模型。[12]深度學(xué)習(xí)技術(shù)相比于其他機(jī)器學(xué)習(xí)而言,更具有智能特征。然而,深度學(xué)習(xí)需要海量數(shù)據(jù),而數(shù)據(jù)的可獲得性、數(shù)據(jù)質(zhì)量以及數(shù)據(jù)標(biāo)注成本等,成為制約人工智能發(fā)展的一大因素。

根據(jù)不同的算法級別,以人工智能的自主程度與行動能力為標(biāo)準(zhǔn),可以將人工智能分為弱人工智能、強(qiáng)人工智能與超人工智能。弱人工智能可以在已編入的算法范圍內(nèi)自主決策執(zhí)行,其行為體現(xiàn)設(shè)計者或使用者的意志;強(qiáng)人工智能可能會在編制設(shè)計的范圍外,自主決策和實施行為。強(qiáng)人工智能進(jìn)一步發(fā)展,則可能出現(xiàn)超人工智能。強(qiáng)人工智能可以像人類一樣進(jìn)行高級思維和決策;而超人工智能具有極高的智能,能夠超越人類進(jìn)行決策與行動,目前僅存于概念上。

二、要素分析:人工智能不符合法律主體構(gòu)成要件

楊立新教授認(rèn)為,民法上的人格由三個基本要素構(gòu)成,一是具有健全的人體和人腦,二是具有獨立的意志,三是能夠充當(dāng)特定的社會角色。[13]進(jìn)一步思考,不得不將理性基礎(chǔ)納入考量范圍,并將人工智能進(jìn)行對比分析。

(一)法律主體實質(zhì)構(gòu)成要件

1.生物基礎(chǔ)。人類基因組、人體和人腦構(gòu)成一個“人”的生物學(xué)層面。[14]人獨特的基因結(jié)構(gòu)決定了人的各方面特點,也是作為獨立個體的人最具可識別性的標(biāo)志。攜帶基因組的細(xì)胞在不斷發(fā)展過程中生長出四肢、人腦、器官等,進(jìn)而組成完整的身體。這樣的生物組織與生長過程一并構(gòu)成了法律主體的生物基礎(chǔ)。

2.理性基礎(chǔ)與獨立意志。理性基礎(chǔ)與獨立意志都是主體構(gòu)成中的抽象要件。理性基礎(chǔ)是產(chǎn)生獨立意志的前提。理性包含著人類對世界的認(rèn)識與感知能力,還包括人類識別道德、形成共識并以道德倫理處世行事的能力,它是人類不斷累積對世界的認(rèn)識、產(chǎn)生情感并生成思維邏輯的根源。獨立意志是理性能力的生成結(jié)果。獨立意志強(qiáng)調(diào)個人意識的獨立差異性,具有不可被外界直接支配的特點。

3.社會功能。荀子言:力不若牛,走不若馬,而牛馬為用,何也?曰:人能群,彼不能群也。人何以能群?人的本質(zhì)是一切社會關(guān)系的總和,社會功能展現(xiàn)人類生活的集群性,是人在社會中具有互交性、融合性的存在方式。在參與社會關(guān)系的過程之中,人類之間、人類與社會環(huán)境之間形成了千絲萬縷的聯(lián)系,這也使個體有了不可復(fù)制、不盡相同的獨立社會角色。

(二)強(qiáng)人工智能與法律主體構(gòu)成要素的對比

弱人工智能現(xiàn)在已經(jīng)廣泛運(yùn)用于社會生活中,因弱人工智能在獨立意志上并無技術(shù)支持,故其客體身份并無爭議。而AlphaGo的誕生,對大腦神經(jīng)網(wǎng)絡(luò)的認(rèn)知和對深度強(qiáng)化學(xué)習(xí)算法有了重大突破[15],這被視為從弱人工智能時代向強(qiáng)人工智能時代進(jìn)軍的重要一步。隨著起源于人工神經(jīng)網(wǎng)絡(luò)的多層感知機(jī)理的深度學(xué)習(xí)等技術(shù)不斷發(fā)展,我們有可能在未來進(jìn)入強(qiáng)人工智能時代。而超人工智能目前僅存于想象。所以對強(qiáng)人工智能進(jìn)行要素分析是最有必要的。

1.實質(zhì)要件對比

人工智能可以參與社會關(guān)系,具備社會功能是毫無疑問的。如世界上第一個具有公民身份的機(jī)器人索菲亞,它有著豐富的面部表情,能參加訪談、出席會議、與人談笑風(fēng)生。而人工智能是否具備生物基礎(chǔ)、理性基礎(chǔ)與獨立意志,則需要進(jìn)一步分析。

(1)生物學(xué)基礎(chǔ)。確認(rèn)智能機(jī)器人是否具有人格,首先要確定的是智能機(jī)器人是否具有人體和人腦的生理學(xué)要素。[13]因為人工智能歸根結(jié)底是一門技術(shù),不是由細(xì)胞分裂而來的,不具備人類獨有的基因,屬于非生命體。毋庸置疑,即便利用深層神經(jīng)網(wǎng)絡(luò)技術(shù)能模擬出人腦與神經(jīng),甚至有比人體更多的神經(jīng)元,人工智能也不可能具備真正的人體與人腦生理學(xué)要素。

或有人提出,人類基因決定著人的思考與行為模式,而人工智能的運(yùn)作由算法決定,故而認(rèn)為人類基因與算法基因都是一系列思維與行為的生成軌跡,都符合法律主體的實質(zhì)要件。這是形而上觀點,應(yīng)當(dāng)摒棄。首先,算法基因是某些程序運(yùn)行中的規(guī)律、方法、公式、程序等,屬計算機(jī)科學(xué)中的概念。人類基因是生物體中遺傳信息的核心組成部分,屬生物學(xué)概念,二者屬性不同,本質(zhì)也不同。其次,算法是人類智慧的成果,算法邏輯是人思維邏輯的外延,并非自然進(jìn)化的產(chǎn)物,也不具備獨立性。

(2)理性基礎(chǔ)與獨立意志。AlphaGo在戰(zhàn)敗后會通過深度學(xué)習(xí)技術(shù)吸取失敗的經(jīng)驗,提升自己的圍棋能力,最終超越其他圍棋大師成為世界第一。這說明人工智能有模仿人類智慧的能力,而且在機(jī)器學(xué)習(xí)中,能形成自己的經(jīng)驗并在某些方面獲得最高智慧。除此外,根據(jù)前文分析,深度學(xué)習(xí)技術(shù)允許學(xué)習(xí)算法創(chuàng)建規(guī)則,生成機(jī)器學(xué)習(xí)模型。在此過程中,除了程序員最開始編寫算法,導(dǎo)入學(xué)習(xí)內(nèi)容后,人工智能可以進(jìn)行自主學(xué)習(xí)。可以說,人工智能能形成與人類獨立意志相近似的心理學(xué)要素。

但這樣的獨立意志忽略了理性基礎(chǔ)的考量。人工智能的“思考”邏輯是算法,涉及統(tǒng)計學(xué)、概率論、凸分析、逼近論、算法復(fù)雜度等多種理論,但人類并非完全是“理智”的,人類思維過程中摻雜著說不清、道不明的情感與倫理因素,這卻是人工智能無法模擬的。質(zhì)言之,機(jī)器人生成的目的行為,與人類有目的、有意識的行為性質(zhì)完全不同;同時,機(jī)器人沒有自身積累的知識,其機(jī)器知識庫的知識都是特定領(lǐng)域的,并且都是人類輸入的。[16]故而,即便人工智能能基于深度學(xué)習(xí)得出與人類不同的獨立意志,但這也僅僅存在于功能方面。機(jī)器不具備心靈、情感、倫理等人性要素,人工智能的理性并非人的理性。

有人或會提出,擬制人格或可以解決此問題。在《中華人民共和國民法典》(簡稱“民法典”)規(guī)定的法律主體中,除了以自然生命為存在基礎(chǔ)的自然人,還有以非生命體為基礎(chǔ)的法人和非法人組織。此處則必須透過現(xiàn)象看本質(zhì),法律擬制的運(yùn)用,不僅需要存在客觀事實,還需要存在與人本源上的相似性。法人、非法人組織雖然以組織體的方式存在,但組織體背后是自然人,其決策與行為直接體現(xiàn)為自然人意志的集合。而人工智能背后是一系列繁雜的技術(shù),這與法律擬制存在本源上的區(qū)別。

(三)超人工智能應(yīng)當(dāng)被絕對抵制

在技術(shù)發(fā)展層面,深度學(xué)習(xí)是包含多級非線性變換的層級機(jī)器學(xué)習(xí)方法,深層神經(jīng)網(wǎng)絡(luò)是目前的主要形式[17],而此類技術(shù)并不足以支撐超人工智能的產(chǎn)生。在可預(yù)見的未來,超人工智能完全停留在人類的想象之中,短期內(nèi)無法實現(xiàn)。

在社會發(fā)展層面,相比于弱人工智能與強(qiáng)人工智能,超人工智能在各方面的能力可能都遠(yuǎn)超人類。人類社會存在的部分未解決的難題,是因為受理性控制、受倫理價值觀念約束、受到社會各種力量的相互制約與平衡。而超人工智能憑借其超強(qiáng)的計算和分析能力,并利用其先進(jìn)的算法和模型來發(fā)現(xiàn)規(guī)律和關(guān)聯(lián)性,從而解決人類目前無法解決的難題。這難以確保是在人類理性價值范圍內(nèi),其先進(jìn)技術(shù)也超越了人類可控的范圍。如果超人工智能普遍存在,或?qū)е氯祟惿鐣念嵏残詾?zāi)難。因此,不僅不能在法律上賦予超人工智能主體地位,更應(yīng)當(dāng)從技術(shù)、社會等各個層面對其予以完全抵制。

凱爾森認(rèn)為法律主體是法律上的人,是權(quán)利與義務(wù)的持有者。基于法律主體的實質(zhì)要件,立法確定了意思能力、權(quán)利能力與行為能力為法律要件。意思能力是指個體理解自己的行為的性質(zhì)和后果的能力;權(quán)利能力是法律主體參與社會關(guān)系的資格;行為能力是法律主體參與民事法律關(guān)系、享有相應(yīng)的權(quán)利、承擔(dān)相應(yīng)義務(wù)的能力。只有滿足法律主體的實質(zhì)要件,才能獲得法律主體候選人的資格。人工智能不具備成為法律主體的生物學(xué)基礎(chǔ)和理性基礎(chǔ),故而在現(xiàn)行法律主體框架下,沒有人工智能的一席之地。即便從歷史演變的角度來看,法律主體呈擴(kuò)張之勢。但基于人類安全的絕對目的和可預(yù)見的技術(shù)發(fā)展水平,人工智能無法取得法律主體地位。且現(xiàn)行法律框架基本完備,能兼顧人工智能的安全和發(fā)展。將人工智能定位為客體,完全不必另行立法[13],也無需擴(kuò)大法律主體的范圍。

三、立法態(tài)度:域內(nèi)外法律實踐

人工智能現(xiàn)已成為我國加快形成新質(zhì)生產(chǎn)力的“牛鼻子”,在經(jīng)濟(jì)發(fā)展、社會進(jìn)步乃至國際政治經(jīng)濟(jì)格局等方面產(chǎn)生了重大而深遠(yuǎn)的影響[18]。但人工智能相關(guān)立法確有不足,由此,國內(nèi)外人工智能相關(guān)法律政策也成為現(xiàn)下法治工作的重點。

(一)國內(nèi)實踐:以倫理規(guī)范為基礎(chǔ)確保安全可控

黨內(nèi)政策文件方面,2022年3月20日,中共中央辦公廳、國務(wù)院辦公廳印發(fā)《關(guān)于加強(qiáng)科技倫理治理的意見》,明確科技倫理在技術(shù)發(fā)展的首要地位。行政法規(guī)方面,2017年7月8日,國務(wù)院印發(fā)了《新一代人工智能發(fā)展規(guī)劃》。部門規(guī)章方面,自2017年來,各個部門共計發(fā)布了十余部有關(guān)人工智能的規(guī)定,涉及倫理規(guī)范、科技、網(wǎng)信、教育、林業(yè)等多個方面。其中,2021年9月25日,國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,旨在將倫理道德融入人工智能全生命周期,提出六項基本倫理規(guī)范、十八項具體倫理要求。2022年7月29日,科技部等六部門關(guān)于印發(fā)《關(guān)于加快場景創(chuàng)新以人工智能高水平應(yīng)用促進(jìn)經(jīng)濟(jì)高質(zhì)量發(fā)展的指導(dǎo)意見》的通知,為人工智能技術(shù)發(fā)展與場景化應(yīng)用方向作出指導(dǎo);2023年7月10日,國家發(fā)展改革委等六部門發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》,專門針對ChatGPT類的生成式人工智能提出發(fā)展方向。司法解釋方面,2022年12月8日,最高人民法院發(fā)布了《關(guān)于規(guī)范和加強(qiáng)人工智能司法應(yīng)用的意見》,用于指導(dǎo)更好地發(fā)揮人工智能輔助司法的功能。除此外,2023年3月,國家人工智能標(biāo)準(zhǔn)化總組、全國信標(biāo)委人工智能分委會發(fā)布了《人工智能倫理治理標(biāo)準(zhǔn)化指南(2023版)》,意在促進(jìn)落實人工智能倫理治理標(biāo)準(zhǔn)。

通過梳理可發(fā)現(xiàn),國家對人工智能作為時代新物以促進(jìn)社會的重視程度不言而喻。從近兩年發(fā)布的文件來看,人工智能的倫理標(biāo)準(zhǔn)和框架正在建立,規(guī)制路徑暫未落地;人工智能在經(jīng)濟(jì)建設(shè)方面有著重大助力,但社會層面多應(yīng)用在單獨行業(yè),在法治工作中發(fā)揮輔助功能的趨勢也愈加明確。人工智能在法律文件中以“技術(shù)”存在,未脫離“物格”性質(zhì),明確了國家對人工智能發(fā)展的審慎態(tài)度。

(二)域外實踐:體現(xiàn)約束與發(fā)展并重的原則

在世界范圍內(nèi),近年在大力推動人工智能技術(shù)突破和產(chǎn)業(yè)發(fā)展的同時,也重視約束人工智能的風(fēng)險。包括經(jīng)合組織、聯(lián)合國教科文組織、歐盟、美國、德國、英國、日本、新加坡在內(nèi)的國家、地區(qū)、國際組織相應(yīng)地推出文件用于建立人工智能規(guī)制體系。[19]除此外,尤其值得關(guān)注的是,歐洲議會、歐盟成員國和歐盟委員會三方經(jīng)過漫長談判后,2023年12月8日就《人工智能法案》(簡稱《AI法案》)達(dá)成協(xié)議。[20]這是全球首部監(jiān)管人工智能的全面法規(guī)。

《AI法案》將人工智能系統(tǒng)定位為“基于機(jī)器的系統(tǒng)”,最大的特點在于對人工智能進(jìn)行分類管控,將人工智能分為不可接受、高風(fēng)險、有限風(fēng)險和極小風(fēng)險四類。明令禁止人工智能的系列有害實踐;對于高風(fēng)險,則需要綜合性治理;而對于有限風(fēng)險和極小風(fēng)險,應(yīng)該遵守一定的告知義務(wù)和披露義務(wù)。[21]鄭春燕教授稱其確立了“基于風(fēng)險”的人工智能治理框架,更符合人工智能時代的風(fēng)險特點和監(jiān)管要求。[22]

四、路徑探究:三管齊下實現(xiàn)安全與發(fā)展的平衡

作為一項具備蓬勃生命力的先進(jìn)技術(shù),人工智能蘊(yùn)含著無限的發(fā)展前景,也存有對現(xiàn)實社會的潛在威脅。因此,對于人工智能的規(guī)制應(yīng)當(dāng)采取審慎且包容的態(tài)度,立足于人工智能的客體地位,從科技監(jiān)管、法律規(guī)制以及社會保障三個方面探究平衡發(fā)展與約束的規(guī)制路徑。

(一)技術(shù)規(guī)制:構(gòu)建沙盒監(jiān)管制度,實現(xiàn)全過程監(jiān)控

人工智能技術(shù)不可能停止發(fā)展,但必須有節(jié)制地可控性發(fā)展。在人工智能技術(shù)領(lǐng)域借鑒“沙盒監(jiān)管”的方法,有利于實現(xiàn)人工智能創(chuàng)新發(fā)展與風(fēng)險控制動態(tài)平衡。“監(jiān)管沙盒”制度是歐盟《AI法案》平衡過程中的重大創(chuàng)新,也標(biāo)志著監(jiān)管范式的變革,值得我國借鑒與因應(yīng)構(gòu)建。

沙盒監(jiān)管原是金融管理上的概念,最早于2015年由英國金融監(jiān)管局提出。沙盒監(jiān)管指對特定的范圍內(nèi)的對象采取包容審慎的監(jiān)管措施,通過監(jiān)管部門的全過程監(jiān)管與安全范圍內(nèi)的容錯糾錯機(jī)制,來保證運(yùn)作的安全性并作出最終評價,防止問題外溢。沙盒(Sandbox)是計算機(jī)術(shù)語,指在計算機(jī)安全領(lǐng)域的安全機(jī)制,為運(yùn)行中的程序提供的隔離環(huán)境,監(jiān)管沙盒則是一個受監(jiān)督的安全測試區(qū)。在“監(jiān)管沙盒”測試中,監(jiān)管是在具體的、可控的情境中進(jìn)行的。[21]首先,劃定有限領(lǐng)域范圍,并設(shè)置以技術(shù)實力為硬件的監(jiān)管部門;其次,申請人申請進(jìn)入沙盒測試并將相關(guān)資料交由監(jiān)管部門審核;監(jiān)管部門對申請進(jìn)行評估,若項目符合安全性與可行性,則協(xié)商確定最佳測試計劃;然后,在監(jiān)管部門的全程密切監(jiān)管下執(zhí)行沙盒測試,測試結(jié)束得出檢測報告后,對項目規(guī)則提出建議;最后復(fù)核檢測報告,決定是否在該領(lǐng)域繼續(xù)發(fā)展或進(jìn)一步投入市場(見圖2)。在金融領(lǐng)域,現(xiàn)階段我國在一些地區(qū)對監(jiān)管沙盒進(jìn)行了試點。[23]而將沙盒監(jiān)管制度引入人工智能領(lǐng)域,可以最大限度地促進(jìn)技術(shù)創(chuàng)新,同時發(fā)揮沙盒全程監(jiān)視、嚴(yán)密控制、修正不足的優(yōu)勢,以確保人工智能技術(shù)發(fā)展的安全性與可控性。

在通過沙盒測試后,有關(guān)部門仍不能放松警惕。鑒于人工智能存在的潛在危害性,對其監(jiān)管必須采取“前置加后控”的模式。前期精準(zhǔn)捕捉算法技術(shù)和應(yīng)用可能產(chǎn)生的風(fēng)險:對人工智能輸入數(shù)據(jù)的類型、來源、質(zhì)量、體量進(jìn)行篩選控制,對算法的處理方式、標(biāo)注規(guī)則、生產(chǎn)結(jié)果進(jìn)行嚴(yán)密監(jiān)控。在經(jīng)過系列安全監(jiān)控后,產(chǎn)品生產(chǎn)后,通過在開發(fā)程序內(nèi)設(shè)風(fēng)險預(yù)警機(jī)制,以技促技,動態(tài)監(jiān)控人工智能的運(yùn)作過程。在全過程中,一旦個別節(jié)點出現(xiàn)風(fēng)險預(yù)警,則應(yīng)當(dāng)立即停止進(jìn)一步研究,如此才能實現(xiàn)人工智能技術(shù)發(fā)展的可控性。

(二)責(zé)任規(guī)制:現(xiàn)行法律框架下的人工智能損害責(zé)任承擔(dān)

1.責(zé)任基礎(chǔ):“刺破人工智能面紗”

有人擔(dān)心,現(xiàn)在的法律不能完全規(guī)制人工智能的侵權(quán)行為與風(fēng)險,考慮法律是否應(yīng)當(dāng)擴(kuò)大立法范圍,針對人工智能單獨立法。因人工智能本質(zhì)屬性上仍然是為人類服務(wù)的物,“刺破人工智能面紗”是處理此類侵權(quán)案件的基本原則。基于前文技術(shù)分析與法律主體要件分析,源于人工智能客體地位的結(jié)論,人工智能造成的侵權(quán)損害適用的歸責(zé)機(jī)制。聯(lián)合國教科文組織《關(guān)于機(jī)器人倫理的初步草案報告》提出讓所有參與機(jī)器人發(fā)明、授權(quán)和使用過程中的主體分擔(dān)責(zé)任。[24]這是對“刺破人工智能面紗”的實踐體現(xiàn)。

2.責(zé)任形式:產(chǎn)品責(zé)任

根據(jù)《民法典》侵權(quán)責(zé)任編規(guī)定,由物直接導(dǎo)致的損害應(yīng)當(dāng)歸屬于產(chǎn)品責(zé)任,而生產(chǎn)者、銷售者以及過錯第三人是產(chǎn)品侵權(quán)責(zé)任的實際承擔(dān)者。鑒于人工智能不再是簡單的實用產(chǎn)品,而是智慧型科技,其產(chǎn)品構(gòu)成不僅是外形硬件,更為關(guān)鍵的是內(nèi)在的算法邏輯。所以對《民法典》中的生產(chǎn)者應(yīng)當(dāng)作擴(kuò)大解釋,將設(shè)計者涵蓋在內(nèi)。具體而言,如果本身存在設(shè)計缺陷的,設(shè)計者就是責(zé)任人;存在制造缺陷的,責(zé)任主體是生產(chǎn)者。[13]若因銷售者過錯導(dǎo)致侵權(quán),責(zé)任人是銷售者;若是利用人工智能技術(shù)使人工智能無法正常運(yùn)作從而導(dǎo)致?lián)p害的,如黑客,此類人應(yīng)當(dāng)同《民法典》規(guī)定的有過錯的第三人屬同類,如運(yùn)輸者、倉儲者,承擔(dān)第三人過錯責(zé)任,或涉及刑法規(guī)制的,承擔(dān)刑事責(zé)任。

(三)社會保障:人工智能強(qiáng)制保險機(jī)制

保險制度是轉(zhuǎn)移風(fēng)險、填補(bǔ)損害的重要手段。如機(jī)動車交通事故責(zé)任強(qiáng)制保險(俗稱“交強(qiáng)險”),為機(jī)動車設(shè)置強(qiáng)制保險的目的是使交通事故中的受害人能得到賠償。人工智能領(lǐng)域更是如此。人工智能正逐漸在更廣泛的領(lǐng)域和人群中得到應(yīng)用與普及,僅僅依賴國家監(jiān)管和法律規(guī)制,不足以化解人工智能廣泛使用后帶來的社會風(fēng)險。必須采取新的經(jīng)濟(jì)措施以規(guī)制人工智能帶來的責(zé)任風(fēng)險——強(qiáng)制投保責(zé)任保險。[24]若建立人工智能強(qiáng)制保險機(jī)制,與交強(qiáng)險相比,投保主體的范圍必須擴(kuò)大。交強(qiáng)險的投保主體是機(jī)動車的所有人或者管理人,被保險人是投保人及其允許的合法駕駛?cè)耍辉谌斯ぶ悄茴I(lǐng)域,強(qiáng)制投保責(zé)任應(yīng)當(dāng)貫穿人工智能可能產(chǎn)生危害的全部環(huán)節(jié)。設(shè)計者對算法設(shè)計過程和人工智能本身的運(yùn)作過程負(fù)責(zé);生產(chǎn)者對生產(chǎn)過程負(fù)責(zé);投入市場后,使用者對人工智能產(chǎn)品負(fù)有合理使用和管理的責(zé)任,因此,設(shè)計者、生產(chǎn)者、使用者是人工智能強(qiáng)制保險的投保者。除此外,基于不同風(fēng)險等級的人工智能,應(yīng)構(gòu)建相應(yīng)責(zé)任等級的強(qiáng)制保險制度。面對智能汽車技術(shù),保險架構(gòu)改革必須既能維護(hù)與實現(xiàn)保險的目的,又須促進(jìn)消費(fèi)者對智能汽車技術(shù)的接納。[25]人工智能的發(fā)展與應(yīng)用亦是如此。

結(jié)語

法律規(guī)制的前瞻性要求立法者敏銳捕捉人工智能發(fā)展的前景與風(fēng)險,并采取合理的措施實現(xiàn)促進(jìn)發(fā)展與降低風(fēng)險的平衡。在此語境下,我們更要堅定人類中心主義的立場,將人工智能視為能夠“為我所用”的工具,而非本末倒置地賦予其主體地位,使其成為人類社會持續(xù)穩(wěn)定存續(xù)的潛在風(fēng)險。對人工智能法律治理而言,穩(wěn)扎其客體身份的陣地,允許其在限定領(lǐng)域最大化發(fā)揮促進(jìn)經(jīng)濟(jì)、便利生活的效用,而超越該界限則應(yīng)采取最為嚴(yán)格的抑制措施。當(dāng)我們欲在法律的視野,為人工智能技術(shù)長治長效提供方案時,兼具社會安全的意識、技術(shù)前瞻的視野與法律專業(yè)的能力成為應(yīng)有之義、必經(jīng)之路。

參考文獻(xiàn):

[1] NHTSA信函中認(rèn)定谷歌自動駕駛機(jī)器人為“駕駛員”[EB/OL].(2016-02-10)[2024-03-20].https://tech.huanqiu.com/article/9CaKrnJTLMm.

[2] 史上首次:沙特授予機(jī)器人公民身份[EB/OL].(2017-10-27)[2024-03-20].http://world.people.com.cn/n1/2017/1027/c1002-29613198.html.

[3] 中國機(jī)器人網(wǎng).令人毛骨悚然的機(jī)器人“殺人”現(xiàn)場,揭示了多少行業(yè)真相?[EB/OL].(2023-11-13)[2023-11-28].https://www.robot-china.com/news/202311/13/85747.html.

[4] 劉憲權(quán).人工智能時代的“內(nèi)憂”“外患”與刑事責(zé)任[J].東方法學(xué),2018(1):134-142.

[5] 鐘義信.人工智能:“熱鬧”背后的“門道”[J].科技導(dǎo)報,2016,34(7):14-19.

[6] 毛健,趙紅東,姚婧婧.人工神經(jīng)網(wǎng)絡(luò)的發(fā)展及應(yīng)用[J].電子設(shè)計工程,2011,19(24):62-65.

[7] 張妮,徐文尚,王文文.人工智能技術(shù)發(fā)展及應(yīng)用研究綜述[J].煤礦機(jī)械,2009,30(2):4-7.

[8] 崔雍浩,商聰,陳鍶奇,等.人工智能綜述:AI的發(fā)展[J].無線電通信技術(shù),2019,45(3):225-231.

[9] 劉禹良.人工智能與ChatGPT前景展望[J].武漢社會科學(xué),2023(2):19-25.

[10] Hinton Geoffrey E,Osindero Simon,Teh Yee-Whye.A fast learning algorithm for deep belief nets[J].Neural Computation,2006,18(7):1527-1554.

[11] 李婕.智能風(fēng)險與人工智能刑事責(zé)任之構(gòu)建[J].當(dāng)代法學(xué),2019,33(3):27-36.

[12] 司曉,曹建峰.論人工智能的民事責(zé)任:以自動駕駛汽車和智能機(jī)器人為切入點[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2017,35(5):166-173.

[13] 楊立新.人工類人格:智能機(jī)器人的民法地位:兼論智能機(jī)器人致人損害的民事責(zé)任[J].求是學(xué)刊,2018,45(4):84-96.

[14] 邱仁宗.論“人”的概念:生命倫理學(xué)的視角[J].哲學(xué)研究,1998(9):26-35.

[15] 何立民.人工智能系統(tǒng)智能生成機(jī)理探索之六 從弱人工智能、強(qiáng)人工智能到超人工智能[J].單片機(jī)與嵌入式系統(tǒng)應(yīng)用,2020,20(8):87-89.

[16] 吳漢東.人工智能時代的制度安排與法律規(guī)制[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2017,35(5):128-136.

[17] 周飛燕,金林鵬,董軍.卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計算機(jī)學(xué)報,2017,40(6):1229-1251.

[18] 中國工信產(chǎn)業(yè)網(wǎng).三大布局!“十四五”規(guī)劃綱要為我國人工智能發(fā)展劃重點[EB/OL].(2021-03-16)[2023-12-15].https://www.cnii.com.cn/gxdt/202103/t20210316_262088.html.

[19] 國家人工智能標(biāo)準(zhǔn)化總體組、全國信標(biāo)委人工智能分委會.人工智能倫理治理標(biāo)準(zhǔn)化指南(2023)[EB/OL].(2023-04-16)[2023-12-15].https://www.sgpjbg.com/baogao/122388.html.

[20] 央視網(wǎng).全球首部全面監(jiān)管AI歐盟版《人工智能法案》出爐[EB/OL].(2023-12-11)[2023-12-22].https://news.cctv.com/2023/12/11/ARTIguHKWcPWpFWZKgQ8KzuZ231211.shtml.

[21] 易學(xué)文.論“監(jiān)管沙盒”制度的實踐哲學(xué)轉(zhuǎn)向:以歐盟《人工智能法》為分析對象[J].南海法學(xué),2023,7(4):11-19.

[22] 王衛(wèi).歐盟《人工智能法案》實行風(fēng)險分級監(jiān)管[N].法治日報,2023-12-18(005).

[23] 張惠清.我國監(jiān)管沙盒運(yùn)作的優(yōu)化路徑分析:基于國際經(jīng)驗的歸納與類比[J].財富時代,2022(12):50-54.

[24] 袁曾.人工智能有限法律人格審視[J].東方法學(xué),2017(5):50-57.

[25] 邢海寶.智能汽車對保險的影響:挑戰(zhàn)與回應(yīng)[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2019,37(6):30-42.

【責(zé)任編輯:許潔】

Justification and Regulation of the Status of Artificial Intelligence Objects

LIU Yulin

(Law School, Sichuan Normal University, Chengdu, Sichuan 610066, China)

Abstract: Even if the degree of humanization is getting higher and higher, the nature of artificial intelligence in technology is to simulate human intelligence, so artificial intelligence does not have rational basis and independent will in the composition of the elements, and cannot break through the object bondage and obtain the subject qualification. In the face of the huge risks brought by this high-end technology, technical regulation should be carried out with sandbox regulation as the core, the liability method of “piercing the veil of artificial intelligence” as the principle, and the compulsory insurance system as a means of social security, so as to achieve the balance between safe and controllable artificial intelligence and scientific and technological development.

Keywords: artificial intelligence; object status; sandbox regulation; development and balance

猜你喜歡
人工智能
我校新增“人工智能”本科專業(yè)
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當(dāng)人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業(yè)
基于人工智能的電力系統(tǒng)自動化控制
人工智能,來了
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
主站蜘蛛池模板: 国产青青草视频| 亚洲精品爱草草视频在线| 亚洲国产欧美国产综合久久 | 精品人妻无码区在线视频| 日韩 欧美 国产 精品 综合| 国产亚洲男人的天堂在线观看| 国产熟睡乱子伦视频网站| 国产一级小视频| 国产精品亚洲专区一区| 亚洲第一极品精品无码| 青青操国产| 国内精品视频在线| 亚洲午夜福利精品无码| 亚洲日韩AV无码精品| 欧美专区日韩专区| 亚洲福利片无码最新在线播放| 国产呦精品一区二区三区下载| 九九九久久国产精品| 91在线激情在线观看| av午夜福利一片免费看| 欧美翘臀一区二区三区| 亚洲AV无码乱码在线观看代蜜桃| 青青青国产免费线在| 亚洲成人在线免费观看| 91无码人妻精品一区| 中文无码影院| 成人无码区免费视频网站蜜臀| 国产精品99久久久久久董美香| 亚洲视频三级| 91丝袜乱伦| 国产精品污污在线观看网站| 国产97视频在线| 永久免费无码日韩视频| 欧美日本在线观看| 亚洲日韩久久综合中文字幕| 国产视频a| 日韩免费视频播播| 亚洲免费毛片| 亚洲中文字幕23页在线| 国产精品99r8在线观看| 国产午夜精品一区二区三| 亚洲国产亚综合在线区| a级毛片网| 老熟妇喷水一区二区三区| 国产网友愉拍精品视频| 毛片免费观看视频| 欧美色视频网站| 制服丝袜国产精品| 一级一级一片免费| 亚洲无码精品在线播放| 国产精品无码一二三视频| 99999久久久久久亚洲| 男人的天堂久久精品激情| 国产精品污视频| 精品国产一区91在线| 亚洲成人免费在线| 九色视频最新网址| 97影院午夜在线观看视频| 久久久久无码国产精品不卡| 久久精品国产精品国产一区| 日本一区高清| 亚洲欧美不卡中文字幕| 中文字幕人妻av一区二区| 在线播放国产一区| 99久久亚洲综合精品TS| 国产迷奸在线看| 高清无码手机在线观看| 久精品色妇丰满人妻| 亚洲av成人无码网站在线观看| 国产91精品久久| 欧美激情视频一区| 国产成人盗摄精品| 秘书高跟黑色丝袜国产91在线| 色婷婷色丁香| 久久青青草原亚洲av无码| 天堂成人av| 国产人碰人摸人爱免费视频| 日本黄色a视频| JIZZ亚洲国产| 国产男人天堂| 国产精品亚洲片在线va| 99国产精品免费观看视频|