摘要:人工智能的蓬勃發(fā)展引發(fā)諸多刑事風(fēng)險(xiǎn),由于法律滯后性、技術(shù)產(chǎn)業(yè)復(fù)雜多樣以及算法黑箱等因素影響,當(dāng)前刑法規(guī)制中存在對(duì)人工智能體本身保護(hù)不足、對(duì)濫用人工智能犯罪以及涉弱人工智能過(guò)失犯罪規(guī)制不足等問(wèn)題。當(dāng)前我們?nèi)蕴幱谌跞斯ぶ悄軙r(shí)代,在規(guī)制涉弱人工智能犯罪時(shí)既要秉持刑法謙抑性理念,同時(shí)也應(yīng)進(jìn)行適當(dāng)前瞻性立法以應(yīng)對(duì)人工智能尚不可控的技術(shù)迭代可能引發(fā)的新型法律風(fēng)險(xiǎn)。對(duì)于刑法規(guī)制中的不同問(wèn)題,可從法律與制度兩方面入手,分情況采取完善相關(guān)犯罪司法解釋、調(diào)整相關(guān)犯罪構(gòu)成要件、設(shè)立新罪名、完善相應(yīng)制度等應(yīng)對(duì)措施。
關(guān)鍵詞:弱人工智能;刑事風(fēng)險(xiǎn);刑法規(guī)制
中圖分類號(hào):D9"""""" 文獻(xiàn)標(biāo)識(shí)碼:A""""" doi:10.19311/j.cnki.16723198.2025.14.063
2024年2月15日,美國(guó)頂級(jí)人工智能公司OpenAI發(fā)布了最新款文生視頻大模型Sora,使人工智能在短短3年內(nèi)實(shí)現(xiàn)了從語(yǔ)言到圖像再到視頻的完整覆蓋。人工智能在以人類無(wú)法想象的速度進(jìn)行著技術(shù)迭代,給人們的生產(chǎn)生活帶來(lái)革命性變化。然而科學(xué)技術(shù)也具有兩面性,人工智能的普遍應(yīng)用帶給人們便捷的同時(shí)也引發(fā)諸多社會(huì)風(fēng)險(xiǎn)與法律風(fēng)險(xiǎn),并對(duì)現(xiàn)有的法律體系造成沖擊。人工智能的發(fā)展加重了傳統(tǒng)犯罪的危害性,并催生了新的犯罪形式。習(xí)近平總書(shū)記對(duì)人工智能相關(guān)風(fēng)險(xiǎn)問(wèn)題高度重視,提出“要加強(qiáng)人工智能發(fā)展的潛在風(fēng)險(xiǎn)研判和防范,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德”[1]。對(duì)人工智能的刑法規(guī)制研究具有重要指引意義。目前在針對(duì)人工智能犯罪的刑法規(guī)制實(shí)踐中,我國(guó)已開(kāi)展了一系列既具針對(duì)性又富前瞻性的探索,例如對(duì)于人工智能引發(fā)的刑事責(zé)任分配問(wèn)題,不僅考慮了人工智能使用者的主體責(zé)任,還著重考慮了服務(wù)提供者的責(zé)任歸屬。
1 涉弱人工智能刑法規(guī)制中存在的問(wèn)題
1.1 人工智能體作為犯罪對(duì)象保護(hù)不周延
根據(jù)現(xiàn)行刑法的規(guī)定,人工智能體作為犯罪對(duì)象而實(shí)施的犯罪主要由侵犯知識(shí)產(chǎn)權(quán)罪或計(jì)算機(jī)犯罪來(lái)規(guī)制,也有些犯罪情形構(gòu)成二者的想象競(jìng)合。目前,人工智能技術(shù)已經(jīng)是國(guó)家戰(zhàn)略層面重點(diǎn)支持的新興科學(xué)技術(shù)之一,無(wú)論是對(duì)于國(guó)家還是企業(yè)而言,都是能夠帶來(lái)實(shí)質(zhì)性效益、具有實(shí)用價(jià)值且具有保密性的技術(shù)。因此,將非法侵入人工智能系統(tǒng)獲取其中存儲(chǔ)的他人知識(shí)產(chǎn)權(quán)或竊取人工智能技術(shù)信息的行為用侵犯知識(shí)產(chǎn)權(quán)罪規(guī)制自不待言。
然而,計(jì)算機(jī)犯罪中的相關(guān)規(guī)定仍存在對(duì)人工智能體保護(hù)不周延問(wèn)題。主要體現(xiàn)在保護(hù)范圍過(guò)窄與定罪標(biāo)準(zhǔn)過(guò)高兩方面。一方面,相關(guān)法律保護(hù)范圍較窄。例如,在現(xiàn)行刑法關(guān)于非法獲取計(jì)算機(jī)信息系統(tǒng)數(shù)據(jù)罪的界定中,“數(shù)據(jù)”一詞主要聚焦于那些對(duì)信息系統(tǒng)功能維護(hù)至關(guān)重要、以訪問(wèn)控制為關(guān)鍵考量的數(shù)據(jù),卻忽視了數(shù)據(jù)本身所具有的獨(dú)立價(jià)值及相應(yīng)保護(hù)需求[2]。人工智能時(shí)代的核心挑戰(zhàn)轉(zhuǎn)變?yōu)楹A繑?shù)據(jù)的處理與決策制定。人工智能依托于物聯(lián)網(wǎng)、大數(shù)據(jù)、云計(jì)算等尖端技術(shù),憑借其強(qiáng)大的智能計(jì)算能力來(lái)處理數(shù)據(jù)并做出精確判斷[3]。隨著人工智能系統(tǒng)日益深入地融入社會(huì)各個(gè)角落,對(duì)其內(nèi)部數(shù)據(jù)的獲取或篡改將會(huì)對(duì)其運(yùn)行產(chǎn)生重要影響。因此,由人工智能負(fù)責(zé)收集、存儲(chǔ)、傳輸及處理的各類電子數(shù)據(jù),應(yīng)當(dāng)成為刑法體系中獨(dú)立保護(hù)的對(duì)象。
同時(shí),由于當(dāng)前相關(guān)法律設(shè)定的定罪標(biāo)準(zhǔn)較高,對(duì)人工智能的有效預(yù)防性保護(hù)面臨挑戰(zhàn)。考慮到我國(guó)采用的是“定性結(jié)合定量”的定罪模式,眾多計(jì)算機(jī)犯罪在判定過(guò)程中均以“情節(jié)嚴(yán)重”作為關(guān)鍵定罪條件。然而,人工智能實(shí)體是依據(jù)預(yù)設(shè)程序和智能系統(tǒng)收集的數(shù)據(jù)進(jìn)行決策的,智能系統(tǒng)和數(shù)據(jù)重要性不言而喻[4]。以無(wú)人駕駛汽車(chē)為例,智能控制系統(tǒng)事實(shí)上已掌控了駕駛主導(dǎo)權(quán)。駕駛智能系統(tǒng)能夠依據(jù)收集到的數(shù)據(jù)進(jìn)行自我學(xué)習(xí)和決策,因此系統(tǒng)和數(shù)據(jù)的完整性與安全性必須得到嚴(yán)格保障。在遭遇系統(tǒng)或數(shù)據(jù)的侵入及損害情境下,人工智能可能會(huì)發(fā)生故障,并因此引發(fā)嚴(yán)重的危害結(jié)果,直接威脅到人身和財(cái)產(chǎn)安全。因此,智能系統(tǒng)及其數(shù)據(jù)作為新型重大法律,應(yīng)當(dāng)受到更為前置和嚴(yán)格的法律保護(hù),降低入罪門(mén)檻以提前預(yù)防潛在風(fēng)險(xiǎn)。然而,當(dāng)前刑法規(guī)范以“后果嚴(yán)重”作為入罪標(biāo)準(zhǔn),但由于技術(shù)層面難以明確區(qū)分是由系統(tǒng)自我調(diào)整還是外部干擾直接導(dǎo)致的“嚴(yán)重后果”[5],導(dǎo)致部分侵入或破壞人工智能系統(tǒng)及其數(shù)據(jù)的行為難以得到刑法有效規(guī)制。
1.2 濫用人工智能技術(shù)犯罪行為規(guī)制不足
現(xiàn)行刑法對(duì)濫用人工智能實(shí)施的犯罪規(guī)制中存在的不足主要表現(xiàn)為兩方面。一方面,傳統(tǒng)罪名規(guī)制范圍較窄,難以應(yīng)對(duì)濫用人工智能體的復(fù)雜情形。盡管《刑法修正案(九)》已增設(shè)如非法利用信息網(wǎng)絡(luò)罪等與網(wǎng)絡(luò)相關(guān)罪名,但現(xiàn)有司法解釋對(duì)“信息網(wǎng)絡(luò)”的定義相對(duì)狹窄,僅局限于計(jì)算機(jī)及其他電子裝置作為終端的場(chǎng)合。然而,人工智能并不完全符合司法解釋中關(guān)于電子裝置終端的界定,其運(yùn)作也并不全然依賴于網(wǎng)絡(luò)鏈接。例如,自動(dòng)駕駛汽車(chē)在沒(méi)有互聯(lián)網(wǎng)接入的情況下也能執(zhí)行自動(dòng)駕駛功能[6]。此外,針對(duì)人工智能體的活動(dòng),非法利用信息網(wǎng)絡(luò)罪所界定的行為范疇難以做到全面覆蓋。具體而言,從技術(shù)操作視角來(lái)看,構(gòu)建旨在從事違法犯罪活動(dòng)的網(wǎng)站、通信群組等行為,并不直接關(guān)聯(lián)到人工智能實(shí)體的參與。又如,幫助信息網(wǎng)絡(luò)犯罪活動(dòng)罪是對(duì)為他人提供技術(shù)支持、廣告推廣等幫助行為進(jìn)行規(guī)制,由于人工智能體與這些“技術(shù)支持”和“廣告推廣”等幫助行為在本質(zhì)上存在差異,也難以將幫助他人利用人工智能體實(shí)施犯罪的行為納入規(guī)制范疇。
另一方面,現(xiàn)行刑法缺乏普適性罪名應(yīng)對(duì)新型犯罪。人工智能技術(shù)的日新月異會(huì)出現(xiàn)越來(lái)越多傳統(tǒng)犯罪無(wú)法規(guī)制的情形,但刑事立法必須具備相對(duì)穩(wěn)定性。社會(huì)的發(fā)展具有無(wú)限性,而立法者的智慧和預(yù)見(jiàn)能力卻有限。在針對(duì)涉人工智能的新型犯罪設(shè)定罪名時(shí),立法者只能基于一般犯罪的考量來(lái)制定法律條文。若在立法中窮盡所有具體情節(jié),則可能使刑法體系變得過(guò)于繁瑣復(fù)雜[7]。因此亟須設(shè)立具有普適性的一般性罪名來(lái)規(guī)制未來(lái)產(chǎn)生的現(xiàn)行刑法無(wú)法涵蓋的新情形。
1.3 涉弱人工智能過(guò)失犯罪規(guī)制不足
由于我們目前仍處于人工智能研究的初級(jí)階段,尚不能對(duì)人工智能體的運(yùn)行與迭代發(fā)展進(jìn)行全面把控,因此由于過(guò)失引發(fā)的人工智能事故頻發(fā)。而人工智能使網(wǎng)絡(luò)空間與現(xiàn)實(shí)社會(huì)兩個(gè)危害場(chǎng)域連接更加緊密,對(duì)安全生產(chǎn)與管理義務(wù)要求也隨之提高。但目前刑法尚未對(duì)人工智能引發(fā)的過(guò)失犯罪進(jìn)行規(guī)制。例如在自動(dòng)駕駛汽車(chē)運(yùn)行中,即使該自動(dòng)駕駛汽車(chē)是合格并滿足相關(guān)安全標(biāo)準(zhǔn)的產(chǎn)品,研發(fā)者、制造者和使用者在網(wǎng)絡(luò)中的任何操作不當(dāng)都有可能直接引發(fā)交通事故,造成人員傷亡與財(cái)產(chǎn)損失。因此,人工智能操作不當(dāng)導(dǎo)致的過(guò)失犯罪也可能帶來(lái)極大的社會(huì)危害。但在多數(shù)情況下,研發(fā)者、制造者擁有比常人更豐富的專業(yè)技能,對(duì)人工智能體具備一定的控制權(quán),但目前卻難以將傳統(tǒng)過(guò)失罪名應(yīng)用于人工智能體的研發(fā)者及制造者身上,過(guò)失引發(fā)的人工智能事故尚且無(wú)法得到有效規(guī)制。
2 弱人工智能刑法規(guī)制不足的原因分析
2.1 法律本身存在滯后性
馬克思主義法學(xué)的視角下,特定的社會(huì)物質(zhì)條件決定法律的本質(zhì),法律作為社會(huì)關(guān)系的調(diào)節(jié)器,旨在維護(hù)社會(huì)秩序與公正。“從一般意義上來(lái)講,社會(huì)變化的速度往往遠(yuǎn)超法律的變化”[8]。人工智能時(shí)代法律的滯后性一方面體現(xiàn)在技術(shù)發(fā)展速度與立法周期的矛盾。人工智能技術(shù)的發(fā)展日新月異,其應(yīng)用的范圍和深度都在不斷擴(kuò)大。然而,法律和司法解釋的出臺(tái)通常需要經(jīng)過(guò)一系列討論、審議和通過(guò)程序,這些程序需要花費(fèi)大量時(shí)間。這使法律在應(yīng)對(duì)人工智能技術(shù)帶來(lái)的新型犯罪和問(wèn)題時(shí),往往具有滯后性。另一方面體現(xiàn)在立法預(yù)見(jiàn)性的局限。立法者在制定法律時(shí),往往只能基于當(dāng)前社會(huì)現(xiàn)象和問(wèn)題進(jìn)行預(yù)測(cè)。然而,人工智能技術(shù)的發(fā)展方向具有極大的不確定性,因此,立法者很難對(duì)人工智能領(lǐng)域可能出現(xiàn)的新型犯罪作出全面預(yù)測(cè)和有效防治。
2.2 技術(shù)復(fù)雜性增加法律規(guī)制難度
涉人工智能犯罪行為往往蘊(yùn)含高度技術(shù)性和隱蔽性,其引發(fā)的犯罪風(fēng)險(xiǎn)種類的多樣性、生成機(jī)理的復(fù)雜性往往給刑法立法與法律適用造成困難。人工智能的分工關(guān)系并非僅限于服務(wù)提供者和用戶之間,而是涉及一個(gè)龐大且復(fù)雜的技術(shù)鏈和產(chǎn)業(yè)鏈,涵蓋了上游、中游和下游的多個(gè)環(huán)節(jié)。以Sora為例,其上游環(huán)節(jié)聚焦于數(shù)據(jù)供給,包括數(shù)據(jù)的采集、標(biāo)記和預(yù)處理,為模型訓(xùn)練提供基礎(chǔ)。中游環(huán)節(jié)則專注于模型的開(kāi)發(fā)與定制,涉及算法的研發(fā)、深度學(xué)習(xí)模型的訓(xùn)練以及根據(jù)特定需求進(jìn)行的二次開(kāi)發(fā)。下游環(huán)節(jié)則負(fù)責(zé)應(yīng)用與分發(fā)內(nèi)容,生產(chǎn)廠商、應(yīng)用服務(wù)商和分發(fā)平臺(tái)共同參與,將Sora的功能融入各類場(chǎng)景中[9]。這些相互依存的環(huán)節(jié)既可以由同一主體負(fù)責(zé),也可以由不同主體分工合作。但不論何種情形,都有可能深刻地影響人工智能自我學(xué)習(xí)過(guò)程,并最終決定其輸出成果。因此,從因果鏈的視角審視,人工智能可能涉及的犯罪問(wèn)題既可以是多階段因素累積所致,也可能是某一特定階段單獨(dú)引發(fā)的后果。然而在多主體共同作用的復(fù)雜情形中,每個(gè)主體往往僅對(duì)其所參與的特定階段有深入的了解。主體之間往往缺乏直接的意思聯(lián)絡(luò),且難以預(yù)測(cè)或控制上一階段或下一階段中其他主體對(duì)整體過(guò)程的影響[10]。這種相互獨(dú)立又相互依賴的關(guān)系,給刑法中因果關(guān)系的確定和責(zé)任的判斷帶來(lái)極大困難。
2.3 算法黑箱影響主觀罪過(guò)的認(rèn)定
作為弱人工智能技術(shù)的核心,算法構(gòu)成了弱人工智能的智能基礎(chǔ)[11],這一基礎(chǔ)相對(duì)獨(dú)立于自然人類個(gè)體,這也給涉弱人工智能的監(jiān)管帶來(lái)了挑戰(zhàn)。弱人工智能的數(shù)據(jù)處理涉及算法的不透明性,又稱算法黑箱,在很大程度上掩蓋了行為人主觀罪過(guò)。算法黑箱指的是與過(guò)程相關(guān)的不可知性,科學(xué)家們只能知道輸入黑箱和從黑箱輸出的信息,但并不能知曉輸入和輸出之間具體發(fā)生了什么[12]。弱人工智能算法如深度學(xué)習(xí)的決策基礎(chǔ)在于相關(guān)性分析而非直接因果聯(lián)系。這些算法依據(jù)輸入與輸出間復(fù)雜非線性相關(guān)性模式進(jìn)行預(yù)測(cè)與判斷。它們通過(guò)捕捉輸入與輸出之間復(fù)雜的非線性關(guān)聯(lián)來(lái)做出判斷。這種高度非線性的相關(guān)性使得通過(guò)簡(jiǎn)單的規(guī)則難以直接推斷或量化輸入與輸出之間的聯(lián)系。正因如此,“算法黑箱”問(wèn)題隨之而來(lái)。當(dāng)結(jié)果出現(xiàn)錯(cuò)誤時(shí),當(dāng)前的技術(shù)無(wú)法完全解密算法黑箱,使得分析錯(cuò)誤原因變得困難,從而難以判斷是否存在主觀過(guò)錯(cuò),更難以區(qū)分故意和過(guò)失[13]。此外,設(shè)計(jì)者和生產(chǎn)者常常以技術(shù)中立原則為借口,將技術(shù)錯(cuò)誤歸咎于主觀過(guò)錯(cuò),從而掩蓋了他們實(shí)際的主觀過(guò)錯(cuò),進(jìn)一步影響對(duì)行為人主觀罪過(guò)的判斷。
3 弱人工智能犯罪的刑法規(guī)制路徑
3.1 運(yùn)用擴(kuò)大解釋加強(qiáng)涉弱人工智能犯罪刑法規(guī)制
3.1.1 人工智能體保護(hù)不周延的刑法規(guī)制
人工智能體保護(hù)不周延的問(wèn)題可通過(guò)兩種方式加以解決。一方面擴(kuò)大非法獲取計(jì)算機(jī)信息系統(tǒng)數(shù)據(jù)罪的保護(hù)對(duì)象。建議通過(guò)司法解釋明確非法獲取計(jì)算機(jī)系統(tǒng)數(shù)據(jù)罪中“數(shù)據(jù)”的保護(hù)范疇包括計(jì)算機(jī)系統(tǒng)及其數(shù)據(jù)本身,以及經(jīng)由人工智能體所采集、保存、傳送及加工處理的各類電子數(shù)據(jù)信息。另一方面降低破壞計(jì)算機(jī)信息系統(tǒng)罪的入罪標(biāo)準(zhǔn),將以下行為按照破壞計(jì)算機(jī)信息系統(tǒng)罪進(jìn)行懲處:一是刪除、篡改、增添或干擾人工智能系統(tǒng)功能,影響其正常運(yùn)行的行為;二是對(duì)人工智能系統(tǒng)中存儲(chǔ)、加工或流轉(zhuǎn)的數(shù)據(jù)及應(yīng)用程序,執(zhí)行刪除、篡改、增添操作,導(dǎo)致系統(tǒng)無(wú)法正常運(yùn)轉(zhuǎn)的行為;三是蓄意開(kāi)發(fā)并散布針對(duì)人工智能的病毒等具有破壞性的程序,妨礙系統(tǒng)正常運(yùn)行的行為。
3.1.2 濫用人工智能技術(shù)犯罪的刑法規(guī)制
人工智能技術(shù)的加入的確給傳統(tǒng)犯罪帶來(lái)更高效便捷的犯罪手段,但在應(yīng)對(duì)濫用人工智能技術(shù)犯罪時(shí),我們不能陷入“工具決定論”的誤區(qū),認(rèn)為只要是人工智能參與的犯罪都會(huì)產(chǎn)生更嚴(yán)重的危害結(jié)果而加重處罰,而應(yīng)當(dāng)分不同情形分別采用不同的規(guī)制方式。當(dāng)人工智能的加入并未改變傳統(tǒng)犯罪的行為方式,本質(zhì)上仍在該罪的構(gòu)成要件之內(nèi),應(yīng)當(dāng)適用現(xiàn)行刑法條文規(guī)制。對(duì)于現(xiàn)行刑法條文中模糊或籠統(tǒng)的規(guī)定,可以通過(guò)完善傳統(tǒng)罪名司法解釋來(lái)對(duì)該行為進(jìn)行全面、準(zhǔn)確評(píng)價(jià)。例如遠(yuǎn)程操控?cái)y帶武器和擴(kuò)音裝置的無(wú)人機(jī)實(shí)施搶劫行為。根據(jù)最高人民法院《關(guān)于審理?yè)尳佟寠Z刑事案件適用法律若干問(wèn)題的意見(jiàn)》的規(guī)定,搶劫罪的“當(dāng)場(chǎng)性”體現(xiàn)為行為人實(shí)施劫取財(cái)物的行為一般應(yīng)在同一時(shí)間、同一地點(diǎn)[14]。從常規(guī)理解來(lái)看,在搶劫罪的語(yǔ)境中“同一時(shí)間”與“同一地點(diǎn)”應(yīng)被詮釋為犯罪嫌疑人與被害人在同一時(shí)間點(diǎn)和同一地理位置上同時(shí)存在,這表示搶劫行為會(huì)對(duì)被害人的人身與財(cái)產(chǎn)權(quán)利構(gòu)成緊迫威脅或造成實(shí)質(zhì)損害。搶劫行為人運(yùn)用一般的傳統(tǒng)犯罪手段很難實(shí)現(xiàn)不在場(chǎng)便可造成如此緊迫的危險(xiǎn),但在人工智能的參與下實(shí)施的搶劫行為,即使行為人未出現(xiàn)在犯罪現(xiàn)場(chǎng)也不會(huì)比傳統(tǒng)搶劫行為的社會(huì)危害性有任何減輕。因此仍應(yīng)適用搶劫罪加以規(guī)制。這就需要運(yùn)用司法解釋明確人工智能時(shí)代“當(dāng)場(chǎng)性”的含義。在人工智能時(shí)代,“當(dāng)場(chǎng)性”的成立不再局限于行為人與被害人在物理上的“同一時(shí)間”和“同一地點(diǎn)”同時(shí)存在,而是強(qiáng)調(diào)行為人的行為(包括其遠(yuǎn)程操控、數(shù)據(jù)交互等延伸行為)與被害人在時(shí)間上的同步性和空間上的相關(guān)性。
3.1.3 涉弱人工智能過(guò)失犯罪的刑法規(guī)制
人工智能技術(shù)蘊(yùn)含著較高風(fēng)險(xiǎn),其研發(fā)者與生產(chǎn)者作為核心技術(shù)的掌控者,理應(yīng)承擔(dān)較高注意義務(wù)。為了避免刑法體系過(guò)度復(fù)雜化,針對(duì)其可能存在的過(guò)失責(zé)任問(wèn)題建議擴(kuò)大重大責(zé)任事故罪的適用范圍,將人工智能研發(fā)者與生產(chǎn)者的違法行為納入其中。具體而言,若行為人在人工智能的生產(chǎn)或運(yùn)行過(guò)程中,違反了既定的規(guī)章制度,如擅自更改編程而未獲授權(quán),或負(fù)有監(jiān)管職責(zé)的人員因疏忽大意未能有效履行監(jiān)管責(zé)任,導(dǎo)致發(fā)生重大安全事故或其他嚴(yán)重后果;或在人工智能產(chǎn)品的制造與運(yùn)作流程中,行為人出于故意或疏忽,錯(cuò)誤地植入指令,致使人工智能進(jìn)行違規(guī)作業(yè)或采取冒險(xiǎn)行為,給個(gè)人或社會(huì)帶來(lái)重大損害及其他嚴(yán)重后果,則需依據(jù)重大責(zé)任事故罪承擔(dān)相應(yīng)刑事責(zé)任。
3.2 增設(shè)新罪加強(qiáng)涉弱人工智能犯罪刑法規(guī)制
3.2.1 增設(shè)設(shè)計(jì)、生產(chǎn)、銷售不符合算法安全標(biāo)準(zhǔn)的人工智能產(chǎn)品罪
本罪可與生產(chǎn)、銷售不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪構(gòu)成特別法與一般法的關(guān)系。生產(chǎn)、銷售不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪的行為特征表現(xiàn)為制造與銷售未達(dá)到安全或質(zhì)量標(biāo)準(zhǔn)的各類產(chǎn)品。具體而言,若行為人制造或銷售未達(dá)到安全標(biāo)準(zhǔn)的人工智能產(chǎn)品,則可依據(jù)前述罪名定罪處罰。然而,涉及“算法安全犯罪”的人工智能產(chǎn)品具有其獨(dú)特性,它既不同于普通意義上的假冒偽劣商品,也區(qū)別于常規(guī)的人工智能產(chǎn)品,因此,運(yùn)用生產(chǎn)、銷售不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪來(lái)規(guī)制此類犯罪可能存在諸多不妥。考慮到人工智能算法安全犯罪本質(zhì)上是對(duì)公共安全法益的侵害,因此應(yīng)當(dāng)單獨(dú)設(shè)立罪名,并將其納入危害公共安全罪的章節(jié)里。
3.2.2 增設(shè)濫用人工智能罪
人工智能迅猛發(fā)展,技術(shù)迭代令人目不暇接,然而刑事立法作為社會(huì)穩(wěn)定的基石,需要保持一定的相對(duì)穩(wěn)定性[15]。本罪可作為兜底性條款,對(duì)于尚未導(dǎo)致實(shí)際危害結(jié)果的預(yù)備性行為,或是雖已造成一定實(shí)際危害但未達(dá)到其他犯罪法定追訴標(biāo)準(zhǔn)的情形,以本罪名追究行為人的刑事責(zé)任。若行為人利用人工智能實(shí)施的犯罪行為還同時(shí)觸犯了其他傳統(tǒng)罪名,則依據(jù)想象競(jìng)合進(jìn)行處理;若存在牽連關(guān)系,則按照牽連犯的原則進(jìn)行處置。增設(shè)濫用人工智能罪既能避免刑法條文過(guò)于冗雜問(wèn)題,又能夠應(yīng)對(duì)立法者無(wú)法預(yù)見(jiàn)的新犯罪形式,在一定程度上彌補(bǔ)法律滯后性的不足。
3.2.3 增設(shè)妨害人工智能活動(dòng)罪
若行為人采取切斷電源、干擾信號(hào)等特定手段阻礙人工智能系統(tǒng)正常運(yùn)行,可能導(dǎo)致他人或社會(huì)遭受重大損失而人工智能本身并未受損。在此情形下,由于不涉及財(cái)產(chǎn)的直接侵害,行為人無(wú)法被定性為財(cái)產(chǎn)犯罪,同時(shí)也難以適用其他相關(guān)罪名進(jìn)行懲處。因此建議增設(shè)妨害人工智能活動(dòng)罪,在此,“妨害”一詞應(yīng)作擴(kuò)大解釋,不僅涵蓋直接“物理破壞”行為,也包含那些看似“無(wú)害”但實(shí)際上干擾了人工智能正常運(yùn)作秩序的行為。
3.3 加強(qiáng)算法的規(guī)制
3.3.1 完善算法應(yīng)用前的備案監(jiān)督制度
其一,應(yīng)明確算法應(yīng)用的目的和范圍,確保所有關(guān)鍵算法和相關(guān)信息都包含在應(yīng)用管理結(jié)構(gòu)中。截至2024年4月11日,國(guó)家互聯(lián)網(wǎng)信息辦公室已對(duì)外公布了五批次國(guó)內(nèi)深度合成服務(wù)算法備案信息,涵蓋阿里巴巴、百度、科大訊飛等企業(yè)的大型算法模型,增強(qiáng)了公眾的知情權(quán)和技術(shù)透明度[16]。
其二,為了增強(qiáng)算法訓(xùn)練流程的透明度和可解釋性,有必要增設(shè)關(guān)于人工智能算法備案流程及其標(biāo)準(zhǔn)的法規(guī)條款,并在制度框架內(nèi)明確4個(gè)關(guān)鍵環(huán)節(jié)。首要步驟為提交備案申請(qǐng),即人工智能研發(fā)者需向網(wǎng)信辦、科技部等相關(guān)監(jiān)管機(jī)構(gòu)提供算法訓(xùn)練的詳細(xì)信息、資料及訓(xùn)練流程概述;其次是備案材料的審核階段,監(jiān)管機(jī)構(gòu)需深入檢查提交的備案材料,重點(diǎn)考量數(shù)據(jù)的合法性、算法設(shè)計(jì)的合理性及安全性,同時(shí)保留要求申請(qǐng)者提供額外材料或澄清說(shuō)明的權(quán)力;隨后是備案審批與信息公示,監(jiān)管機(jī)構(gòu)依據(jù)審核結(jié)果決定是否批準(zhǔn)備案,并頒發(fā)備案憑證,同時(shí)公開(kāi)備案信息以接受社會(huì)監(jiān)督;最后是備案后的監(jiān)管評(píng)估機(jī)制,即對(duì)已備案的算法訓(xùn)練活動(dòng)實(shí)施定期監(jiān)察與評(píng)估,確保其符合規(guī)定并維持高標(biāo)準(zhǔn),同時(shí)實(shí)施定期復(fù)審,以保障其適應(yīng)性和可靠性。
其三,為保障算法訓(xùn)練備案制度的有效實(shí)施與監(jiān)管,管理部門(mén)應(yīng)組建專業(yè)的監(jiān)管機(jī)構(gòu)或團(tuán)隊(duì),負(fù)責(zé)備案資料的審查、備案流程的監(jiān)督以及備案成效的評(píng)估。同時(shí),加大對(duì)算法訓(xùn)練活動(dòng)的監(jiān)管強(qiáng)度,確保其合規(guī)性與高質(zhì)量。此外,還應(yīng)增進(jìn)與科研機(jī)構(gòu)、企業(yè)及高等院校等的合作與溝通,攜手促進(jìn)人工智能算法的穩(wěn)健發(fā)展。
3.3.2 健全算法應(yīng)用后的問(wèn)責(zé)體系
國(guó)務(wù)院頒布的《新一代人工智能發(fā)展規(guī)劃》明文規(guī)定了建立公開(kāi)透明的人工智能監(jiān)管體系的目標(biāo),推行設(shè)計(jì)問(wèn)責(zé)與應(yīng)用監(jiān)督并行的雙層監(jiān)管架構(gòu),以確保對(duì)人工智能算法設(shè)計(jì)、產(chǎn)品開(kāi)發(fā)至成果應(yīng)用的整體流程進(jìn)行全面監(jiān)督[17]。該全面監(jiān)管機(jī)制的核心體現(xiàn)在于企業(yè)需履行的算法審查義務(wù)及行政部門(mén)的算法監(jiān)督權(quán)限兩大層面。
首先,網(wǎng)絡(luò)服務(wù)平臺(tái)應(yīng)自覺(jué)承擔(dān)起算法審查的責(zé)任,包括算法運(yùn)行狀態(tài)的審查以及運(yùn)行結(jié)果的監(jiān)控。一旦發(fā)現(xiàn)輸出結(jié)果有誤或存在顯著偏離預(yù)期的趨勢(shì),應(yīng)立即采取行動(dòng)予以糾正。其次,行政機(jī)關(guān)需對(duì)應(yīng)用后的算法進(jìn)行評(píng)估與審查。專門(mén)機(jī)構(gòu)應(yīng)增強(qiáng)對(duì)算法及其決策結(jié)果的隨機(jī)抽檢,從技術(shù)維度深入審查算法,并對(duì)不當(dāng)決策進(jìn)行適時(shí)調(diào)整。算法的審查工作體現(xiàn)為兩方面:一是審視算法的表現(xiàn)形式,即代碼層面,作為算法功能的直接體現(xiàn),代碼審查在技術(shù)層面相對(duì)直接,可由具備專業(yè)技能的工程師執(zhí)行;二是探究算法的核心思想,聚焦于算法的設(shè)計(jì)理念及其預(yù)期功能實(shí)現(xiàn)。算法的核心思想是算法運(yùn)作的靈魂,涉及商業(yè)秘密等更為復(fù)雜的問(wèn)題,對(duì)其評(píng)估與審查需謹(jǐn)慎處理,以避免過(guò)于生硬嚴(yán)苛的審查措施抑制企業(yè)的創(chuàng)新積極性。
4 結(jié)語(yǔ)
在當(dāng)前的弱人工智能背景下,人工智能體扮演著人類身體與大腦的延伸角色,由于嚴(yán)格受限于預(yù)定的設(shè)計(jì)和編程框架,其行為大多體現(xiàn)為人類的意志。目前我國(guó)現(xiàn)行刑法體系能夠有效涵蓋并規(guī)制大部分涉人工智能犯罪行為。然而,針對(duì)部分法律條文中表述較為模糊的領(lǐng)域,有必要通過(guò)制定司法解釋的方式加以澄清,或調(diào)整某些犯罪構(gòu)成要件,以確保傳統(tǒng)罪名規(guī)制不足的新犯罪方式也能為法律所涵蓋。面對(duì)人工智能時(shí)代涌現(xiàn)出的前所未有的新型犯罪形態(tài),我們應(yīng)秉持刑法謙抑性的同時(shí)適當(dāng)進(jìn)行前瞻性立法,通過(guò)增設(shè)新罪名,以維持技術(shù)發(fā)展進(jìn)程與刑法條文相對(duì)穩(wěn)定之間的動(dòng)態(tài)協(xié)調(diào)與平衡狀態(tài)。
參考文獻(xiàn)
[1]新華社.習(xí)近平在中共中央政治局第九次集體學(xué)習(xí)時(shí)強(qiáng)調(diào)加強(qiáng)領(lǐng)導(dǎo)做好規(guī)劃明確任務(wù)夯實(shí)基礎(chǔ)推動(dòng)我國(guó)新一代人工智能健康發(fā)展[J].黨建,2018,(11):19.
[2]于志剛,李源粒.大數(shù)據(jù)時(shí)代數(shù)據(jù)犯罪的制裁思路[J].中國(guó)社會(huì)科學(xué),2014,(10):101102.
[3]鄭戈.人工智能與法律的未來(lái)再思考[J].數(shù)字法治,2023(03):6870.
[4]陳結(jié)淼,王康輝.論無(wú)人駕駛汽車(chē)交通肇事的刑法規(guī)制[J].安徽大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2019,43(03):116118.
[5]鄭少飛.人工智能技術(shù)應(yīng)用風(fēng)險(xiǎn)法律分配的制度邏輯[D].吉林大學(xué),2023:41.
[6]何逸煦,林泓熠,劉洋,等.強(qiáng)化學(xué)習(xí)在自動(dòng)駕駛技術(shù)中的應(yīng)用與挑戰(zhàn)[J].同濟(jì)大學(xué)學(xué)報(bào)(自然科學(xué)版),2024,52(04):526528.
[7]劉憲權(quán),房慧穎.涉人工智能犯罪的前瞻性刑法思考[J].安徽大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2019,43(01):117.
[8]Hary W.Jones,The Greative Power and Function of Law in Historical Perspective[J]. Vanderbilt Law Review ,1936,17(35).
[9]孫志燕.以技術(shù)中立為總體導(dǎo)向平衡人工智能的發(fā)展與安全[J].中國(guó)發(fā)展觀察,2023,(08):4041.
[10]曾粵興,高正旭.論人工智能技術(shù)的刑法歸責(zé)路徑[J].治理研究,2022,38(03):117.
[11]金東寒.秩序的重構(gòu):人工智能與人類社會(huì)[M].上海:上海大學(xué)出版社,2017:105.
[12]Frank P.Asquale,The Secret Algorithms That Control Money and Information[J].European Data Protection Law Review,2023,2(03):188-189
[13]張琳琳.人工智能司法應(yīng)用的責(zé)任歸結(jié)困境與解決路徑[J].當(dāng)代法學(xué),2023,37(05):100111.
[14]最高人民法院關(guān)于審理?yè)尳傩淌掳讣m用法律若干問(wèn)題的指導(dǎo)意見(jiàn)[N].人民法院報(bào),20160120(003).
[15]阮林赟.數(shù)據(jù)犯罪的刑法規(guī)制論[D].華東政法大學(xué),2022:130.
[16]劉輝,雷崎山.生成式人工智能的數(shù)據(jù)風(fēng)險(xiǎn)及其法律規(guī)制[J].重慶郵電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2024,36(04):4051.
[17]國(guó)務(wù)院.國(guó)務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知[J].中華人民共和國(guó)國(guó)務(wù)院公報(bào),2017,(22):721.