摘要:
人工智能法學(xué)研究應(yīng)當(dāng)謹(jǐn)防“學(xué)術(shù)泡沫”,人工智能刑事法治建設(shè)應(yīng)當(dāng)立足我國(guó)本土實(shí)踐的真問題,重點(diǎn)關(guān)注真正能夠?qū)ξ覈?guó)刑法產(chǎn)生挑戰(zhàn)的人工智能危害行為。新型人工智能犯罪屬于典型的行政犯,在人工智能技術(shù)發(fā)展的初期,人工智能刑法應(yīng)當(dāng)塑造行政前置性立法方法,具體包括“前置行政不法”和“前置行政程序”兩類立法模式。其中,“行政性”是指人工智能行為等構(gòu)成要件在靜態(tài)規(guī)范層面中的不法行政評(píng)價(jià)和動(dòng)態(tài)行政程序執(zhí)行中的過程性、經(jīng)歷性行政評(píng)價(jià),而“前置性”是指行政性評(píng)價(jià)前置于人工智能犯罪行為的刑事責(zé)任認(rèn)定。相較于信息網(wǎng)絡(luò)犯罪和計(jì)算機(jī)系統(tǒng)犯罪的立法而言,人工智能技術(shù)危害的實(shí)踐特質(zhì)在于人工智能的深度學(xué)習(xí)性和算法技術(shù)對(duì)人類活動(dòng)時(shí)空的延伸性。因而,行政前置性立法特質(zhì)要在人工智能刑法體系中得以體現(xiàn),就需要立法者尤為注重全面性和雙重性規(guī)則。行政前置性立法有助于保障刑事歸責(zé)的專業(yè)性,重點(diǎn)聚焦人工智能的技術(shù)特質(zhì)挑戰(zhàn),實(shí)現(xiàn)不同算法技術(shù)危害行為的等級(jí)評(píng)價(jià)。在具體設(shè)計(jì)行政前置性立法規(guī)則時(shí),立法者需要將規(guī)則特質(zhì)運(yùn)用在人工智能技術(shù)的研發(fā)以及人工智能產(chǎn)品的測(cè)試、生產(chǎn)、銷售和使用等階段。具體而言,第一,對(duì)于行政不法前置性立法,刑法應(yīng)當(dāng)重點(diǎn)評(píng)價(jià)人工智能產(chǎn)品的銷售和使用階段,對(duì)銷售不符合行政標(biāo)準(zhǔn)的人工智能產(chǎn)品行為設(shè)置抽象危險(xiǎn)犯,并對(duì)人工智能產(chǎn)品使用階段的制造安全事故、危險(xiǎn)駕駛、非法侵入、破壞系統(tǒng)的危害行為,增設(shè)涵蓋行政不法規(guī)范的新罪名或相關(guān)條款。第二,對(duì)于行政程序前置性立法,刑法應(yīng)當(dāng)重點(diǎn)評(píng)價(jià)人工智能技術(shù)的研發(fā)階段,以及人工智能產(chǎn)品的測(cè)試、生產(chǎn)、銷售和使用階段。行政程序前置性立法發(fā)揮著行政行為公共服務(wù)監(jiān)管的本質(zhì)機(jī)能,行政許可、登記、責(zé)令等程序能夠確保人工智能技術(shù)研發(fā)和產(chǎn)品測(cè)試、生產(chǎn)、銷售和使用等各階段,符合人類的道德倫理性和技術(shù)安全性。行政程序前置性立法要求刑法應(yīng)當(dāng)單獨(dú)設(shè)置相關(guān)罪名,將行政許可、登記、責(zé)令等程序作為人工智能技術(shù)發(fā)展初期的刑法規(guī)制緩沖和風(fēng)險(xiǎn)預(yù)防手段。
關(guān)鍵詞:人工智能;信息網(wǎng)絡(luò);行政不法;行政程序;行政犯
中圖分類號(hào):D924;TP18" 文獻(xiàn)標(biāo)志碼:A" 文章編號(hào):1008-5831(2023)02-0232-14
人工智能立法是我國(guó)新時(shí)代法治建設(shè)的重大現(xiàn)實(shí)課題[1],法定犯時(shí)代,人工智能犯罪屬于典型的行政犯。刑法作為后盾法,因此,相應(yīng)地,這一影響應(yīng)當(dāng)具體體現(xiàn)在刑法和行政法的相互溝通、銜接的維度之上,而并非刑法閉塞體系內(nèi)的立法方法探討。當(dāng)前,我國(guó)人工智能刑法立法研究因側(cè)重于人工智能主體性地位研究,并未體現(xiàn)法學(xué)研究的務(wù)實(shí)性和現(xiàn)實(shí)性關(guān)切,而被諸多學(xué)者認(rèn)為是在創(chuàng)造“學(xué)術(shù)泡沫”。國(guó)內(nèi)外的理論與實(shí)踐多數(shù)不承認(rèn)人工智能的主體地位[2],縱使是人工智能刑事主體地位得到部分學(xué)者的承認(rèn),國(guó)內(nèi)外的頂層政策設(shè)計(jì)也明確表示反對(duì)[3]398-450。因此,人工智能刑事法治建設(shè)應(yīng)當(dāng)立足我國(guó)本土性的實(shí)踐真問題,并非所有的問題均屬于人工智能刑法面臨的真正挑戰(zhàn)。人工智能刑法立法應(yīng)當(dāng)做好與行政性法規(guī)范的銜接工作,這便要求塑造行政前置性立法的思維和規(guī)則。
一、人工智能刑法的行政前置性立法的理念塑造
當(dāng)前,行政前置性立法規(guī)則探討存在缺失,學(xué)界較為忽視人工智能刑法的行政前置性立法的概念、特質(zhì)和價(jià)值等本體問題。
(一)何為行政前置性立法
行政前置性立法的概念問題,主要是從刑法規(guī)范層面進(jìn)行研討,因?yàn)椤靶姓ㄅc刑法銜接的問題主要體現(xiàn)在法律條文的規(guī)定上”[4]。由于人工智能技術(shù)屬于互聯(lián)網(wǎng)技術(shù)運(yùn)用的高階部分,在人工智能刑法立法并未形成的現(xiàn)實(shí)情況下,人工智能刑法立法的行政前置性方法的概念理解,可以結(jié)合現(xiàn)行刑法規(guī)制的信息網(wǎng)絡(luò)犯罪和計(jì)算機(jī)信息系統(tǒng)犯罪進(jìn)行。
以計(jì)算機(jī)信息系統(tǒng)犯罪為例,計(jì)算機(jī)信息系統(tǒng)作為人工智能基礎(chǔ)設(shè)施的主要表現(xiàn)形式之一,亦是新型人工智能犯罪重點(diǎn)關(guān)注的領(lǐng)域?!吨腥A人民共和國(guó)刑法》(以下簡(jiǎn)稱《刑法》)第285至286條的非法侵入計(jì)算機(jī)信息系統(tǒng)罪,非法獲取計(jì)算機(jī)信息系統(tǒng)數(shù)據(jù),非法控制計(jì)算機(jī)信息系統(tǒng)罪,提供侵入、非法控制計(jì)算機(jī)信息系統(tǒng)程序、工具罪,破壞計(jì)算機(jī)信息系統(tǒng)罪等罪名,在罪狀表達(dá)時(shí)采取了“違反國(guó)家規(guī)定”的立法技術(shù)。《刑法》第96條對(duì)“違反國(guó)家規(guī)定”的含義進(jìn)行了解釋:“本法所稱違反國(guó)家規(guī)定,是指違反全國(guó)人民代表大會(huì)及其常務(wù)委員會(huì)制定的法律和決定,國(guó)務(wù)院制定的行政法規(guī)、規(guī)定的行政措施、發(fā)布的決定和命令。”而由于全國(guó)人大及其常委會(huì)制定的法律中明確包含了行政性規(guī)范要求的程序和義務(wù),因此,計(jì)算機(jī)信息系統(tǒng)犯罪中的“違反國(guó)家規(guī)定”便屬于一種行政不法前置性立法。諸如此類的還有刑法規(guī)范中的“違反國(guó)家規(guī)定”“違反國(guó)家有關(guān)規(guī)定”“違反……法規(guī)”“違反……管理規(guī)定”,其屬于一種靜態(tài)層面的行為評(píng)價(jià),違反行政法律規(guī)范就構(gòu)成了“行政不法”[5]。
但不同于行政不法前置性立法,刑法規(guī)范中還存在著部分行政程序前置性立法,其本身屬于對(duì)行政程序的動(dòng)態(tài)規(guī)范運(yùn)行的認(rèn)定和評(píng)價(jià)[6]。罪刑法定原則要求我們應(yīng)當(dāng)將刑法規(guī)范作為一切刑法活動(dòng)的“帝王條款”。既然,刑法規(guī)范明文將行政程序作為罪名規(guī)范表述的一部分,這就表明刑法單獨(dú)對(duì)其進(jìn)行強(qiáng)調(diào),需要重點(diǎn)關(guān)注。而在運(yùn)用“行政不法前置性”立法方法設(shè)置的空白罪狀中,則不存在行政程序的約束,其只要行政規(guī)范的靜態(tài)層面的符合即可,而并不需要行政機(jī)關(guān)開啟行政程序進(jìn)行先行判斷。
以包含“行政程序前置性”立法的拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪為例,縱使是網(wǎng)絡(luò)服務(wù)提供者在不履行法律、行政法規(guī)規(guī)定的信息網(wǎng)絡(luò)安全管理義務(wù)的情況下,造成了違法信息大量傳播、用戶信息泄露、刑事案件證據(jù)滅失等嚴(yán)重情形,但只要網(wǎng)絡(luò)服務(wù)提供者在相關(guān)行政監(jiān)管部門責(zé)令采取改正措施時(shí)積極配合改正的,便不構(gòu)成犯罪。其與前述“行政不法前置性”的立法方法不同的是,行政程序前置性立法為行為人設(shè)置了行政程序的積極配合義務(wù),以行政程序的先行處理來實(shí)現(xiàn)犯罪圈的限縮目的。
值得強(qiáng)調(diào)的是,行政程序前置性立法中的“行政程序”并不包括行政訴訟程序。按照行政法學(xué)界的通說觀點(diǎn),“所謂行政程序,是指行政主體作出行政行為的過程中所遵循的步驟、順序、方法、方式以及時(shí)限的總和”[7]315。由此可知,行政程序的“行政性”特點(diǎn)在于程序性事項(xiàng)作出的主體是“行政機(jī)關(guān)”,而依據(jù)《中華人民共和國(guó)行政訴訟法》第1條的立法目的,行政訴訟程序是一種司法程序,該種程序的主體性特點(diǎn)在于程序性事項(xiàng)作出的主體是“人民法院”。
綜上所述,人工智能刑法立法的行政前置性是刑法應(yīng)對(duì)人工智能時(shí)代技術(shù)發(fā)展所應(yīng)當(dāng)運(yùn)用的主要立法方法。其中,“行政性”是指人工智能行為等構(gòu)成要件在靜態(tài)刑法規(guī)范層面中的不法行政評(píng)價(jià)和動(dòng)態(tài)行政程序執(zhí)行中的過程性、經(jīng)歷性行政評(píng)價(jià),而“前置性”是指前者前置于人工智能犯罪行為的刑事責(zé)任評(píng)價(jià)。
(二)人工智能刑法行政前置性的立法特質(zhì)
如前所述,除了人工智能領(lǐng)域外,前置性立法方法在計(jì)算機(jī)信息系統(tǒng)犯罪和信息網(wǎng)絡(luò)犯罪領(lǐng)域中也有所體現(xiàn)。那么,人工智能刑法立法的行政前置性特質(zhì)在哪?其能否被其他犯罪的行政前置不法規(guī)范所涵蓋?
從《刑法》第285至286條的計(jì)算機(jī)信息系統(tǒng)犯罪的罪狀設(shè)置來看,“違反國(guó)家規(guī)定”是對(duì)網(wǎng)絡(luò)技術(shù)危害行為對(duì)封閉計(jì)算機(jī)信息系統(tǒng)空間的控制性、攻擊性和破壞性的前置行政規(guī)范評(píng)價(jià);而從《刑法》第253條之一、286條之一的信息網(wǎng)絡(luò)犯罪的罪狀設(shè)置來看,“行政性法律、法規(guī)規(guī)定的信息網(wǎng)絡(luò)安全管理義務(wù)”“違反國(guó)家有關(guān)規(guī)定”是對(duì)信息網(wǎng)絡(luò)技術(shù)危害行為本身的傳播性、無物理邊界性和傳播瞬時(shí)性的前置行政規(guī)范評(píng)價(jià)[8]。雖然《刑法》第287條是利用網(wǎng)絡(luò)技術(shù)實(shí)施的傳統(tǒng)犯罪,但是其并非純粹強(qiáng)調(diào)前兩者網(wǎng)絡(luò)技術(shù)性犯罪的特質(zhì),而是指向利用互聯(lián)網(wǎng)實(shí)施的傳統(tǒng)犯罪[9],在這種情況下,前置行政不法規(guī)范的涵蓋范圍就局限于上述信息網(wǎng)絡(luò)犯罪的技術(shù)特殊性。
但是,就人工智能技術(shù)利用的特性來看,人工智能產(chǎn)業(yè)的高速發(fā)展并不僅僅局限于上述兩類網(wǎng)絡(luò)犯罪的特性??疾烊斯ぶ悄芗夹g(shù)的危害特質(zhì),我們可以從“人工智能”的基本概念入手。國(guó)家標(biāo)準(zhǔn)化管理委員會(huì)和中國(guó)電子技術(shù)標(biāo)準(zhǔn)化研究院共同編制的《人工智能標(biāo)準(zhǔn)化白皮書(2018版)》對(duì)人工智能的概念進(jìn)行了精準(zhǔn)的界定:“人工智能是利用數(shù)字計(jì)算機(jī)控制模擬、延伸和擴(kuò)張人的智能,感知環(huán)境、獲取知識(shí)并使用知識(shí)獲得最佳結(jié)果的理論、方法、技術(shù)及應(yīng)用系統(tǒng)?!保?0]5因此,人工智能最大的特性便在于:人工智能技術(shù)延伸、擴(kuò)展、模擬的對(duì)象是人類。雖然在刑法規(guī)定的計(jì)算機(jī)信息系統(tǒng)犯罪和信息網(wǎng)絡(luò)犯罪中,同樣存在這種情況。但是“網(wǎng)絡(luò)犯罪是在網(wǎng)絡(luò)空間實(shí)施的犯罪,這是網(wǎng)絡(luò)犯罪的基本特征” [11]。這就表明人工智能與上述兩類網(wǎng)絡(luò)犯罪的最大差異在于算法技術(shù)延伸、擴(kuò)展、模擬的對(duì)象不僅是人類的思想,還有人類行為的時(shí)空上的移動(dòng),而這在純粹的網(wǎng)絡(luò)空間中是無法實(shí)現(xiàn)的。因此,人工智能產(chǎn)品才能具有感知環(huán)境、與人交互、與人互補(bǔ)、連續(xù)擴(kuò)展的特性,這是人工智能深度學(xué)習(xí)的必然效應(yīng)[12]。諸如,2018年3月在美國(guó)發(fā)生的Uber無人駕駛測(cè)試車撞死行人事故以及2015年7月德國(guó)大眾汽車廠發(fā)生機(jī)器人殺人案,均屬于人工智能技術(shù)自由擴(kuò)展人類思維和現(xiàn)實(shí)活動(dòng)所導(dǎo)致的技術(shù)危害。
由此可見,人工智能技術(shù)危害的實(shí)踐特質(zhì)是在人工智能的深度學(xué)習(xí)性和對(duì)人類活動(dòng)時(shí)空的延伸性的技術(shù)差異中衍生而來的。在上述特質(zhì)下,人工智能產(chǎn)品可以無限擴(kuò)展人類的思維和活動(dòng)空間?;诖耍?jì)算機(jī)信息系統(tǒng)犯罪的“違反國(guó)家規(guī)定”和信息網(wǎng)絡(luò)犯罪的“行政性法律、法規(guī)規(guī)定的信息網(wǎng)絡(luò)安全管理義務(wù)”“違反國(guó)家有關(guān)規(guī)定”等前置行政規(guī)范評(píng)價(jià)并不能涵蓋人工智能的技術(shù)危害。因而,計(jì)算機(jī)信息系統(tǒng)刑法和信息網(wǎng)絡(luò)刑法的行政前置性立法方法并不能完全契合人工智能刑法的行政前置性立法。諸如,《人工智能標(biāo)準(zhǔn)化白皮書(2018版)》中的人工智能標(biāo)準(zhǔn)的明細(xì)表,詳細(xì)統(tǒng)計(jì)了我國(guó)已發(fā)布、在研以及擬研制的人工智能相關(guān)標(biāo)準(zhǔn)共計(jì)200項(xiàng),其中已發(fā)布的就有80項(xiàng),占據(jù)40%[10]61-70。而這些便是出于人工智能技術(shù)危害的特質(zhì)性而單獨(dú)制定的一種行政標(biāo)準(zhǔn)規(guī)范。
因此,在前述所言的信息網(wǎng)絡(luò)犯罪和計(jì)算機(jī)信息系統(tǒng)犯罪的行政前置性立法的現(xiàn)狀下,人工智能刑法的行政前置性立法方法并非是毫無根據(jù)或者脫離刑法體系的立法方法。但信息網(wǎng)絡(luò)犯罪和計(jì)算機(jī)信息系統(tǒng)犯罪的行政前置性立法,由于信息網(wǎng)絡(luò)犯罪、計(jì)算機(jī)犯罪與人工智能犯罪存在技術(shù)特質(zhì)的差異性,因而,人工智能刑法的行政前置性立法并不能直接照搬信息網(wǎng)絡(luò)犯罪和計(jì)算機(jī)信息系統(tǒng)犯罪的立法模式。立法者應(yīng)當(dāng)將人工智能技術(shù)危害的實(shí)踐特質(zhì)明確表述在行政前置性立法方法當(dāng)中,以突顯人工智能刑法立法的獨(dú)立性。這種獨(dú)立性體現(xiàn)在兩個(gè)方面。
其一,人工智能刑法的行政前置性立法注重全面性。“全面性”指人工智能刑法立法的全面化行政前置性立法。在信息網(wǎng)絡(luò)和計(jì)算機(jī)刑法立法中,雖然行政前置性立法方法也為立法者運(yùn)用,但是立法者考慮到當(dāng)前我國(guó)網(wǎng)絡(luò)技術(shù)和計(jì)算機(jī)技術(shù)的相對(duì)成熟性,司法者并不需要援引行政性法規(guī)范當(dāng)中的術(shù)語定義、技術(shù)標(biāo)準(zhǔn)等,就可以直接依據(jù)危害結(jié)果進(jìn)行入罪。因而,立法者并未全面地采取行政前置性立法方法,而僅是在前述部分罪名之中采取了行政前置性立法。
但是,正如前述,人工智能技術(shù)特質(zhì)在于人工智能的深度學(xué)習(xí)性和對(duì)人類活動(dòng)時(shí)空的延伸性,其是不斷變化的。因而,司法者僅憑非人工智能技術(shù)專業(yè)性的刑法規(guī)范認(rèn)定每個(gè)變化過程中人工智能技術(shù)危害,完全是“天方夜譚”。而行政程序和行政不法規(guī)范因不同的行政管理領(lǐng)域,就可以直接關(guān)涉到人工智能技術(shù)的專業(yè)性規(guī)范。此時(shí),人工智能刑法行政前置性立法注重全面性,就可以使司法者在具體運(yùn)用刑法過程中,避免人工智能技術(shù)壁壘導(dǎo)致刑法適用的罪刑失衡。但是,在信息網(wǎng)絡(luò)和計(jì)算機(jī)信息系統(tǒng)的刑法立法中,行政前置性的全面立法完全沒有必要,其反而會(huì)導(dǎo)致信息網(wǎng)絡(luò)和計(jì)算機(jī)刑法立法的繁雜、冗余,不利于立法的簡(jiǎn)潔性。
其二,人工智能刑法行政前置性立法注重雙重性?!半p重性”指“行政不法+行政程序”的雙重規(guī)則。在人工智能技術(shù)研發(fā)和產(chǎn)品運(yùn)用的前期階段,人工智能技術(shù)相對(duì)于信息網(wǎng)絡(luò)或者計(jì)算機(jī)信息系統(tǒng)的技術(shù)研發(fā)和產(chǎn)品制造而言,不太成熟。并且,人工智能技術(shù)危害具有深度學(xué)習(xí)性和對(duì)人類活動(dòng)時(shí)空的延伸性,因而,如果刑事立法者不借助行政程序防控不太成熟的人工智能技術(shù)前期階段潛在的風(fēng)險(xiǎn),一旦人工智能技術(shù)的抽象危險(xiǎn)轉(zhuǎn)為現(xiàn)實(shí)危害,那么其就具有全球性、不可估量性與蔓延性。所以,在國(guó)內(nèi)外人工智能技術(shù)相關(guān)的法律法規(guī)之中,行政程序?qū)τ诖_保人工智能技術(shù)的研發(fā)以及人工智能產(chǎn)品的測(cè)試、生產(chǎn)、銷售和使用的安全性,發(fā)揮著舉足輕重的作用[3]398-450。諸如,人工智能技術(shù)研發(fā)的行政許可或者審批程序、人工智能產(chǎn)品測(cè)試的行政監(jiān)管程序。
立法者考慮到當(dāng)前我國(guó)網(wǎng)絡(luò)技術(shù)和計(jì)算機(jī)技術(shù)的相對(duì)成熟性,在現(xiàn)行刑法立法過程中,計(jì)算機(jī)刑法沒有采用行政程序前置性立法,信息網(wǎng)絡(luò)刑法中也僅有《刑法》第286條之一的拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪采取了行政程序前置性立法。并且該種行政程序并非是出于網(wǎng)絡(luò)技術(shù)的特性考量,僅是為了行政機(jī)關(guān)責(zé)令網(wǎng)絡(luò)平臺(tái)及時(shí)履行管理義務(wù)而設(shè)置。因此,出于防范潛在且抽象的人工智能技術(shù)危害,人工智能刑法行政前置性立法在援引術(shù)語定義、技術(shù)標(biāo)準(zhǔn)等行政不法規(guī)范之外,還需要尤其注重行政程序性立法。相較于信息網(wǎng)絡(luò)和計(jì)算機(jī)信息系統(tǒng)的現(xiàn)存的行政前置性立法,人工智能刑法行政前置性立法需要注重“行政不法+行政程序”的雙重規(guī)則。
綜上所述,人工智能技術(shù)危害的實(shí)踐特質(zhì)是在人工智能的深度學(xué)習(xí)性和算法對(duì)人類活動(dòng)時(shí)空的延伸性的技術(shù)差異中衍生而來的?;谶@一實(shí)踐特質(zhì),行政前置性立法特質(zhì)體現(xiàn)在,相較于信息網(wǎng)絡(luò)和計(jì)算機(jī)刑法而言,人工智能刑法的行政前置性立法更需要注重全面性和雙重性規(guī)則。
(三)人工智能刑法行政前置性的立法意義
毋庸置疑,人工智能刑法的行政前置性立法旨在強(qiáng)化刑法與行政法對(duì)人工智能法益侵害行為規(guī)制的互動(dòng)銜接關(guān)系。那么人工智能刑法立法行政前置性規(guī)則的構(gòu)建,是否有其必要?這需要細(xì)致剖析人工智能刑法行政前置性的立法意義。
1.行政前置性立法有助于發(fā)揮行政不法和程序的先行評(píng)價(jià)機(jī)制,防止單獨(dú)的刑罰處罰阻礙人工智能的技術(shù)創(chuàng)新
刑法在人工智能技術(shù)產(chǎn)業(yè)推動(dòng)社會(huì)轉(zhuǎn)型的過程中,發(fā)揮的作用應(yīng)始終保障并服務(wù)于人工智能技術(shù)競(jìng)爭(zhēng)和社會(huì)發(fā)展。尤其是當(dāng)前人工智能作為一種新型技術(shù)發(fā)展,在我國(guó)乃至國(guó)際上仍屬于智能產(chǎn)業(yè)初期的發(fā)展階段,塑造行政前置性立法規(guī)則,強(qiáng)調(diào)行政不法和程序的先行評(píng)價(jià)機(jī)制,有助于推動(dòng)人工智能的技術(shù)創(chuàng)新。其一,行政前置的先行機(jī)制有助于契合刑法的第二次保障機(jī)制,防止刑法獨(dú)立擴(kuò)充人工智能犯罪的行為概念和類型。其二,行政前置的先行機(jī)制為不被允許的人工智能刑事風(fēng)險(xiǎn)的認(rèn)定,提供了具體評(píng)價(jià)標(biāo)準(zhǔn)[13]。只有在行政前置的先行評(píng)價(jià)機(jī)制明確回應(yīng)了技術(shù)發(fā)展的最合理的形式和類型之后,我們才能確定超過合理技術(shù)的具體樣態(tài)和行政標(biāo)準(zhǔn)的人工智能危害行為是否屬于值得刑法評(píng)價(jià)的犯罪行為。
2.行政前置性立法契合人工智能危害行為的抽象性和分散性,有利于保障人工智能刑事歸責(zé)的專業(yè)性
人工智能作為互聯(lián)網(wǎng)技術(shù)產(chǎn)業(yè)的新生事物,其危害行為由于存在場(chǎng)域的虛擬性,而具有不同于傳統(tǒng)犯罪行為的不可直觀性、純粹技術(shù)性的抽象屬性。在行政前置性法規(guī)范的立法規(guī)則下,刑事司法者不應(yīng)當(dāng)承擔(dān)諸如“人工智能”“信息網(wǎng)絡(luò)”等純粹的專業(yè)技術(shù)性概念解釋的任務(wù),而只需對(duì)“情節(jié)嚴(yán)重”等定罪量刑的具體標(biāo)準(zhǔn)進(jìn)行界定。而由于前置不法規(guī)范的本質(zhì)屬性在于抽象行政行為,其代表的是行政性規(guī)范文件對(duì)不特定人或事項(xiàng)的約束力。再加上,行政法規(guī)范的目的在于實(shí)現(xiàn)廣泛性、復(fù)雜性公共事務(wù)的管理[14]。因此,前置行政不法規(guī)范包括的行為概念和類型可以是具體的、多樣的。如此一來,在人工智能刑法中加入行政前置性立法方法,刑事司法者無疑可以將定罪量刑以外的純粹專業(yè)技術(shù)性概念的解釋性工作,交于前置行政法規(guī)范予以解決,其僅專注于人工智能犯罪中的專業(yè)化和精確化的定罪量刑工作即可。
3.行政前置性立法能夠防止人工智能刑法的重復(fù)性立法,有利于立法者重點(diǎn)聚焦人工智能的特質(zhì)性對(duì)刑法立法的挑戰(zhàn)
當(dāng)下,人工智能刑法學(xué)研究乃至法學(xué)研究并未如同人工智能社會(huì)轉(zhuǎn)型一樣,實(shí)現(xiàn)質(zhì)的突破,因而被部分學(xué)者認(rèn)為人工智能法學(xué)研究只是在徒增“學(xué)術(shù)泡沫”[15]。人工智能法學(xué)研究中的“學(xué)術(shù)泡沫”除了過于關(guān)注人工智能的主體性地位之外,還存在將本不屬于人工智能技術(shù)特質(zhì)的行為類型作為立法建議的依據(jù),導(dǎo)致人工智能刑法立法的效率低下、重復(fù)性現(xiàn)象大量出現(xiàn)[16]。而此類現(xiàn)象出現(xiàn)的根本原因在于:缺乏前置行政不法規(guī)范對(duì)人工智能刑法立法的約束性思維。但筆者認(rèn)為上述觀點(diǎn)評(píng)價(jià)的人工智能犯罪現(xiàn)象,如同《刑法》第287條一樣,屬于利用人工智能技術(shù)實(shí)施的傳統(tǒng)犯罪,是一種傳統(tǒng)犯罪網(wǎng)絡(luò)異化的表現(xiàn),并未突顯人工智能刑法立法的行政前置性法規(guī)范所涵蓋的行為特質(zhì),上述立法方案屬于一種重復(fù)性、情緒性或者間斷性立法的表現(xiàn)。因此,充分利用好行政前置性立法,梳理并排除人工智能與信息網(wǎng)絡(luò)犯罪和計(jì)算機(jī)信息系統(tǒng)犯罪的同質(zhì)性在立法中的影響,有利于立法者重點(diǎn)聚焦并回應(yīng)人工智能的特質(zhì)性對(duì)刑法立法的挑戰(zhàn),防止人工智能刑法的重復(fù)性立法。
4.行政前置性立法相較于單一化的刑法立法方法,有利于實(shí)現(xiàn)人工智能技術(shù)的不同危害行為的等級(jí)評(píng)價(jià)
在人工智能技術(shù)的深度學(xué)習(xí)性和對(duì)人類活動(dòng)時(shí)空的延伸性的特質(zhì)下,人工智能犯罪所致的危害行為的程度應(yīng)當(dāng)是不同的。諸如,人工智能醫(yī)療器械在銷售階段的風(fēng)險(xiǎn),一般存在三種類型:第一,人工智能醫(yī)療器械在銷售時(shí),被不法分子植入干擾算法系統(tǒng)深度學(xué)習(xí)的病毒。第二,被植入上述病毒的人工智能醫(yī)療器械,銷售者未經(jīng)過行政登記或者故障排除就直接售賣給醫(yī)院。第三,被植入上述病毒的人工智能醫(yī)療器械,在未經(jīng)銷售者的行政登記或者故障排除后,被醫(yī)院直接運(yùn)用于手術(shù)治療中,造成多人重傷、死亡。
上述情形中,如果是第一種或者第二種類型,在未發(fā)生任何醫(yī)療事故時(shí),刑法考慮到不法分子屬于初犯、偶犯,可以直接交由公安機(jī)關(guān)進(jìn)行一般的行政處罰;銷售者也可以僅予以一般的行政處罰。但是,在第一、第二種類型下,如果不法分子為慣犯,且植入病毒的危害性較大,同樣銷售者并非僅銷售一臺(tái)醫(yī)療器械;或者是在第三種類型下進(jìn)行銷售的。那么,可以肯定的是,單獨(dú)的行政處罰并不足以發(fā)揮法律體系對(duì)嚴(yán)重危害行為的完全評(píng)價(jià)機(jī)能。此時(shí),對(duì)于銷售者而言,吊銷營(yíng)業(yè)執(zhí)照的行政處罰和單位犯罪的刑罰處罰則可以并科。因?yàn)?,在第一、第二種類型下,不法分子的植入行為和銷售者的未經(jīng)過行政登記或者故障排除的行為,僅處于人工智能醫(yī)療器械系統(tǒng)的靜態(tài)的深度學(xué)習(xí)過程,而并不牽涉第三類行為的“醫(yī)生治療行為的時(shí)空延伸性”風(fēng)險(xiǎn)。
由此可見,人工智能風(fēng)險(xiǎn)是否需要單獨(dú)由行政處罰進(jìn)行規(guī)制,是由深度學(xué)習(xí)性和時(shí)空延伸性特質(zhì)所致的不同危害行為所決定的。人工智能刑法在缺乏行政前置性立法時(shí),單一化的刑法立法很有可能突破刑法的謙抑性原則,對(duì)人工智能的技術(shù)危害“大包大攬”。因而,行政前置性立法能夠滿足現(xiàn)實(shí)中不同程度的人工智能危害行為的分級(jí)評(píng)價(jià)需求。
二、立法規(guī)則Ⅰ:人工智能刑法的行政不法前置化
既然“行政前置性”對(duì)于人工智能刑法立法而言,發(fā)揮著舉足輕重的作用。那么,如何具體設(shè)計(jì)人工智能刑法立法的行政前置性規(guī)則,便是本部分需要重點(diǎn)解答的問題。其中,人工智能刑法的“行政不法前置化”立法是首要方法。
(一)前置行政不法對(duì)于人工智能犯罪行為基本類型的選擇
行為是犯罪概念的基礎(chǔ)事實(shí)或基本要素,不僅如此,其在階層論和構(gòu)成要件論的犯罪認(rèn)定方法中,也是各要素評(píng)價(jià)的主要對(duì)象[17]。同樣,這在行政法規(guī)范中亦是如此[7]336。因此,筆者擬首先從人工智能危害行為的行政前置化規(guī)則構(gòu)建著手進(jìn)行探討。而人工智能危害行為的類型化可以依據(jù)人工智能的技術(shù)、產(chǎn)品的發(fā)展特點(diǎn),劃分為人工智能技術(shù)的研發(fā)階段,人工智能產(chǎn)品的生產(chǎn)、銷售、測(cè)試和使用階段。
第一,人工智能犯罪屬于典型的行政犯,在法定犯時(shí)代,自然犯中的利用人工智能手段殺人、放火、搶劫、盜竊、詐騙等行為類型,就不屬于行政不法前置性立法規(guī)則所需要考慮的行為范圍。因?yàn)椋祟惙缸镄袨閮H是犯罪手段或者工具的更新,其在行為要件的本質(zhì)屬性和法益類型評(píng)價(jià)上,與傳統(tǒng)犯罪并不存在任何差異。
第二,縱使是在人工智能行政犯的類型中,也并非是所有的人工智能犯罪行為類型,均是行政不法前置性立法規(guī)則涵蓋的范圍。因?yàn)?,在現(xiàn)行刑法的其他罪名涵蓋的行為類型中,利用人工智能犯罪的行為并未突破原有罪名的構(gòu)成要件涵攝的范圍和保護(hù)法益的具體類型[18]。諸如,汽車制造商、車載操作軟件提供商如果提供瑕疵的人工智能傳感器,導(dǎo)致交通事故的,其本身就屬于《刑法》第146條生產(chǎn)、銷售不符合安全標(biāo)準(zhǔn)的產(chǎn)品的行為,刑法無需單獨(dú)設(shè)置人工智能交通肇事罪。
第三,在排除上述兩種情形后,能夠?qū)π姓环ㄇ爸眯粤⒎ㄒ?guī)則產(chǎn)生影響的行為類型是較為有限的。按照行為類型的突破點(diǎn)不同,筆者將其分為兩類:(1)對(duì)行為構(gòu)成要件的本質(zhì)屬性的突破。具體類型有自動(dòng)駕駛汽車的危險(xiǎn)駕駛行為,非法侵入、破壞人工智能系統(tǒng)的行為。(2)對(duì)法益類型評(píng)價(jià)的突破。具體類型有造成人工智能產(chǎn)品安全事故的行為、不符合行政標(biāo)準(zhǔn)的人工智能產(chǎn)品的銷售行為。第一種是對(duì)行為要件的本質(zhì)屬性的突破,表明刑法無需再脫離原有的行政不法前置性立法規(guī)則單獨(dú)設(shè)置一個(gè)新罪名。其僅需要在相關(guān)罪名的構(gòu)成要件中,添加相應(yīng)的人工智能危害行為要件即可。第二種是對(duì)法益類型評(píng)價(jià)的突破,表明原有的前置行政不法規(guī)范本身保護(hù)的法益類型,已經(jīng)無法評(píng)價(jià)人工智能危害行為所侵犯的法益,刑法需要單獨(dú)設(shè)置一個(gè)新罪名,以體現(xiàn)刑法對(duì)新類型人工智能法益的單獨(dú)保護(hù)。
綜上,結(jié)合刑法立法原理,真正能夠?qū)π谭óa(chǎn)生挑戰(zhàn)的人工智能危害行為類型僅有四類:銷售不符合行政標(biāo)準(zhǔn)的人工智能產(chǎn)品的行為,使用階段造成人工智能產(chǎn)品安全事故的行為,自動(dòng)駕駛汽車的危險(xiǎn)駕駛行為,非法侵入、破壞人工智能系統(tǒng)的行為。
(二)人工智能刑法前置行政不法性規(guī)則的具體建構(gòu)
在確立真正能夠?qū)π谭⒎óa(chǎn)生挑戰(zhàn)的人工智能危害行為類型之后,我們就需要具體構(gòu)建人工智能刑法的行政不法前置性立法規(guī)則。
1.立法者需要對(duì)銷售不符合行政標(biāo)準(zhǔn)的人工智能產(chǎn)品行為設(shè)置抽象危險(xiǎn)犯
人工智能產(chǎn)品的技術(shù)危害與傳統(tǒng)犯罪領(lǐng)域中的產(chǎn)品安全危害不同,雖然,本質(zhì)上兩者均涉及日常生活和工作用品,且服務(wù)于經(jīng)濟(jì)、校園、生活等各行各業(yè);但是,人工智能的深度學(xué)習(xí)性和對(duì)人類活動(dòng)時(shí)空的延伸性,決定了智慧經(jīng)濟(jì)、智慧校園、智慧生活、智慧醫(yī)療等人工智能產(chǎn)品的運(yùn)用,能夠較傳統(tǒng)產(chǎn)品的領(lǐng)域更為迅速、更為普惠。而且,人工智能產(chǎn)品并不需要人類的持續(xù)性操控和隨時(shí)性監(jiān)管,其自身能夠通過外在環(huán)境的數(shù)據(jù)傳輸和感應(yīng),實(shí)現(xiàn)人類時(shí)空脫離的自主操作。因此,在人工智能產(chǎn)品及其相關(guān)測(cè)試平臺(tái)的銷售和使用階段,基礎(chǔ)設(shè)施系統(tǒng)的安全性、算法數(shù)據(jù)的正義性和全面性就顯得格外重要。
但是,現(xiàn)行刑法在規(guī)制產(chǎn)品銷售導(dǎo)致的嚴(yán)重法益侵害時(shí),是基于傳統(tǒng)產(chǎn)品、商品能夠在人類的持續(xù)性操控和隨時(shí)性監(jiān)管下的使用情況而設(shè)置的,其對(duì)法益的狀態(tài)評(píng)價(jià)更側(cè)重于銷售階段產(chǎn)品的現(xiàn)實(shí)危害和銷售金額。人工智能產(chǎn)品不同于人類操控指令支配下的技術(shù)服務(wù)和輸出的傳統(tǒng)產(chǎn)品,銷售不符合行政標(biāo)準(zhǔn)的傳統(tǒng)產(chǎn)品并不存在嚴(yán)重危及公共安全的潛在隱患,單個(gè)瑕疵傳統(tǒng)產(chǎn)品的法益侵害僅具有個(gè)體性、固定性,且法益侵害風(fēng)險(xiǎn)較易被發(fā)現(xiàn)和排除。但人工智能產(chǎn)品使用的危害特性恰好完全與之相反。
基于此,人工智能產(chǎn)品并不能簡(jiǎn)單依附于《刑法》第140、145、146條的行政前置不法規(guī)范的評(píng)價(jià),前文所述的《人工智能標(biāo)準(zhǔn)化白皮書(2018版)》中的200項(xiàng)不同的人工智能相關(guān)標(biāo)準(zhǔn),就已經(jīng)表明了兩者不可等同視之。在后續(xù)的人工智能刑法立法中,立法者應(yīng)當(dāng)明確依據(jù)人工智能相關(guān)產(chǎn)品(包括測(cè)試平臺(tái))的國(guó)家標(biāo)準(zhǔn)和行業(yè)標(biāo)準(zhǔn),對(duì)擱置許久的人工智能相關(guān)產(chǎn)品,在最后出售前未經(jīng)內(nèi)部環(huán)節(jié)的評(píng)測(cè)、檢驗(yàn),就隨意出售給使用者的行為,設(shè)置抽象危險(xiǎn)犯。
2.立法者需要對(duì)人工智能產(chǎn)品使用階段的制造安全事故、危險(xiǎn)駕駛、非法侵入、破壞系統(tǒng)等三類危害行為增設(shè)涵蓋行政不法規(guī)范的新罪名或條款
人工智能行業(yè)發(fā)展的主要?jiǎng)恿碓从凇吧疃葘W(xué)習(xí)算法”“海量計(jì)算資源”“大數(shù)據(jù)資源”。“深度學(xué)習(xí)算法”是對(duì)系統(tǒng)功能本身的要求,“海量計(jì)算資源”“大數(shù)據(jù)資源”是對(duì)外在數(shù)據(jù)的質(zhì)量和數(shù)量的要求[19]??梢姡谌斯ぶ悄墚a(chǎn)品的使用階段,可以預(yù)想的是,行政先行評(píng)價(jià)機(jī)制中,產(chǎn)品的使用者除了要履行確保人工智能基礎(chǔ)設(shè)施平臺(tái)安全的行政義務(wù)之外,還需要履行排除輸入的數(shù)據(jù)的數(shù)量和質(zhì)量安全隱患的行政義務(wù)。
其一,刑法立法通過“人工智能產(chǎn)品使用安全的行政性法規(guī)范”評(píng)價(jià)人工智能產(chǎn)品安全事故的行為。人工智能產(chǎn)品在使用過程中,通常是用于公共服務(wù)行業(yè)。諸如,公共服務(wù)機(jī)器人、酒店服務(wù)機(jī)器人、銀行服務(wù)機(jī)器人、場(chǎng)館服務(wù)機(jī)器人、餐飲服務(wù)機(jī)器人在公共場(chǎng)所的使用。人工智能機(jī)器人作為自動(dòng)化技術(shù)的重大成就,機(jī)器人和人類社會(huì)的生產(chǎn)、生活密不可分。有數(shù)據(jù)統(tǒng)計(jì)顯示:2016年全球機(jī)器人數(shù)量接近30萬,2019年增至41.4萬。當(dāng)前全球機(jī)器人數(shù)量年均增長(zhǎng)率約為15%,中國(guó)是推動(dòng)機(jī)器人市場(chǎng)繁榮發(fā)展的最大“發(fā)動(dòng)機(jī)”[20]。智能機(jī)器人完全展現(xiàn)了人工智能的特質(zhì)性,其既可以按照人類預(yù)先編程好的算法結(jié)構(gòu)運(yùn)行,又可根據(jù)深度學(xué)習(xí)系統(tǒng)感知環(huán)境變化進(jìn)行自主操作。而由于商業(yè)機(jī)密的保護(hù)需要,人工智能算法系統(tǒng)的數(shù)據(jù)輸入到模型輸出的學(xué)習(xí)過程均存在著不透明性[21]。因此,在這一“算法黑箱”下,一旦行為人不熟悉算法運(yùn)行結(jié)構(gòu),疏忽大意或者過于自信地違反了人工智能基礎(chǔ)設(shè)施平臺(tái)安全和輸入的數(shù)據(jù)的數(shù)量和質(zhì)量安全的國(guó)家有關(guān)規(guī)定,導(dǎo)致了重大傷亡事故或者其他嚴(yán)重后果的情形,刑法應(yīng)當(dāng)設(shè)置人工智能活動(dòng)事故罪對(duì)其予以評(píng)價(jià)。而在現(xiàn)行刑法規(guī)定的事故類犯罪的罪名之中,《刑法》第134至139條之一均是屬于對(duì)特定生產(chǎn)、工作行業(yè)事故的規(guī)制,因而,上述罪名規(guī)定的前置行政不法規(guī)范均無法獨(dú)立涵蓋“違反人工智能產(chǎn)品使用安全的法律、法規(guī)”的行為。因此,立法者有必要比照事故類犯罪的立法模式,單獨(dú)設(shè)置“人工智能安全事故罪”。
其二,刑法立法通過“自動(dòng)駕駛的相關(guān)國(guó)家規(guī)定”防范自動(dòng)駕駛汽車的危險(xiǎn)駕駛行為風(fēng)險(xiǎn)。自動(dòng)駕駛汽車可以說是人工智能產(chǎn)品使用階段中最受歡迎的智能工具,2018年4月3日,工業(yè)和信息化部、公安部、交通運(yùn)輸部聯(lián)合印發(fā)了《智能網(wǎng)聯(lián)汽車道路測(cè)試管理規(guī)范(試行)》,其中,第9條規(guī)定了測(cè)試主體需要確保智能網(wǎng)聯(lián)機(jī)動(dòng)車的安全技術(shù)和自動(dòng)駕駛等功能檢驗(yàn)合格的行政義務(wù)要求。除此之外,根據(jù)美國(guó)高速公路安全管理局推出的《自動(dòng)駕駛汽車的分級(jí)標(biāo)準(zhǔn)》(NHTSA),該標(biāo)準(zhǔn)按照智能化、自動(dòng)化的程度將智能網(wǎng)聯(lián)汽車分為4個(gè)等級(jí),其中L1-L3屬于駕駛支援和部分、有條件的自動(dòng)化駕駛[3]78-79。這就表明,在不同程度和等級(jí)的自動(dòng)化技術(shù)情況下,危險(xiǎn)駕駛的認(rèn)定方式也有所不同。我國(guó)《刑法》第133條之一危險(xiǎn)駕駛罪的規(guī)定,采取的是四類封閉式的行為方式列舉:“追逐競(jìng)駛、醉酒駕駛、超載超速行駛以及運(yùn)輸危險(xiǎn)化學(xué)品駕駛”,但其均無法包括人類駕駛員或者測(cè)試主體未確保智能傳感、攝像、雷達(dá)感知等設(shè)備的安全性能或者未履行半自動(dòng)化駕駛的監(jiān)控職責(zé)等危險(xiǎn)駕駛行為。按照《中華人民共和國(guó)網(wǎng)絡(luò)安全法》(以下簡(jiǎn)稱《網(wǎng)絡(luò)安全法》)第31條的規(guī)定,交通屬于國(guó)家在網(wǎng)絡(luò)安全等級(jí)保護(hù)制度的基礎(chǔ)上,重要保護(hù)的網(wǎng)絡(luò)基礎(chǔ)設(shè)施安全的行業(yè)和領(lǐng)域,保護(hù)的具體范圍和具體辦法由國(guó)務(wù)院制定。因此,《刑法》第133條之一的危險(xiǎn)駕駛罪有必要將智能網(wǎng)聯(lián)汽車的危險(xiǎn)駕駛行為納入該條之中,增設(shè)第5項(xiàng)“(五)違反自動(dòng)駕駛的國(guó)家規(guī)定,危及公共安全的”智能網(wǎng)聯(lián)汽車危險(xiǎn)駕駛罪。
其三,刑法立法通過“人工智能系統(tǒng)管理安全的行政性法規(guī)范”規(guī)制侵入、破壞或干擾行為。在人工智能算法編程的不透明性、不公開性的情況下,除編制基礎(chǔ)設(shè)施及其運(yùn)行數(shù)據(jù)的研發(fā)者以及輸入的功能算法數(shù)據(jù)的使用者,能夠熟知相應(yīng)階段的算法數(shù)據(jù)外,不熟悉算法運(yùn)行結(jié)構(gòu)的行為人,侵入甚至破壞人工智能算法系統(tǒng),或者破壞人工智能基礎(chǔ)設(shè)施系統(tǒng)存儲(chǔ)、處理、傳輸?shù)乃惴〝?shù)據(jù)的,將極易誘發(fā)智能數(shù)據(jù)運(yùn)行亂碼的潛在危險(xiǎn)。以阿里云ET城市大腦為例,“2017年底,ET城市大腦被列為首批四大新一代國(guó)家人工智能開放創(chuàng)新平臺(tái)之一,被認(rèn)為是人工智能的‘登月計(jì)劃’,將成為接下來10年機(jī)器智能最重要的研究平臺(tái)”[22]。阿里云基礎(chǔ)設(shè)施平臺(tái)通過匯集企業(yè)數(shù)據(jù)、公安數(shù)據(jù)、政府?dāng)?shù)據(jù)、運(yùn)營(yíng)商等多方的城市數(shù)據(jù),借助ET大腦的深度算法學(xué)習(xí),全局、實(shí)時(shí)地發(fā)現(xiàn)城市的問題并給出相應(yīng)的優(yōu)化處理方案,同時(shí)聯(lián)動(dòng)城市內(nèi)各項(xiàng)資源調(diào)度,以整體提升城市運(yùn)行效率。由于ET城市大腦服務(wù)著多個(gè)城市群,并能及時(shí)提供問題的優(yōu)化方案,一旦行為人侵入甚至干擾、破壞此類企業(yè)的人工智能系統(tǒng)及其運(yùn)行的數(shù)據(jù)的,將極有可能致使城市之間的資源調(diào)動(dòng)和問題化解系統(tǒng)出現(xiàn)崩潰。雖然,按照《刑法》第285條、第286條的非法侵入計(jì)算機(jī)信息系統(tǒng)罪和破壞計(jì)算機(jī)信息系統(tǒng)罪的相關(guān)規(guī)定,對(duì)于干擾國(guó)家事務(wù)、國(guó)防建設(shè)、尖端科學(xué)技術(shù)領(lǐng)域的人工智能系統(tǒng),以及人工智能系統(tǒng)功能數(shù)據(jù)本身的行為,刑法的相關(guān)規(guī)定足以應(yīng)對(duì)上述危害,但是卻存在如下問題:第一,雖然人工智能系統(tǒng)過于專業(yè)化和技術(shù)化,但是其仍需要專業(yè)的人工智能技術(shù)和產(chǎn)品的研發(fā)公司予以維護(hù)和操作。而此類人工智能系統(tǒng)也如同《刑法》第285條特定的計(jì)算機(jī)信息系統(tǒng)一樣,承擔(dān)著輔助公共服務(wù)的決策功能。上述的阿里云ET城市大腦和部分城市采用的企業(yè)安防系統(tǒng)便屬于此類情況。而囿于第285條對(duì)計(jì)算機(jī)信息系統(tǒng)的封閉式列舉,導(dǎo)致該條的“違反國(guó)家規(guī)定”的前置行政不法規(guī)范,無法將侵入阿里云ET大腦等人工智能系統(tǒng)的危害行為納入該條立法之中。第二,在算法數(shù)據(jù)本身不存在任何質(zhì)量和數(shù)量瑕疵的情況下,行為人也有可能干擾人工智能系統(tǒng)中存儲(chǔ)、運(yùn)行、處理的數(shù)據(jù),致使系統(tǒng)產(chǎn)生運(yùn)行偏差,而該偏差并非屬于人工智能系統(tǒng)無法正常運(yùn)行的情形。此時(shí),《刑法》第286條第1、2款的“違反國(guó)家規(guī)定”的行為類型就無法將其予以涵蓋。依據(jù)《網(wǎng)絡(luò)安全法》第33條的規(guī)定,對(duì)于人工智能系統(tǒng)的基礎(chǔ)設(shè)施建設(shè),相關(guān)主體應(yīng)當(dāng)確保其具有支持業(yè)務(wù)穩(wěn)定、持續(xù)運(yùn)行的性能。這就表明一般行為人還應(yīng)當(dāng)承擔(dān)不干擾智能系統(tǒng)的業(yè)務(wù)穩(wěn)定性能的行政義務(wù),而并不應(yīng)當(dāng)僅局限于人工智能系統(tǒng)的正常運(yùn)行。
基于此,筆者認(rèn)為,刑法立法應(yīng)當(dāng)將《刑法》第285條中的“違反國(guó)家規(guī)定”的涵蓋范圍擴(kuò)充至人工智能系統(tǒng);在《刑法》第286條第1、2款的“違反國(guó)家規(guī)定”的涵蓋范圍中,加入干擾人工智能系統(tǒng)功能的數(shù)據(jù),致使系統(tǒng)偏離指令運(yùn)行,以及干擾存儲(chǔ)、處理或者傳輸?shù)乃惴〝?shù)據(jù),致使人工智能無法正常運(yùn)行或者偏離指令運(yùn)行等行為。
綜上所述,行政不法前置性立法具體體現(xiàn)在人工智能產(chǎn)品的銷售和使用階段。具體而言:(1)立法者需要對(duì)銷售不符合行政標(biāo)準(zhǔn)的人工智能產(chǎn)品行為設(shè)置抽象危險(xiǎn)犯;(2)立法者需要對(duì)人工智能產(chǎn)品使用階段的制造安全事故、危險(xiǎn)駕駛、非法侵入、破壞系統(tǒng)的危害行為增設(shè)涵蓋行政不法規(guī)范的新罪名或相關(guān)條款。
三、立法規(guī)則Ⅱ:人工智能刑法的行政程序前置化
根據(jù)現(xiàn)行刑法中已有的前置行政程序規(guī)范,人工智能刑事風(fēng)險(xiǎn)規(guī)制的前置行政程序的具體表現(xiàn)形式包括行政責(zé)令、下達(dá)改正通知、行政機(jī)構(gòu)提出相關(guān)要求、行政處罰、行政許可等程序類型。根據(jù)人工智能犯罪行為在不同階段的法益侵害特性,行政程序前置性立法方法具體體現(xiàn)的階段有人工智能技術(shù)的研發(fā)階段,人工智能產(chǎn)品的測(cè)試、生產(chǎn)、銷售和使用階段。
1.立法者需要設(shè)置行政許可等程序來確保人工智能技術(shù)的研發(fā)以及人工智能產(chǎn)品的測(cè)試階段的安全性或符合人類的道德倫理性
基于人工智能技術(shù)創(chuàng)新的要求,行政程序前置化方法主要是考慮人工智能刑法義務(wù)承擔(dān)的緩沖性,其能夠體現(xiàn)人工智能網(wǎng)絡(luò)技術(shù)行政監(jiān)管失靈后的刑法最后手段原則。最后手段原則表明,人工智能的技術(shù)創(chuàng)新需要在行政程序的監(jiān)管下進(jìn)行。換言之,人工智能技術(shù)的研發(fā)必須以制造、生產(chǎn)符合人類的道德倫理和技術(shù)安全的產(chǎn)品為最終目標(biāo),而人工智能的產(chǎn)品測(cè)試能夠檢測(cè)出人工智能技術(shù)的研發(fā)是否符合上述目標(biāo)。為了體現(xiàn)行政程序在人工智能技術(shù)研發(fā)和人工智能的產(chǎn)品測(cè)試階段的監(jiān)管作用,確保人工智能創(chuàng)新能夠按照國(guó)家政策方針和產(chǎn)業(yè)戰(zhàn)略、規(guī)劃的既定目標(biāo)進(jìn)行,我們有必要將行政程序融入技術(shù)研發(fā)和產(chǎn)品測(cè)試的階段之中。
在行政法學(xué)界,行政程序本質(zhì)上是一種具體行政行為。行政行為具有公務(wù)性,是出于全體國(guó)民的公共利益而進(jìn)行的行為[23]?;诩夹g(shù)創(chuàng)新的最終目標(biāo)要求和刑法介入的最后性原則,無論如何,我們可達(dá)成的共識(shí)是,在人工智能技術(shù)研發(fā)、產(chǎn)品測(cè)試環(huán)節(jié)之前,相關(guān)行政部門必須先對(duì)深度學(xué)習(xí)的人工智能系統(tǒng)提出相應(yīng)的限制要求[24],以使其符合人類的基本倫理或道德。
其一,通過行政許可、登記程序來確保人工智能技術(shù)研發(fā)階段符合人類的道德倫理性和技術(shù)安全性。首先,通過行政許可程序確保技術(shù)研發(fā)的倫理性和安全性。行政機(jī)關(guān)需要先對(duì)人工智能技術(shù)研發(fā)的主要方向和使用目的進(jìn)行審查,以確保人工智能技術(shù)合規(guī)。如果人工智能技術(shù)并未通過行政機(jī)關(guān)委托的獨(dú)立第三方專業(yè)機(jī)構(gòu)的技術(shù)評(píng)估,那么據(jù)此研發(fā)出來的人工智能技術(shù)的可靠性便無從確保。而通過行政許可、登記程序,可以確保后續(xù)制造、生產(chǎn)階段依據(jù)的人工智能產(chǎn)品的技術(shù)來源,以明確人工智能產(chǎn)品使用階段法益侵害結(jié)果的責(zé)任承擔(dān)。其次,行政監(jiān)管部門通過人工智能研發(fā)技術(shù)的分類管理,便于為后續(xù)開展不同程度的刑事歸責(zé)提供相應(yīng)依據(jù)。由于人工智能產(chǎn)業(yè)涉及面廣、自動(dòng)化技術(shù)運(yùn)用的程序不一,而自動(dòng)化程度和涉及的產(chǎn)業(yè)面與人工智能技術(shù)的法益侵害性程度形成正比。因此,《網(wǎng)絡(luò)安全法》第21、31條以及工業(yè)和信息化部等10部門在2019年7月26日聯(lián)合發(fā)布的《加強(qiáng)工業(yè)互聯(lián)網(wǎng)安全工作的指導(dǎo)意見》均提出:要對(duì)互聯(lián)網(wǎng)技術(shù)實(shí)施分類施策,分級(jí)管理,根據(jù)行業(yè)重要性、企業(yè)規(guī)模、安全風(fēng)險(xiǎn)程度等因素予以不同程度的規(guī)范保障。當(dāng)前,人工智能技術(shù)研發(fā)階段的刑法規(guī)制仍呈現(xiàn)空白,而未經(jīng)行政審批、許可或者技術(shù)登記,就直接進(jìn)行技術(shù)研發(fā)而違背人類倫理等類似缺陷,在“基因編輯嬰兒”事件中就已經(jīng)表現(xiàn)得淋漓盡致。可預(yù)料到的是,人工智能研發(fā)技術(shù)的濫用危害在智能時(shí)代將會(huì)更加突出。因此,筆者認(rèn)為刑法有必要對(duì)未經(jīng)行政審批、許可
而開展人工智能技術(shù)的研發(fā)行為進(jìn)行規(guī)制。
其二,通過行政責(zé)令、登記程序來確保人工智能產(chǎn)品的測(cè)試階段的技術(shù)安全。當(dāng)前,人工智能技術(shù)的產(chǎn)業(yè)發(fā)展還處于萌芽期,在未來一段時(shí)間內(nèi),人工智能產(chǎn)品的測(cè)試將愈發(fā)普遍。為了體現(xiàn)人工智能產(chǎn)品測(cè)試的環(huán)境真實(shí)性和相關(guān)產(chǎn)品基礎(chǔ)設(shè)施面臨突發(fā)危險(xiǎn)的靈敏度,測(cè)試場(chǎng)域一般是在現(xiàn)實(shí)生活當(dāng)中,而并非虛擬的空間環(huán)境。但是,現(xiàn)實(shí)場(chǎng)域中人工智能產(chǎn)品測(cè)試并不同于普遍推廣或者日常生活使用的人工智能產(chǎn)品的成熟性能,在現(xiàn)實(shí)場(chǎng)域的測(cè)試環(huán)境中,算法的深度學(xué)習(xí)隨時(shí)可能面臨不可預(yù)料的突發(fā)情況。而行政監(jiān)管部門對(duì)人工智能產(chǎn)品測(cè)試環(huán)節(jié)提出的具體要求,可以降低此類風(fēng)險(xiǎn)。以智能網(wǎng)聯(lián)汽車的測(cè)試為例,上海市、北京市、重慶市、深圳等地的《智能網(wǎng)聯(lián)汽車道路測(cè)試管理辦法(試行)》均要求測(cè)試主體應(yīng)當(dāng)在公安交通管理部門指定的區(qū)域、時(shí)段進(jìn)行測(cè)試。因此,對(duì)于相關(guān)測(cè)試主體不提交測(cè)試的范圍和路線直接測(cè)試,脫離行政部門監(jiān)管的,或者雖然提交了測(cè)試的范圍和路線,并經(jīng)行政主管部門許可,但違反行政許可、登記所指定的測(cè)試區(qū)域和時(shí)段要求,造成嚴(yán)重法益侵害后果的行為,刑法應(yīng)當(dāng)單獨(dú)進(jìn)行規(guī)制。
2.立法者需要設(shè)置行政許可等程序來確保人工智能產(chǎn)品的生產(chǎn)、銷售和使用階段的安全性,以防范人工智能刑事風(fēng)險(xiǎn)
通過了行政管理部門對(duì)人工智能研發(fā)技術(shù)和測(cè)試產(chǎn)品安全性檢驗(yàn)的,并不意味著人工智能產(chǎn)品的生產(chǎn)、交易流通環(huán)節(jié)就可以脫離行政部門的監(jiān)管。人工智能產(chǎn)品的深度學(xué)習(xí)性不同于傳統(tǒng)互聯(lián)網(wǎng)產(chǎn)品單純的指令操控性,人工智能技術(shù)的研發(fā)、人工智能產(chǎn)品的測(cè)試階段的行政監(jiān)管程序,只是對(duì)人工智能基礎(chǔ)設(shè)施平臺(tái)和算法系統(tǒng)功能的安全性監(jiān)督,并不代表人工智能產(chǎn)品的生產(chǎn)、銷售、使用階段的數(shù)據(jù)模塊的改造和人類輸入指令數(shù)據(jù)質(zhì)量的安全性。人工智能系統(tǒng)一旦獨(dú)立運(yùn)作,其自身便會(huì)依據(jù)產(chǎn)品所處的客觀環(huán)境對(duì)算法數(shù)據(jù)進(jìn)行編制。因此,每個(gè)環(huán)節(jié)的注冊(cè)登記,可以確保行政監(jiān)管部門能夠通過聯(lián)網(wǎng)系統(tǒng)隨時(shí)知悉人工智能產(chǎn)品的生產(chǎn)、銷售和使用階段的基礎(chǔ)數(shù)據(jù)的算法運(yùn)作狀態(tài)[25]。
在生產(chǎn)、銷售和使用階段,如果生產(chǎn)者、銷售者、使用者,在生產(chǎn)、銷售、購(gòu)買人工智能機(jī)器人之后、交易使用之前,未及時(shí)登記造冊(cè),網(wǎng)上填寫企業(yè)和個(gè)人電話、身份證號(hào)、住址等相關(guān)信息,導(dǎo)致網(wǎng)絡(luò)監(jiān)管部門在人工智能系統(tǒng)癱瘓時(shí),無法及時(shí)聯(lián)系相關(guān)責(zé)任主體,無法責(zé)令具體個(gè)人和企業(yè)消除隱患而造成嚴(yán)重后果的行為,刑法應(yīng)當(dāng)發(fā)揮后盾法的作用。
此外,由于人工智能系統(tǒng)運(yùn)作的技術(shù)專業(yè)性和抽象性,刑法規(guī)范中的行政責(zé)令還可以使一般使用者和銷售者更好地排除人工智能系統(tǒng)的算法偏失。以“微軟的人工智能聊天機(jī)器人Tay事件”為例,假設(shè)機(jī)器人Tay與有偏激言論的人互動(dòng)后,被引導(dǎo)出仇視女性和種族歧視之類的偏激算法數(shù)據(jù)之時(shí),相關(guān)行政監(jiān)管部門通過智能聯(lián)網(wǎng)系統(tǒng)及時(shí)發(fā)現(xiàn),并發(fā)出責(zé)令微軟企業(yè)關(guān)閉使用賬號(hào)并下架機(jī)器人的程序,便可防止事態(tài)的進(jìn)一步惡化。
“系統(tǒng)地看,人工智能犯罪產(chǎn)生侵害結(jié)果是一個(gè)行為流程鏈條”[26],人工智能產(chǎn)品的銷售階段是人工智能產(chǎn)品流向各行各業(yè)的最后環(huán)節(jié)。因此,在人工智能產(chǎn)業(yè)發(fā)展初期,人工智能產(chǎn)品的銷售行為應(yīng)當(dāng)實(shí)施行政許可。違反人工智能產(chǎn)品管理法律、法規(guī)的非法銷售的行為,應(yīng)當(dāng)屬于非法經(jīng)營(yíng)的行為。而按照《刑法》第225條非法經(jīng)營(yíng)罪的規(guī)定,人工智能產(chǎn)品不同于鹽業(yè)、煙草業(yè)等行業(yè)的特許產(chǎn)品;也不同于需要進(jìn)出口的產(chǎn)品;更不同于需要國(guó)家有關(guān)主管部門批準(zhǔn)的非法經(jīng)營(yíng)的證券、期貨、保險(xiǎn)、資金支付結(jié)算業(yè)務(wù)。但為防止人工智能產(chǎn)品隨意銷售的普遍而導(dǎo)致產(chǎn)品質(zhì)量低劣、脫離行政部門監(jiān)管的現(xiàn)象發(fā)生,筆者認(rèn)為,《刑法》第225條應(yīng)當(dāng)單獨(dú)增設(shè)第4項(xiàng)“(四)未經(jīng)許可經(jīng)營(yíng)的人工智能相關(guān)產(chǎn)品的”條款,以規(guī)制不經(jīng)行政許可,擾亂市場(chǎng)秩序,隨意銷售人工智能產(chǎn)品的行為。
綜上所述,人工智能刑法的行政程序前置性立法具體體現(xiàn)在人工智能技術(shù)的研發(fā)階段,人工智能產(chǎn)品的測(cè)試、生產(chǎn)、銷售和使用階段。行政程序前置性立法發(fā)揮著行政行為公共服務(wù)監(jiān)管的本質(zhì)機(jī)能,行政許可、登記、責(zé)令等程序能夠確保人工智能技術(shù)研發(fā)和產(chǎn)品測(cè)試、生產(chǎn)、銷售和使用等各階段,符合人類的道德倫理性和技術(shù)安全性。行政程序前置性立法要求刑法應(yīng)當(dāng)單獨(dú)設(shè)置相關(guān)罪名,將行政許可、登記、責(zé)令等程序作為人工智能技術(shù)發(fā)展初期的刑法規(guī)制緩沖手段和風(fēng)險(xiǎn)預(yù)防手段。
結(jié)合人工智能刑法的“前置行政不法+前置行政程序”這兩類立法規(guī)則,我們發(fā)現(xiàn),在立法者具體設(shè)計(jì)人工智能刑法的行政前置性立法規(guī)則時(shí),前置行政不法和前置行政程序的刑法立法始終貫穿人工智能技術(shù)的研發(fā)階段,以及人工智能產(chǎn)品的測(cè)試、生產(chǎn)、銷售和使用的各個(gè)階段。這也契合前文所述的全面性和雙重性的立法規(guī)則特性。其中,將人工智能技術(shù)危害的實(shí)踐特性明確涵蓋于“違反相關(guān)人工智能的法律、法規(guī)”之中,是行政不法前置性立法的典型表現(xiàn);運(yùn)用行政許可、登記、責(zé)令等程序,實(shí)現(xiàn)潛在性和不特定性人工智能技術(shù)危害的風(fēng)險(xiǎn)預(yù)防和緩沖,是行政程序前置性立法的典型表現(xiàn)。
四、結(jié)語
人工智能刑事法治建設(shè)應(yīng)當(dāng)立足我國(guó)本土實(shí)踐的真問題。人工智能犯罪作為典型的行政犯,人工智能刑法立法規(guī)則的探究,應(yīng)當(dāng)體現(xiàn)法學(xué)研究的務(wù)實(shí)性和現(xiàn)實(shí)性關(guān)切,契合法定犯時(shí)代人工智能刑法的行政前置性立法特質(zhì)。在“定性+定量”的刑法規(guī)范設(shè)置和分散性、多樣性的行政法規(guī)范下,我國(guó)人工智能刑法的行政前置性立法具有鮮明的中國(guó)特色。因此,在我國(guó)人工智能技術(shù)產(chǎn)業(yè)發(fā)展的初期,行政前置性立法勢(shì)必有利于我國(guó)人工智能刑法引領(lǐng)世界潮流,助力人工智能技術(shù)的國(guó)際競(jìng)爭(zhēng)。人工智能刑法立法在法定犯時(shí)代永遠(yuǎn)與行政法保持著密切的溝通和銜接關(guān)系,結(jié)合現(xiàn)行刑法的立法現(xiàn)狀,行政前置性立法包括“前置行政不法+前置行政程序”立法規(guī)則。而在人工智能的深度學(xué)習(xí)性和對(duì)人類活動(dòng)時(shí)空的延伸性這一實(shí)踐特質(zhì)的引導(dǎo)下,行政前置性方法便獨(dú)立于傳統(tǒng)犯罪、計(jì)算機(jī)信息系統(tǒng)犯罪和信息網(wǎng)絡(luò)犯罪領(lǐng)域。在具體設(shè)計(jì)人工智能刑法行政前置性立法規(guī)則時(shí),立法者應(yīng)當(dāng)在人工智能技術(shù)的研發(fā)階段,以及人工智能產(chǎn)品的測(cè)試、生產(chǎn)、銷售和使用階段注重全面性和雙重性的規(guī)則特性。
參考文獻(xiàn):
[1]楊維漢.全國(guó)人大常委會(huì)委員長(zhǎng)會(huì)議組成人員進(jìn)行專題學(xué)習(xí) 栗戰(zhàn)書主持并講話[N].人民日?qǐng)?bào),2018-11-25(01).
[2]劉洪華.論人工智能的法律地位[J].政治與法律,2019(1):11-21.
[3]騰訊研究院,中國(guó)通信院互聯(lián)網(wǎng)法律研究中心.人工智能:國(guó)家人工智能戰(zhàn)略行動(dòng)抓手[M].北京:中國(guó)人民大學(xué)出版社,2017.
[4]程凡卿.行政刑法立法研究[M].北京:法律出版社,2014:3.
[5]熊波.行政犯的類型與違法性判斷的區(qū)分[J].政治與法律,2020(5):40-55.
[6]熊波.網(wǎng)絡(luò)服務(wù)提供者刑事責(zé)任“行政程序前置化”的消極性及其克服[J].政治與法律,2019(5):50-65.
[7]羅豪才,湛中樂.行政法學(xué)[M].北京:北京大學(xué)出版社,2016.
[8]全國(guó)人大常委會(huì)法制工作委員會(huì).中華人民共和國(guó)刑法釋義[M].北京:法律出版社,2015:495-496.
[9]于志剛.虛擬空間中的刑法理論[M].北京:社會(huì)科學(xué)文獻(xiàn)出版社,2018:20.
[10]中國(guó)電子技術(shù)標(biāo)準(zhǔn)化研究院.人工智能標(biāo)準(zhǔn)化白皮書(2018版)[EB/OL].(2018-01-24)[2019-09-03].http:∥www.cesi.ac.cn/images/editor/20180124/20180124135528742.pdf.
[11]陳興良.網(wǎng)絡(luò)犯罪立法問題思考[J].公安學(xué)刊(浙江警察學(xué)院學(xué)報(bào)),2016(6):8-12.
[12]大數(shù)據(jù)戰(zhàn)略重點(diǎn)實(shí)驗(yàn)室.塊數(shù)據(jù):4.0——人工智能時(shí)代的激活數(shù)據(jù)學(xué)[M].北京:中信出版社,2018:244.
[13]熊波.人工智能刑事風(fēng)險(xiǎn)的樣態(tài)評(píng)價(jià)與規(guī)制理念[J].探索與爭(zhēng)鳴,2019(5):134-142,176.
[14]章劍生.現(xiàn)代行政法總論[M].北京:法律出版社,2019:22.
[15]劉艷紅.人工智能法學(xué)研究的反智化批判[J].東方法學(xué),2019(5):119-126.
[16]熊波.論人工智能刑事風(fēng)險(xiǎn)的體系定位與立法屬性[J].重慶大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2020(3):142-154.
[17]余振華.刑法總論[M].臺(tái)灣:三民書局,2017:120.
[18]張明楷.網(wǎng)絡(luò)時(shí)代的刑事立法[J].法律科學(xué),2017(3):69-82.
[19]谷建陽(yáng).AI人工智能:發(fā)展簡(jiǎn)史+技術(shù)案例+商業(yè)應(yīng)用[M].北京:清華大學(xué)出版社,2018:52-53.
[20]周亮.全球機(jī)器人數(shù)量到底有多少[EB/OL].(2018-07-06)[2019-09-03].http:∥www.elecfans.com/jiqiren/614969.html.
[21]陶盈.機(jī)器學(xué)習(xí)的法律審視[J].法學(xué)雜志,2018(9):55-63.
[22]阿里云研究中心.阿里ET城市大腦白皮書[EB/OL].(2018-07-05)[2019-09-08].http:∥www.qianjia.com/html/2018-07/05_297143.html.
[23]姜明安.行政法[M].北京:北京大學(xué)出版社,2017:236.
[24]埃里克·希爾根多夫,黃笑巖.自動(dòng)系統(tǒng)、人工智能和機(jī)器人:一個(gè)刑法角度的定位[J].法治現(xiàn)代化研究,2019(1):85-94.
[25]熊波.數(shù)據(jù)狀態(tài)安全法益的證立與刑法調(diào)適[J].當(dāng)代法學(xué),2023(1):70-82.
[26]郭旨龍.中國(guó)刑法何以預(yù)防人工智能犯罪[J].當(dāng)代法學(xué),2020(2):44-55.
An analysis of the administrative pre-legislation of China’s
AI criminal law
XIONG Bo
(School of Criminal Law, East China University of Political Science and Law, Shanghai 200042, P. R. China)
Abstract:
Artificial intelligence law research should guard against the “academic foam”, and the construction of artificial intelligence criminal rule of law should be based on the real problems of China’s local practice, focusing on the harmful behaviors of artificial intelligence that can really challenge China’s criminal law. The new AI crime belongs to typical administrative crime. In the early stage of the development of AI technology, the AI criminal law should shape the administrative pre-legislative method, specifically including two legislative models: “pre-administrative illegality” and “pre-administrative procedure”. Among them, “administrative” refers to the illegal administrative evaluation in the static normative level and the procedural and experiential administrative evaluation in the implementation of dynamic administrative procedures of the constituent elements such as AI behavior, while “prepositive” refers to administrative evaluation precedes criminal responsibility determination of the AI criminal behavior. Compared with the legislation of information network crime and computer system crime, the practical characteristics of the harm of AI technology lie in the deep learning of AI and the extension of algorithm technology to human activities in time and space. Therefore, in order to embody the characteristics of administrative pre-legislation in AI criminal law system, legislators need to pay special attention to comprehensive and dual rules. Administrative pre-legislation helps to ensure the professionalism of criminal liability, focusing on the technical characteristics of AI challenges, and achieving the level evaluation of different algorithmic technology hazards. When designing specific administrative pre-legislation rules, legislators need to apply the characteristics of the rules to the development of AI technology and the testing, production, sales and use of AI products. To be specific, first, for the legislation of administrative illegality, criminal law should focus on the evaluation of the sales and use stages of AI products, set up abstract dangerous crimes for the sales of AI products that do not meet administrative standards, and add new charges or relevant provisions covering administrative illegality norms for the dangerous acts of manufacturing safety accidents, dangerous driving, illegal invasion, and system destruction during the use stage of AI products. Second, for the legislation of administrative procedure, criminal law should focus on the evaluation of the research and development stage of AI technology, as well as the testing, production, sales and use stage of AI products. The pre-legislation of administrative procedures plays an essential role in the supervision of public services of administrative acts. Administrative licensing, registration, ordering and other procedures can ensure the development of AI technology and the testing, production, sales and use of products, in line with human ethics and technical safety. The pre-legislation of administrative procedures requires that criminal law should set up relevant charges separately, and take administrative licensing, registration, order and other procedures as the criminal law regulation buffer and risk prevention means in the early stage of the development of AI technology.
Key words:" artificial intelligence; information network; administrative illegality; administrative procedure; administrative criminal
(責(zé)任編輯 胡志平)