摘 要:隨著人工智能技術的迅猛發展,我們應提前預想到人工智能時代可能面臨的法律隱憂,明確不同類型的人工智能產品的法律特征和法律地位,并就我國刑法應當如何合理應對人工智能時代所帶來的刑事風險展開具體的分析與討論。弱人工智能產品不能作為刑事責任主體;強、超人工智能產品在設計編程范圍內不能成為刑事責任主體,但其基于自由意志、超越設計編程范圍自主實施犯罪行為時或是在刑法有明文規定的情況下能夠作為刑事責任主體。此外,即便承認人工智能產品能夠具有刑事責任能力,其刑事責任能力同自然人主體一樣亦存在著增強或減弱、完全或受限的情形。
關鍵詞:刑事責任主體;刑事責任能力;弱人工智能產品;強人工智能產品
中圖分類號:D914;TP18 文獻標識碼:A DOI:10.13677/j.cnki.cn65-1285/c.2021.02.10
歡迎按以下方式引用:孫天洋.人工智能產品作為刑事責任主體之可能性探究[J].克拉瑪依學刊,2021(2)68-73.
一、人工智能產品作為未來刑事責任主體的法理設想
人工智能技術在多學科內廣泛應用并取得豐碩成果的同時,大量人工智能產品致人損害甚至死亡的案例使學界產生能否賦予人工智能產品刑事責任主體地位,用刑法規制人工智能技術的發展的設想。[1]事實上,何種人工智能產品在何種條件下能夠作為刑事責任主體應進行類型化分析。學界對于弱人工智能產品能否作為刑事責任主體的意見較為一致,弱人工智能產品可以在設計和編制的程序范圍內獨立判斷并自主作出決策,但是,因其不具有辨認能力和控制能力,且其意志完全受控或受制于人類設計和編制的程序,因此可以將弱人工智能產品看作人類改造世界的新型工具。[2]故弱人工智能不可能也不必要成為刑事責任主體。但是對于強、超人工智能產品的刑事責任主體地位的認定,學界存在兩種不同的觀點。第一種觀點為肯定說[3],該種觀點認為強人工智能產品在設計編程范圍外獨立地實施犯罪行為時可以作為刑事責任主體。第二種觀點為否定說[4],該種觀點對人工智能產品獨立承擔刑事責任持謹慎態度(由于超人工智能產品是強人工智能產品的升級版,具備并超越強人工智能產品的一切功能,筆者在此主要針對強人工智能產品展開論述)。
(一)未來刑事責任主體理論的變革——“擬制人”概念的深化
法諺云:“無責任者無能力”,即只有具備刑事責任能力,才有可能作為刑事責任主體,承擔刑事責任。[5]責任能力是指進行責任非難所要求的行為人的能力。刑法上所講的責任能力包含辨認能力和控制能力兩方面的內容。辨認能力又稱認識能力,指行為人認識自己實施的特定行為的內容、社會意義和結果的能力。控制能力又稱意志能力,指行為人支配自己實施或者不實施特定行為的能力。我們應當看到,有無辨認和控制能力是能否具有刑事責任能力的前提,而刑事責任能力則是認定刑事責任主體的核心要素。但任何一部法律,任何一條法律原則都有其產生的特定歷史原因,刑法的基本原則也不例外。現行刑法確立的基本原則主要來源于18世紀后的啟蒙思想,囿于當時的社會歷史環境以及科技發展程度,彼時的法學家不可能認識到人工智能技術的產生和發展,更難以想象到人工智能技術給現行法律體系帶來的重大沖擊。在人工智能技術大規模應用的新形勢下,對傳統刑法基本理念和原則的重建勢不可擋。[6]
在刑事責任理論發展的過程中,學界對于刑事責任主體的認識經歷了多次重大變革,在可以預見的未來,人工智能技術高度發達,人工智能產品大規模走入人類社會中,成為人類社會不可或缺的一部分時,刑事責任主體理論完全有可能進一步發展和延伸,將責任主體的范圍擴大到包含人工智能產品這一類擬人的產物進而更好地保障人類社會的安定發展。[7]判斷某些主體能否作為法律主體的本質在于其是否具備獨立的法律人格。雖然單位和人工智能產品都可能被刑法擬制成為“人”,但我們應當看到二者的核心區別,即單位意志的本質來源是自然人的共同意志,而人工智能產品意志的本質來源是程序與算法。可以說是否承認人工智能產品的獨立意志的來源是新刑事責任主體理論能否包含人工智能產品的關鍵。弱人工智能產品由于完全依賴于人類的編程和算法的控制,其不具備獨立的意志自由,故而不可能具備獨立的法律人格,更不可能獨立的作為刑事責任主體去承擔刑事責任。而強人工智能產品、超人工智能產品具備著比肩甚至超越人類的深度學習能力和獨立的思維能力,其完全可能超越編程和算法產生自己的獨立意志。從這個角度上講,機器人完全有可能通過橫向的學習來實現法律人格的獨立。其基于自由意志實施犯罪后,作為刑事責任主體承擔刑事責任符合刑事責任主體理論在不同社會歷史條件下的發展進程,且有助于維護現行刑事責任主體理論內涵的統一。
(二)人工智能產品作為刑事責任主體的前提——“擬制人”的刑法地位
賦予智能機器人法律主體地位并非無稽之談,而且一些國家早有先例。如2017年10月25日,沙特政府決定授予智能機器人“索菲亞”國籍;日本議會通過立法案準備授予智能機器人工人身份都很好地體現了這一點。但賦予人工智能產品“擬制人”的地位就不得不探討人工智能機器人在法律上的地位以及人與人工智能機器人的法律關系。1956年科幻小說家阿西莫夫首次在他的作品《圓舞》中明確闡述的“機器人三原則”可以給予我們很好的啟發。即第一法則:機器人不得傷害人類個體,也不得以其不作為致使人類個體受到傷害。第二法則:機器人應當服從人類個體給予的所有命令,除非該命令違反第一法則。第三法則:機器人應當在不違背第一法則或第二法則的范圍內關注自己的安全。[8]雖然“機器人三原則”不是法律原則,甚至連法律規則也談不上,至多只能算作是人與機器人之間倫理道德的一種構想,但卻不能否定其創設性的指導意義。在筆者看來,雖然未來的刑事責任主體理論可能深化,刑事責任主體這一概念也可能外延使之包含人工智能機器人這一“擬制人”。但是我們對智能機器人所享有的法律地位應當秉持承認與限制并存的態度。[9]從人類高于人工智能機器人,人類創造人工智能技術,以及人工智能技術的工具屬性的角度來看,人類與人工智能機器人的法律地位天然的不能平等。但是法律可以在一定程度上賦予人工智能產品特定的法律主體地位,將人工智能產品納入刑法的規制范圍加以保護或打擊,以期使其享有特定權利、履行特定義務。
(三)刑法規制人工智能主體的意義——“擬制人”的保護與約束
筆者認為,在刑法領域,賦予人工智能產品法律主體地位的好處之一是其可以更好地受到刑法的保護。與自然人“天賦人權、人人生而平等”的權利來源不同,人工智能產品的權利只能來自于法律的明文規定。人工智能產品的工具屬性決定了其不能像自然人一樣擁有人格權,更談不上擁有配偶權、親權等。但人工智能產品不同于動物或其他物品,其擁有著類似人一樣的思維和意識,不能將其簡單的歸結為刑法意義上的財物。刑法若賦予人工智能產品類似于人類的“生命權”“身體權”,賦予未來可能獨立存在自食其力的人工智能機器人“財產權”,將人工智能產品列為刑法保護的對象,使其特定“權利”免遭自然人或其他人工智能產品的肆意踐踏和侵害,通過刑法的規制更好地滿足人工智能產品的“精神”需要、“物質”需要,使人工智能產品擁有更強的歸屬感、安全感,這將更加能夠解放人工智能產品本身的生產力和提高人工智能產品從事生產勞動的積極性,使之與人類一同建設更加美好的社會。誠然,人工智能產品雖不必要亦不可能如人類一樣享有完整的人身權、財產權,人類也不可能犧牲自身的權益去保障人工智能的利益,但是筆者認為,適當保障人工智能產品的上述權利,有助于規范自然人與人工智能產品、人工智能產品與人工智能產品間的法律關系,使此種關系長期穩定地發展。
有權利必有義務,賦予人工智能產品法律主體地位的另一好處是其作為刑法主體必然要承擔刑法上的作為和不作為義務。刑法的根本目的在于懲罰犯罪和保障人權。我們可以通過刑法的指引作用、評價作用、預防作用、教育作用降低人工智能產品自發實施犯罪的風險。如果人工智能產品獨立地實施了違反刑法的行為,造成了嚴重的損害結果而其自身對此又具有辨認和控制能力,人工智能產品進行的“犯罪”行為和自然人犯罪行為本質上并無區別,其完全應當單獨承擔刑事責任。在此情形下,刑法規范就可以對其加以懲戒,以期達到教育和改造的目的,恢復被其侵害的社會秩序。對人工智能產品獨立地加以處罰使人工智能產品受到刑法的威懾,使之不能、不敢實施犯罪行為,這將有助于減少人工智能產品自發實施的犯罪,為人工智能時代下社會的穩定發展提供強有力的保障。
二、人工智能產品作為刑事責任主體的制度支撐
(一)現行刑事責任主體制度的實然規定
在我國目前的刑法體系下,根據《刑法》第17條、第18條、第30條的規定,只有具有刑事責任能力的自然人和單位才能作為刑事責任主體。
根據我國刑法對于兩種刑事責任主體的不同規定,影響自然人辨認和控制能力的因素包括兩個方面:年齡和精神狀態。即自然人的辨認能力極大程度上受到年齡的影響,據此,《刑法》第17條依照年齡的大小,將自然人的刑事責任能力從無到有劃分為三個不同程度。第一,未滿14周歲的未成年人不承擔責任,此期間為絕對無責任時期。第二,已滿14周歲不滿16周歲的人僅對八種特定的嚴重犯罪承擔責任,此為相對負責任期間。第三,已滿16周歲的人應當負刑事責任,此為完全負責任期間,但因其未滿18周歲,故而應當對其從輕或減輕處罰。一般而言,辨認能力是控制能力的前提,沒有辨認能力便談不上控制能力。自然人的控制能力較大地受到精神狀態的影響,精神狀態異常或者生理缺陷均可能降低控制能力,故我國刑法也包含了對精神病人、聾啞人從輕減輕處罰的規定。對自然人而言兩者并重,只有既達到刑事責任年齡同時又精神正常的人才具備完全的刑事責任能力。
(二)人工智能產品作為未來刑事責任主體的規范辨正
1.弱人工智能產品不能作為刑事責任主體。筆者認為,弱人工智能不可能也不必要成為刑事責任主體。主要原因有以下幾點:第一,不具備完全的辨認能力和控制能力。如弱人工智能產品自動駕駛汽車,雖然具有一定程度的識別能力,但其對自身行為的識別和控制能力處于較低層級。辨認能力不僅是對事實的認識,更是對事實所蘊含規范意義的認識,弱人工智能機器人最多只能認識到事實(包括錯誤的事實),而不可能認識到事實的性質、作用等規范層面上的意義。如自動駕駛汽車雖然可以通過其搭載的雷達、攝像頭、傳感器等設備辨認車輛當時的狀態是處于前進、后退或是轉彎之中,也可以通過其搭載的程序對車輛的運行狀態進行控制。但在自動駕駛汽車交通肇事的案件中,自動駕駛汽車只能認識到其正在控制著汽車的行進,其行進的路徑上有某種類似人的障礙物,其保持行進狀態對障礙物進行了碾壓,但其卻不能理解其行為在刑法上的規范意義,不能認識到其行為已經構成了刑法上的危害行為并且導致了嚴重的損害結果,可能成立交通肇事罪。第二,不具備獨立的自由意志。以自動駕駛汽車為例,雖然其在駕駛領域對車輛擁有著超越人類的控制能力,對危險有著先于人類的認識能力,但其只能在編程預先設定好的目的——從某個“起點”到達“終點”這一特定范圍內進行自主決策,其實現目的的手段和方法也完全依賴于人的事先輸入,并不具備超越程序和算法以外獨立決策的能力,故其完全受控于人,實現的只能是設計者、使用者的意志。若自動駕駛汽車在人的指令下對行人進行了碾壓,因其意志完全被剝奪,進而喪失了獨立的法律人格,也就喪失了承擔刑事責任的可能性。
2.強、超人工智能產品在一定條件下可以作為刑事責任主體。筆者認為,強人工智能產品在設計編程的范圍內不能成為刑事責任主體,而在編程以外基于其自由意志獨立地實施犯罪行為時能夠作為刑事責任主體。強人工智能產品在刑法中明文規定(如現行刑法中規定的法定犯、法律擬制等)的情況下能夠作為刑事責任主體。
首先,強人工智能產品能夠獨立地實施嚴重的危害行為。即能夠實施與自然人犯罪相同的危害行為。犯罪的本質是不法和有責。我們應當意識到在可以預見的未來,不僅是人能夠辨認和控制自己的行為,也不僅只有人才能實施犯罪的行為。如果人工智能產品具有刑事責任能力時基于獨立意志實施了犯罪行為,那么根據法律面前人人平等的基本原則,其就應該與其他主體一樣獨立承擔刑事責任,接受刑法的制裁。為了避免實施的客觀危害行為相同、產生的危害后果相同、非難可能性也相同,僅因自然人主體或者是人工智能主體的不同而同案不同判的矛盾情形,應當承認強人工智能產品的刑事責任主體地位。
其次,強人工智能產品能夠具有刑事責任能力,即刑法規定的承擔刑事責任所必需的高度的辨認和控制能力。如前所述,辨認能力和控制能力是刑事責任能力的核心。強人工智能產品可以通過攝像頭、雷達、芯片等設備對其當下的狀態和實施的行為進行辨認及控制,這與弱人工智能產品和一般機器人并無本質區別。但不同于弱人工智能產品和一般機器人的是,由于大數據、云計算和蒙特卡洛樹等技術的加持,強人工智能產品具有更加強大的感知能力和深度學習能力。此種類似甚至超越一般人類的辨認、控制的能力,使他們不僅能夠認識到自己正在實施的行為,亦完全可能認識到其行為的規范意義和法律后果,這是刑法能夠對其進行否定評價的前提。如果事先在人工智能產品的程序中植入人類為其設定的機器人倫理道德和行為準則,再使其超出程序范圍之外深度學習人類的法律規范、社會規范、倫理道德規范,使其完全能夠認識和理解自身行為在刑法上的意義、可能產生的刑法后果乃至達到刑法規定的承擔刑事責任所要求的程度,也是完全可能的。
再次,強人工智能產品具有獨立的自由意志,即具有能夠選擇“為”與“不為”的能力。由于強人工智能產品在綜合領域具有獨立自主的思維,其對人類預先輸入的編程和算法的依賴程度較小,不僅能夠執行編程范圍內的任務,更能脫離于人類的編程和控制之外獨立地完成一定的任務。若此種強人工智能產品在編程和算法范圍之外產生獨立思想,生成了獨立的犯意,并且在能夠選擇實施何種行為時,卻在自我意志的支配下實施了犯罪,這就說明其具有相當的主觀惡性和人身危險性,故而刑法帶來的不利后果亦應該由該人工智能產品本身承擔,這符合罪責自負原則的要求。
三、未來人工智能產品刑事責任主體制度的應然設想
(一)利用弱人工智能產品實施犯罪的刑事責任分擔
自然人利用弱人工智能產品實施犯罪后,可以通過現行刑法加以規制。若研發者或使用者利用弱人工智能產品實施犯罪行為,其相當于研發者或使用者的犯罪工具,可以將其視作犯罪分子手足的延伸,只對犯罪分子進行處罰即可達到預防和懲罰的目的。但在利用弱人工智能產品進行犯罪的不同情形中我們應當認識到研發者和使用者的刑事責任是有區別的。第一,若該弱人工智能產品在設計之初便是以實行特定犯罪為目的,則可以認為研發者對弱人工智能產品實施的全部該類型犯罪均具有概括的故意,而且可以認定其與使用者構成該罪的共同犯罪,是幫助犯,應當為此承擔刑事責任。第二,若該弱人工智能產品在設計之初本身只具有正常使用的功能且研發者盡到了注意與提示義務,而是被使用者故意用于實施犯罪行為,在此種情況下,應當認定研發者不構成犯罪,只由使用者承擔刑事責任。[3]第三,若該人工智能產品本身具有設計缺陷,進而被使用者用于實施犯罪行為,該種情況下則以設計者有無違反注意義務而構成過失犯罪或意外事件。使用者應當構成故意犯罪,而且是該故意犯罪的間接正犯。
(二)強、超人工智能產品實施犯罪的刑事責任分擔
強人工智能產品刑事責任分擔問題應當依據其是否具有獨立意志而作不同區分。第一,強人工智能產品在設計和編程范圍內實施的犯罪行為與弱人工智能相同,不能獨立承擔刑事責任,此處不再贅述。第二,強人工智能產品在設計編程范圍外產生獨立意志進而實施犯罪的情形下可以獨立承擔刑事責任,其亦可以和其他自然人主體或人工智能產品構成共同犯罪。在人工智能產品犯罪中亦應該區分故意或過失的主觀罪過。在人工智能產品故意犯罪的場合中,由于人工智能產品不完全平等的法律地位,以及人工智能產品獨立意志的產生和來源均與人類不同的特點,刑法應當對人工智能故意犯罪的罪名、犯罪構成、犯罪形態等進行不同的規定。在人工智能產品過失犯罪情形下,由于強人工智能在特定領域具有超越人類的認識能力、學習能力以及對危險的掌控能力,故刑法在人工智能過失犯罪中亦應該設定比自然人更高的注意義務和更加嚴格的責任。第三,我們還應該認識到,雖然人工智能產品能夠具有刑事責任能力,可以作為刑事責任主體,但與自然人主體一樣,其刑事責任能力也應當根據不同類別和用途、不同智能程度、不同的學習深度和廣度而有所不同。對其刑事責任能力的劃分也可以采取類似自然人的規定分為完全刑事責任能力,限制刑事責任能力和無刑事責任能力。另外在不同的客觀條件下(如經濟、地域、氣候等)、在不同的特定環境中(如緊急時刻、故障等),也應當承認人工智能產品刑事責任能力的加重或減輕。只有如此才能做到不偏不倚,罪刑相適應。
四、結語
因為法律不可避免的具有滯后性,雖然現行刑法并未明確人工智能產品的刑法地位,亦未賦予其刑事責任主體資格,而且目前對人工智能這一新生事物作出完備合理的規定尚有一段距離,但這并不妨礙我們以前瞻性的眼光去探討其被賦予刑事責任主體地位的可能,亦不妨礙我們在此假設的基礎上開展后續問題的探討。[10]筆者認為,拓展刑事責任主體理論、擴大刑事責任主體概念的內涵使之包含某些人工智能產品,將人工智能產品納入刑法的規制和保護的范圍,以及推動現行刑法的修訂是人工智能新時代背景下刑法研究者的努力方向。
值得注意的是,若賦予人工智能產品刑事責任主體資格將不可避免的對我國現行刑法體系特別是刑罰制度帶來巨大的沖擊。現行刑法規定的刑罰是僅能適用于自然人和單位。若用處罰自然人的自由刑和生命刑來處罰人工智能產品,當然不能產生刑罰想要實現的效果。因為人工智能產品本來就不具有人的生命特征,有些人工智能產品甚至不具備物理形態,對其施加限制人身自由的刑罰和剝奪生命的刑罰本就沒有可能,更沒有意義。若單純基于人工智能產品的工具屬性來看,其難以擁有私有財產,更遑論對其處以財產刑。筆者認為對人工智能產品的處罰方式亦應該隨著其特性而進行改變,如依據不同智能機器人自身的特點對其增設刪除數據、修改程序、永久銷毀等刑罰。[11]只有未雨綢繆提前做好準備才不至于在人工智能時代真正來臨時手足無措。
參考文獻:
[1]劉憲權.人工智能時代的刑事風險與刑法應對[J].中國檢察官,2018(9):79.
[2]劉憲權.人工智能時代的“內憂”“外患”與刑事責任[J].東方法學,2018(1):134-142.
[3]劉憲權,林雨佳.人工智能時代技術風險的刑法應對[J].華東政法大學學報,2018(5):46-54.
[4]劉憲權.人工智能:刑法的時代挑戰[M].上海:上海人民出版社,2018:124.
[5]張明楷.刑法學[M].北京:法律出版社,2016:121.
[6]劉憲權,房慧穎.涉人工智能犯罪的前瞻性刑法思考[J].安徽大學學報(哲學社會科學版),2019(1):108-117.
[7]夏陳婷.人工智能時代的刑事歸責路徑探析[J].法治社會,2019(1):46-53.
[8]阿西莫夫,葉李華.機器人三定律[J].意林,2018(3):21.
[9]劉憲權,胡荷佳.論人工智能時代智能機器人的刑事責任能力[J].中國檢察官,2018(11):77.
[10]劉憲權.涉人工智能犯罪刑法規制的路徑[J].現代法學,2019(1):75-83.
[11]劉憲權,房慧穎.涉人工智能犯罪刑法規制的正當性與適當性[J].華南師范大學學報(社會科學版),2018(6)109-115.
[11]劉憲權.人工智能時代我國刑罰體系重構的法理基礎[J].法律科學(西北政法大學學報),2018(4):47-55.
收稿日期:2020-12-23
作者簡介:孫天洋,華東政法大學刑事法學院碩士研究生,研究方向:刑法學。