摘要:智能技術及其應用的迅猛發展,對以人類的主體性地位為根本存立前提的當代法律體系形成強烈沖擊,智能主體的刑法地位成為關鍵問題。目前,消極論和積極論處于相持階段,加速了現行刑法理論體系的知識變革進程。“人造物”等不同程度的消極論,以現行刑事法律制度難以直接接納及其所裹挾的潛在的刑事風險等為由,雖有其可取之處,但其邏輯機理正是過度釋放人類中心主義的預設效應。完全按照人類中心的立場進行審視會得出無法調和的結論,也顯示了智能技術應用的工具屬性被深度放大之傾向,但上述消極事由不盡然合乎規制人工智能犯罪的現實需要,也與法律主體制度的演進規律不符,甚至會壓制刑法主體的自主進化。“電子人”等不同形式的積極論,率先走出絕對的人類中心主義及其觀念束縛,以發展的眼光看待人工智能與刑法的互動及其動向,更加契合了人工智能犯罪的發展動態。而意志自由、刑事責任能力、道德倫理規則、智能程度與智能主體類型、刑事責任的客觀存在、算法的特殊地位與意義等既有的知識框架與新的要素累積,意味著人工智能可以在發展的刑法體系中實現銜接與契合。經由不真正完全背離刑法原理的認識扭轉,亦供給了學理層面的支撐。而且,遵循功利主義的理路,以及在一系列有關人工智能主體方面的先行立法之做法的引領下,應分階段、類型化、動態化厘定智能主體的刑法地位,使其在法律擬制的路徑上可以繼續延續和拓展。在人工智能的刑法主體地位得以澄清下,有必要接受智能主體可以享有一定的新興權利之現實情狀,但應具體地確證權利類型等具體內容。在現階段的技術代際之策動下,智能主體的權利內容與范圍目前是限制性的,無法采取與“人”對等的保護策略,保護方式也應有別。這種“降維”保護有其現實合理性,通過積極制度設計與規則配置,能夠最大限度策應人工智能主體的刑法地位之更迭態勢。
關鍵詞:人工智能主體;刑法地位;消極論;人類中心主義;積極論;功利主義;權利邏輯
中圖分類號:D914;TP18文獻標志碼:A文章編號:1008-5831(2022)04-0216-14
一、未竟的知識顛覆
人工智能技術及其應用的增速,使目前仍被認為是“人造物”的“智能主體”智能主體是現實功能主義立場下的稱謂,智能機器人及產品等是人類中心主義立場的稱謂。但此不做區分。在現階段,對智能主體諸問題的前瞻討論,不免仍然需要借助現行刑法話語體系,如刑事責任能力等概念。(智能機器人、人工智能體等,下同),因(日益/高度接近)“類人”的智能程度與行動能力等,開始被貼上“主體”的新標簽,使人的主體性地位開始遭受雙面震蕩:人繼續作為“造物主”,人的主體性意識、人的主體性發展均受益;但也嚴重沖擊人的主體性地位、能力、道德倫理,制約人的主體性發展。這種辯證觀察顯示了智能主體的到來及其地位的升級,既是人的主體性之延續,也加速銷蝕人的主體性地位。在這場拉鋸戰中,人的主體價值觀顯現出陷入悖論的跡象。“人”與“智能主體”的法律地位之爭是隱性效應,并且會弱化“人創制法律”的認識觀、世界觀與價值觀以及法律制度。
目前,理論上關于智能主體的法律身份與地位的看法不一。實踐中存在一種強烈的聲音:應用中的智能機器人以及更高級的智能主體,應被認為是像“人”的法律主體,并以此構建智能主體格局下的主體范式、關系范式、權利話語體系。但這種前瞻性的“建構”,也被認為是人類中心主義[1]。不僅暗示所謂“智能主體”必然缺乏道德主體資格,也使智能主體通過法律設立的權利“形同虛設”或無法真正行使。畢竟智能主體是“人造物”,具有鮮明的“工具屬性”,是為保護人類的利益而存在的,非真正的法律主體權利,與人的主體性本質與要求完全相斥。智能主體能否成為“(類)人”?關鍵在于確認“(類)人性”(人的社會現實性、歷史文化本性等)。這是智能主體法律地位之“難題”的核心和實質。甚至智能技術的“工具性意義”與“機器人是否會威脅或代替人類”的主體性危機相比,是更實際與真實的當下擔憂。但消極論脫離真實的訴求。最新的探索已走在前面國際社會對于智能主體的法律地位目前呈現為松綁的積極姿態與做法,并體現在立法與實踐方面。 。
理論觀望還在持續中,但智能技術引發的“人類主體性危機”已悄然蛻變和加劇,甚至將成為人類社會最大的“人造危機”。當代法律體系、特別是刑法體系,正面臨已經迫近的根本性制度危機。目前,關于智能主體的刑法地位問題,主要分為消極論和積極論,兩方紛爭不止,但未能提出面向未來的建設性方案;關于智能主體的權利問題,則疏于討論,導致研究深度與廣度不足。應當從理論與現實層面,對智能主體的刑法地位課題進行回顧、反思并再構。這不僅關系人的主體性地位與刑法的歷史定位,也關系當代刑法的生死存亡與功能發揮。特別是對于人工智能刑法的前沿問題研究,應容忍必要的學術“想象力”,以此稀釋浪漫主義與虛無主義法律的偏一風險,進而推動人工智能刑法理論研究趨于理性與可行。甚至在一定程度上,主動暢想“人工智能刑法學”也是有依據和意義的前沿探索參見:孫道萃《人工智能刑法研究的反思與理論迭進》(《學術界》,2021年第12期第64-76頁)。 。基于此,對于人工智能的刑法主體地位及其相關問題的討論與歸結,不宜完全只停留于實定法的既定框架,而需植入必要的前瞻性,以面向未來的姿態,開啟積極的建構性研究。
二、消極論:解析與回應
(一)消極論的主要事由與解構
1.消極論的主要事由
在法理上,智能主體的法律人格問題頗具爭議。在民法領域,也存在不同看法[2]。客體說包括產品責任說、類推適用動物說等。主體說包括代理說、電子人格說等。折中說認為,智能主體的民法地位屬于“人工類‘人格’”,屬于物的范疇,是權利客體,而非民事主體。在智能技術與智能主體迅猛發展,智能程度不斷遞增等情況下,客體說具有顯著的“人類中心主義”傾向,其滯后性會逐漸顯現。主體說的立場較為激進,但未能考慮人工智能技術應用尚處于弱人工智能時代的現實。折中說所指的“人工類‘人格’”,雖提及“人”的主體因素,但歸根結底是“人造性”,結論實質上是“物”,而非獨立的法律人格體。按此邏輯,AI 不存在法律主體的邏輯問題。這些看法對刑法領域的理解有一定的輻射作用。
目前,刑法領域的消極論主要表現為:(1)全面消極論。人工智能缺乏對外在行為及其社會屬性的認識、規范評價意義上的意志自由、理解并遵從法規范的能力、對不法的認識可能性與抵制意志,不能按照法人進行類比[3]。(2)刑法對象論。人工智能具有絕對的客體性。人工智能犯罪的可歸責主體,只能是作為算法安全社會關系主體的“自然人—法人”二元主體[4]。按照塞爾“中文房間模型”認知理論,人工智能不具備刑法意義的辨認能力與控制能力,應當視為犯罪工具或犯罪對象[5]。(3)刑事主體資格條件的缺乏論。根本不可能在認知、意識、情感方面設計與人類相媲美的具有人類心智的人工智能主體,更不能實施犯罪與承擔刑罰,不是適格的受罰主體與刑事責任主體參見:張鐳《人工智能體可罰性辯疑》(《南京社會科學》,2018年第11期82-87頁);葉良芳《人工智能是適格的刑事責任主體嗎?》(《環球法律評論》,2019年第4期67-82頁)。。(4)非法定主體論。人工智能是高級工具,無法被賦予“權利義務統一性”,不具有刑法意義上的辨認、控制能力,不能實現報應、預防等目的。犯罪主體只能是自然人或單位[6]。
2.消極論的解構
消極立場的理由,基本上可以概括為:在現行刑法中,“人的主體性地位”及其專屬性、不替代性、不可動搖性、天然的法定性等牢不可摧。(1)意志自由的缺失與刑事責任能力不匹配。從生物學看,人的刑事主體地位的形成,是建立在意志自由與刑事責任能力的基礎之上。前者是哲學層面的人的意志自由決定,后者是規范層面的行動自由,共同決定是否可以承擔刑事責任。但討論智能主體的意志自由與刑事責任能力,面臨尷尬的技術局限、語境受限以及規范缺失等問題。智能主體的意識、意思或者對行為的違法性認識等問題,與人的主觀方面存在本質的區別。和法人相比,雖有相似之處,但差異很大。智能主體暫時不具有刑法評價意義上的行為認識與控制要素的自主性,不具有人的目的理性所支配的可答責基礎,欠缺作為刑事責任主體的本質要素。這些因素共同決定無法以“人類中心主義”的邏輯來討論智能主體的法律地位問題。(2)行為理論的不對等。行為是最基礎的要素,是刑法評價的直接對象。智能主體的行為,是在其相應的意識、意思以及能力的作用下,自主決定是否實施,并應對該行為負責。只是相比于人類的行為邏輯以及所實施的犯罪行為,智能主體的實行行為表現為“算法”及其運行的新情狀,二者有明顯差異。(3)與刑事制裁不吻合。智能主體不能直接適用目前刑法規定的刑罰措施。而確認智能主體的刑法地位,首要目的是追究刑事責任。與之相適應的刑事制裁措施尚處闕如,容易使該目的落空。智能主體缺乏“類人”的可罰性特質,使其不能成為刑法主體。(4)與基本理論不對恰。智能主體目前不是法定的刑法主體類型。即使確認智能主體的身份,但由于理論體系等未能及時更新或無法同步確立,必然會出現深度的理論對沖。(5)定罪和量刑的紊亂。按照現行刑法規定,在定罪量刑活動中,很多規定無法適用于智能主體,既使定罪的對象、依據等內容失效,也使量刑情節適用等活動無法進行。例如,對智能主體的歸責,目前只能主要考慮損害結果,卻模糊人工智能作為主體的主觀惡性與行為時的故意、過失之分,容易導致刑罰圈的恣意擴大與具體刑罰適用的失當。(6)法律適用的不對接。智能主體是否存在主觀惡性與人身危險性等內容尚無法確定,刑罰預防措施難以有效配置;無法或者無需嚴格區分故意與過失及其定罪量刑要求,難以體現故意與過失的區分意義;自首、立功等量刑情節亦無法適用,犯罪特殊形態如犯罪預備、中止、未遂等情形,套用在智能主體上非常生硬。(7)刑事責任的轉嫁性。肯定智能主體的刑法地位,則可以獨立承擔刑事責任。智能主體與研發者等人類主體相互獨立或剝離,在實踐中可能出現不同行為的交錯與重疊。不排除可能出現智能主體濫用技術優勢并轉嫁風險給人類個體,逃避刑事責任的追究。
(二)人類中心主義的理性消解
1.“人造物”觀與工具思維的疊加
消極論遵循“人類中心主義”思維。所謂人類中心主義,是以人為宇宙中心的哲學立場。核心內容是一切以人為中心,一切以人為尺度,一切從人的利益出發,最終為人的利益服務[7]。在自然人、自然人集合體等組成法律主體格局下,智能主體缺乏“人的生命屬性”,無法與“法人”直接類比,智能主體尚不足以取得獨立的法律地位。從“人造物”的主客體關系看,智能技術的發展程度無法改變作為人類勞動創造的“技術客體”,主張是“物”有其客觀理由。由此,基于智能技術應用的“工具屬性”,“物”的角色才是智能主體進入法律規范的身份,是與法律交互的前提。這反映人類的“創制”地位對界定智能主體的“映射”效應,“工具屬性”使智能主體無法獲得獨立的法律地位。但是,法律主體及其范圍呈擴張趨勢。故,積極說才是應然選擇。可以參照“法人”之做法,有限度地運用“法律擬制”之立法技術,賦予智能主體的法律能力與地位并無法律技術障礙。
2.人類中心主義過度化的“加持”
從絕對到相對的人類中心主義,也是認識觀與實踐觀的理性迭進[8]。完全按照人類邏輯消極看待智能主體的法律地位,不免存在認識論上的誤區。人工智能并未對法律基礎理論、法學基本教義提出挑戰,受到挑戰的只是如何將傳統知識適用于新的場景[9]。在人類中心主義導向下,不僅否定當前討論智能主體刑法地位問題的真實性與必要性,也對智能主體這一元問題提出根本性的質疑。在方法論上,當前對智能主體的“法律地位”之判斷,套用人類中心主義的固有邏輯,用“符合人類的法律主體判斷標準”而非智能時代的特有邏輯來判斷智能主體的法律地位問題。這在認識論上隱藏立場失當的隱憂:根據人應當具備的認知、道德、意思等具體理性能力與特質為內容所形成的判定標準體系,對智能主體進行實質與形式的雙重“匹配”,是人類中心主義主導下的“認識”。可以“順理成章”推導出智能主體缺乏生命價值、生命脆弱、感知痛苦等人的具體特質,與人類應當具備的一些判定標準體系“絕緣”,故不能作為法律主體。對于智能主體法律地位的判斷,應當以算法、深度學習等要素為基礎,根據智能社會對法律人格判定的專屬標準體系,設定獨立于“人”的具體特質加以判斷。只有建立既不完全脫離人類的現有法律體系,但又符合智能時代的特定發展需要的“判斷規則”,才能在過程與結論上,更恰當地對智能主體法律地位作出符合實際的判斷。
3.對否定論的審正
針對消極論的質疑與擔憂,應當澄清以下問題:(1)作為智能主體存在基礎的道德倫理正在形成。人的生理性與社會性,共同決定“人之為人”。人的社會性表現為社會規則擔當起維系社會發展的重任,同時以道德倫理作為最重要的基礎。智能主體是否具有道德倫理,是決定其法律屬性與刑法地位的前提與基礎,并與自然人的關系、法律屬性、法律制度等相互映照。目前對于智能主體的道德倫理問題更多的是擔憂。特別是在“人類中心主義”的思維下,套用人類建立的規則體系,幾乎沒有肯定智能主體擁有道德倫理的空間。然而,從國際社會的動態和一些發達國家的做法看,對智能技術倫理的討論更趨于樂觀,也形成一些共識和積極成果。逐步建立與智能時代相適應的道德倫理規則體系并非不可能,也為確定智能主體的刑法地位預留制度空間。(2)法律主體的歷史變遷規律。智能主體已然不同于普通機器,存在賦予其法律人格的正當化依據。將沒有生命體的智能主體,作為法律主體,具有技術可能性和現實需求,不會實質性地背離法學基礎理論。超越程序設計與編制范圍,基于獨立的獨立意志進行活動的智能主體完全可能出現,使其具備法律人格的基礎并成為法律主體。這是對“人”的概念的增補而非致命的沖擊。法律中“人”的概念并非僵化不變。立法上賦予智能法律人格與權利義務并非完全不可能。世界范圍內已有先行的立法活動。(3)法律擬制的刑法功能與意義。從法律發展的規律看,法律是以人類為規制對象。經過長期實踐與發展后,天然地不適用于人工智能。目前,人工智能不具備也無法模擬人的全部行為與活動。將智能主體擬制為法律主體,直接降低人的主體性地位,也可能使“人造物”的概念出現異化。但從人作為法律主體的形成邏輯,法人作為犯罪主體的歷史規律與法律邏輯看,基于人工智能技術的發展與算法規則的發達,以及高度智能化的特征等因素,智能技術的理性延伸具備相應前提,并會賦予行動能力的基礎。完全寄希望于既有法律主體規定的有效性,顯然是偏于保守。法律擬制可以依法賦予智能主體的法律地位,與刑法中的法人無異。而且,法律擬制的方式具有人的可控性特征,使人對智能主體的刑法地位之預設與調整處于安全的狀態。(4)功利主義的司法意義延展。智能主體的刑法地位問題,是由新興犯罪態勢客觀催生的,而不是純粹主觀臆測的猜想。為了確保刑法目的與刑法機能的正常運行,有效規制智能技術及其應用過程中形成的刑事風險,應從根本上謀求更合理的解決方案。從功利主義的現實角度看,智能主體刑法地位的闕如是當前困擾的首要癥結。對智能主體刑法地位予以清晰界定,從源頭上回答智能主體是否可以獨立實施犯罪行為,從功能上明確智能主體是否可以承擔刑事責任,這才是理性的風險控制觀。
三、積極論:匡正與立基
積極接納智能主體的刑法地位是新的供需關系所使,關切到人類生存與發展的重大問題這里暫不深究“人之為人”“人是世界主體”等哲學問題及其曠世糾葛,側重從法律上探討現實可能性。。在功利主義的引導下,通過立法逐步確認智能主體刑法地位具有可行性基礎與現實必要性。
(一)積極論的主要情狀與展開
1.積極論的幾種樣態
理論上形成以下看法:(1)完全積極論。與現有刑事責任主體的差別、無法證成“強智能機器人不具有自由意志”、處罰上的不能、確立強智能機器人刑事責任主體地位引發的推卸刑事責任等不成立。強智能機器人具有辨認能力和控制能力,是刑法主體
參見:劉憲權《人工智能時代的刑事風險與刑法應對》(《法商研究》,2018年第1期3-11頁);劉憲權《對強智能機器人刑事責任主體地位否定說的回應》(《法學評論》,2019年第5期113-121頁);劉憲權《智能機器人工具屬性之法哲學思考》(《中國刑事法雜志》,2020年第5期2034頁)。。(2)相對積極論。智能代理可以成為道德代理。人工智能具備法律人格是成為犯罪主體的基本條件,可以通過智能代理獲得犯罪主體資格的條件。而且,人工智能具有可罰性
參見:彭文華:《人工智能的刑法規制》(《現代法學》,2019年第5期135-151頁);彭文華《自由意志、道德代理與智能代理——兼論人工智能犯罪主體資格之生成》(《法學》,2019年第10期18-33頁);[英]拉塞·夸爾克、王德政《人工智能機器人的刑事可罰性》(《中州學刊》,2020年第10期48頁)。。(3)一般積極論。弱人工智能引起刑法質變的可能性仍然抽象。如若無法引起刑法的突變,“人工智能的刑法規制”極可能是偽命題。只有假想的超級人工智能,才可能導致刑法發生突變。但突變后的刑法,顯然已不再是當下的刑法[10]。(4)功能發展論。人工智能的“人格化”具有方法論依據、智能性的本質要素、法理基礎等。人工智能作為“人”會沖擊傳統刑法教義學,但有助于解決智能主體實施的“犯罪”及其疑難社會問題[11]。
在對人類中心主義進行一定的認識觀修正后,積極論的意義在于:(1)有助于明確智能時代的犯罪諸問題。智能時代新型犯罪問題已經開始出現,主要以智能“工具型”“對象型”犯罪為主。智能時代的犯罪形態仍在發展,犯罪類型等基本問題尚不確定,影響對刑事責任的理解與認定。傳統犯罪形態與智能時代的新型犯罪不盡相同。智能主體與現行刑法主體的實質差異是其縮影。明確智能主體的刑法地位,有助于認識和界定智能時代的犯罪這一前提問題,也對解決好刑事責任、刑罰等問題有積極意義。(2)可以解決智能主體的刑事責任之客觀問題。目前,利用智能技術應用平臺實施新型犯罪已經浮出水面[12],也包括針對智能主體的犯罪與智能主體自主實施犯罪的情況。一律直接借助現行法律規定或理論體系的規制未必有效和可行。例如,在智能駕駛情形中,出現是否存在真正的駕駛主體、駕駛主體究竟是人還是智能系統以及背后的制造者等問題。發生了重大交通安全事故后,涉嫌產品犯罪、公共安全犯罪、重大監督過失犯罪,甚至故意犯罪等犯罪。傳統犯罪規定不足以解決智能駕駛過程中的新型犯罪問題。而明確智能主體的刑法地位是解決問題的關鍵。(3)有助于智能主體與“人”的責任分擔。智能主體的刑事責任,與“人”(研發者、設計者、經銷者、所有者、使用者等)的責任分擔相關。完全由“人”來承擔替代責任顯然不可取。不同智能程度的智能主體,其與人“共同”犯罪的主次關系變得復雜。合理確定智能主體的身份與地位是前提。
2.積極論的規范分解
在積極論的前提下,對智能時代的意志自由、刑事責任能力等規范要素,應當采取更“包容”的接納態度,與智能程度、算法發展等積極因素相互疊加,共同夯實積極論的成立基礎與有益條件。為此,應闡明人工智能與現行刑法之間的融合度。(1)意志自由的有無問題。人的意志自由問題,主要表現為自主地決定自己的意志并實施行為。而其刑法學意義是指犯罪主體是在所有因素的綜合下,仍可以自主地決定是否實施犯罪行為。意志自由是刑法主體的必備要素。基于“人類中心主義”及“工具屬性”的語境,智能主體是人實施犯罪的新工具或方法,沒有可以和人對等的“意志自由”,也就沒有作為法律主體的獨立性、自主性基礎。但是,這種理解是狹隘的:一是忽視隨著智能技術的發展以及智能程度的升級,可能出現完全智能的主體。從理論看,智能主體在認識能力和意志能力上,可能接近甚至超越人類水平,完全可能成為犯罪的主體,直接造成社會危害結果。二是簡單固化智能主體的刑事風險,僅限于“人的濫用風險”,而忽視其他刑事風險類型。這是“工具屬性”思維左右智能犯罪類型認識的具體反映。在初期階段,由于算法水平等因素的限制,應用功能較為單一,仍屬于“工具”的范疇,與傳統的“產品”無異;在深度應用階段,可能持續挑戰人類社會的認知底線,自主性迅速增量;在完全獨立應用階段,智能主體的地位趨于鞏固,所帶來的顛覆性后果完全超出現有法律的約束能力。因此,討論智能主體的刑法地位,應秉持發展性、階段性的持續性修正理念。三是智能技術的“算法”規則及其運行是以“智能化”為本質特征,而智能技術的應用是為了“解放人的勞動力”。“工具屬性”與“智能屬性”之間的博弈關系,隨著智能技術的發展,傾斜于后者的趨勢顯而易見。完全否定智能主體的“自主性”及其“意志自由”,從技術本身、應用范圍、應用目的以及實際情況等方面看,都難以成立。(2)刑事責任能力及其判斷。目前,人作為刑法主體所必需的具備刑事責任能力要素,是否可以“等值”輸入到智能主體內,作為評價刑法主體資格的核心要件備受爭議。刑事責任能力包括犯罪能力和承擔刑事責任能力,具體由辨認能力與控制能力所組成。智能主體由程序設計和編制而成,不是具有生物學意義上的生命體。然而,智能技術的發展,會使智能主體無限接近“人”;與動物相比,智能主體具有辨認能力與控制能力;與普通機器人相比,智能主體可能超越人類設計和編制的程序產生自主的意識和意志。從法律屬性上,可以將智能主體定位為經程序設計和編制而成的,可以通過深度學習產生自主意識和意志的不具有生命體的“人工人”。如今,單純將智能主體看成是“執行強制指令而無法獨立作出判斷的計算工具或編程”已不合時宜。為了使軍用機器人比人類更具有人性,應當在機器人系統中設計“人工良心”,并公開征求機器人應當遵循的道德規范[13]。不僅可以逐步建立起獨立的智能主體道德倫理體系,也可以基于智能程度和算法系統等能力條件,形成獨立的思考與行動系統。(3)智能化程度與智能主體的類型劃分。決定智能主體地位及其能力的首要因素是智能程度,可以根據智能程度來確定刑事責任能力程度。基于“行為與責任能力的同時性”原則,在方法論上可以將人工智能的智能化程度作為衡量“刑事責任年齡”的指標依據,判斷人工智能體是否具備刑事責任能力。例如,智能水平分為很低、較高、很高,可以分別比擬自然人的完全無刑事責任、相對有刑事責任、完全有刑事責任的情形。間歇性系統異常或中病毒的人工智能體,可以按照類比精神病人或醉酒的人[14]。這種看法有其合理性。根據智能程度確定智能主體的類型以及刑事責任范圍是目前較為可行的做法。據此,可以對不同智能階段的智能主體,有區別地施以具體的刑罰。但前提是攻克技術難題,制定具有共識性、正當性的判斷標準。目前,主要依靠研發者、設計者等“外部主體”,根據政策與現實情況,設計具有操作性的標準。但最終應當通過立法規定或發布司法解釋,建立法定化、公開化、統一化的規范判斷標準體系。(4)算法作為核心能力的自主優化升級。算法是智能技術獲得優勢地位的基礎,算法規則、倫理以及運行過程等,是智能主體的“(數字)大腦”。目前,智能技術應用的認識論基礎是“可計算化的認知”。它最終可以通過智能技術的應用方式,對人腦功能予以“完全仿真”模擬。從現行法理看,通過法律擬制智能“電子人”的主體地位,必須同時對智能算法的設計原理、與人(設計者和使用者)之間的互動模式,以及決策的自主程度等問題進行詳細的研究、分類,并基于應用場景等的需要,完善算法的規則設計,才能具備可操作性。
(二)功利主義的功能演繹
1.“電子人”諸說與“去人類中心化”動向
人工智能具有自主性、主動性,是已非完全受人支配的行為客體,應當設定為法律上的“電子人”[15]。人工智能是介于人與物之間的客觀存在,財產性而非工具性是其本質。應當以財產性人格為基礎,將人工智能擬制為電子法人,解決責任分配問題[16]。在智能技術迅猛應用下,這些折中的積極論有相當的“分量”。
“電子人”等積極看法,肯定了智能主體的法律人格及其主體性能力,以滿足實際需要。按照功利主義對現實合理性的側重,應當合理地 “去人類中心”的絕對標準,考慮將法律標準“等值”攝入,并遵循智能時代的規律與本質,以便更理性地看待智能主體的法律地位。也即:(1)從法理看,法律主體與法律關系、權利主體、義務承擔者以及法律行為的對象,都有非常直接的內在關系。按照人類中心主義的立場,人類及個體的生理要素、意識能力和獨立意志的心理要素、獨立的社會角色的社會要素等,都是法律主體必須具備的條件。按照現行法律規定,智能主體暫時仍無法具備傳統法律主體地位所需的基本條件;反而,“工具屬性”更容易得出“物”的界定立場。然而,“人造物”等看法,脫離“主客分離”的主體識別規則,實質混淆法律關系的主體與客體之概念。人工智能產品目前可以認為是人類創造的產物,是法律關系的客體或標的。但是,智能主體未來可以是獨立的法律主體。(2)僅從生物學角度否認智能主體的法律人格之邏輯似乎成立,但不能過度放大。立法者通過“法律擬制”的立法技術,賦予“法人”相應的刑法主體地位。相比之下,雖然臨界點并未到來,但是隨著智能主體的智能程度、自主性意識等不斷提升,“傳統法律主體格局”及其規范意義也不免會逐漸出現失效或失靈等現象。以階段性、發展性的思維審視“人造物”語境,將智能機器人作為獨立的主體,可以形成自然人、法人(單位)、智能機器人的并列格局,有助于拓寬法律主體的內涵。這是對人類中心主義主導人類主體地位及其標準等問題進行“去中心化”的必然反映,也是社會主體地位及其法律體系根據社會時代變化而調試的正確做法。
2.功利主義與法律擬制的契合
對于機器人的不道德行為,只有在具備“人工道德”的前提下,才可以被非難并承擔相應的責任。在技術過渡期,“人類中心主義”與智能主體的道德體系有所“對沖”。參照人類法律體系的基本邏輯,對智能主體法律地位進行評判,主要涉及如何看待智能主體的道德倫理、智能主體與自然人的關系等新問題。當智能主體能夠且應當擁有道德時,便存在可譴責的社會倫理基礎,才能對其不道德的行為進行規范上的非難。賦予智能主體道德倫理能力的前提是其可以在“擬人”的道德判斷情境中,作出與人類實質相似的決策過程,并會作出合法的行動。應當采用智能時代應有的思維與邏輯以及道德倫理等一般性社會關系準則與規范,通過法律擬制的方式,對智能主體的法律地位作出相適應的“等值”評判。高度模擬的情景不是完全的“人類”場景,而是由法律擬制而成并具有法律意義的智能倫理體系。
嘗試肯定或承認智能主體專屬的道德倫理問題有顯著的意義,將賦予具有自主意識的智能機器人,擁有判斷某種行為正當與否的基本標準及準則。而且,確認智能主體的法律地位,有助于解決智能主體與研發者、設計者之間的責任分配等問題。此乃功利主義的思考邏輯。在法律責任方面,歐盟賦予某些智能機器人以法律人格或“電子人格”,可以享有特定的權利和義務,可以追究法律責任。但是,如若單純為了解釋智能主體的行為效力和可以追究法律責任,便賦予其法律主體資格,這種遵循功利主義的做法,也未必具有目的的正當性。即便立法創設“電子人”,而算法規則、人工語言等相關技術無法跟進,“電子人”仍無法理解按照以人類方式表述的法律規則。對于這些困難和疑問,需要技術層面提供支持。
(三)立法動向與啟示
1.實踐先行的參照意義
實際上,對于智能主體的刑法地位,域外與我國當前不乏一些先行的積極做法。(1)2016年5月與10月,歐洲議會法律事務委員會先后發布《就機器人民事法律規則向歐盟委員會提出立法建議的報告草案》該報告第 50(f)項建議:“從長遠來看要創設機器人的特殊法律地位,以確保至少最復雜的自動化機器人可以被確認為享有電子人(electronic persons)的法律地位,有責任彌補自己所造成的任何損害,并且可能在機器人做出自主決策或以其他方式與第三人獨立交往的案件中適用電子人格(electronic personality)”。《歐盟機器人民事法律規則》認為,智能機器人已經開始具有自主性和認知特征,具有從經歷中學習并獨立自主作出判斷的能力,可能實施侵害行為,須要承擔法律責任。應當制定新的規則,人工智能主體應適用“電子人格”身份。歐盟委員會法律事務委員會向歐盟委員會提交動議并要求,將最先進的自動化機器人定位為“電子人”,賦予其“特定的權利和義務”;建議對智能自動化機器人進行身份登記,以便為其納稅、繳費、領取養老金的資金賬號。(2)2016 年,Google無人駕駛汽車在美國加州山景城測試時,與一輛公交大巴相撞而發生事故。美國公路交通安全管理局(NHTSA)表示,關于交通事故責任的認定,谷歌駕駛系統可以被視為“司機”。(3)《合倫理設計:利用人工智能和自主系統最大化人類福祉的愿景(草案)》[國際標準化組織(IEEE)]指出,如果AI依靠人類的交互,實現新內容或發明創造,使用AI的人應當是作者或發明者。在知識產權保護上,與未借助AI進行的創作和發明的具有同等性[17]。(4)2017 年,百度和博世共同開發一款自動駕駛汽車。交警認為該車的試駕涉嫌“違規駕駛”[18]。(5)2017 年,沙特阿拉伯對機器人“索菲亞”授予“公民”身份,并向“她”發放護照。
2.法律功利主義的立法導向
邊沁認為,全部道德體系,整個立法體系,都建立在一個唯一的基礎上:關于痛苦和快樂的知識。快樂和痛苦是關于這一主題的清晰觀念的唯一基礎[19]。這是法律功利主義的核心旨趣。功利主義按照勢必增大或減少利益有關者之幸福的傾向,亦即促進或妨礙此種幸福的傾向,來贊成或非難任何一項行動。無論什么行動,其不僅是私人的每項行動,而且是政府的每項措施[20]。法律是有目的性的活動,立法是為了實現立法者的既定目標。邊沁明確將法律作為實現功利主義的工具。“對于主權者,他在采納法律過程中所考慮的目的,或外在動機,基于功利原則,僅僅是社會的最大福利”[21]。刑法立法必須遵循功利主義,在犯罪、刑事責任以及刑罰之間,尋求最優組合、最佳配置與最高效益。“政府的業務在于通過賞罰來促進社會幸福。由罰構成的那部分政府業務尤其是刑法的主題”[22]。促進人類的最大幸福,需從立法入手,尤其是需從刑法入手。
功利主義是關于法律制定的重要思想。為了達到通過立法增進人類幸福的目的,立法者應當運用道德算術,計算苦與樂,使法律草案的起草過程融入功利主義的元素。而針對立法草案規定的苦與樂的立法計算[23],功利主義之于法律,最直接的啟示意義與實踐邏輯,便在于為立法者是否以及如何立法提供最重要的“權衡之術”。不僅包括價值取舍層面,也涉及立法技術的最優化標準。可以歸納其最核心的立法指導邏輯為功利主義應作為一項原則性、概括性、框架性的觀念,引導立法者更主動、積極地通過立法滿足變革需求。從方法論看,解決智能主體刑法地位問題,相對溫和的措施是立足現有法律體系,激活擴張解釋的司法張力;而相對激進的措施,是通過立法的方式直接加以確認或規定。應當以智能技術為基本前提,以智能應用為分析基礎,對不同智能程度的智能主體予以類型化考慮,充分兼顧身份的一般性與特殊性、功能的現實性與前瞻性、價值的法定性與擬定性。分階段、有層次、類型化地確認或規定不同智能程度的智能主體,在不同時期、不同應用情形、不同行為環境下的刑法主體屬性及其能力。
3.立法建言
在現階段,可以考慮暫時將智能主體視為限制性的法律主體。既承認具有人的智慧特質之工具屬性,又強調是可以做出獨立意思表示的特殊法律主體。進言之,高度智能化的主體,雖具有工具屬性的特質,但在一定程度上已經具有獨立的自主意識,應享有限制的法律人格,有限地承擔法律責任。對智能主體擬制的法律能力雖作了一定的限制,但與自然人或公司等法律擬制的人格不同。分階段思維既不需要全面突破現行法律規定,又同時可以解決一些新出現的問題。處于不同智能程度的智能主體,其與“人”(研發者、設計者、所有者、使用者、銷售者、改造者等)的關系也是有所差異的。例如,在不同的智能駕駛模式中,應對研發者、設計者、所有者、使用者、銷售者、監管者等主體進行差異化的歸責,以妥善解決智能產品責任犯罪、智能駕駛公共安全犯罪等突出問題參見:孫道萃《人工智能駕駛的刑法解構與回應路徑》(《西安交通大學學報》(社會科學版),2022年第第2期第158-166頁)。。概言之,刑法意義上的人工智能主體,可以分為:一是基于“工具屬性”關系,智能主體完全是“人”的新技術工具。二是“過渡性主體”,指智能主體雖有“工具屬性”,也是“自主主體”。這兩者的關系是動態的,要根據實際情況來判斷。三是“擬制主體”與“人”的法律平等地位。“智能主體”基于法律擬制,被確立為獨立的法律主體,在法律意義上與“人”是平等的。四是“新獨立主體”,指智能主體在終極層面獲得統治地位,取代“人”并成為未來的唯一“法定主體”。
在功利主義的策動下,現階段對智能主體刑法地位予以規范性的界定與確認,都處于應然的“擬制”與“循證”之理性主義階段,在規范層面尚未形成有效法律文本與適法依據。但從立法上予以明確,才能將智能主體作為刑法規制的對象或作為刑事法律關系的主體,才能從根本上對智能時代的刑事風險予以正面回應。
四、權利論:證成與前瞻
(一)智能主體權利的法理課題
智能主體逐步穩固其法律主體地位,則智能主體的權利保障問題必然會提上議程。有效保障智能主體的新生權利,是確認智能主體刑法地位的集中體現。
1.智能主體權利的由來與現狀
關于智能主體的“權利”,當前處于“無法律規定”的蠻荒時代。但智能主體權利問題已出現在以下領域:(1)人格權[25]。運用智能技術收錄人的聲音、表情、肢體動作等利用人格權的客體的行為,隱藏侵犯人格權的危險,甚至導致人格權保護可能出現空擋。(2)數據財產。智能技術的應用是以信息、數據以及算法等為基礎的。但數據、信息的法律性質尚不確定,數據作為權利對象或權利內容仍是空白。(3)著作權。智能創作技術及其應用日益成熟,亟待明確智能主體的著作權利保護。智能主體的真正完全獨立,將使傳統著作權領域的主體格局發生巨變[26]。在刑法領域,對強人工智能的生成物,不乏主張與自然人應當被同等保護[27]。(4)生命權利。國外已經出現機器人伴侶現象,人類虐待、侵害智能機器人的生命權、人格權的,應否承擔民事責任以及精神損害賠償責任等問題開始浮出水面。總之,智能主體刑法地位的“替代”過程必然觸發智能主體的權利問題,并與人的權利體系時代相行漸遠。當前,對人工智能及其相關權利問題進行保護的制度安排與法律支持體系明顯不夠[28],討論的法理基礎、規范依據等儲備尤為不足。而“人類中心主義”在該問題上延伸的“堅硬性”效應仍在蔓延。
2.作為新興權利的法理釋明
晚近以來,以人為絕對主導核心地位的權利格局開始出現變化。這就是新興權利及其保護問題。新興權利的出現乃至泛化,正危及傳統權利的基本觀念。其證成標準是同時具備合理性、合法性與現實性[29]。對于新興權利,其法理的接納難點在于認識論、價值論等方面的重大顛覆。而法律技術層面的規范難題在于“如何證成”。對于正嶄露頭角的智能主體之權利問題,也面臨同樣的制度困境。其中,最大的阻礙就是人類中心主義立場與人的主體性地位效應。從現代法理的邏輯看,法律主體地位與權利配置是正向的關聯性或者一致性。智能主體的刑法地位之確認,是決定其權利問題的最基本前提。新興權利的出現及其保護問題,也反過來推動對權利主體資格與能力的法律確認進程。對智能主體權利問題的過度絕對化看法不妥。而且,從當代法律主體的權利發展與歷史演變進程看,權利的內容與形式是發展的,新興權利與傳統權利的類型是交替互進的。承認并賦予智能主體相應的權利,既是權利范疇發展的內在規律,也是智能技術推動社會發展的必然結果。智能主體在刑法領域享有權利并作為新型的權利類型,將改寫現行法律體系中的權利生態格局。
不乏否定觀點認為,智能主體不是人,不會制造或產生道德問題,無法自行獨立作出道德判斷,不能具有權利[30]。顯然,否定智能主體的法律地位,也就沒有權利存在的必要與空間。“當機器說出它們的感受和感知經驗,而我們相信它們所說的是真的,它們就真正成了有意識的人。而大多數道德和法律制度,也是建立在保護意識體的生存和防止意識體受到不必要的傷害的基礎上的”[31]。從現階段的智能技術水平及其應用程度看,智能主體可以享有限制性權利。智能主體的權利具有立法的擬制性、利他主義屬性、功能差異屬性,融合了工具性的價值與利他的特性,負有服務人類的預設功能。應當根據智能主體的類型與具體功能,采取差別化的權利擬制與保護機制。“限制性權利”是由智能主體地位的相對性與限制性決定的,也鞏固法律地位與權利賦予之間的內在聯系性。在此觀念下,可以賦予智能主體一定的自由權,使其具有一定的自主決定權;但是,與人類的自由權仍有差別,應當加以限制,使智能主體的權利及行使更符合實際情況。
(二)刑法保護的原則與路徑
當代刑法對智能主體的保護,是對其主體地位與法定權利的“實踐認同”。不能完全參照刑法對人的保護格局,應當根據權利的類型設定科學的保護措施。
1.平等保護的異議與匡正
人類中心主義與功利主義作為兩種不同的認識論,在智能主體權利的保護原則上仍將繼續“角力”。也即智能主體與自然人暫且無法對等,也幾乎無法獲得完全、不受限制、與自然人平等的主體地位。智能主體可以擁有受限的權利,在權利形態及保護范圍等方面存有差距。“平等原則”對自然人與智能主體之間的關系而言并不奏效。“平等保護”看似合理,實際因遵循人類的標準來匹配與設定智能主體的權利保護原則,故而是“人類中心主義”思維的具體產物。基于人類的特殊身份而確立人的主體性地位及其保護邏輯,無法“天然”地適用于智能主體。即使強行“劃上等號”,由于法律能力等不盡相同,刑法保護的要求不同,是否“對等”人類的標準予以保護,該類比意義很是微弱。甚至可以說,“平等原則”實則是一個偽命題。具有獨立、自主意識的智能主體,并非自然人的財產或單純的產品。不應按照人類的標準,對智能主體權利進行“等值”保護。對其權利形態進行保護時,應當遵循智能時代的價值觀與標準體系,盡量按照智能時代的需求進行專屬保護。當前,若自然人利益與智能主體利益發生沖突的,原則上應當優先保障人類利益。
2.權利保障的漸進策略
以技術代際的更迭為前提,智能主體的權利內容應當是發展性的。智能主體的刑法保護范圍與方式取決于權利的內容與范圍。在現階段,可以著重圍繞三個方面展開:(1)跳出“人”的思維窠臼審視智能主體是否具有“類人”的基本權利。在現階段,對發展中的智能主體之權利,及其與人的權利形態之間的關系,既要跳出“人類中心主義”的思維窠臼,也要導入功利主義的現實考慮。智能主體不是一般意義上的生命體,沒有生命權、人身自由權,但可以擁有財產權利[32]。實際上,智能主體是否可以享有生命權的技術難點在于能否按照人的生命體及其特征,界定智能主體的生命形態及其法律性質、外部載體方式等。人的生命權與傳統的保護思維不再繼續有效,那么,需要重新審定剝奪或侵害智能主體生命的方式、刑事制裁等問題。智能主體的升級換代,是通過更新程序等方式,改變(或延長)智能主體的生命;達到使用年限后的重新格式化是結束生命的方式。技術升級使智能主體的存續方式更持久。無論從技術還是智能系統的獨立性看,智能主體具有特殊的“生命權”,以及基于生命權所形成的獨立的電子人格、自由權、追求幸福的權利、避免被長時間進行奴役性的勞動權利等。(2)立足智能時代審視智能主體權利及其保護的特殊性。盡管在認識智能主體權利問題上,目前沒有先例可供遵循,在知識論上不得不參照“人類”法律立場。但不能淪為簡單的“類比”或“復制”。例如,智能主體權利的基本類型數據資源的共享權利、個體數據的專有權利或排他性權利,以及基于社會功能約束的自由權和獲得法律救濟的權利[33]。立足智能技術、技術應用領域等因素,設定數據類的權利形態是可取的。該觀點不完全依循“人類中心主義”及“人”的權利格局,是典型的智能時代“專屬思維”。但是,未能根據智能技術應用水平與智能程度、智能主體類型等,精細化地闡明權利的內容,并設置刑法保護措施。智能主體的權利內容不限于數據形態方面。即使主要肯定智能主體的數據權利,仍需明確數據權利的基礎、類型、權限,以及在權利體系中的地位等相關問題。(3)現階段刑法保護的主要策略。一是權利形態的兼容性。可以適當比擬“人的權利”邏輯,為探討智能主體的權利范圍提供思考空間。例如,生命權等具有高度“人的專屬性”,是否可以“移植”為智能主體的權利形式。可以結合智能技術、算法運行、應用載體等要素,進行功能的“等值”判斷。又如,對于智能主體的著作權,目前的應用已經很成熟,可以考慮優先確認。合理借鑒“人的權利”邏輯,可以對智能主體的權利范圍有更清晰的“前瞻性思考”。二是權利范圍的專屬性。智能主體的權利內容與形式具有顯著的專屬性,包括基于算法運行而生成的一系列專屬性數據權利。當前,基于數據形成的權利體系是智能主體權利的主要來源與表現形式,但具體類型不斷變化。智能主體專屬的數據權利,不僅與算法等智能因素息息相關,也與研發者、設計者、所有者、使用者等“人”的(數據)權利相互竟合,不能忽視與人作為權利主體之間的實質界限。三是權利的限制性。智能主體并不必然享有專屬于人的權利。智能主體的權利行使受限,相互沖突時,一般優先保護人的權利。四是權利結構的優化。既包括實體性權利,也包括程序性權利,如智能主體作為法律意義上的原告與被害人等。既要賦予權利內容,也要賦予救濟性權利,避免權利處于司法保護的空白狀態。五是保護措施的完善。通過立法增加與智能主體權利保護相適應的刑事制裁措施,或同步修正現有的刑事制裁措施,更好地保護智能主體的權利或權益[34]。
參考文獻:
[1]劉振宇.人工智能權利話語批判[J].自然辯證法研究,2018(8):31-37.
[2]楊立新.人工類人格:智能機器人的民法地位:兼論智能機器人致人損害的民事責任[J].求是學刊,2018(4):84-96.
[3]時方.人工智能刑事主體地位之否定[J].法律科學(西北政法大學學報),2018(6):67-75.
[4]魏東.人工智能犯罪的可歸責主體探究[J].理論探索,2019(5):5-13.
[5]劉憲權.對人工智能法學研究“偽批判”的回應[J].法學,2020(1):3-14.
[6]冀洋.人工智能時代的刑事責任體系不必重構[J].比較法研究,2019(4):123-137.
[7]余謀昌.走出人類中心主義[J].自然辯證法研究,1994(7):8-14,47.
[8]邱耕田.從絕對人類中心主義走向相對人類中心主義[J].自然辯證法研究,1997(1):15-18,58.
[9]劉艷紅.人工智能法學研究的反智化批判[J].東方法學,2019(5):119-126.
[10]董玉庭.人工智能與刑法發展關系論:基于真實與想象所做的分析[J].現代法學,2019(5):120-134.
[11]周詳.智能機器人“權利主體論”之提倡[J].法學,2019(10):3-17.
[12]皮勇. 全國首例撞庫打碼案的法律適用分析[J].中國檢察官,2019(6):7-9.
[13]杜嚴勇.現代軍用機器人的倫理困境[J].倫理學研究,2014(5):98-102.
[14]馬治國,田小楚.論人工智能體刑法適用之可能性[J].華中科技大學學報(社會科學版),2018(2):108-115.
[15]郭少飛.“電子人”法律主體論[J].東方法學,2018(3):38-49.
[16]張志堅.論人工智能的電子法人地位[J].現代法學,2019(5):75-88.
[17]孫加順.以倫理為基準的設計 通往AI時代的至高美德:訪IEEE標準協會首席執行官康斯坦丁諾·卡拉卡琉斯博士[J].中國標準化,2018(1):18-21.
[18]李鵬.李彥宏“違法”無人駕駛背后法規該如何跟上新技術腳步[N].北京科技報,2017-07-10(4).
[19]邊沁.立法理論[M]李貴方,譯北京:中國人民公安大學出版社,2004:35.
[20]邊沁.道德與立法原理導論[M].時殷弘,譯.北京:商務印書館,2000:58.
[21]邊沁.論一般法律[M].毛國權,譯.北京:上海三聯書店,2008:41.
[22]亨利·西季威克.倫理學史綱[M].熊敏,譯.北京:江蘇人民出版社,2007:203.
[23]張宏生,谷春德.西方法律思想史[M].北京:北京大學出版社,2000:284.
[24]謝暉.論新型權利的基礎理念[J].法學論壇,2019(3):5-19.
[25]王利明.人工智能時代提出的法學新課題[J].中國法律評論,2018(2): 1-4.
[26]孫占利.智能機器人法律人格問題論析[J].東方法學,2018(3):10-17.
[27]劉憲權.人工智能生成物刑法保護的基礎和限度[J].華東政法大學學報,2019(6):60-67.
[28]季衛東.人工智能開發的理念、法律以及政策[J].東方法學,2019(5):4-13.
[29]雷磊.新興(新型)權利的證成標準[J].法學論壇,2019(3):20-29.
[30]甘紹平.機器人怎么可能擁有權利[J].倫理學研究,2017(3):126-130.
[31]雷·庫茲韋爾.人工智能的未來:揭示人類思維的奧妙[M].盛楊燕,譯.杭州:浙江人民出版社,2016:203-205.
[32]劉憲權.人工智能時代機器人行為道德倫理與刑法規制[J].比較法研究,2018(4):40-54.
[33]張玉潔.論人工智能時代的機器人權利及其風險規制[J].東方法學,2017(6):56-66.
[34]孫道萃.智能時代的刑法立法:人類中心主義與現實功利主義的取舍[J].學術交流,2020(4):69-80.
Positivism for AI subject in criminal law: Also answer to the negativism
SUN Daocui
(College of National Legal Aid, China University of Political Science and Law, Beijing 100088, P. R. China)
Abstract:
The rapid development of intelligent technology and its application has a strong impact on the contemporary legal system based on the fundamental premise of human subjectivity, and the criminal law status of artificial intelligent subjects has become a key issue. At present, the negative theory and the positive theory are in a stalemate, accelerating the process of knowledge change in the current criminal law theoretical system. Different degrees of negativism, such as “artificial objects”, have their merits on the grounds that the current criminal legal system is difficult to directly accept them and they carry potential criminal risks. Its logical mechanism is the presupposition effect of excessive release of anthropocentrism. Examining from an anthropocentric standpoint will lead to irreconcilable conclusions, and it also shows the tendency of the tool attributes of intelligent technology applications to be deeply magnified. However, the above-mentioned negative reasons are not necessarily in line with the actual needs of regulating artificial intelligence crimes, they are also inconsistent with the evolution law of legal subject system, and it will even suppress the autonomous evolution of the subject of criminal law. Different forms of positive theory such as “cyborg” are the first to break out of absolute anthropocentrism and its conceptual constraints, and view the interaction and trends of artificial intelligence and criminal law from a developmental perspective, which is more in line with the development trend of artificial intelligence crimes. The accumulation of existing knowledge frameworks and new elements, such as freedom of will, criminal responsibility, moral and ethical rules, intelligence level and types of intelligent subjects, the objective existence of criminal responsibility, and the special status and significance of algorithms, means that artificial intelligence can develop in the future to achieve cohesion and fit in the criminal law system. This reversal of understanding, which does not really completely deviate from the principles of criminal law, also provides support at the theoretical level. Moreover, following the rationale of utilitarianism, and under the guidance of a series of advanced legislation on artificial intelligence subjects, the criminal status of intelligent subjects should be determined in stages, types, and dynamics, so that they can continue and expand on the path of legal fiction. Under the clarification of the subject status of artificial intelligence in criminal law, it is necessary to accept the reality that intelligent subjects can enjoy certain emerging rights, but the specific content such as the type of rights should be specifically confirmed. Under the instigation of the current technology generation, the content and scope of the rights of intelligent subjects are currently limited, and it is impossible to adopt a protection strategy equivalent to that of “people”, and the protection methods should also be different. This kind of “dimension reduction” protection has its practical rationality. Through active system design and rule configuration, it can coordinate with the changing situation of the criminal law status of artificial intelligence subjects to the greatest extend.
Key words:" artificial intelligent subject; criminal law status; negativism; anthropocentrism; positivism; utilitarianism; logic of rights
(責任編輯胡志平)