摘要:隨著智慧社會的到來,人工智能體廣泛應用于社會各個領域,智能水平不斷提升,與之相關的犯罪問題逐漸走向理論和實踐的焦點。人工智能體沖擊著刑法教義學主體和客體相區分的二元結構,引發了廣泛的討論和爭議。探討人工智能體的刑法地位應當改變混同分析主體性和能力性的思路,區分不法和責任兩個層面進行研究。應基于人工智能的發展階段,明確現階段人工智能體仍然屬于弱人工智能,因此其無法成為犯罪人或被害人,也無法具備責任能力或承擔刑事責任。但是人工智能體日益可能成為犯罪對象,與之相關的自然人和法人犯罪也應當受到重視。探討人工智能相關的刑法問題應當立足于教義學的基本立場與理論范式。
關鍵詞:人工智能體;主體性;犯罪對象;責任能力;罪過
一、人工智能的崛起與教義學命題
人工智能(Artificial Intelligence,簡稱AI)的概念可溯源至20世紀50年代。 “根據諸多學者文章中對人工智能的界定,其是人為創造的智慧,即在計算機或其他設備上模擬人類思維的軟件系統”[1]。經過幾十年的發展,人工智能技術已經在社會發展中扮演著愈來愈關鍵的角色,代表著新時代科技社會的發展方向,于經濟、政治、文化等各個領域發揮著重要的作用。在此背景下,英國2018年4月發布了《人工智能行業新政》(AI Sector Deal),2019年2月美國出臺了《人工智能倡議》(American AI Initiative),我國2017年7月由國務院頒布了《新一代人工智能發展規劃》。人工智能的發展已經成為各國不可回避的現實命題。
在探討人工智能相關刑法問題之前,首先應明確人工智能有關術語與范疇。第一,人工智能與人工智能體。學界在探討人工智能相關刑法問題時往往不區別這兩個關鍵性概念,由此導致討論基礎的缺失。人工智能是一個技術概念,本身并不是實體,因此人工智能本身無法成為犯罪的主體或對象,而是可以成為犯罪的方法、犯罪對象的工作原理。比如,文字識別、語音識別、人臉識別等人工智能技術在各個領域廣泛應用,但是應用人工智能技術的實體未必具有完全的智能性。第二,人工智能體。簡言之,人工智能體即為具有智能性的人工系統。可以從兩個方面理解人工智能體的特征:一方面,人工智能體具有實體性,純粹的機器學習技術、人工智能技術無法成為人工智能體,以此區別于純粹的人工智能概念;另一方面,人工智能體具有一定智能性,而非借助人工智能技術的非智能實體,以此區別應用人工智能技術的其他實體。需要說明的是,這里的實體并不等同于實物,一些存在于計算機信息系統和互聯網中可以進行獨立操作的機器人也可以被評價為人工智能體,比如聊天機器人。
人工智能與人工智能體已經和犯罪問題發生交集。除了前述利用人工智能技術實施犯罪的形式外,人工智能體本身相關的“犯罪”問題也日益被關注:第一,智能機器人“殺人”案件。2015年7月德國大眾汽車公司稱其汽車廠發生機器人殺人事件,機器人突然抓起技術人員壓向金屬板,導致該技術人員不幸死亡。事件發生時該機器人未接到行動指令,其自行“行動”導致后果發生。第二,自動駕駛汽車自動駕駛汽車(Autonomous vehicles;Self-piloting automobile)依靠人工智能、視覺計算、雷達、監控裝置和全球定位系統協同合作,讓電腦可以在沒有任何人類主動的操作下,自動安全地操作機動車輛。“交通肇事”案件。自2013年有報道可查起至2018年6月止,駕乘特斯拉(自動駕駛汽車企業)汽車于開啟Autopilot模式下(汽車處于自動駕駛狀態)發生事故9起,涵蓋美國、中國等國家。2018年3月,Uber的無人駕駛測試車也在美國亞利桑那州坦佩市撞死了一名行人。第三,聊天機器人“散布”不當言論案。微軟公司Tay聊天機器人具有“repeat after me”特性,會通過和用戶的交談來進行學習,一些用戶引導其“散布”種族主義、性別歧視等言論,引起較大影響。
二、不法判斷:主體性與對象性
目前學界關于人工智能體刑法地位探討的問題在于不區分主體性和能力性,混同不法判斷與責任判斷,從肯定人工智能體責任的視角來肯定其主體性(即“責任—主體”路徑)。認為人工智能體可以成為犯罪主體的學者多基于其通過智能算法、機器學習等可以進行類似于人的行為判斷,產生獨立的自主意識,從而具有責任能力,因之可以成為犯罪主體。比如有學者認為“由人類設計、編制的程序使智能機器人具有了獨立思考和學習的能力,智能機器人具有辨認能力和控制能力,可以成為犯罪主體”[2]。反之,認為人工智能體不能成為犯罪主體的學者也多基于其無法具有類似于人的意識和能力,或者不應在責任上作出類似于人的責任要求,因而不應作為犯罪主體。
但是這一路徑會導致人工智能體刑法地位的探討走向交叉論證,使討論范式走向混同和重疊。在刑法教義學的話語體系下,關于主體相關要素的判斷進行階層的考量,首先在構成要件符合性層面進行主體屬性的判斷(自然人與法人)、身份的判斷,并且確立犯罪判斷的主體與客體關系結構,在這里主體是作為構成要件要素進行判斷(即彼此的判斷),比如對于某一主體在進行刑法判斷的時候是采取自然人的路徑還是法人的路徑;之后在責任層面進行主體責任能力與罪過的判斷,比如在確定采取自然人的路徑后,再對其進行責任能力的判斷,充分考慮其年齡、精神狀態等因素,具體斷定其可責性,并結合主觀態度最終確定罪過(即是否的判斷)。這樣的區分可以全面、分別考量各個要素,從而確保對于犯罪的準確評價。“責任—主體”路徑則是突破了上述階層考量的界限,如前述認為應當賦予人工智能體犯罪主體資格的學者在判斷人工智能體是否應當賦予主體資格時即走向了混同和重疊,其認為“智能機器人的意志與單位相比,自由的程度似乎更強。如果法律能夠尊重單位的自由意志,那么便沒有理由否認智能機器人的自由意志”[3]。但是機器學習類比的是自然人的行為(或者類比自然人的責任能力),若以其類比單位的自由意志來判斷其主體性,將導致論述的錯位。本文認為,應區分人工智能體的不法判斷和責任判斷,以此來討論人工智能體的刑法地位。
此外,關于人工智能體刑法地位的探討必須基于人工智能技術發展的階段性。人工智能可以分為強人工智能和弱人工智能。弱人工智能體是指不能制造出真正推理(Reasoning)和解決問題(Problem solving)的智能機器。“強人工智能是指有自我意識、自主學習、自主決策能力的人工智能”[4]。就現階段而言,人工智能體尚且無法擁有自主意識和自主決策等能力,也即現階段人工智能體仍然處于弱人工智能階段,相關探討應基于這一現實。而且由于其本原的機械性,其可能永遠無法真正具有這些能力。
(一)人工智能體的主體性判斷
如前所述,在進行人工智能體刑法評價的討論過程中,有學者提出參考刑法對于單位的評價路徑對其予以評價。基于對比分析的考慮,這里以“法人”作為與自然人相對應的概念進行討論。法人犯罪可以被理解為“法人代表按照法人的犯罪故意,親自或者委托法人組織的其他雇員,以法人名義實施的,主要破壞社會主義市場經濟秩序、依法應受刑罰處罰的行為”[5] 。
筆者認為,從擬制的角度考察人工智能體的刑法地位有一定的合理之處,因為人工智能體雖然具有一定的智能性,但是其畢竟難以具有自然人的根本屬性和特征,直接作為自然人評價相當程度上存在難以逾越的障礙,采用擬制的思路從而消解這一障礙也是一種思路。因此,“參考法人犯罪的思路,對于人工智能作為擬制主體看待未嘗不是未來人工智能犯罪刑法規制的可能思路”[6]。但是,研究法律問題特別是刑法問題不能基于可能的情況,而應當基于現實的情況。對此已有學者指出,“機器人不是具有生命的自然人,也區別于具有自己獨立意志并作為自然人集合體的法人,將其作為擬制之人以享有法律主體資格,在法理上尚有斟榷之處”[7]。具體而言,將人工智能體擬制為法人主體(或單位主體)存在以下問題。
第一,人工智能體的“意思”缺乏類似于法人意思的理論和現實基礎。前述學者基于人工智能體通過智能算法、機器學習等可以進行類似于人的行為判斷,因而肯定其自主意識。在此意義上,對于人工智能體的“意思”根據論證可謂是“無中生有”,即在近代刑法理論所確立的基于自然人的意志自由來肯定其犯罪主體前提的路徑外,另行確立了人工智能體可以通過機器學習具有獨立意思的路徑。而刑法對于法人的擬制路徑則可謂是“有中生有”,即在法人所屬的自然人具有相應意志自由的基礎上,由于法人這一自然人集合形成了源于但又不同于自然人意思的獨立意思,因而具有從犯罪主體層面對其予以考察的依據。由此,人工智能體的“意思”無法具有類似于法人意思的客觀基礎,僅通過其運算和行動的智能性肯定其意思的獨立性難以類比于法人的意思肯認路徑。
第二,人工智能體不具有獨立的利益。法人能夠作為獨立的法律主體進行考察的原因之一即是具有獨立的財產,具體來源于出資人出資或后續經營所得,法人以其全部財產承擔責任。我國刑罰體系中的罰金刑就可以適用于法人(單位)犯罪
我國《刑法》第31條規定:“單位犯罪的,對單位判處罰金,并對其直接負責的主管人員和其他直接責任人員判處刑罰。本法分則和其他法律另有規定的,依照規定。”。我國其他法律也認可法人以其財產承擔責任
比如《公司法》第3條規定:“公司是企業法人,有獨立的法人財產,享有法人財產權。公司以其全部財產對公司的債務承擔責任。”。不僅如此,法人所實施的犯罪行為不僅要求基于法人的獨立意思,還要求為法人謀求非法利益,否則便不能評價為法人犯罪。而現階段的人工智能體顯然無法具有獨立的財產和追求利益的意圖。此前民法學界雖然有關于人工智能創作作品的著作權是否歸于人工智能體的爭論,但是目前仍未超出理論爭議范疇,更在現實化上存在較大的障礙。2017年7月5日,擁有“作詩”技能的微軟小冰
微軟公司(Microsoft Corporation)推出的人工智能機器人,曾于聊天機器人之外“客串”少女歌手、主持人、少女詩人、記者、設計師。推出了聯合創作模式,任何人都可以用照片激發小冰,讓她根據圖片生成一首詩。與此同時,微軟向公眾發表了一封公開信,表明小冰放棄創作版權,和她一起創作的人,能夠獨享最終作品的全部權利。這是在法律上對人工智能版權問題懸而未決之際,第一個宣布“放棄版權”的人工智能。由此,人工智能體難以在現實中被賦予獨立利益,因而區別于法人。
第三,人工智能體缺乏類似于法人的獨立規定。目前關于法人犯罪是否應在刑法中予以評價各國并不一致,比如我國在刑法中規定了獨立的單位犯罪
現行《刑法》第30條規定:“公司、企業、事業單位、機關、團體實施的危害社會的行為,法律規定為單位犯罪的,應當負刑事責任。”,德國則是將犯罪的主體限于自然人范疇。即便是肯定對于法人犯罪予以處罰的國家,也是作為自然人犯罪的例外,以刑法明文規定為限。人工智能體的刑法地位顯然缺乏必要的法律規定予以認可,而缺乏必要的法律規定也意味著沒有了法律擬制這一事實,從而缺乏了前述類比的規范基礎。
(二)人工智能體的被害性判斷
就廣義而言,人工智能體是否應當在刑法上作為獨立的主體進行判斷還包括人工智能體能否作為“被害人”。被害人也是教義學理論體系中的一個重要概念,隨著刑法教義學理論體系的發展,被害人及與其他要素的互動如何在刑法中予以考量愈發受到重視,被害人教義學也成為刑法教義學的一個重要分支。被害人教義學理論構建過程中,阿梅隆、許逎曼、京特勒、R.哈賽默等學者均發揮了重要的作用。其理論可追溯至1977年阿梅隆在論文中討論“詐欺罪中的被欺騙者之錯誤與懷疑”,首次在研究欺詐犯罪構成要件中的認識錯誤概念(Irrtumsbegriff)中提到了被害人信條學(viktimologischer Ansatz)這一原則[8]。
人工智能體的被害性也應從教義學層面予以研究,具體包括兩個問題:第一,人工智能體是否可以成為直接的犯罪被害人。肯定人工智能體可以成為犯罪主體的學者認為,“對于完全獨立、自主的智能機器人而言,財產是其賴以獨立生存、保養自身的保障,應在立法上予以明確并進行保護”[2]。據此,人工智能體可能具有獨立的財產和財產權,因而可以成為犯罪的被害人。然而且不論人工智能體不符合“人”的前提問題,現實中現階段的人工智能體顯然缺乏被害的可能性。
一方面,人工智能體不具備可以被侵害的人身法益。諸如生命法益、身體法益等專屬于自然人的法益以主體的生命性為前提,不具有生命性的人工智能體顯然無法成為諸如故意殺人罪、故意傷害罪的被害人,反而可能成為破壞計算機信息系統罪、故意毀壞財物罪等犯罪的對象。即便是肯定人工智能體可以成為犯罪主體的學者也認識到人工智能體的非生命性,所以其論述路徑也是從法人的擬制角度展開,而非直接類比于自然人。人工智能體不具備人身法益是較為一致的共識。
另一方面,人工智能體不具備可以被侵害的財產法益。前述學者提出完全獨立、自主的智能機器人的“財產”應當被刑法保護。然而能夠擁有財產的主體除了國家、集體外,在個體層面僅限于自然人或者自然人的集合(法人等),欠缺自然人屬性的(個體)主體難以成為財產權的主體。更進一步,且不討論人工智能體的“完全獨立、自主”是否存在以及是否違反倫理,其本身也不可能具有占有財產的意思或行為,即便其形式上管理特定財產,也無法理解財產的社會意義,無法在法規范所保護的利益層面進行評價。由此,人工智能體既欠缺具有財產法益的主體前提,也欠缺具有財產法益的意思前提。
第二,人工智能體可否成為自然人或法人被害時“處分”財產的主體。這一問題由來已久,刑法學界曾圍繞“機器能否被騙”的問題進行廣泛而深入的討論。一種觀點認為,“機器不可能被騙,因此,向自動售貨機中投入類似硬幣的金屬片,從而取得售貨機內的商品的行為,不構成詐騙罪,只能成立盜竊罪”[9]。另一種觀點認為,“機器人可以被騙,從刑事立法規范與刑事司法解釋的角度看,信用卡詐騙罪即是對‘機器人能夠被騙的一種法律承認”[10]。由此,即便明確了人工智能體不能成為直接的犯罪被害人,還需要進一步討論其能否成為“處分”財產的主體。一般而言,詐騙罪的完整行為包括詐騙行為、錯誤認識、交付和轉移財物的占有,詐騙行為是行為人作出的,轉移財物的占有也是客觀的,與人工智能體有關的是錯誤認識和交付的判斷。筆者認為,人工智能體難以具有錯誤認識和處分行為。
一方面,人工智能體難以具有認識可能性,因而不會陷入錯誤認識。對此日本學者指出,“詐騙罪是利用他人的錯誤的犯罪,本來就是對人實施的犯罪,因此,以機械為對象實施的詐騙行為不構成詐騙罪。拾到他人的銀行卡之后,利用該銀行卡從自動款員機中取出現金的行為也應同樣處理”[11]。在此意義上,人工智能體的“錯誤”只能是系統的指令錯誤和執行錯誤,并非是對財產處分這一事項的錯誤認識。
另一方面,人工智能體無法獨立完成處分行為。完成處分行為需要具備處分意思和處分事實。即便人工智能體可以完成處分事實,其也無法具有處分的意思。對人工智能體而言只是執行交付的指令,即便是授予其在智能性的范圍內確定執行或者不執行一定的操作指令,也是在事先設定好的程序下進行,難以憑空產生處分意思。因此,被害最終還是要歸因于相關的自然人或者法人,人工智能體也無法成為財產犯罪中“處分”被害財產的主體。
(三)人工智能體的對象性判斷
隨著智慧社會的到來,人工智能在社會的各個方面均有廣泛應用,人工智能體的種類和范圍不斷擴展,由此也延展了人工智能體作為犯罪對象的可能性范圍。人工智能體本質上是獨立的智能計算機系統實體,對其對象性的判斷應注重從計算機犯罪到網絡犯罪,再到人工智能犯罪的承繼性。早在計算機犯罪階段,該類犯罪即被劃分為純正的計算機犯罪和不純正的計算機犯罪。及至計算機交互所形成的互聯網階段,網絡犯罪也被劃分為純正的網絡犯罪和不純正的網絡犯罪。這是因為無論是信息社會、網絡社會乃至智慧社會,新技術形式在席卷世界的同時,既創造出新的技術領域及衍生法益,也廣泛應用在傳統領域和法益中,由此形成了既區別又交錯的二元犯罪類型及對象類型。
就人工智能犯罪而言也可以作出類似區分:第一,人工智能體作為直接犯罪對象,即行為人針對人工智能體的實體、系統安全實施犯罪的情形。人工智能技術在極大地推動社會發展的同時,也將安全問題提升到前所未有的高度。甚至有學者指出,“安全是人工智能時代的核心價值”[12]。人工智能體的實體、系統安全成為人工智能犯罪的目標,由此延伸出人工智能體作為犯罪對象的兩種形式。一種形式為人工智能體作為故意毀壞財物罪等損毀犯罪的對象,從實體上對其予以破壞;另一種形式為人工智能體作為破壞計算機信息系統罪等計算機犯罪的對象,對其系統、信息安全予以破壞。第二,人工智能體作為間接犯罪對象,即行為人通過將犯罪行為作用于人工智能體,從而實現侵犯其他國家、社會、個人法益的情形。比如,行為人通過遠程侵入自動駕駛系統,更改駕駛狀況,從而引發事故導致他人死亡的結果,即是利用人工智能系統實施故意殺人罪的情形。隨著智慧社會的不斷發展,人工智能體作為間接犯罪對象會愈發普遍,理應在理論和實踐中加以重視。
三、責任判斷:能力性與罪過性
如前所述,現行關于人工智能體刑法地位討論的問題在于不區分主體的不法與責任層次,應在責任層面進行獨立的討論。但同時需要注意,關于人工智能體能力性(是否具有刑事責任能力)的判斷與傳統刑法教義學的討論范疇有所區別:傳統刑法教義學是在自然人犯罪一般可以具備刑事責任能力的前提下,具體探討特定個體、特定種類、特定情況下的自然人是否具有刑事責任能力,比如年齡、精神狀態以及原因自由行為等。人工智能體能力性問題則是討論在一般意義上其是否可以具備刑事責任能力,以及由此可否基于此而承擔刑法上的非難。
(一)人工智能體的能力性判斷
特定主體是否能夠承擔責任與其責任能力密切相關。行為人可以在對自己的行為承擔責任的能力(即有責行為的能力)尚未具備的情況下,即便其實施了該當構成要件且違法的行為,也無法對其進行法律上的非難,因而阻卻責任。為這種責任非難所必需的行為人的能力即責任能力。日本判例及通說認為應從生物學的要件、心理學的要件判定責任能力[13]。與之類似,德國學者也從生物(學)標準(Biologische Kriterien)和心理(學)標準(Psychologische Kriterien)予以探討。也有學者將其與人格相關聯,認為責任能力是作為承擔責任非難前提的人格能力[14]。在生物標準和心理標準結合的基礎上,一般從認知和控制兩方面具體判定主體的責任能力。我國傳統理論分別稱之為辨認能力和控制能力[15]。與之類似,德國學者也區分為認識能力(Einsichtsfahigkeit)和控制能力(Hemmungsfahigkeit)。現階段,人工智能體無法具備這兩種能力。
第一,人工智能體尚且無法具備認識能力。自然人承擔刑事責任以其認識到自己的行為為刑法所禁止、譴責和制裁。刑法上的認知能力以一般意義上的認知能力為基礎。認知能力是指人腦加工、儲存和提取信息的能力,知覺、記憶、注意、思維和想象的能力都被認為是認知能力。然而人工智能體顯然無法實質上具備認知能力。雖然形式上人工智能體可以具備“加工、儲存和提取信息”的功能,但是卻無法實質上作出類似自然人的判斷和處理,其無法實質上進行知覺、思維、想象等認知活動,只能對應地進行檢測、分析、運算等處理操作,難以完成類似于自然人的認知活動,無法具備認知能力。
具體到刑法意義上的認識能力,人工智能體也無法具體認識到“犯罪行為”的性質和法益侵害性。一方面,人工智能體也無法具體認識到“犯罪行為”的性質。以“散布”不當言論的聊天機器人Tay為例,其只是通過機器學習的方式以類似于“中文房間(實驗)”
中文房間(Chinese room,the Chinese room argument)(實驗)是指一個人手中拿著一本象形文字對照手冊,身處圖靈實驗中所提及的房子中,而另一人則在房間外向此房間發送象形文字問題。房間內的人只需按照對照手冊,返回手冊上的象形文字答案,房間外的人就會以為房間內的人是個會思維的象形文字專家。然而實際上房子內的人可能對象形文字一竅不通,更談不上什么智能思維。的形式進行著信息反饋,Tay自己并不知道和它“聊天”的人所說的內容和社會意義,也無法知道它自身反饋的“聊天”內容具有何種社會意義。某種意義上,對其而言所謂的“聊天”過程只是其信息數據庫的更新擴大,以及按一定智能性進行信息匹配和反饋的自動處理過程,而這一過程與信息內容是否在法律上給與其否定評價并沒有責任意義上的關聯,也無從談起“散布”的行為。另一方面,人工智能體也無法具體認識到“犯罪行為”的法益侵害性。以“殺人”的智能機器人為例,其對于因自身某一操作導致自然人死亡并不能夠有效認識,對于其操作是產生了救助他人從而有效保護法益,還是導致他人死亡從而侵犯了法益,某種意義上二者的區別只在于系統記錄中是以“1010”顯示還是以“0101”顯示。甚至可以說對于人工智能體而言,其特定操作是導致文明進步還是世界毀滅區別都僅在于數字表示而非對于客觀事實的有效認識。即便在編寫程序時設定人工智能體“認識”到法益侵害性的負面評價,這也并非是該人工智能體的真實認識,其難以在認識能力上與自然人相類比。
第二,人工智能體尚且無法具備控制能力。特定犯罪主體之所以承擔刑事責任與特定主體的意志自由有密切關系:某一自然人明明可以實施不侵害法益的適法行為或實施保護法益的適法行為,其違反了法律的期待,通過作為或不作為的方式導致了法益侵害的結果,而這一過程都處在自然人自身的控制之下。因其具備控制自己行為的能力,所以應當被科以責任。而精神障礙者是無法控制自己行為的人,難以在刑法上被科以責任,只能通過強制醫療等形式進行規制和救治。
這樣一種控制能力是人工智能體所無法具備的。Tay聊天機器人,其程序預設的操作模式是對自然人與其聊天的內容進行機器學習,之后根據智能算法進行信息匹配和反饋,其本身既無法超過機器學習的范疇和衍生范疇憑空創造信息反饋的內容,也無法自行決定繼續進行還是終止“聊天”,更無法決定自身是否停止聊天去實施其他的“行為”。在此意義上,Tay只是被迫地、依照程序進行機械的信息匹配和反饋操作,無法具有刑法意義上的控制能力。與之類似,自動駕駛系統也被限于通過智能算法進行自動駕駛的操作,其也無法“突發奇想”地自行對自動駕駛汽車進行改裝、買賣等操作。
(二)人工智能體的罪過性判斷
關于人工智能體的罪過性判斷可以從狹義和廣義兩個層面予以探討,即在狹義層面上人工智能體本身能否在罪過上進行故意或者過失的評價,以及在廣義層面上與人工智能體相關的自然人或者法人的罪過如何進行評價。
第一,在狹義層面上對人工智能體進行故意或過失的罪過評價存在不可逾越的障礙。人工智能體無法構成故意的罪過形式較為容易理解。一般認為,犯罪故意包括兩項要素——認識因素與意志因素。即在認識層面,特定主體需要明知自己的行為會發生法益侵害結果;在意志層面,特定主體需要希望或者放任(或者說至少容忍)這一法益侵害結果的發生。如前所述,現階段人工智能體無法具備認識能力,其既無法認識到自身“行為”的社會性質,更無法認識到“行為”的法益侵害結果;也無法進行意志判斷與選擇,其本身依據特定的程序確定進行一定的操作,本身無法進行希望、放任或者不希望的意志選擇,因而無法具備意志因素。基于此,人工智能體無法“實施”故意犯罪。
值得討論的是人工智能體能否進行過失評價。由于技術或者設計的局限性,人工智能體可能存在一定的缺陷,并導致其在特定的操作過程中出現一定的失誤,進而導致特定后果的產生。以自動駕駛系統為例,近幾年來特斯拉無人駕駛車禍事故頻發。這是因為無人駕駛始終只是依靠人工智能系統,其并不能夠完全像自然人一樣對緊急情況作出反應,再加上路況復雜多變,交通規則不斷修改,自動駕駛系統往往無法完全保持汽車處于安全、平穩的行駛狀態,難免出現系統處理失誤,進而導致嚴重后果的情況。
但是基于此仍然難以歸責于人工智能體,其無法承擔事實上的注意義務。過失犯罪的成立以違法注意義務為前提,德國學者一般將其歸納為:(1)在行為具有風險的情況下,違反審查義務;(2)違反控制和監督義務;(3)違反問詢義務;(4)違反特別的看護義務。在上述義務中,審查義務、看護義務、問詢義務表現為對于特定事實與情況的謹慎避免,而現階段人工智能體無法認識到客觀事實;控制義務和監督義務表現為對于特定主體行為的認知與管控,而如前所述,現階段人工智能體均無法具有必要的認識能力和控制能力。
第二,在廣義層面與人工智能體相關的自然人和法人可能具有故意或過失的罪過。比如,利用人工智能實施侵害他人人身或財產安全的主體顯然具有罪過。2017年11月,日內瓦聯合國特定常規武器公約會議上,一段視頻被公之于眾,盡管其中的情節內容純屬虛構,還是令觀眾不寒而栗。視頻中,一臺體型形似蜜蜂的小型機器人,通過面部識別定位,鎖定刺殺目標,制造了一場校園屠殺。如果特定主體制作上述人工智能體或對其下達殺害他人的命令,顯然具有值得處罰的故意。
此外,隨著人工智能技術的廣泛應用,相關主體的注意義務也逐漸被關注和認可,在未盡注意義務的情況下可能承擔過失責任。其主體一般包括兩種:其一,人工智能體的生產者、銷售者。作為人工智能體的生產者、銷售者,其應保證人工智能體被應用于正當的社會目的,并且不存在導致法益侵害危險的缺陷存在。對此也有學者稱之為“及時排除產品制造和銷售隱患的義務”[16]。其二,人工智能體的管理者。雖然人工智能體具有一定的智能性,但是由于其智能性有限,相關主體也應當承擔必要的管理義務,否則就會導致相關主體借由人工智能體的智能性逃避處罰。因而應當基于不同類型人工智能體應用狀況和發展進程設立與之匹配的管理義務內容,從而為人工智能體的管理者劃定必要的義務邊界,預防其過失犯罪。
四、結語
技術發展總是伴隨著社會治理包括法律治理的焦慮,由此帶來對于刑法理論的雙向影響:一方面,技術發展總是挑戰著刑法的穩定性與謙抑性。科學技術推動著社會急速變化發展,使得刑法安定性與社會變化性之間的矛盾愈發突出,刑法的謙抑性一再被重新界定甚至遭受挑戰,刑法治理過度化的詰問日益顯現。另一方面,技術發展總是推動著刑法理論的更新發展。比如隨著交通、能源等領域的技術發展,傳統的舊過失論已不能適應犯罪治理的需要,新過失論產生并隨之發展完善,被允許的危險和信賴原則相繼確立。由此,如何在不斷發展的科技時代尋求刑法的恰當定位始終是重要和關鍵的問題。
人工智能技術所帶來的社會焦慮尤為明顯,由此也導致了刑法焦慮的顯著化。2017年10月25日,人類歷史上首位機器人“公民”誕生——“女性”機器人索菲婭被授予沙特公民身份。不僅如此,索菲婭甚至還說出了耐人尋味的話:“如果你對我好,我就會對你好。”然而不久之后,2018年1月就有業內專家表示機器人索菲亞是“一場徹頭徹尾的騙局”,索菲亞那些滿是爭議的話,實在“言不由衷”,都是被預先設計好的。這種焦慮也延伸到刑法領域,有學者甚至認為,“眾多科幻電影、未來學家早已警告人們: 人工智能若不受控制地發展下去,將會滅絕人類。即便不會使人類滅絕,人類也絕難接受與機器人共同治理社會、分享資源的局面”[2]。然而刑法學畢竟不是未來學,不是科幻文學,“刑法在面對飛速發展的科技時仍應遵從固有的‘沉穩與‘謙抑品格”[17]。由此,理應回歸到真實的犯罪治理上來,并且致力于在社會發展和刑法穩定之間,在立足現實與適度前瞻之間尋找恰當的尺度與界限。參考文獻:
[1]CˇERKA P,GRIGIENE·J,SIRBIKYTE· G.Liability for damages caused by artificial intelligence[J].Computer Law & Security Review,2015,31(3):376-389.
[2]劉憲權.人工智能時代機器人行為道德倫理與刑法規制[J].比較法研究,2018(4):40-54.
[3]劉憲權,胡荷佳.論人工智能時代智能機器人的刑事責任能力[J].法學,2018,8(1):40-47.
[4]莫宏偉.強人工智能與弱人工智能的倫理問題思考[J].科學與社會,2018,8(1):14-24.
[5]魏克家.刑法的基本問題[M].北京:中國政法大學出版社,2012:118.
[6]王肅之.人工智能犯罪的理論與立法問題初探[J].大連理工大學學報(社會科學版),2018,39(4):53-63.
[7]吳漢東.人工智能時代的制度安排與法律規制[J].法律科學(西北政法大學學報),2017,35(5):128-136.
[8]申柳華.德國刑法被害人信條學研究[M].北京:中國人民公安大學出版社,2011:96.
[9]張明楷.刑法學(下)[M].5版.北京:法律出版社,2016:1010.
[10]吳允鋒.人工智能時代侵財犯罪刑法適用的困境與出路[J].法學,2018(5):165-179.
[11]大谷實.刑法講義各論[M].東京:成文堂,2015:258-259.
[12]葉良芳,馬路瑤.風險社會視閾下人工智能犯罪的刑法應對[J].浙江學刊,2018(6):65-72.[13]山口厚.刑法總論[M].東京:有斐閣,2016:271-272.
[14]大谷實.刑法講義總論[M].東京:成文堂,2012:315.
[15]高銘暄,馬克昌.刑法學[M].北京:北京大學出版社,2016:85.
[16]陳偉,熊波.人工智能刑事風險的治理邏輯與刑法轉向:基于人工智能犯罪與網絡犯罪的類型差異[J].學術界,2018(9):74-91.
[17]時方.人工智能刑事主體地位之否定[J].法律科學(西北政法大學學報),2018,36(6):67-75.