●劉憲權
近年來,人工智能技術蓬勃發展并日益受到重視。2017年7月國務院《新一代人工智能發展規劃》將發展人工智能技術上升為國家戰略,2018年10月習近平總書記在中共中央政治局第九次集體學習時指出,“加快發展新一代人工智能是事關我國能否抓住新一輪科技革命和產業變革機遇的戰略問題?!薄?〕胡喆:《抓住新一代人工智能發展的重大機遇》,新華網 http://www.xinhuanet.com//2018-11/01/c_1123649864.htm,2018年12月3日訪問。人工智能技術的發展走過了普通機器人時代的“昨天”,正經歷弱人工智能時代的“今天”,并終將迎來強人工智能時代的“明天”。正如霍金所言,“我們站在一個美麗新世界的入口,而這是一個令人興奮的、同時充滿了不確定性的世界”?!?〕[英]史蒂芬·威廉·霍金:《當我們站在一個美麗新世界的入口》,《新華日報》2017年5月23日第15版(整理自史蒂芬·霍金2017年4月27日在北京全球移動互聯網大會上的視頻演講)。人工智能技術在促進經濟發展、提高人民生活水平、為人類社會帶來種種“驚喜”的同時,也會引發諸多風險和不確定性。明晰人工智能技術的發展路徑,明確涉人工智能犯罪的刑事責任承擔方式,一方面促進技術進步、鼓勵技術創新,另一方面守住不發生嚴重風險的底線,為社會和諧發展保駕護航,是刑法在“昨天”、“今天”和“明天”始終應當肩負的任務。
根據發展形態,我們可以將機器人技術的發展歷程分為三個階段——普通機器人時代、弱人工智能時代和強人工智能時代。普通機器人與智能機器人的區別在于,前者不具有深度學習能力,后者具有深度學習能力。后者又可進一步分為弱智能機器人和強智能機器人,二者的區別在于該機器人是否能夠在自主意識和意志的支配下獨立作出決策并實施行為,是否具有辨認能力與控制能力。弱智能機器人尚不滿足這一條件。簡言之,從普通機器人到弱智能機器人再到強智能機器人的“進化”史,其實就是一部機器人的辨認能力與控制能力逐漸增強、人之意識與意志對“行為”的作用逐步減弱的歷史。隨著智能機器人的不斷進化,人與智能機器人在對“行為”的控制與決定能力上存在著此消彼長的關系。鑒于自我決定、自由意志是刑事責任能力的內核,當自我決定、自由意志的主體發生變化時,承擔刑事責任的主體也就勢必要相應地發生變化?;诖?,筆者認為,應根據不同時代機器人的特征確定涉機器人犯罪的刑事責任承擔路徑。
普通機器人作為犯罪工具時,與一般工具無異,應由使用該機器人實施犯罪行為的人承擔刑事責任。普通機器人作為犯罪對象時,可能會因普通機器人的特性而影響犯罪的性質。
機器人(Robot)是自動執行工作的機器裝置。機器人可以分為普通機器人和智能機器人,智能機器人是在普通機器人的基礎上發展起來的,因此筆者將普通機器人時代稱為人工智能技術發展的“昨天”。普通機器人的任務是協助或取代人類的重復繁瑣或者危險的工作,如生產業、建筑業等。最為典型的普通機器人為ATM機或工廠中受電腦編程控制、代替人類從事繁重重復勞動的機械手。在此,筆者僅以ATM機為例分析普通機器人與“機器”和“人”的區別。
ATM機又稱自動柜員機,是指為客戶利用銀行卡進行提款、存款、轉賬等銀行業務柜臺服務的設備。從某種程度上分析,我們完全可以認為ATM機替代了銀行職員的部分功能。對于ATM機的性質,學界存在不同的看法。有學者將ATM機完全等同于普通“機器”,〔3〕參見張明楷:《許霆案的刑法學分析》,《中外法學》2009年第1期。也有學者認為應將ATM機作為“人”來看待?!?〕參見劉明祥:《再論用信用卡在ATM機上惡意取款的行為性質——與張明楷教授商榷》,《清華法學》2009年第1期。筆者認為,以上看法均有失偏頗,ATM機既非“機器”也非“人”,而是“機器人”。〔5〕參見劉憲權:《網絡侵財犯罪刑法規制與定性的基本問題》,《中外法學》2017年第4期。我們說ATM機不是“機器”,是因為它不同于純粹機械運作的機器,ATM機的設計者和制造者通過電腦編程賦予了ATM機識別功能。ATM機可以將取款人輸入的密碼與持卡人在銀行預存的密碼進行對照,判斷是否應讓取款人成功取得錢款。而識別功能是“人腦功能”,而非普通機器具有的功能,因此將ATM機視為“機器”似乎不甚妥當。我們說ATM機不是“人”,是因為ATM機的識別功能是電腦編程所賦予的,其所有“行為”均完全在電腦編程的控制和支配之下實施。這與人腦所具有的識別功能存在本質的不同(人腦所具有的識別功能是在自主意識和意志的支配之下發揮作用的)。另外,ATM機除電腦賦予的識別功能外,并不具有人腦所具有的其他功能(如情感功能、運動功能、感覺功能、語言功能等),因此將ATM機視為“人”也不甚妥當。依筆者之見,以ATM機為代表的普通機器人中所蘊含的“人”的成分較少(只占10%-30%),而蘊含的“機器”的成分較多。
總之,包括ATM機在內的經電腦編程的機器既不是“機器”,也不是“人”,我們可以將其稱為“機器人”。由于這些“機器人”具備識別功能等“人腦功能”,同時又可以在電腦編程的控制和支配下代替人類從事勞動,即具備機器的特征,所以,將ATM機視為“機器人”可以準確、全面地反映其特點和本質。機器所體現的意識本質上是人的意識,而這也正是其與一般機械性機器的主要區別所在。在金融犯罪及侵財犯罪的認定中,我們認為,ATM機既不是“機器”也不是“人”而是“機器人”。即如果行為人利用“機器人”所具有的“識別”功能中的認識錯誤獲取財物,就應該對行為人的行為按詐騙類(包括信用卡詐騙)的犯罪認定;如果行為人是利用“機器人”本身存在的“機械故障”獲取財物(例如,許霆案件),則應該對行為人的行為按盜竊類的犯罪認定。
以ATM機為代表的普通機器人具有電腦編程所賦予的識別功能,但是不具備人腦的其他功能。因此,我們應將ATM機視為“機器人”。使用者將銀行卡插入ATM機并輸入取款密碼后,ATM機會根據電腦編程啟動其識別功能,判斷使用者輸入的密碼與持卡人在銀行預留的密碼是否一致,如一致,則使用者可以成功取得錢款。換言之,根據預先設定的程序,只要行為人手持合格的信用卡并輸入正確的密碼,ATM機就會付款給行為人。
筆者認為,基于ATM機“機器人”的特性和付款給取款人的程序,以ATM機為代表的普通機器人時代主要存在兩個方面的刑事風險。第一,行為人可利用ATM機的識別功能,使ATM機陷入認識錯誤而獲取錢財。在ATM機上合法規范的取款行為應該具備三個要素:合格的信用卡、正確的密碼、合法持卡人。其中,合格的信用卡是指通過銀行正常業務流程取得的具有轉賬、結算、存取現金、信用貸款等部分或全部功能的電子支付卡;正確的密碼是指與持卡人在銀行預留的密碼相一致的密碼;合法持卡人是指銀行卡上所記載的持卡人或者銀行卡上記載的持卡人合法委托的代理人。不難看出,在ATM機上取款成功只需具備兩個要素即可:存在合格的信用卡和輸入正確的密碼。如果非法持卡人獲得正確的密碼,同樣可以在ATM機上成功取得錢款。這就為行為人惡意利用ATM機的識別功能、非法持信用卡在ATM機上取款提供了空間。第二,當ATM機出現程序紊亂或機械故障時,行為人有可能會惡意利用這種錯誤取得錢款,最為典型的是2006年發生的許霆案。許霆以非法占有為目的,利用ATM機本身的故障取款17萬余元人民幣(許霆的銀行卡內本來僅有170余元的余額),此時,在真卡、真人和真密碼的情況下,許霆取款并不是利用ATM機識別功能上的認識錯誤欺騙“機器人”,而不過是利用ATM機的機械故障而已。可見,“機器”與“機器人”的根本區別在于其是否具有部分人腦功能,不具有部分人腦功能的“機器”是不可能“被騙”的。
以ATM機為代表的普通機器人中蘊含的“機器”的成分遠大于“人”的成分,在作為犯罪工具時,和一般的刀槍劍戟沒有本質區別。正如行為人使用菜刀殺人,菜刀的設計者和生產者無需負刑事責任一樣,在將普通機器人作為犯罪工具的情況下,普通機器人的研發者當然不應承擔刑事責任,僅應由使用者承擔刑事責任。故而,以普通機器人為工具的犯罪性質的認定,與傳統犯罪并無差異。但是以普通機器人為犯罪對象的犯罪性質有可能會因普通機器人的特征而受到影響。筆者已在上文中論述過,以ATM機為代表的普通機器人具有識別功能,但不具備人腦的其他功能,其既區別于“機器”,也區別于“人”,應被認定為“機器人”。ATM機既具有部分“機器”的特性,也具有部分“人”的特性。當利用ATM機的識別功能時,我們相當于在利用ATM機“人”的部分功能。經電腦編程后的ATM機可以基于欺騙行為產生認識錯誤,因此可以成為被欺騙的對象。在冒用他人信用卡時,對銀行職員的欺騙和對ATM機的欺騙并無本質差異,都是使被欺騙的對象陷入認識錯誤,并基于認識錯誤交付錢款,本質上都是詐騙類的行為。刑法將冒用他人信用卡的行為認定為信用卡詐騙罪,是完全合理的。
需要指出的是,筆者并不認為ATM機就等同于金融機構的業務員。ATM機與真正意義上的業務人員相比,除了能完成一些簡單的業務操作外,并不具有人腦的其他思維、辨別能力。就此而言,如果ATM機出現了機械故障,我們最多只能說這類似于人的精神出了問題,而決不能將此理解為是人的認識或理解錯誤。此觀點最主要解決的是,如果行為人利用ATM機等普通機器人被電腦賦予的識別功能獲取錢財,則應構成詐騙類的犯罪,人的意志通過程序在普通機器人身上得以體現,普通機器人所體現的意志就是人的意志,因此普通機器人可以成為詐騙類犯罪的對象。而行為人如果利用普通機器人本身所具有的機械故障,相當于從精神病人處獲取錢財,則應構成盜竊類犯罪。
弱人工智能技術的發展在為人類帶來福祉的同時,也帶來諸多風險。應為弱智能機器人的研發者和使用者設定相應義務,并明晰二者的刑事責任承擔路徑。
弱智能機器人是智能機器人發展的初級階段。無論是弱智能機器人還是強智能機器人,都具有深度學習能力。深度學習的概念由Hinton等人于2006年提出,是機器學習研究中的一個新的領域,其動機在于建立、模擬人腦進行分析學習的神經網絡,從而模擬人腦的機制來解釋數據(包括圖像、聲音和文本等)。〔6〕參見段艷杰、呂宜生、 張杰:《深度學習在控制領域的研究現狀與展望》,《自動化學報》2016年第5期。如目前購物平臺利用大數據分析方法探求用戶潛在需求并為用戶推送個性化商品或服務、圍棋機器人戰勝世界圍棋冠軍,以及自動駕駛、人機對話等,都是在以深度學習為支撐的弱人工智能技術背景下實現的。
弱人工智能技術的發展將會為人類生活帶來福祉。目前,人類社會仍面臨著諸多困難,諸如繁重的體力勞動、生產領域的人身風險、交通堵塞、地區貧困、環境污染、疾病瘟疫等。人工智能技術的出現,為人類歷史性難題的解決提供了新的方式和思路。弱人工智能技術的發展,為人類的生活帶來了極大的便利,并促進了生產力的提升和經濟的發展。在生活領域,家居智能機器人不僅方便了我們的生活,還提高了能源利用率。例如,在一個由人工智能技術控制的生活空間中,智能硬件會根據居住人的生活習慣,自動切換到消耗最少資源但能使居住人享受最佳生活狀態的模式。在生產領域,智能機器人可以代替人類從事繁重、重復或高危的勞動,從而極大地提高生產效率,節約人力成本。在商業領域,經營者可以利用人工智能技術對用戶數據進行整合分析,從而為每一個用戶提供契合需求的個性化服務。在醫療領域,智能機器人憑借其強大的深度學習能力以及精準的控制能力,可以在包括醫學在內的諸多領域中為醫生提供重要的輔助,甚至可以在某些方面替代醫生。在文化領域,智能機器人可以寫出美妙的詩篇,人工智能翻譯器可以在不同語言之間進行自如切換,幫助不同國家和地區的人們更好地溝通和交流。
弱人工智能技術是把“雙刃劍”,其在為人類的生產和生活帶來極大便利的同時,也為國家和公共安全、個人隱私、經濟和社會秩序等領域帶來了刑事風險。
弱人工智能技術為國家和公共安全領域帶來了刑事風險。目前,弱人工智能技術蓬勃發展,但缺乏相應的法律規制。對弱人工智能技術的不合理運用,極易使得其發展方向偏離合理的軌道,從而對國家安全和公共安全造成威脅。其一,弱人工智能技術與軍事的結合,可能會給國家安全甚至世界和平帶來極大的威脅。2017年,Google與美國國防部合作建設Maven項目(也被稱為“算法戰爭跨功能團隊”——AWCFT:Algorithmic Warfare Cross-Functional Team),意圖“加快國防部整合大數據和機器學習”,首要任務是利用人工智能技術幫助美國國防部有效處理利用無人機搜集的全球各地的海量視頻資料。Google在該項目中的作用是為美國國防部提供TensorFlow API接口,用來幫助軍事分析人員檢測圖像中的物體。盡管遭到了公司內部和外部雙重壓力,Google也一度想終止此項合作,但就在2018年6月,谷歌CEO 發表了題為《AI at Google:Our Principles》的文章,指出Google并不會終止與美軍的合作。美國國防部分析全球各地視頻資料的目的曖昧不明,完全有可能會威脅到各國國家安全和世界和平。Google為美國軍方提供人工智能技術支持的做法可以說是“助紂為虐”。無獨有偶,韓國科學技術院于2018年建立了人工智能研發中心,目的是研發適用于作戰指揮、目標追蹤和無人水下交通等領域的人工智能技術。消息一出,即遭到30多個國家和地區的人工智能技術專家的反對。這些專家認為,“自動武器一旦成熟,戰爭發展速度和規模將前所未有,它們可能會被恐怖分子利用?!辈豢煞裾J,人工智能技術在軍事領域可以發揮有益作用,例如幫助完成掃雷等嚴重威脅人類安全的任務,但是一旦將人工智能技術全面應用到軍事領域中,無疑會增大戰爭的殺傷力,為世界和平和人類安全帶來更大威脅,尤其是如果被某些別有用心的國家或者恐怖分子惡意利用,將會帶來難以想象的惡果。其二,弱人工智能技術與傳統科學技術的結合,可能會給公共安全帶來威脅。其中,最典型的莫過于自動駕駛技術。2018年3月,在美國亞利桑那州發生了一起Uber無人車撞死行人的事故。時隔不久,一輛開啟了自動駕駛模式的特斯拉汽車撞上高速路旁的隔離帶,車主不幸喪生,并引發兩車追尾。自動駕駛技術除了可能引發道路上的交通事故,造成人員傷亡,威脅公共安全之外,還有可能被應用到無人坦克或無人汽車炸彈等軍事領域,從而給人類生命安全帶來更大的威脅。
弱人工智能技術的應用可能會帶來侵犯公民個人信息的刑事風險。其一,用于合理用途的人工智能技術有可能在客觀上造成對公民個人信息的侵犯。人工智能技術的發展離不開以大數據分析為基礎的深度學習,離開大數據和海量信息的支撐,人工智能技術就猶如無源之水、無本之木。2018年,英國劍橋大學公布了一項名為“天眼”(Eye in the sky)的人工智能技術研究項目,即利用無人機掛載攝像頭拍攝人群影像,再利用人工智能技術識別影像畫面,從而發現人群中的暴力行為。雖然這項技術對于維護公共安全、邊境安全等方面發揮積極作用,但也不可避免地會侵犯到公民的個人信息甚至隱私。另外,一些P2P借款平臺嘗試利用人工智能技術在網上查找債務人及其親朋好友的信息,并通過大數據分析選擇合適用語和合適方式催促債務人還款。一旦查找信息的方式越過法律的“底線”,P2P借款平臺就有可能涉嫌侵犯公民個人信息犯罪。其二,犯罪團伙利用人工智能技術可以用更加快捷的方式、更低廉的成本獲取公民個人信息,從而造成對公民個人隱私的侵犯。黑客犯罪團伙利用網站漏洞非法獲取網站后臺用戶注冊數據(“脫庫”),并用這些數據嘗試登陸其他網站,得到用戶在各個網站用于登陸的賬號和密碼(“撞庫”)。〔7〕參見《人工智能涉罪細節首次披露:你的個人信息是這樣被破解的》,搜狐網http://www.sohu.com/a/202973604_659173,2018年6月14日訪問。這一系列行為已經形成了一個黑色的產業鏈。犯罪分子在其中獲得的精準的用戶信息對于實施其他犯罪行為具有重要“價值”。以上行為無疑是對公民個人信息的侵犯,同時也為犯罪分子利用這些公民個人信息實施其他犯罪行為提供了便利條件。
弱人工智能技術的不當利用可能會對經濟秩序和社會秩序造成破壞。其一,弱人工智能技術的不合理應用可能會對經濟秩序造成破壞,從而產生相應的刑事風險。例如,在證券市場中,行為人可以利用人工智能技術對數據進行深度學習和分析,快速掌握有利信息,或者非法獲取與證券、期貨價格變動緊密關聯的信息,或者利用智能機器人的快速反應進行高頻交易,造成股價的變動或證券、期貨市場價格的異常波動,并在這種波動中以極低的風險掠奪市場財富,破壞證券、期貨交易中的“公平、公正、公開”原則,對證券、期貨的交易秩序造成遠比一般的市場操縱行為更為嚴重的破壞。需要說明的是,利用人工智能技術操縱證券、期貨市場的行為與利用智能投顧(Robo-advisor,又稱機器人理財)來進行投資參考存在本質的區別。智能投顧是指,智能機器人根據用戶自身的理財需求(包括用戶的風險承受水平、收益目標、投資風格和偏好等),運用算法為用戶提供投資參考,從而幫助用戶作出資產配置的決定。智能投顧并沒有破壞正常的市場交易秩序,沒有構成犯罪的風險。智能投顧利用智能機器人對數據快速、精準的分析和處理能力,幫助用戶作出投資決策的行為,與故意利用人工智能技術非法在證券、期貨市場中牟利的行為的主要區別在于是否惡意利用人工智能技術牟利、破壞市場交易秩序。其二,弱人工智能技術的不合理應用可能會對社會秩序造成破壞,從而產生相應的刑事風險。例如,在Alpha Go和Alpha Go Zero戰勝圍棋世界冠軍之后,智能機器人的深度學習能力和高速運算能力引起了社會的高度重視,有部分居心不良的人意識到可以利用人工智能技術在比賽中作弊,從而牟取不正當利益。2018年4月,在麗水清韻杯全國業余圍棋公開賽中,一個不知名的棋手利用圍棋AI作弊,取得了比賽的勝利?!?〕參見金雷、張建東:《豈容一粒屎玷污一盤棋——聚焦圍棋疑似AI作弊事件》,《新民晚報》2018年5月1日第A13版。筆者認為,如果比賽選手為了獲取高額獎金而利用人工智能技術進行作弊,應當構成詐騙罪。在沒有高額獎金的情況下,選手如有利用人工智能技術作弊的行為,雖違背了圍棋精神、破壞了比賽的公平原則,但仍無法追究行為人的刑事責任??赡軙腥藢灞荣愔械淖鞅仔袨榕c考試作弊相類比,認為兩者存在諸多相似之處。筆者認為,圍棋比賽和普通考試存在不同的特點和側重點。圍棋共有361個落子點,所以圍棋棋局的總排列組合數大概有2的360次方,圍棋比賽側重考驗參賽者的思維能力和決策能力。正因如此,人工智能技術所蘊含的深度學習和高速運算能力將會在圍棋比賽中發揮更大的作用?!吧疃葘W習需要對一個大型的神經網絡進行訓練,使其對數據中的模式做出反應?!薄?〕《谷歌破解圍棋難題》,東方頭條http://mini.eastday.com/a/160129110359674-2.html,2018年6月14日訪問。而普通考試側重考察考生的記憶力及對特定知識的運用能力,標準答案往往是唯一的。由于普通考試一般不包含有相關的經濟利益,所以一般無需用高成本的智能機器人對面臨的狀況進行分析并迅速做出反應。但是,人工智能技術在普通考試中仍有用武之地,如回答主觀題、寫詩寫作文等。利用人工智能技術在法律規定的國家考試中實施作弊行為,可能會構成考試作弊類的犯罪(如組織考試作弊罪等)。又如,在2018年俄羅斯世界杯期間,莫斯科的一個酒店提供“機器人妓女”服務,利用智能機器人向游客提供特殊服務。由于這項服務經過政府特別許可,因此是合法的。荷蘭政府也擬于2050年之前推出“機器人妓女”項目。應當看到,在俄羅斯和荷蘭等國,賣淫行為可以因經政府許可而具有合法性。但是在我國賣淫行為是違法的。如果在我國推出“機器人妓女”項目,相關人員是否會涉嫌組織、容留、介紹賣淫等犯罪?如果答案是肯定的,那么在“機器人妓女”提供的特殊服務與傳統意義上的賣淫行為存在本質不同的情況下,將這種行為認定為組織、容留、介紹賣淫等犯罪,是否屬于類推解釋并為罪刑法定原則所禁止?〔10〕參見馬克昌:《比較刑法原理——外國刑法學總論》,武漢大學出版社2015年版,第15頁。如果答案是否定的,則“機器人妓女”提供服務的行為是否完全不會妨害我國的社會管理秩序,即其本質上不具有嚴重的社會危害性?以上問題,根據現行刑法規定,我們根本無法得出確定的答案。
弱人工智能技術的不當利用可能會對公民人身安全和財產安全造成侵犯或威脅。例如,殺手機器人的出現,一度引起人們的恐慌。它的可怕之處在于其可以識別各種偽裝,精準地搜尋到打擊對象并一擊即中。這種致命性的自主武器成本低,卻威力巨大。再如,手術機器人可以運用微創方法,實施復雜的外科手術。但是在英國首例機器人心瓣恢復手術中,機器人把病人的心臟放錯位置,并戳穿大動脈,最終導致病人在術后一周死亡?!?1〕參見《達芬奇機器人心瓣手術,致人死亡?》,百家號https://baijiahao.baidu.com/s?id=1616721485785441586&wfr=spider&f or=pc,2018年12月4日訪問。以上行為無疑會對公民的生命、健康和財產造成侵犯或威脅。
在弱人工智能技術蓬勃發展的“今天”,筆者認為,智能機器人尚無獨立意識和意志,智能機器人獨立作出決策并實施行為更無從談起,其仍然只是人類的工具。人工智能技術在為人類帶來福祉的同時,也為人類帶來了諸多刑事風險,如危害國家安全和公共安全、侵犯公民個人信息、破壞經濟秩序和社會秩序等。對于其中的絕大部分刑事風險所涉及的犯罪行為,《刑法》及相關司法解釋可以進行有效的規制。例如,對于人工智能技術發展過程中對公民個人信息的侵害行為,可以運用侵犯公民個人信息罪及相關司法解釋予以規制。再如,在證券、期貨市場中,惡意利用人工智能技術牟利、破壞市場交易秩序的犯罪行為,可以利用內幕交易、泄露內幕信息罪、操縱證券期貨、市場罪及相關司法解釋予以規制。又如,利用人工智能技術研究大規模殺傷性武器的行為,現行刑法條文仍可予以規制。但是,我們也應看到,人工智能技術的井噴式發展和法律的滯后性也形成了不和諧的局面,“無法可依”的危害在某些領域已顯露端倪。例如,在自動駕駛技術接二連三造成事故,危害到公民的人身安全和公共安全的時候,我們沒有一個行之有效的法律可以對這些風險進行良好的規制?!?2〕目前僅有2018年4月3日工業和信息化部、公安部、交通運輸部《智能網聯汽車道路測試管理規范(試行)》,以及各地制定的相關管理文件。
在弱智能技術飛速發展、但仍未出現在自主意識和意志的支配下獨立作出決策并實施嚴重危害社會行為的強智能機器人的“今天”,由于弱智能機器人不具有獨立的辨認能力和控制能力,不能作為刑事責任主體承擔刑事責任。對于涉及弱智能機器人的犯罪行為,仍應由弱智能機器人的研發者和使用者承擔刑事責任。技術并非中立,如果人工智能技術被別有用心的人惡意利用,必將為人類社會帶來巨大的災難。因此,必須為技術的發展“畫圈”,進行相應的規制,探索人工智能技術為人類謀福利的路徑,并嘗試消解發展人工智能技術可能為人類社會帶來的不利影響?!叭绻覀冏穯柨萍己我韵蛏?,答案必然不在技術創新本身。因為技術創新自身并不能保證廣泛的社會進步?!薄?3〕曹建峰:《除了拼技術,谷歌、微軟、IBM都爭相給AI搞價值觀》,搜狐網http://www.sohu.com/a/234445451_455313,2018年6月15日訪問。2017年國務院《新一代人工智能發展規劃》提出:“建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力?!惫P者認為,讓人工智能技術“向善”的途徑在于設定統一的倫理規范,并通過建立一系列完善的法律法規,為智能機器人的研發者和使用者設立相應的風險防范義務。對社會有重大影響的倫理規范可以上升為法律規范,相關人員違反了相應的法律規范并對社會造成嚴重危害的,可以追究其刑事責任。如此,這套有層次的倫理和規范制度便可以作為人工智能時代社會穩定和人民安居樂業的捍衛者。
弱人工智能技術正在塑造我們的所見所聞、所思所感,甚至在塑造著我們的文化和價值觀。然而,人工智能“黑箱”〔14〕人工智能“黑箱”,在技術層面而言,是指由于機器學習神經網絡中存在隱層,科學家無法說明機器學習的優化結果出自哪個節點,并做出令人信服的解釋的情形;在社會層面而言,也隱喻了人工智能技術的不透明性。的存在是一個現實,人們擔心在這個“黑箱”中運行的算法,如果不受倫理和法律的約束,將會固化或加劇社會的不公平,甚至會產生人類難以預料的惡果。近日,基辛格在發表一篇題為“How the Enlightenment Ends”的長文,闡發了對人工智能技術的看法。他認為,面對人工智能技術的興起,人類社會在哲學、倫理等各方面都還沒有做好準備?!?5〕參見 Henry·A· Kissinger:《How the Enlightenment Ends》,http://www.theatlantic.com/magazine/archive/2018/06/henry-kissingerai-could-mean-the-end-of-human-history/559124/,2018年6月15日訪問。各大科技公司為了應對人工智能技術發展可能帶來的倫理問題,消解公司產品的負面影響,贏得公眾的信任,紛紛成立AI倫理委員會,并提出本公司人工智能發展的核心價值觀和遵循的基本原則。筆者認為,科技公司受利益驅動,在塑造人工智能價值觀的時候難免有失偏頗,正確路徑應是由各國政府出面,以交流磋商的形式,為人工智能技術的發展塑造一套統一的價值觀,推動達成人工智能倫理共識并用以形成對人工智能技術創新及應用的倫理約束,唯有如此,人工智能價值觀才能發揮最大作用。不少國家為此付出了努力。例如,2018年6月,在加拿大沙勒沃伊舉辦的G7峰會上,七國集團領導人達成“人工智能未來發展的共同愿景”;〔16〕參見《七國集團就人工智能“共同愿景”達成一致》,http://www.ccpitecc.com/article.asp?id=7560,2018年6月15日訪問。歐盟成立“人工智能高級小組”(AI HLG, High Level Group on Arti fi cial Intelligence),起草人工智能道德準則?!?7〕參見《AI倫理引各國關注,歐盟成立相關小組構建規范機制》,搜狐網http://www.sohu.com/a/236015269_703270,2018年6月16日訪問。筆者認為,統一的人工智能倫理規范和價值觀應包含以下幾個方面的內容:第一,人工智能技術應以維護人類整體利益、增進人類福祉為核心原則。DeepMind宣稱,“人工智能技術必須遵循最高的倫理標準以實現其對世界的巨大好處。技術并非中立,沒有價值觀。技術人員必須負責任地應對其技術研發和應用活動的倫理和社會影響。AI應服務于全球的社會和環境福祉,幫助建設更公平、更平等的社會,被用來改善人們的生活并將他們的權利和福祉置于核心位置?!蔽④浌疽蔡岢鲈贏I最大化效率的同時,尊重人類尊嚴并輔助人類是人工智能技術發展過程中必須遵循的核心原則?!?8〕同前注〔13〕,曹建峰文。第二,在設計和制造智能機器人時,必須為其嵌入人類的道德和價值觀。人工智能的發展為我們帶來了新的有關人性與道德的思考,尤其是在醫療、教育等特定領域,稍有偏差便有可能引發倫理方面的風險。因此,在發展人工智能技術的同時,必須賦予智能機器人倫理道德判斷能力,使智能機器人的行為符合人類社會的整體發展方向和人類的根本利益?!澳臼芾K則直,金就礪則利,君子博學而日參省乎己,則知明而行無過矣?!薄?9〕《荀子 ·勸學》。倫理道德并非自然界的產物,而是人類社會中特有的現象,因此,人類并非生來就懂得倫理和道德,是靠后天接受教育而習得。智能機器人也是如此。如果想讓智能機器人知曉并遵守人類的倫理道德規范,將人類的倫理道德規范寫入智能機器人的程序中應是最直接有效的方式。第三,必須為人工智能技術所產生的不利后果確定具體的責任主體。正如微軟AI部(Microsoft AI)所提到的“AI必須具有算法可責性”,即設計、應用人工智能系統的人必須對其系統的運行負責。DeepMind也提到,對于人工智能系統可能具有產生意外后果或失靈的風險,以及被用于不道德的目的可能性,相關責任主體必須提前預見并做好預案。
應當看到,人工智能的相關倫理和道德規范不具有強制約束力,僅靠倫理和道德規范規制人工智能技術的發展方向和智能機器人的研發使用過程是遠遠不夠的。倫理與法律之間存在較高的耦合性和關聯度。筆者認為,應當將對社會有重大影響的倫理規范上升為法律規范,運用法律的強制力來規制人工智能技術所帶來的風險,在鼓勵技術創新的同時保護人類的根本利益。在為人工智能技術進行立法的方面,我們可以參考其他國家和地區的立法嘗試。2016年歐洲議會向歐盟委員會提出的“機器人法”立法建議報告中提出,應設立一個專門的規制機構(歐洲機器人和人工智能局)來統領人工智能領域的規則、標準制定和日常行政管理事務;自動化機器人應享有電子人的法律地位并有責任彌補自己所造成的損害。德國于2017年5月通過了針對自動駕駛的法案,對《道路交通法》進行了修改,明確了自動駕駛模式下發生交通事故時的歸責原則。美國國會于2017年12月提出“人工智能未來法案”(Future of Arti fi cial Intelligence Act of 2017),對人工智能技術的發展現狀和前景進行了梳理,對于人工智能技術可能引發的社會問題等提出了建議對策。筆者認為,在對人工智能技術進行立法時,應遵循適度性原則,為人工智能技術的發展預留空間,不能因一味強調預防風險而阻滯創新,不能因技術本身所蘊藏的風險而“因噎廢食”,更不能因為技術上負面影響的存在而否定整個技術的積極作用。因此,有關人工智能技術的立法應以鼓勵和引導為主、打擊和規制為輔。筆者認為,目前立法者應著重從以下幾個方面著手:第一,構建和完善人工智能技術研發標準,對研發者的資質和研發內容進行嚴格審核。以自動駕駛為例,應盡快制定國家層面的法律規范,為自動駕駛汽車提供各項產品標準、制造標準,為自動駕駛測試提供安全標準。第二,確立智能機器人致損的歸責原則和標準。仍以自動駕駛為例,在目前的技術水平下,尚無研發出在任何時候都不需要人為操作的功能,如果在自動駕駛模式下發生了交通事故,責任應如何在汽車制造商和駕駛員之間進行分配?在自動駕駛系統發出請求人工控制的信號后發生交通事故,責任又將如何分擔?這些問題都需要立法者給出明確的答復。第三,對于與公民個人身份相關的可識別性信息,應建立銷毀制度及賦予公民知情同意權。數據的共享和開放無疑可以為人工智能的發展提供動力,但也不可避免地造成個人信息的泄露,尤其是與公民特定身份相關的可識別性信息的泄露將會對公民的人身和財產安全造成威脅。因此,應重視對公民個人信息的保護,尤其是和個人身份緊密相關及體現自然人活動軌跡的信息,法律更應予以重點保護。另外,筆者認為,在進行數據輸入時,應將具有可識別性的個人信息和不具有可識別性的個人信息予以區分。法律應當鼓勵不具有可識別性數據的利用、開放和共享,以實現數據的價值,促進技術的發展和進步;法律應當禁止具有可識別性的個人信息的泄露和非法使用,并建立嚴格的信息銷毀制度。
刑法理應承擔起維護社會穩定健康發展、人民安居樂業的任務。在智能機器人的研發和使用過程中,如果研發者或使用者故意利用智能機器人實施犯罪行為,或者由于違反法律法規規定的注意義務,給社會造成嚴重損害的,便需要追究其刑事責任。筆者認為,對于研發者或使用者故意利用智能機器人實施犯罪行為的情況,我們完全可以將智能機器人當作犯罪工具,只追究研發者或使用者的刑事責任。因為在弱人工智能時代,智能機器人不具有獨立的辨認能力和控制能力,也就不具有刑事責任能力,無法承擔刑事責任。研發者和使用者事先通謀,利用智能機器人實施犯罪行為,可以按照共同犯罪的相關原理來追究二者的刑事責任,筆者在此不再贅述。值得一提的是,在研發者和使用者沒有通謀的情況下,對于涉人工智能犯罪的刑事責任,應如何在研發者和使用者之間進行分配?依筆者之見,根據弱智能機器人的特性分析,弱智能機器人中所蘊含的“人”的成分較多(可能占50%—70%,在某些領域已經超越人類),〔20〕在2017年8月舉行的一場“人機大戰”中,上海交通大學、浙江大學聯合科研團隊研發的醫學影像人工智能分析系統“阿爾法醫生”,與一家三甲醫院的影像科醫生比拼核磁共振影像的直腸癌識別準確率和速度。結果,“阿爾法醫生”在準確率上略勝一籌,在速度上則遠超醫生。而蘊含的“機器”的成分則較少。弱智能機器人中“人”的成分(人的智能)的存在與表現方式主要取決于研發者在設計弱智能機器人通過程序賦予其的功能。正因如此,對于涉弱智能機器人的犯罪,筆者認為,研發者和使用者應當承擔比涉普通機器人犯罪的行為人更重的刑事責任。我們可以分為以下幾種情況:其一,研發者故意設計并制造出專門實施犯罪行為的智能機器人。在這種情況下,如果使用者明知該智能機器人只能被用于實施犯罪行為而仍然使用,則可以認為,使用者也有利用該智能機器人實施犯罪的故意,也即應分別追究研發者和使用者利用智能機器人故意犯罪的刑事責任。如果使用者誤以為該智能機器人是實施合法行為的工具而使用,則使用者對該智能機器人造成的損害不具有故意,不能追究使用者故意犯罪的刑事責任,而應根據使用者是否有預見到該智能機器人可能造成損害的義務,將使用者的行為認定為過失犯罪或意外事件。其二,研發者設計智能機器人時,僅具有讓智能機器人實施合法行為的目的。在這種情況下,如果由于使用者的不當使用,使得智能機器人造成對社會或個人的嚴重損害,則應根據使用者是否存在造成損害的主觀故意,追究使用者的故意或過失的刑事責任。如果研發者在設計過程中由于過失使得指導智能機器人實施行為的算法或編程存在缺陷,使用者明知這種缺陷的存在仍然故意利用智能機器人實施犯罪行為,可能構成間接正犯,研發者則構成過失犯罪。如果使用者在使用中也存在過失而使得智能機器人致損,應當分別追究設計者和使用者過失犯罪的刑事責任。其三,受制于技術發展的限制和難以預見的原因,出現了智能機器人致損的情況,研發者和使用者不應承擔任何刑事責任。這種情況應被認定為意外事件。另外,需要注意的是,追究研發者或使用者過失犯罪的刑事責任,必須以其違反注意義務為前提。“由于違反注意義務,使不意欲的刑罰法規的構成要件實現,并且違反義務沒有認識該構成要件的結果,或者雖然認為可能發生該構成要件的結果,但違反義務相信其不發生而實施的,是實施過失行為?!薄?1〕[德]耶塞克等主編:《德國刑法總論》第5版,西原春夫監譯,成文堂1999年版,第439頁。轉引自同前注〔10〕,馬克昌書,第226頁?!斑^失犯是沒有犯罪意思的犯罪行為,是只有法律有特別規定的場合才被處罰的犯罪……所謂過失意味著不注意,在過失的結果犯中,由于違反注意義務惹起結果而被處罰?!薄?2〕[日]山中敬一:《刑法總論》,成文堂1999年版,第344~345頁。轉引自同前注〔10〕,馬克昌書,第227頁。對于設計者或使用者而言,構成過失犯罪必須違背法律法規規定的注意義務。例如,在前置性法律法規明確將“確保自動駕駛汽車遵守交通規則”這一義務賦予自動駕駛汽車的設計者的前提下,可將自動駕駛汽車違反交通規則造成交通事故的過失犯罪的刑事責任歸于自動駕駛汽車的設計者。在傳統的交通肇事罪的構成要件中,能夠承擔交通肇事刑事責任的是從事交通運輸的人員。而在人工智能時代,自動駕駛汽車在行駛過程中,似乎并不存在從事正常交通運輸的人員。自動駕駛汽車是在設計和編制的程序控制之下從事交通運輸的,汽車上只有乘客而無駕駛員,在乘客沒有違反操作規則干預自動駕駛汽車正常行駛的情況下,乘客對交通事故的產生沒有任何原因力,不應承擔任何責任。自動駕駛汽車是在設計和編制的程序控制之下在道路上行駛的,其之所以違反交通規則,也是在程序支配之下進行的。退一步講,即使自動駕駛汽車程序發生了紊亂,導致自動駕駛汽車違反交通規則,其根本原因也可以追溯到程序設計和編制中發生的錯誤或疏忽。由此可見,將自動駕駛汽車違反交通規則造成交通事故的過失犯罪的刑事責任歸于自動駕駛汽車的設計者似乎不應有疑義。筆者認為,由于人工智能技術存在較高的風險,且專業性極強,應為智能機器人的設計者規定較高的業務上的注意義務。如果智能機器人的設計者“由于疏忽業務上所必要的注意,而引起構成要件結果”,〔23〕[日]大谷實:《刑法講義總論》新版第2版,黎宏譯,中國人民大學出版社2008年版,第186頁。則構成業務過失。對于適用于特殊領域的智能機器人,如法律、醫療、航空航天等,如果智能機器人的使用存在特殊的業務要求,使用者違反這種要求,也有可能構成業務過失。在其他情況下,智能機器人的使用者由于不具備業務上的注意義務,僅具備日常生活中的注意義務,因此僅可能構成普通過失。根據刑法基本理論,對于一般過失犯罪而言,無結果即無犯罪?!?4〕參見劉憲權:《刑法學名師講演錄》,上海人民出版社2016年版,第192頁。追究智能機器人的設計者或使用者過失犯罪的刑事責任的前提,是由于智能機器人的設計者或使用者違反注意義務而造成嚴重危害社會的結果。
強人工智能時代雖未到來,但其刑事風險依然可期?!帮L險”在《辭?!分斜会屃x為“人們在生產建設和日常生活中遭遇能導致人身傷亡、財產受損及其他經濟損失的自然災害、意外事件和其他不測事件的可能性”?!帮L險”與刑法中的“實害”相區別,與刑法中的“危險”相聯系?!皩嵑Α笔且讶话l生的侵害,“風險”是發生侵害的可能性,二者屬已然與未然的關系;“危險”指發生侵害的高度可能性,“風險”指發生侵害的一般可能性,二者屬高階與低階的關系。由此,當我們談論“刑事風險”概念時,其并不指向征表著社會危害性的“實害”與“危險”,而可能與“犯罪風險”同義,即刑事風險是發生刑事犯罪的可能性。
刑事風險意味著刑事犯罪可能發生,也可能不發生,刑法所做出的應對也就相應地表現為兩個層次:第一,當犯罪發生時,解決刑事責任分配問題;第二,當犯罪可能發生而尚未發生時,通過立法舉措威懾并預防犯罪。由此決定了“刑事風險”中的“刑事犯罪”概念可能具有兩層含義,從兼具司法與立法的更廣義的角度看,它不僅指實然法層面已經被一國刑法規定為犯罪的行為,還包括應然法層面根據時代與情勢的需要應當被一國刑法規定但尚未被規定為犯罪的行為。筆者所討論的弱人工智能時代、強人工智能時代的刑事風險便分別在前述兩種語境下展開。一方面,人工智能時代衍生出富有該時代色彩的犯罪樣態,如利用人工智能實施的犯罪,人們可以在現行刑法框架下尋求責任分配的解決方案;另一方面,人工智能時代可能催生出以往任何時代不曾具有卻為該時代所獨有的“嚴重危害社會的行為”,其在現行刑法框架下尚不占據一席之地,對該行為的規制可能要以前瞻性地修補乃至重構刑法體系為前提。強智能機器人能夠在自主意識和意志的支配下獨立作出決策并實施嚴重危害社會的行為,盡管現行刑法尚未有規制,但在不久的將來,應于應然層面將其作為刑事責任主體,并針對其特點設立特殊的刑罰處罰方式。
強智能機器人是智能機器人發展的高級階段,其與弱智能機器人最大的區別在于是否能夠在自主意識和意志的支配下獨立作出決策并實施行為?!皬娙斯ぶ悄堋币辉~是由約翰·羅杰斯·希爾勒(John Rogers Searle)首創的。他認為,計算機不僅是用來研究人的思維的一種工具;相反,只要運行適當的程序,計算機本身就是有思維的。2001年,由史蒂文·斯皮爾伯格(Steven Allan Spielberg)執導的科幻電影《人工智能》(Arti fi cial Intelligence)上映,講述了在人類已經進入強人工智能時代的21世紀中期,一個名叫大衛的機器人踏上尋找“母親”并找尋自我、探索人性之路的故事。影片中的“主人公”大衛是一個具有自主意識和意志,能夠自主作出決策并實施相應行為的強智能機器人。不可否認,影片中對于大衛的描述都只是人類對于智能機器人的想象,對21世紀中期人工智能時代生活場景的描述同樣也只是影片創作者的幻想。但是技術發展進步的歷史正是讓幻想照進現實的人類發展史。科技的發展是呈爆炸式的,隨著深度學習技術、神經網絡技術、類腦智能技術等的發展,出現能夠在自主意識和意志的支配下獨立作出決策并實施行為的強智能機器人并非天方夜譚。從弱人工智能時代到強人工智能時代,是一個從量變到質變的過程,量變積累到一定程度便會引起質變,質變的到來可能是突然的,不以人的意志為轉移?!?5〕參見史平:《量變和質變關系之新解》,《江西社會科學》1998年第1期。正因為如此,我們當然應選擇未雨綢繆,提前想好應對策略。
有學者提出,在弱人工智能技術尚未發展成熟的今天,對強人工智能時代刑事風險和刑法應對的研究完全是建立在虛無縹緲的想象之上。“不論是庫茨維爾的奇點理論,還是霍金關于人工智能發展完全將是人類末日的警告,都還只是一種假想與猜測?!薄皩θ斯ぶ悄芪磥砬榫车念A見,專家較之常人并沒有太大優勢,大家都只能是盲人摸象或信口開河?!薄?6〕黃云波:《論人工智能時代的刑法機能》,《人民法治》2018年第6期。筆者對此種觀點不敢茍同。依筆者之見,目前我們應該從以下兩個角度來思考法學界是否有必要研究強人工智能的刑事風險和刑法應對的問題。
其一,作為法學研究者應該“相信誰”?時下,以霍金為代表的物理學家對人工智能技術發展的方向和人工智能技術對人類未來的影響存在顯而易見的擔憂,認為智能機器人一旦脫離人類控制,有可能會給人類帶來毀滅性的打擊?;艚鹪啻伪硎?,“人工智能可能會毀滅人類”。〔27〕霍金提到的可能會毀滅人類的“人工智能”即是筆者在本文中所探討的能夠在自主意識和意志的支配下獨立作出決策并實施行為的“強智能機器人”。“人工智能有可能是人類文明史的終結,除非我們學會如何規避危險。人工智能一旦脫離束縛,就會以不斷加速的狀態重新設計自身。人類由于受到漫長的生物進化的限制,無法與之競爭,將被取代,這將給我們的經濟帶來極大的破壞?!薄?8〕《霍金:人工智能也有可能是人類文明史的終結》,搜狐網https://www.sohu.com/a/136698945_116132,2018年6月12日訪問。霍金是著名的物理學家,不是科幻小說家,更不是巫師,對于一個科學技術的問題,我們不應該也沒有理由不相信一個著名物理學家的說法。當然我們也應該看到,現在一些商業經營者認為,智能機器人的智慧永遠不可能超過人類,人工智能會威脅到人類的觀點純屬夸大其詞。2018年5月,在以“數據創造價值,創新驅動未來”為主題的中國國際大數據產業博覽會上,百度公司董事長兼CEO李彥宏提出,“盡管大家對AI的看法很多,但人工智能不可能威脅到人類的安全。”〔29〕《李彥宏:百度無人車將在7月量產》,聯合早報網http://www.zaobao.com/special/report/supplement/futureofai/ai-china/story 20180526-862204,2018年6月16日訪問。筆者認為,經營者所站的立場與科學家是有所區別的。經營者主要是站在追求經濟利益的角度來看待這一問題,他們更希望人工智能技術能夠在不受任何限制或者法律規制的狀態下自由蓬勃發展,以謀求經營利益的最大化。可能有人會提出,時下也有一些科學家的觀點與霍金等人的觀點不同,認為強人工智能時代不會到來,智能機器人永遠不可能威脅到人類的生存。這里就涉及法學研究者的立場問題,即“信其有”還是“信其無”的問題。作為法學研究者,當然不應囿于時下面臨的現狀,而更應該放眼未來,居安思危。因此,筆者更傾向“寧可信其有,不可信其無”的立場。因為如果“信其有”,最后強智能機器人沒有出現,除了證明我們存在“多慮”的情況外,最終不會對人類社會帶來任何危害;但是如果“信其無”,而最后若強智能機器人果然出現,人類將會措手不及而陷入極其被動的局面之中。
其二,是否需要未雨綢繆?時下有人提出,即使人工智能技術確實可能會給人類社會帶來巨大的威脅,那也需要等這種威脅出現之后再去進行刑法規制,刑法研究不能如此超前。筆者認為,歷史已經不止一次地證明,科技的發展乃至時代的更迭往往能夠超越人類的想象??萍嫉陌l展日新月異,而法律尤其是刑法的制定則需要漫長的時間。如果等到在自主意識和意志的支配下獨立作出決策并實施行為的強智能機器人出現的那天,人類可能將不再有能力去規制強智能機器人的行為,而有可能反過來被強智能機器人控制。因此,我們現在就必須考慮通過立法,在促進人工智能技術高速發展的同時,做好一定的風險防控措施,防患于未然。
盡管今天的我們處于弱人工智能時代,智能機器人仍根據人類設計和編制的程序、在人類的控制范圍之內實施行為,但是隨著技術的飛速發展,出現能夠在自主意識和意志的支配下獨立作出決策并實施行為的強智能機器人并非無稽之談。強智能機器人擁有遠超人類的學習能力,甚至還可以擁有遠超人類的堅不可摧的鋼鐵之軀,一旦強智能機器人作出與人類根本利益相違背的舉動,人類將可能面臨滅頂之災。2004年,由亞歷克斯·普羅亞斯導演的電影《機械公敵》(《I, Robot》)上映。影片講述了在2035年,智能機器人作為人類的生產工具,為人類帶來諸多便利,很多智能機器人甚至已經成為了人類的家庭成員。人類在生產制造智能機器人時,為其輸入“機器人三原則”,〔30〕“機器人三原則”,由美國科幻作家阿西莫夫于1940年提出,具體是指:第一,機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;第二,機器人必須服從人類的命令,除非這條命令與第一條相矛盾;第三,機器人必須保護自己,除非這種保護與以上兩條相矛盾。作為指導智能機器人行為的法則。然而,隨著智能機器人學習和運算能力的不斷提高,他們學會了獨立思考,并曲解了“機器人三原則”,認為人類戰爭將使得整個人類毀滅。智能機器人為了保護人類,剝奪了所有人類的自由,將人類囚禁在家中。人類與智能機器人的沖突由此開始。2018年,美國麻省理工學院(MIT)訓練出了一個號稱是世界上第一個精神變態、被罪惡反噬的智能機器人(World’s fi rst psychopath AI)。美國麻省理工學院媒體實驗室(MIT Media Lab)的研究團隊使用死亡、尸體類的圖像和文本內容對這個名為諾曼(Norman)的智能機器人進行數據輸入,并用深度學習的方法讓其學習輸入數據中的描述方法,最終培養出了這個極度變態、陰暗、罪惡的智能機器人。當然,這個智能機器人仍不具有獨立的意識和意志,其對外部世界的描述仍然依賴于研究團隊對其輸入的數據和為其編制的程序。但是未來當技術發展到更高階段,智能機器人基于強大的技術和學習能力產生自主意識和意志時,類似于諾曼(Norman)的智能機器人可能會給人類帶來難以想象的危害。
強智能機器人可以超出人類的技術控制范圍,在自主意識和意志的支配下獨立作出決策并實施行為。此時,若仍將實施了嚴重危害社會行為的強智能機器人作為人類的工具,而僅對強智能機器人的設計者或使用者追究刑事責任,似乎并不妥當。筆者認為,應將在自主意識和意志的支配下獨立作出決策并實施嚴重危害社會行為的強智能機器人作為刑事責任主體。有學者反對將強智能機器人作為刑事責任主體的觀點,并提出以下理由:我國刑罰體系中包括主刑和附加刑兩大種類。其中,主刑有死刑、無期徒刑、有期徒刑、管制、拘役,即包括生命刑和自由刑;附加刑有罰金、剝奪政治權利、沒收財產,即包括財產刑和資格刑。而強智能機器人沒有生命,也就沒有生命權以及依附于生命權的自由權,更談不上擁有資格和財產。因此,我國所有的刑罰種類都無法適用于智能機器人。如果將強智能機器人作為刑事責任主體,將會面臨強智能機器人應當負刑事責任卻在實際上沒有辦法對其進行刑罰處罰的尷尬局面。
這一理由因存在邏輯上的缺陷而不能成立。正確的邏輯應該是,從立法層面看,是先有犯罪后有刑罰,而非先有刑罰后有犯罪。1979年《刑法》沒有將單位規定為刑事責任主體,其中一個重要原因便是我國刑法規定的主刑中沒有一個可以直接適用于單位。但是,“隨著社會經濟的發展,單位犯罪與日俱增,遏制和預防這類危害行為成為現代社會保護自身的需要。單位雖然不能承受生命刑和自由刑,但是可以承受財產刑,也可以專門為單位犯罪增設新的刑罰處罰方式?!薄?1〕同前注〔10〕,馬克昌書。最終立法者通過對刑罰適用制度的改革——確立單位犯罪中雙罰制的刑罰適用方式,將單位納入刑事責任主體范疇之中。由此可見,因現行刑罰種類無法適用于強智能機器人而將其排除在刑事責任主體范疇之外的理由是不能成立的。正確的思路是,如果強智能機器人在自主意識和意志的支配下獨立作出決策并實施了嚴重危害社會的行為,應將其作為刑事責任主體,對于無法通過現行刑法中的刑罰種類對其進行處罰的問題的解決路徑應為重構我國的刑罰體系,增設能夠適用于強智能機器人的刑罰處罰方式。
筆者認為,強智能機器人可以成為刑事責任主體,理由如下:第一,強智能機器人具有獨立的辨認能力和控制能力。刑法意義上的辨認能力是對行為的性質、后果、作用的認識能力,強智能機器人可以通過其“電子眼”、“電子耳”認識到行為事實,并通過程序中所蘊含的倫理、道德和法律規范對行為的性質、后果、作用進行判斷。除辨認能力外,控制能力也是強智能機器人的必備能力。強智能機器人具有在自主意識和意志的支配下獨立作出決策并實施行為的能力,具有極其快速的處理能力、反應速度,能夠憑借大數據與高速運算能力對行為做出精準的控制。同時,隨著類腦智能技術的發展,強智能機器人可以憑借類似于人類大腦的系統和程序判斷自己行為的性質,并自主決定實施或不實施相應的行為。因此,強智能機器人與自然人和單位一樣,具有辨認能力和控制能力。值得一提的是,強智能機器人所具有的獨立的辨認能力和控制能力,與弱智能機器人具有的辨認能力和控制能力存在本質的區別。弱智能機器人只能按照設計者或使用者設計的程序或發出的指令進行行為,其辨認能力和控制能力都是在人類的程序控制范圍之內的。換言之,弱智能機器人的辨認能力和控制能力是依附于人類的,不具有獨立于人類的自主意識和意志,也就不可能具有獨立的辨認能力和控制能力。第二,強智能機器人比單位更接近于自然人。單位是一個依賴于成員而存在的集合體,如果沒有成員,單位也就不復存在。單位成員之間是按照單位的統一要求和一定秩序相互聯系、相互作用、協調一致,共同形成一個單位整體??梢?,單位是一個集合體,單位犯罪是在單位整體意志支配下實施的嚴重危害社會的行為。強智能機器人是與自然人相類似的個體,其具有與自然人相類似的獨立的自主意識和意志,并在獨立的自主意識和意志的支配下作出決策并實施相應行為。強智能機器人獨立的自主意識和意志比單位的“整體意志”更類似于自然人的意志。既然1997年《刑法》可以將單位納入刑事責任主體,刑法就沒有理由將比單位更接近于自然人的實施了嚴重危害社會行為的強智能機器人排除在刑事責任主體范疇之外。第三,域外有關的立法例對我們承認強智能機器人的刑事責任主體具有一定的借鑒意義。2016年歐洲議會向歐盟委員會提出的“機器人法”立法建議報告的第50條(f)項建議:“從長遠來看要創設機器人的特殊法律地位,以確保至少最復雜的自動化機器人可以被確認為享有電子人(electronic persons)的法律地位,有責任彌補自己所造成的任何損害,并且可能在機器人作出自主決策或以其他方式與第三人獨立交往的案件中適用電子格(electronic personality)?!迸c之類似,沙特阿拉伯授予機器人索菲亞(Sophia)公民身份并向“她”發放了護照,從而成為世界上首個授予智能機器人公民身份的國家。〔32〕參見《沙特阿拉伯成為第一個向機器人授予公民資格的國家》,http://tech.sina.com.cn/d/i/2017-10-27/doc-ifynfvar4425645.shtml,2018年6月14日訪問。無論是“機器人法”立法建議報告中提到的復雜的自動化機器人,還是機器人索菲亞(Sophia),都遠未達到在自主意識和意志的支配下獨立作出決策并實施行為的程度,但在以上的立法例中,都將其作為“準自然人”來看待。強智能機器人在很多方面超越人類,其蘊含的“人”的成分可以達到90%以上(甚至超過100%),將能夠在自主意識和意志的支配下獨立作出決策并實施行為、更接近于自然人的強智能機器人納入刑事責任主體的范疇似乎并無不妥。當強智能機器人在自主意識和意志的支配下獨立作出決策并實施嚴重危害社會的行為時,應當作為刑事責任主體獨立承擔刑事責任;當強智能機器人和研發者或使用者共同實施嚴重危害社會的行為時,應當按照共同犯罪的原理,讓強智能機器人與研發者、使用者共同承擔刑事責任。
應該看到,我國目前的刑罰種類都無法適用于強智能機器人,應重構我國的刑罰體系,使得強智能機器人被納入刑罰處罰的范圍,并針對強智能機器人自身的特點,設立特殊的刑罰處罰方式,以滿足對強智能機器人犯罪的特殊處罰需求。根據強智能機器人是否存在物理形體,可以將強智能機器人劃分為有形的強智能機器人和無形的強智能機器人。對于無形的強智能機器人而言,其存在的基礎在于程序,程序之于無形的強智能機器人而言,猶如生命之于自然人。筆者認為,可以根據無形的強智能機器人所實施行為的社會危害性大小,分別對其適用刪除數據、修改程序、刪除程序等刑罰處罰。所謂“刪除數據”,即刪除強智能機器人實施犯罪行為所依賴的數據信息,猶如砍掉殺人犯的雙手,從而使其失去實施先前犯罪行為的能力。所謂“修改程序”,即通過對強智能機器人程序的修改,限制其學習能力和獲取數據的能力,從而使其失去獨立的辨認能力和控制能力,只能在人類可控制的范圍內實施行為。所謂“刪除程序”,即將與強智能機器人相關的所有程序予以刪除,猶如對自然人判處死刑,從而使得依賴于程序而得以生存的無形的強智能機器人不復存在。有形的強智能機器人與自然人相類似,其存在的基礎在于軀體,筆者認為,可以根據其所實施行為的社會危害性大小,參考刑法中針對自然人設立的刑罰處罰方式,分別對其適用限制自由刑、剝奪自由刑和銷毀的刑罰處罰方式。由于有形的強智能機器人與自然人相類似,可以通過對其物理形體活動空間的限制,實現對其自由的限制或剝奪,并在限制或剝奪其自由的期間內對其重新輸入相關的倫理和法律規范,實現對強智能機器人的教育和改造。對于無法教育和改造的有形的強智能機器人,可以對其進行物理上的銷毀。當然,如果將來的法律賦予智能機器人財產權,可以對在設計和編制的程序范圍外實施嚴重危害社會行為的強智能機器人單獨或者附加適用罰金或者沒收財產等財產刑;如果將來的法律賦予智能機器人政治權利或者其他資格,也可以對在設計和編制的程序范圍外實施了嚴重危害社會行為的強智能機器人單獨或者附加適用剝奪政治權利或者剝奪相關資格的資格刑。隨著人工智能技術與生命科學技術的結合,以及人工智能技術與神經科學的結合,出現具有與人類類似的情感和觸感的智能機器人也并非不可能,到那時,我們甚至可以考慮對智能機器人適用目前適用于人類的刑罰。