摘 要 在人工智能時代下,現代社會生產技術水平顯著提高,人工智能技術可能使犯罪行為的社會危害性發生顯著變化,若不法分子可以使用人工智能技術來實施危害社會的行為,本文認為必需要根據犯罪行為的特征并與傳統犯罪行為的社會危害性等多種維度進行分析,確定從平、從重、從輕三個方面進行處理;除此之外,人工智能機器人也會成為引發刑事案件的“主謀”,其刑事責任與刑罰體系的構建也必須要具有針對性。
關鍵詞 人工智能 刑事責任 刑罰體系
作者簡介:康世強,深圳市寶安區新安街道公共法律服務中心。
中圖分類號:D924 文獻標識碼:A DOI:10.19387/j.cnki.1009-0592.2018.06.325
在2017年,人工智能已經成為各行業發展的熱門詞匯,與其他技術相比,人工智能技術對人類生活的改變最為明顯,已經快速滲透到了社會生活的方方面面,直接促進了社會的改變。但是相關學者也有認為,人工智能技術的出現不僅是社會進步的表現,也會給社會的傳統法律秩序帶來挑戰。但是在實際上,人工智能技術作為時代發展不可逆轉的趨勢,其出現具有必要性,因此需要積極開展刑事責任與刑罰體系的重構,這樣才更好的適應人工智能時代下的各種挑戰與變化。
一、人工智能時代下的刑事責任問題研究
(一)人工智能技術引發犯罪行為
與傳統技術相比,人工技術作為一種基于計算機程序模擬人類神經網絡,能夠完成深度學習,進而完成對外界事物分析、判斷、決策的技術,在當前社會發展中發揮著重要的作用。從人工智能技術的發展情況來看,人工智能技術已經在很多行業中得到了應用:例如在醫療衛生行業出現了高分通過執業醫師資格考試的醫療機器人、新聞行業出現了能夠精準報導新聞的人工智能機器人等。從這些行業的實踐經驗可以發現,人工智能技術的出現顯著改變了社會生產模式,傳統的人員分配等已經發生了明顯的變化。
但是事物都具有兩面性,人工智能技術的出現雖然顯著推動了社會的進步,但是也會成為犯罪行為“推波助瀾”的幫兇,這一點可以從以下幾方面進行闡述:
1.人工智能技術的出現會讓犯罪行為發生“量”的變化。從社會發展的角度來看,每一次科學技術的創新對社會而言都是一個巨大的發展契機,但是與之相對應的是,每一次時代的更迭也會導致犯罪行為的變化,正如互聯網時代的普及下,互聯網行業在短短幾年內就成為犯罪行為的重災區,不法分子在互聯網技術的支持下,其犯罪行為的社會危害程度顯著提高,對社會正常發展的影響呈現出“量變”的趨勢。而在當前人工智能技術快速發展的大環境下,不法分子可以借助人工智能技術對社會發展產生根深的破壞。例如,在人工智能技術的影響下,一些系統的系統程序中都采用了人工智能技術,包括政府系統、銀行的金融系統等,若一些犯罪分子利用相關手段直接篡改了上述系統的人工智能技術體系,那么將會對整個社會造成嚴重影響。
2.人工智能技術的出現讓犯罪行為發生“質”的變化。人工智能技術的發展與大數據、云計算之間存在著密切的聯系,因此人工智能技術經常會對社會生產的各個環節完成信息的侵犯,甚至發展出現新的犯罪類型。
因此有研究認為,數據的集中成為人工智能技術犯罪的核心。例如在大數據技術的支持下,不法分子不需要破壞不同的數據庫來獲得大量數據,而是通過攻擊數據庫就能在短時間內收集到海量的數據資料,一旦這種技術被應用在獲取保密信息、敏感信息,將會造成巨大的危害。同時與傳統的犯罪模式相比,人工智能技術下的犯罪行為已經出現了新的變化,不法分子可以利用世界任意一個有網絡的點實現對各地區數據系統的破壞,這是傳統技術所難以實現的。
(二)智能機器人會成為刑事案件的主體
智能機器人是一種由程序設計、編制而成并具有一定自主思維、自發行動的機器設備,在人工智能技術快速發展的大環境下,智能機器人在現代社會生產中越來越常見。與傳統的機器人相比,智能機器人具有更強的行為主動性,甚至可能超越人類設計和編制的程序并在獨立的思維模式下實施各種行為,所以存在危害社會的可能性。當前理論界普遍認為,刑事責任能力是指:行為人認識到自己行為的性質、意義、后果,并能對自己的行為進行解釋、控制,并承擔相應刑事責任的能力。所以現階段理論界所達成的共識為:刑事責任的認定應該判斷行為人是否具有成為刑事責任主體的必要條件。
當前大部分人沒有認識到普通機器人與智能機器人之間的區別,所以在人們的正常認知中,在智能機器人實施犯罪活動之后,需要對智能機器人的研發者進行懲處。在這種理論觀點下,很多人認為在智能機器人犯罪之后,需要由機器人的研發人員來承擔責任。
但是本文認為,這種觀點是錯誤的,沒有認識到智能機器人與普通機器人之間實質性的差別。正如前文所言,智能機器人與普通機器人之間存在著明顯的差別,其中智能機器人具有主體性并且具有思考的能力,在這種情況下,當智能機器人的治理水平達到一定程度時,智能機器人在一定程度上可以實現自我運行,并脫離研發者的控制,此時的智能機器人就擁有了行為選擇權,可以根據“自己的判斷”決定是否實施犯罪行為。在這種情況下,如果一味的將智能機器人所造成的危害完全歸結給研發人員,那么有失公允。
同時,考慮到達到一定程度的智能機器人與普通機器人之間存在著明顯的“智力差別”,并且會產生相應的自主意識,因此有文獻建議將人工智能技術定義為具有智慧工具性質又可作出獨立意思表示的特殊主體。但是在實際上,人工智能機器人作為人工智能技術的代表,其中不可能完全體現人工智能技術,同時當前的智能機器人發展顯示,智能機器人只會被應用在一些特定的領域,包括外語翻譯、外科手術等。因此在這種工作范圍環境下,人工智能機器人的工作范圍主要集中在對特定行業的工作中,此時的智能機器人雖然具有一定的學習能力,但是卻沒有控制能力與辨認能力,其大部分行為的開展都是在人工的控制(智能機器人的行為受編程軟件的控制)下完成的。
但是隨著人工智能技術的進一步發展,在未來可以預見:智能機器人的功能將會變得越來越完善,其功能更加豐富,因此產生犯罪行為的概率也會提高。在實際上,智能機器人實施違法犯罪行為主要分為兩種,分別是在程序設計與編制范圍內實施行為和在程序設計編制范圍外實施行為。與傳統刑事案件相比,智能機器人的實施犯罪行為的現象就有更加明顯的特殊性,其責任主體的認定、刑罰的懲處等都應該明顯區別于傳統刑事案件。因此必須要構建一個面向人工智能時代的刑事責任和刑罰體系,堅持以刑罰目的為導向、以刑罰相適應原則為核心,這樣才能更好的適應未來可能出現的人工智能犯罪現象。
二、智能機器人適用于刑罰
在上文分析中,本文將人工智能時代下的刑罰問題進行了介紹,并從兩個維度進行了闡述,其中人為利用人工智能犯罪的現象會由相關部門根據犯罪行為的危害性做出相應的審判,所以本次研究中將不會做進一步的討論,將重點闡述智能機器人犯罪應用于刑罰責任的相關問題。
通過對當前全世界范圍內的刑罰體系進行了解后可以發現,刑罰主要可以分為生命刑罰、自由刑罰與財產刑罰三種形式,而相比之下,人工智能機器人不是一個自由人或者單位,其不存在生命,并且也沒有財產與人身自由的說法。在這種情況下,刑罰的三種特征都不適用于智能機器人,在這種情況下,如何正確的完成對智能機器人的刑罰已經成為相關人員的關注的重點。針對這一問題,本文將從以下兩個角度做進一步分析。
(一)智能機器人適用于刑罰的必要性
考慮到智能機器人在實際上是一種設備,因此有人認為可以通過“維修設備”的方式來控制智能機器人,不需要對機器人進行刑罰。但是根據前文分析可以了解,智能機器人區別于傳統機器人的主要區別,就是智能機器人具有智能的特征,對于事物具有獨立思考的能力,在這種情況下,智能機器人的特征在一定程度上已經脫離了“設備”的范疇,而無限接近于人了,所以可以成為刑事責任的主體。在這種結論下可以認為:既然智能機器人具有相應的辨識能力,因此可以在自我獨立意識的支配下產生危害社會的犯罪行為,那么就有必要將智能機器人的這種危害社會的行為上升到刑罰的高度。
同時從社會發展的角度來看,未來人工智能技術水平將會進一步提高,人工智能技術在社會生產中的作用會進一步增大,智能機器人也將會更加常見。同時,生產力決定生產關系,法律制度的設計與完善受生產關系的影響。因此在未來社會中,智能機器人成為社會成員存在可能性,智能機器人依靠自我的控制與辨認能力,甚至能夠完成人力所不能完成的任務,這些都進一步說明了未來社會中智能機器人的重要性。就目前而言,人機合作模式已經在社會生產的很多個領域中得到了應用與推廣。例如在2017年,阿里健康推出了Doctor You,它作為人工智能技術在醫療行業中的運用,已經可以承擔醫生助手的角色。因此在未來社會發展中,以智能機器人為代表的人工智能技術將會得到進一步的推廣。
同時,刑罰具有一般預防與特殊預防的功能,對于智能機器人而言,刑罰的這兩種功能都具有適用性。先從刑罰的一般預防功能來看,一般預防功能主要是刑罰對于犯罪人以外的洽談人所產生的積極社會功能,表現為威懾、安撫、補償等方面,而在智能機器人實施犯罪行為之后,對智能機器人的一種刑罰可以慰藉被害人,例如在智能機器人殺人之后,對于被害人家屬而言,其并不在乎犯罪的主體是人還是“設備”,其期望的就是想要實施犯罪行為的主體接受懲罰。因此可以施加給自然人的刑罰,自然也需要施加給智能機器人。之后從刑罰的特殊預防功能來看,刑罰的特殊功能是指刑罰對犯罪人適用而可能產生積極的社會作用,包括對犯罪行為的個別威懾、個別教育功能等。對于智能機器人而言,它作為一個具有自我控制與辨識能力的設備,對事物具有自己的認知與看法。在這種情況下如果對智能機器人施加刑罰,有助于對其他智能機器人形成威懾,促使其能夠更好的服務于社會,成為推動社會發展的動力。
(二)智能機器人使用者或者開發者的刑罰責任
雖然智能機器人具有獨立犯罪的可能性,但是我們必須要發現另一個問題,就是智能機器人的研發者在設計過程中就設置了充滿犯罪意圖的程序,或者使用者在使用智能機器人時,惡意植入了可能影響智能機器人行為的軟件,這些現象都會導致智能機器人出現犯罪現象,在這種情況下智能機器人的使用者或者開發者都應該承擔相應的責任。
同時就我國社會而言,責任與義務之間存在著密切的關系,在這種理論的認知下,可以將智能機器人研發者與使用者的義務分別劃分為預見性的義務與監督性的義務,若在智能機器人使用過程中,相關責任方沒有盡到相應的義務,那么就需要承擔相應的責任。相應的,如果智能機器的相關責任方違反了監督員義務,也需要承擔監督過失的刑罰責任。
一般認為,過失罪的從成立應該以行為人“應當預見而沒有預見”或者“已經預見而輕信可以避免”危害結果發生為構成條件。在這種情況下,假設智能機器人的研發人員對智能機器人出現犯罪行為是“已經預見”的,但是卻盲目的相信使用者可以通過自己的控制或者管理來避免犯罪行為發展,此時一旦智能機器人出現了犯罪行為之后,那么研發者就需要承擔過失罪。這里應該強調的是,上述關系結構中存在著一種必要的前提,那就是研發者“已經預見”下的危害結果絕對不是一種抽象性的“預見”,即認為智能機器人在未來會危害社會,而是一種實際上的“預見”,例如在某年的某日,智能機器人發生了放火、殺人等危害社會安全的事件,這兩種情況存在著十分明顯的區別。同時還應該注意得到的是,根據人工智能技術的發展情況,為了能夠更好的了解智能機器人的使用者或者開發者的刑罰責任,還可以從以下幾個維度做進一步的分析:
1.在使用或者研發智能機器人時,人工智能技術可以規避危害結果的發生,并且研發者/使用者富有預見性的義務,最終因為沒有預見而導致了危害事件的發生,在這種情況下,智能機器人的研發者/使用者需要承擔過失罪。這一法律依據為:智能機器人的行為完全受到研發者或者使用者的限制,與使用者、研發者的使用情況、程序設計之間存在密切的關系,因此兩者與智能機器人的犯罪行為之間存在著因果關系。在這種情況下,雖然智能機器人具有自主意識,但是在很大程度上,這種自主意識來源于程序的編制或者后期使用時的改變,那么一旦研發者或者使用者的不當操作而導致智能機器人的功能發生變化,那么兩者之間將會存在必然的聯系。
還應該注意到的是,智能機器人的研發本身就是一個十分復雜的過程,這就決定了整個智能機器人系統功能的開發不是一個人來完成的,因此本文所介紹的“研發者”在實際上是指整個研發團隊,當然團隊的領導者應該承擔更多的責任。但如果在智能機器人產生犯罪行為之后,難以查明究竟是誰的過錯而導致了危害結果的產生,那么每個人只能做無罪處理,不適用于過失罪。
2.在研發或者使用過程中無法避免危害結果的發生。很多研究認為,隨著智能技術的進一步發展,智能技術的應用范圍或者技術水平將會進一步提高,智能機器人能否會突破“智能設備”這一范疇依然值得人們考慮。在這一問題中,可以借鑒2017年6月份Fackbook的人工智能研究所的發現,研究所發現其研發的智能機器人逐漸在對話中自主“發明了”人們無法理解的語言,隨后Fackbook立刻宣布了終止這一研究,很多人猜測這一舉動的主要原因,就是Fackbook擔心智能機器人失去控制。從這一事件經驗可以發現,智能機器人其本身就存在一定的風險性,存在“人工智能超過人類智能”的可能,因此這就決定了智能機器人本身存在一定的不確定性,而這種不確定性在未來很有可能轉變成為危害社會穩定性的犯罪行為,并以引發嚴重的社會問題,所以必須要通過相應的法律手段或者相關規范來阻止這一問題的發生。
三、人工智能時代下刑事責任的劃分
根據上述對人工智能技術的研究可以發現,人工智能技術在當前社會生產中具有必要性,但是產生危害社會行為也存在可以預見或者不可預見的特征。所以針對這種問題,相關人員就需要從更多的維度來對其中的關系進行評價,產生一個更加完善的刑事責任劃分體系,讓人工智能時代下的法律能夠更好的適應社會發展。根據這一要求,本文提出了下列兩種觀點:
(一)對智能機器人研發者風險防范與風險監督的限制
無論人工智能技術如何發展,其最初的技術結構都是由研發者所設定的,因此可以認為研發者對智能機器人的功能限定是一個“種子”,智能機器人的各種行為都是在這個種子上逐漸生根發芽的。同時也有研究,隨著未來人工智能技術的進一步發展,人們無法保證智能機器人可以經由與人類身體相似性而承載人類所認可的道德規范。在這種大的條件下,一旦智能機器人的智能水平超過人類的智能,那么在一定程度上智能機器人會自主結束“人工智能受控于人”的循環,最終危及社會發展。所以從未來的角度來看,智能機器人必須要承擔相應的責任,保證智能機器人的設計、編制、使用等環節都能始終處于人們的監控之下。但是還需要明確的是,這種監控并不是要求限制智能機器人的學習、工作等,否則在這種限制條件下,智能機器人的功能將會與普通機器人無異,這不是人工智能技術的發展趨勢。本文所闡述的這種“監控”,是對智能機器人的行為進行監控,要避免智能機器人出現一些危害他人、危害社會的行為,即監控智能機器人的攻擊性,例如在智能機器人將要對人類造成傷害之后,人們可以通過遙控器、緊急按鈕等快速制止這種行為。
在上述要求下,如果智能機器人的研發者違反了這一監督的義務,而最終導致了智能機器人違法行為的發生,那么就可以通過增設“濫用人工智能技術罪”等罪名來對這種行為進行限制。
(二)對智能機器人所有者風險防范與風險監督的限制
影響智能機器人行為的因素不僅僅局限在設計研發者上,也體現在了智能機器人的所有者上,針對這一問題,就需要設置阻止智能機器人危害發生的第二條法律防線,例如當智能機器人出現了一些違反設定程序的攻擊行為等,此時預先設定的斷電、休眠、緊急停止功能等無法阻止智能機器人行為時,相關部門就應該采用暴力的手段來組織危害的擴大,包括暴力擊毀等。在這種情況下,如果智能機器人的所有者存在“能夠銷毀而拒絕銷毀”并引發嚴重后果的,所有者需要承擔“不作為犯罪”的形式責任,并且履行銷毀義務的單位或個人不需要承擔賠償責任。此時還存在一種特殊的現象,即智能機器人正在實施損壞行為時,并且除了擊毀智能機器人不存在第二種彌補方法,但是要保證智能機器人所造成的經濟損失明顯低于機器人本身的價值。在這種特殊的條件下,承擔制止義務的所有人可以主張不作為的緊急避險手段。
四、智能機器人與自然人共同犯罪的刑事責任分擔
在前文分析中已經指出,當人工智能技術發展到一定水平之后,智能機器人的功能很有可能會超越預先設定的程序范圍,并根據自主的意識來決定實施犯罪行為。在這種情況下可以認為,智能機器人與自然人一樣存在相應的辨識與控制能力,所以需要成為刑事主體并承擔相應的責任。在這種情況分下,如何明確智能機器人與自然人共同犯罪情況下的形式責任劃分則成為相關人員關注的重點。
本文認為,智能機器人與自然人的共同犯罪的刑事責任分擔情況滿足我國刑罰中有關共同犯罪的要求。一方面,智能機器人作為一個可以承擔刑事責任的個體,對于事物具有自己的認識與辨識能力,既然承認了這一點,就可以認為智能機器人可以將自主的意識與自然人的意識連接在一起,兩者通過一種特殊的人機交互模式完成信息的交流;另一方面,智能機器人與自然人所實施的犯罪行為,在實際上是在相同的“故意實施”理念中實施的,并且兩者通過相互配合的方式完成了犯罪行為。在這種情況下,可以認為兩者之間的配合都直接導致了犯罪活動的產生,例如一起搶劫、一起縱火等。并且智能機器人具有不同于傳統普通機器人的特征,就是在產生犯罪行為之前,智能機器人可以選擇拒絕參與犯罪行為,那么在這種情況下,犯罪行為可能不會發生,或者發生的犯罪行為所造成的危害將會顯著降低。
五、人工智能時代下犯罪刑罰體系的重構
現階段我國社會中刑事責任的最主要承擔方式就是刑罰,在上文分析中,本文承認了人工智能時代下智能機器人及其相關自然人所需要承擔的刑罰責任,那么在刑罰體系的重構中,相關人員就需要充分考慮這一問題進行分析。
通過上述分析可以認為,刑罰所具有的特殊預防與一般預防功能中能夠有效的約束智能機器人的相關行為,但是智能機器人同樣更容易被改造,在更多的情況下,智能機器人所產生的“犯罪行為”思想并不是天生的,而是在多種因素共同作用下而產生的結果。所以在很多情況下,只需要對智能機器人進行回爐改造,它依然可以成為推動社會發展的源動力。針對這種情況,在刑罰體系的重構中,本文提出了以下幾種思路:
1.智能機器人的刑罰體系在很大程度上都應該區別于自然人與單位,在我國在刑罰的刑種上進行了明確的規定,正如上文所介紹的那樣,智能機器人不具有生命,也不存在著財產權、人身權等,因此對智能機器人的刑事拘留、有期徒刑、死刑等都是沒有必要的,必須要對這種情況進行重構。而為了實現這一目標,就應該保證智能機器人所實施的犯罪與刑罰之間存在著“實質上相對應的關系”,能夠針對智能機器人可能產生的刑事犯罪行為作出相應的懲處,通過有層次的懲罰階梯來對智能機器人的各種行為的限定。例如,針對智能機器人所實施的刑罰不僅應該局限在斷電、銷毀等幾方面,還應盡可能的轉變傳統單一的渠道方式,構建多樣化的刑事處罰方式,例如功能的重造、工作懲罰等。
2.刑罰的本質是對事件的一種“報應”,即做到“有罪必罰”,所以在這種情況下,智能機器人所產生的各種犯罪行為都應該被納入到“犯罪整治”的范疇內。同時還需要關注的是,科處刑罰對該行為是否無效果、太昂貴、可替代,即以是否能夠實現刑罰的目的來決定是否將該行為“劃出”犯罪圈。犯罪圈的劃定需要以刑罰的目的為導向,刑罰種類的設計更應該以刑罰的目的為導向。刑罰的目的是預防犯罪,不能實現此種目的的刑罰即是不合理、無必要的刑罰。在更多的情況下,如果刑罰對智能機器人的影響是“不痛不癢”的,那么這種刑罰必然是毫無意義的。所以針對這種情況,相關人員就需要保證施加在智能機器人身上的刑罰能夠發揮預期效果。例如讓智能機器人感受到“被斷電”的痛苦,來加深智能機器人的痛苦,這樣才能保證法律的威懾性能。
3.刪除數據也是一種避免刑罰產生的有效手段,通過刪除智能機器人與犯罪行為有關的依賴信息,從智能機器人的源頭上控制犯罪行為的產生,促使其能夠轉變工作模式,不會在工作模式或者軟件運行中產生“實施違法行為”的狀態。在這種情況下,只需要智能機器人的研發者或者使用者能夠在今后的學習活動中積極引導智能機器人獲取正面數據,并可能的杜絕各種可能產生違法行為的負面數據,就能達到避免違法現象發生的目的。針對這種要求,在刑罰體系的構建中,就可以圍繞這一點來對智能機器人的研發者、使用者的義務進行限定,明確研發者、使用者引導智能機器人“獲取正面數據的”工作,最終為切實保證智能機器人工作能力奠定基礎。
六、結論
在人工智能快速發展的大環境下,以智能機器人為代表的人工智能技術將會在社會生產中發揮著重要的作用,但是還必須要注意得到的是,智能機器人存在危及社會穩定的風險,所以必須要明確人工智能時代的刑事責任,并通過刑罰體系的重構,最終更好的滿足人工智能時代的發展要求,讓人工智能技術更好的服務于社會。
參考文獻:
[1]馬治國、田小楚.論人工智能體刑罰適用之可能性.華中科技大學學報(社會科學版).2018,32(2).
[2]劉憲權.人工智能時代刑事責任與刑罰體系的重構.政治與法律.2018(3).
[3]侯國云、么惠君.人工智能倫理與法律風險的探析.科技與法律.2018(1).
[4]劉憲權.人工智能時代的刑事風險與刑罰應對.法商研究.2018(1).
[5]劉憲權、胡荷佳.論人工智能時代智能機器人的刑事責任能力.法學.2018(1).
[6]高奇琦、張鵬.論人工智能對未來法律的多方位挑戰.華中科技大學學報(社會科學版).2018,32(1).
[7]劉憲權.人工智能時代的“內憂”“外患”與刑事責任.東方法學.2018(1).
[8]姚萬勤.人工智能影響現行法律制度前瞻.人民法院報.2017-11-25(002).
[9]孫道萃.人工智能對傳統刑罰的挑戰.檢察日報.2017-10-22(003).