趙楠楠
摘 要:人工智能時代已經來臨,無論我們歡喜抑或恐懼,都應以冷靜客觀的態度正視它。人工智能技術的興起對當前我國刑法體系與制度產生沖擊,傳統犯罪在人工智能的輔助下產生了新特點,現有刑法無法完全應對新型的犯罪類型。本文通過對人工智能主體的適格、責任歸置的闡述,來解讀刑法應對弱智能時代刑法風險的方法抉擇。
關鍵詞:人工智能;犯罪主體;責任歸置;刑法完善
引言:自1956年達特茅斯會議首次提出人工智能術語后,AI(人工智能)被廣泛應用于人類生活的方方面面,對人類生活產生了不可估量的影響。隨著人工智能的深入發掘,也出現了前所未有的社會問題,如:2015年英國《金融時報》報道的大眾機器人“殺人案件”[1],2017年紹興公安機關破獲全國首例利用AI犯罪案[2]。人工智能犯罪已經在世界范圍內蔓延開來,人工智能的發展帶來了新的刑法風險,現有刑法對人工智能犯罪的認定以及處罰有嚴重滯后性,因此刑法的完善成為應對人工智能刑事風險的關鍵舉措。
一、何為人工智能
人工智能是一門科學技術,可以分為人工和智能來看,人工就是人類通過自己的勞動創造出來的,也就是通常意義下的人工系統,智能是智力和能力的總稱,在人工智能的解讀上,智能是意識和思維的統稱,這也就引申出人工智能的認知能力。美國麻省理工學院的溫斯頓教授認為:“人工智能就是研究如何使用計算機去做過去只有人才能做的智能工作”[3]。這也就反映了人工智能是人類智能運作的體現。
根據人工智能的發展程度,可以把人工智能劃分為普通機器人時代、弱人工智能時代和強人工智能時代[4]。目前我們僅處于弱人工智能時代,人工智能已經實現自動化生產、無人駕駛、AI技術應用覆蓋家電產業鏈、改善醫療保健等方面。如果人工智能被不法分子有意利用實施犯罪,或者人工智能被正常使用時產生責任事故危害到社會,都將觸碰到刑法的“雷區”,促使刑法作出正面回應。
二、人工智能犯罪責任歸置
(一)人工智能主體適格
刑法上的犯罪主體分為兩類,一類是自然人,一類是單位。對于自然人主體的認定主要是辨別能力和控制能力。人工智能發展到現階段,筆者在查閱資料后,認為根據辨別能力和控制能力人工智能可以分為無自我的人工智能和有自我的人工智能。
1.無自我意識的人工智能
無自我意識的人工智能是人類通過編程和芯片的輸入利用人工智能進行決策和實施行為,無自我意識的人工智能被運用到社會生產和生活方面時,對社會發展產生了巨大的影響,但也對社會造成了一定的恐慌。2018美國特斯拉汽車公司生產的一輛S型電動轎車在自動駕駛模式下發生撞車事故,導致40歲的司機當場身亡[5]。在這場事故調查中,無人駕駛汽車沒有任何安全隱患,美國特斯拉汽車公司不用承擔刑事責任,但這場沒有任何技術問題人工智能具體化應用帶來了一定的社會恐慌,究竟誰該為這場事故買單?
一些不法分子利用人工智能實施犯罪,人工智能成為案件犯罪工具。我國近幾年來的電信詐騙令人恐慌不止,究其原因是“人工智能”在背后作祟,詐騙分子利用人工智能倒賣個人信息,并繞過互聯網監控系統實施屢見不鮮的電信詐騙。在我國首例利用AI技術犯罪案中,人工智能再次成為社會焦點,信息泄露和打碼程序暴露在公眾面前,新型犯罪的破解也成為一個新的挑戰,以人工智能技術破解人工智能也成為偵查機關的難題。無自我意識的人工智能無論是在正常運轉還是被當作犯罪工具時,在實施行為時都對社會產生了一定的危害,筆者認為從行為上看,無自我意識的人工智能應當成為刑法中的新型主體。
2.有自我意識的人工智能
人工智能的發展已經超乎人們的想象,機器人在不斷被人們改善的過程中,通過學習在接收到外界的刺激時能獲得自己的意識,如同一匹脫韁的野馬逃脫研發者的控制。2016年7月,由Knight scope平臺制造的一款打擊犯罪的機器人在硅谷購物中心撞倒并打傷了一名16個月大的男孩。這款機器人已經超出使用者的控制,作出打人的行為完全是機器人自身的反應,準確來說,是機器人的自我意識在指示它作出打人的行為。這款機器人已經能控制和辨別自身的行為,稱得上刑法上的“自然人”,成為犯罪的主體和實施者。因此人工智能具有刑法的主體適格性。
(二)人工智能責任歸置
人工智能在實施犯罪時可以分為有自我意識的犯罪和無自我意識的犯罪,對于被不法分子對于被不法分子控制實施犯罪行為的人工智能可以對這些不法分子追究責任,但無自我意識和有自我意識的人工智能實施的犯罪行為又該向誰追究責任?筆者認為應當對開發者和人工智能使用者予以責任歸置。
人工智能開發者對人工智能負有監督責任,開發者在人工智能設計階段和投入使用時都應該做好監管責任,一旦出現技術上的漏洞,開發者應該及時修復,以防造成不必要的責任事故。如果不能通過技術解除危機,此時,開發者應該摧毀人工智能程序,使其走向滅亡。在人工智能投入使用時,開發者應當在現場以防出現異常,具有自我意識的人工智能已經完全超脫人類的控制,開發者更應該密切監督這些經過深度學習的人工智能。在發現人工智能異樣時,應及時提醒使用者,并在發生危機時提供救助行為,否則將對其追究不作為和監督過失責任。
人工智能使用者對人工智能負有監督和管理責任,在人工智能造成責任事故時應承擔監管不力的責任,尤其是在人工智能有自我意識的犯罪中。如果人工智能在正常使用下發生重大事故,此時的責任應該轉化為民事上的公平責任。但在具有自我意識的人工智能犯罪中,由于使用者的監管不力,造成人工智能作出危害社會的行為,人工智能使用者要為這場事故買單。
三、應對人工智能犯罪的刑法完善
人工智能犯罪時,對涉事的人工智能整改程序、清除數據、摧毀附屬物。筆者認為認為人工智能具有刑法的主體適格性,刑法對于新型犯罪具有嚴重滯后性,因而應加快對刑法的完善。
(一)科學立法
人工智能犯罪可以稱為技術犯罪,在針對這一類犯罪時,立法者可以以技術攻破技術。立法者可以利用大數據來彌補對新型犯罪問題的不足,通過對犯罪現象的追蹤,深入剖析犯罪本質,為解決社會隱患提供更好的幫助,從而推動社會發展。
(二)增設刑法罪名,加大對新型犯罪的懲罰力度
人工智能犯罪已經不適用傳統刑法的罪名,在不法分子利用人工智能實行犯罪時,在傳統刑法中無法獲取最合適的罪名,因而需要針對這些新型犯罪增設罪名。
四、結語
人工智能的發展程度超乎人類的想象,我們身處弱智能時代被人工智能的便捷性折服,同時對人工智能的可危害性感到未有的恐懼,所以我們更應該防患于未然,將人工智能鎖在刑法的籠子里。
參考文獻:
[1] 王肅之. 人工智能犯罪的理論與立法問題初探[J]. 大連理工大學學報(社會科學版), 2018(4):53-63.
[2] 劉憲權, 房慧穎. 涉人工智能犯罪的前瞻性刑法思考[J]. 安徽大學學報(哲學社會科學版), 2019, 43(01):113-122.
[3] 李峰. 基于人工智能的農業技術創新[J]. 農業網絡信息, 2017(11):22-24.
[4] 劉憲權, 房慧穎. 涉人工智能犯罪的前瞻性刑法思考[J]. 安徽大學學報(哲學社會科學版), 2019, 43(01):113-122.
[5]https://www.kwm.com/zh/knowledge/insights/self-driving-cars-who-will-be-liable-20170829.