摘要:人工智能機器人分弱人工智能機器人和強人工智能機器人以及超人工智能機器人,本文主要從利用人工智能進行犯罪、針對人工智能主體進行犯罪以及人工智能主體獨立實施犯罪三個方面論述。盡管目前無法做到大量投入的地步,仍然在完善中,但是因為法律具有滯后性,面對未來人工智能的發展方向,我們應走在時代的前列,進行研究。人工智能承擔刑事責任與普通的自然人有著很大的區別。智能主體的出現及其對自然人社會的沖擊使我們不得不正視這個問題。
關鍵詞:人工智能;人工智能時代;刑事責任
一、人工智能時代的刑事風險
人工智能通過模擬人的動作、神經,來達到模仿人,最終可以實現替代人類的目的。這種新的技術雖然在我們生活生產生活中改變了我們,但是也對我們的刑法產生一定的沖擊,引發了一系列的倫理道德、法律原則的問題,對我們社會造成了很多不利的影響。
(一)人工智能讓一些普通犯罪增加危害結果
從第一次工業革命以來,人類的科學技術不斷地發展,第二次工業革命更是出現了生產力的大幅度提升,隨著生產工具的不斷更新換代,犯罪的工具以及刑偵的手段也不斷更新換代。
(二)產生新的犯罪形式
隨著科技的不斷發展,犯罪形式也發生不斷的發展,互聯網時代的來臨催生了很多計算機犯罪,產生了很多新的罪名,刑法也通過修正案來不斷增加罪名來適應社會的發展,比如非法獲取計算機信息系統數據罪。該罪名正是因為不斷發展的計算機技術,以往的罪名已經無法適應現在的要求,才增設了這個罪名。隨著大數據時代的來臨,人工智能技術肯定會產生更多的問題,產生很多人們想象不到的犯罪。
(三)人工智能脫離控制產生的問題
本文之前所談的都是目前的嚴重問題,但是筆者認為,我們的眼光不應只局限于目前,智能機器人是人工智能時代的最具代表性的產品,也是未來的發展方向。智能機器人代替人類做了很多人類不能做或者不愿意做的工作。智能機器人在方便了人類生活的同時,也產生了很多問題。
二、人工智能時代的犯罪主體認定
2017年10月,機器人Sophia被沙特授予公民身份。引發了世界的熱議,一個智能主體被認定為公民,這使得人工智能走入了人的生活,人工智能進入人類社會勢必會對社會產生影響,用刑法將其規制也日益提上日程。
(一)人工智能犯罪主體學說
當前對于人工智能能否成為犯罪主體有兩種學說,第一種是否定說,認為人工智能不能成為犯罪主體,當下的人工智能是以人所寫的代碼為基礎,不具有獨立的人格,終究是工具,[1]對于科學技術究竟能不能讓人工智能具有獨立的意志,從科學和哲學的角度來看。
(二)人工智能犯罪主體的法律現狀
目前來說,行政法領域已經對航拍器做出規定的研究。[2]程序法領域對量刑進行研究[3]刑法理論界對于人工智能犯罪主體方面的研究,主要是通過分析人工智能、研究人員和使用人員在不同的人工智能犯罪活動中分別扮演了什么樣的角色、發揮了什么樣的作用來確定由誰作為犯罪主體承擔刑事責任。
(三)人工智能主體的刑事責任能力的根據
對于刑事責任的實質,主要有后果說、義務說、刑事責任關系說以及責難說,雖然每個學說不盡相同,但是均已刑事責任作為法律的基礎。刑事責任是指犯罪人因實施犯罪行為應當承擔的法律責任。
(四)人工智能主體的刑法地位
智能時代的刑事制裁困境引起了人工智能刑法定位之爭。長期以來,人們害怕人工智能的負面影響。不論是各大影視劇還是各種電影,總是將人工智能描寫成為一個吃人的老虎,盡管有其正面影響,但是負面影響卻能使人毀滅。
三、人工智能時代的刑事責任
雖然人工智能的代表智能機器人可以通過自主的學習來獲得自主的意識和意志,再通過自主的意識和意志的控制下,實施犯罪,這已經符合智能機器人在刑法中犯罪主體的的主要條件,也應該付刑事責任。看是否形成意識形態因素。
(一)針對智能主體實施犯罪
從類比的方面看,智能主體也可以類比成人,人受到的很多侵害,智能主體也會受到,甚至因為智能主體的特性,往往會受到比人所受到的多得多的侵害。所以智能主體也可能會成為刑法所保護的對象,但是因為智能主體的特定性,究竟刑法是保護智能主體還是保護智能主體的持有者,這有很多方面值得討論的地方。
(二)智能主體獨立實施犯罪
隨著科技的日益發展,人工智能的獨立性越來越強,人們對人工智能的控制也越來越弱,這也符合社會發展的趨勢。這就導致危害結果不能歸責于設計者。相應的來說,真正意義上的智能機器人的時代可能即將來臨,所以智能主體獨立實施犯罪這個問題也搬上了日程。
四、人工智能時代的刑法完善
面對人工智能這個新鮮的事物,為了防止將來人工智能脫離人類控制,造成不應有的損害,我國刑法應該注重風險防控。
(一)禁止濫用原則
“用”為人工智能的源頭,只有把控了源頭,才能更好的控制人工智能,禁止一切濫用。筆者認為可能增設濫用人工智能罪。理由有如下:
首先,濫用人工智能已經危害到人類社會的發展,對社會造成嚴重的影響。人工智能給人類社會帶來福音的同時,也危害著人類社會。盡管在大部分情況下,人工智能尚在人類的控制之下。
(二)確立嚴格責任制原則
人工智能的設計者和使用者才是人工智能的中心環節。確立設計者和使用者的責任制是解決人工智能問題另一重要方法。與責任相對應的是義務,只有規定了設計者和使用者的義務,才能更好的對應責任。筆者認為設計者和使用者應盡到以下義務:
綜上所述,刑法應該從犯罪故意和過失兩個方面來綜合考慮設計者和使用者的責任體制。當然嚴格的責任體制的前提是刑法規定了其義務,最終實現對濫用人工智能的刑法規制。
五、結語
就通用智能機器人應否成為刑事責任 主體的問題而言,從技術水平、價值觀念、具體認定等方面尚存在較大困難,刑法對此應堅持克 制、理性的態度,不可貿然將機器人納入刑法規制的行為主體范圍。總體而言,我們應謹慎對待人工智能引發社會風險,并在此基礎上積極迎接人工智能時代的全面到來。
參考文獻:
[1]高銘暄、王紅:《暨南學報(哲學社會科學版)》2018年第9期,第1頁
[2]查云飛:《人工智能時代全自動具體行政行為研究》,《比較法研究》2018年第5期,第167-179頁
[3]左衛民:《關于法律人工智能在中國運用前景的若干思考》,《清華法學》2018年第2期,第108頁
作者簡介:李泉樺(1994.6.23-),男,漢,山東威海,研究生在讀,山東政法學院法律碩士專業