黃春燕
【摘 要】在人工智能時代穩步發展的同時,會附帶出一些的新型刑事風險。其中人工智能產品的使用者以及研發者會利用人工智能技術肆意妄為,甚至會構成一些具有犯罪行為的活動,這是刑事風險的主要表現。這不僅為人們的生活帶來了諸多危害,而且在一定程度上不利于社會發展的穩定。筆者在本文將結合實際生活中的人工智能時代,以及發展過程中附帶的一些刑事風險加以研究,并提出一定的解決對策,希望能夠從根本上減少發生刑事風險的發生概率。
【關鍵詞】刑事風險;刑法應對;人工智能
一、人工智能時代的刑事風險
1、傳統犯罪所具有的危害性顯著提升
犯罪危害性的涉及面在借助人工智能時代的基礎上不斷的拓展,在當前廣闊的人工智能領域中,能夠涵蓋人類社會以及生活的諸多方面,而且在未來的一段時期內,人們生活中的大部分工作和學習以及勞動,都能夠在一定程度上被人工智能時代所承包。所以人們對人工智能的依附性就會隨著社會的發展而提高。在這同時,如果有些人利用人工智能時代的技術,展開違法犯罪的行為,就能夠在一定程度上造成對人們生活和社會發展毀滅性的危害。在人工智能時代發展的過程中,犯罪活動也不斷增加了其危害的深度,產品的智能化在依靠人工智能技術下能夠得到顯著的提升,為人們的生活帶來了更多的便利,但是在這同時潛在的危害性也在逐漸的增加。
例如:不法分子可以利用人工智能技術,對一些商業的核心技術進行盜取和破壞,企業失去了核心那么也就意味著瀕臨毀滅;還可以通過其技術盜取人們的身份信息,家庭地址等各種信息的隱私,相對直接的威脅了人們的人身和財產安全。
2、引發了全新的犯罪形式
人工智能技術在使編碼程序系統化的基礎上,能夠夠全面的獲得眾多的信息數據。這就要求了人工智能有必要的對大數據,進行系統化和科學化的掌握及運用。還有一種情況就是,可能導致大數據被錯誤使用,不法分子若是將大數據進行違法的操控,濫用大數據中的數據信息,破壞甚至泄露數據庫的重要信息,造成企業內部的動蕩,極有可能危害到國家的信息安全。不法分子能夠利用人工智能技術,對這些大數據進行歸納和分析并使關鍵性的數據更為詳盡,不法分子的此舉,已經嚴重違背了我們人工智能時代發展的初衷。
3、脫離人類控制,對人類做出危害行為
智能機器人并沒有足夠的識別能力和控制能力。甚至在不法分子的一些違法操控下,造成諸多危害社會穩定的行為。智能機器人已經能夠在編程,以及設計的范圍之外完成更多類別的行為,有些各別的智能機器人與人們的操控不相一致,自己有著自己的編程順序,無論人們對其屏蔽或者停止使用,這些機器人中所潛在的程序還是能夠對人們造成一定危害,一旦智能機器人完全脫離控制,就會引起不可逆轉的毀滅性后果。
例如:人們在對計算機的使用中,安裝包自帶的一些小程序會對人們的正常使用造成一定程度的困擾,還有一些幕后的計算機黑客人們稍不注意就會侵襲計算機系統,盜取計算機內的所有信息文件,并根據IP地址大致的進行分析所在的位置,從而確定人們的身份信息,工作的地址,以及工作內容中等重要機密;人們在使用智能手機的時候,游戲網頁中會在不同的時間段內彈出一些不良的對話框,或是精彩的影視或是促銷的商品,誘導人們對其點擊,人們若是沒有進行關閉并繼續點進對話框中,手機在幾分鐘內就很可能會被植入病毒使整個系統癱瘓,而且一些頑固程序我們手機本身還刪除不了,不法分子若是將其利用,那么有極大的可能會從中獲取暴利,由于現代人工智能化的不斷進步,在生活中較多群體會使用智能手機進行財務的轉賬與生活,手機系統的癱瘓所隱藏的危害就是,人們的一切在信息在不斷的泄露,人們的資金安全受到了威脅,隱私問題也得不到很好的保證。
二、人工智能時代的刑法完善
1、增設一個濫用人工智能罪
犯罪分子濫用人工智能產品的這一行為,嚴重的危害了我國公民的合法權益和核心利益,同時對于人類社會的穩定性和安全性在一定程度上也構成威脅。我們可以切合實際的舉一個例子,比如說人工智能技術就是一顆定時炸彈,不法分子就是其引爆者,炸彈一旦被引爆,我們原有一切可觀的利益與安穩的生活都會不復存在。所以我們要有效的對人工智能時代所附帶的犯罪行為進行規范的管理與規避,同時人工智能的規范技術應該在安全邊界范圍之內進行實施,依靠法律形式能夠對違法犯罪分子進行有效的威懾。確保能夠合法性規范性的使用人工智能產品。雖然刑法的威懾力度較大,能夠對犯罪分子施以最大程度的警示,但是刑法在對剝奪犯人權利的處理中,一旦實施將是不可逆轉的,權利一旦被剝奪就不能夠被重新的獲取。所以我們在刑法中添加一條濫用人工智能罪,能夠有效的控制人工智能時代的大數據被濫用的不良行為。濫用人工智能技術進行的犯罪與過去相比,其危害性和破壞性顯著增加,為了更好的使法律體系建設得到逐漸完善,我們有必要在刑法中增設濫用人工智能罪。
2、增設人工智能事故罪
由于人工智能時代的特別性質,我們只有將人工智能使用者,以及開發者的自身權利和執行的義務,在最大程度上進行明確了解,才可以在人工智能的使用過程和研發過程中加以嚴格的控制,從而降低人工智能技術使用過程中的安全危害。在人工智能產品研發的過程中,我們有必要的將研發生產的所有步驟和各個環節,將社會中的價值體系,以及法律規范相融合。使人工智能時代能夠嚴格遵守社會規范生產產品,同時人工智能產品在開發和使用的過程中,對數據信息的安全性要嚴格的實施保障,從而在一定程度上避免數據信息的錯誤使用。對于人工智能時代的生產者和使用者,我們需要確立嚴格的責任,在刑法中添加一條人工智能事故罪,在人工智能產品研發的過程中,有必要的將法律以及社會的道德規范融入到相關的系統之中,并且對數據信息我們應該有義務的進行保護。人工智能的自主系統必須得到人們的完全掌控,同時我們應該重視是,智能機器人的一些行為,在一定程度上可能會成為法律意義上的行為。
3、規范人工智能的研發者和使用者
在我國刑法中,我們大致可以通過兩個方面,對人工智能的研發者和使用者進行規范,一方面就是故意犯罪行為,另一方面就是因過失而引起的犯罪行為。對于一些使用者故意的依靠人工智能產品,來進行危害社會的活動中,智能產品能夠被看成使用者違法活動的工具,在此同時所產生的一切法律刑事責任,需要對其承擔的應該是智能產品的研發者以及使用者。在因過失而犯罪的情況中,我們要結合社會的發展狀況,根據人工智能的研發者和使用者的技術水平進行督查,考察其是否能夠對不良后果有預知的能力,以及研發者是否愿意對自身的責任進行承擔。
三、結束語
面對人工智能時代附帶的刑事風險,我國刑法應該從兩個方面對其規范,一是對智能機器人的犯罪行為進行規范,二是對人工智能的研發者和使用者進行必要的責任追究。我們不僅要從源頭上對風險進行防治,還應該在各個環節確立嚴格的責任。筆者在本文將刑事風險加以深入分析的基礎上,提出了避免刑事風險發生的措施,主要的兩點就是增設濫用人工智能罪和人工智能事故罪的法律條例,目的在于為了能夠更好的預防刑事風險的發生,從而降低刑事風險的發生概率。希望能夠在促進我國刑法體制不斷完善的同時,使人們的生活得到安全穩定的保障。
【參考文獻】
[1]劉憲權,林雨佳.人工智能時代技術風險的刑法應對[J].華東政法大學學報,2018,21(05):46-54.
[2]高銘暄,王紅.互聯網+人工智能全新時代的刑事風險與犯罪類型化分析[J].暨南學報(哲學社會科學版),2018,40(09):1-16.
[3]李興臣.人工智能機器人刑事責任的追究與刑罰的執行[J].中共青島市委黨校.青島行政學院學報,2018(04):112-116.
[4]李璐.人工智能與司法事務的碰撞及其刑事風險與刑法規制[J].九江學院學報(社會科學版),2018,37(02):115-119.