(貴州民族大學 貴州 貴陽 550000)
在2016年谷歌公司研發的“阿爾法狗”與圍棋世界冠軍李世石圍棋人機大賽中,阿爾法狗以總成績4:1戰勝了李世石,引發了一系列的有關人工智能的思考與擔憂。劉憲權認為一個全新時代的到來,對傳統的法律理念和原有的法律法規無疑沖擊最大,而我們面臨的人工智能時代,同樣也會給我們帶來一系列的法律應對和完善的問題。[1]
人工智能時代以人工智能技術為實質,人工智能技術學習人類的思考方式,分析人類神經系統基礎上,使計算機系統對數據進行學習并且思考,使得計算機系統能夠進行分析、判斷以及決策。詳細來講,個人認為人工智能可能出現三大問題,一、人工智能將產生新的犯罪方式、方法。二、人工智能的出現使此前犯罪行為的危害性逐漸增大。三、人工智能的進步進而使得可能將來獨立實施犯罪。
人工智能的工作原理是利用人工設計的神經網絡系統以及一系列編碼程序,對大量數據進行精確分析,從而獲得辨認甚至決策等技能。從最高人民法院、最高人民檢察院出臺的司法解釋中看出,我國刑法及司法實踐重點保護用于維護信息系統自身功能的、以訪問控制為主要考慮的數據,沒有對數據自身內容功能上的價值與保護的必要性。[2]
科技永遠是把雙刃劍,當每一次技術更新的時候,人們的效率會得到質的飛躍,但與此同時帶來的問題也會更多,劉憲宗曾在相關論文中論述過,互聯網技術的快速發展雖然不會使得所有傳統犯罪都“升級”,但是確實會使得部分傳統犯罪的危害性發生“量變”。[3]
機器人是人工智能產品的代表。美國著名科幻作家阿西莫夫曾提出“機器人三原則”,即“機器人不得危害人類、必須服從人類的命令、在不違反第一條和第二條的情況下必須保護自己”。[4]但這些原則真的能束縛住機器人嗎?一旦機器人學會了像人類一樣思考的話,它便擁有了自己的思考能力以及決策意識,在人類編程之外獨立實施他想要去操作犯罪行為,對此人類就需要獨立承擔刑事責任了。
以機器人為代表的人工智盡管可能不斷深度學習產生自主意識和意志,并在此意志和意識來獨立實施嚴重危害社會的犯罪行為,這時機器人已經具備刑法中犯罪主體的主觀條件,的確應該承擔對應的刑事責任,單單通過我國現行刑法對智能機器人的犯罪行為進行定罪是很難做到的。
研發者利用人工智能故意實施犯罪行為。科技進步為人類帶來便利的時候也為某些人實施犯罪行為提供機會,假如研發者個人創造人工智能是為了實現自己的計劃,利用智能機器人或者人工系統實現犯罪的目的。此時人工智能系統便是一種工具,所以此時的刑事責任應該由其設計者來承擔。當然此時還有一個更重要的問題就是可能出現一些認識錯誤的情況,假如利用機器人去殺人的話,由于程序上出現了某些漏洞并沒有能夠殺死某人此時便構成了故意殺人未遂,理由在于手段利用錯誤。其次還有另外一種情況,如你想設計一種機器人其最初目的是讓其幫助你殺死甲,但是中途智能機器人產生了混亂,從而殺死了乙或者丙,這在刑法中典型錯誤在智能機器人身上也不是不可能發生的。
我們知道,在過失中還會存在“疏忽大意的過失”以及“過于自信的過失,此時如果構成犯罪是不是應該成立有關人工智能過失犯罪的某些罪名呢?
國家允許生產機器人并將其投放市場,必須制定人類現有科學技術水平所能夠企及的國家標準或行業標準,符合標準的便不屬于缺陷產品,其所導致的危險便不屬于“不合理的危險”。因為任何一項技術當出現重大突破時會有這樣或者那樣的缺陷在當時無法發現,以此為思路,研發者便沒有故意或過失的主觀心態,那么此時便不再可能追究研發者的刑事責任。
在如今刑法對于人工智能存在一定滯后性的情況下應盡快考慮著手有關方面的規劃和補充,就此技術而言,使得人工智能技術的設計和利用處于一種安全的范圍中,即使人工智能可能變革原有犯罪行為,產生新的犯罪形式,甚至只能機器人獨立實施犯罪行為,可以說在此情況下濫用人工智能技術將會比任何時候犯罪的危害性更大。
智能機器人將可能在將來某一天擁有類似于人的辨認能力和控制能力,也可以在人類社會中自己獨立實施某些犯罪行為,對此筆者考慮可以將刑事責任主體增加機器人(具有辨認和控制能力)理由如下:
首先,智能機器人在設計程序范圍外實施行為完成的是其自己的意志,而意志存在是對于刑事責任能力認定的重要依據。以單位犯罪來說,對于單位應否成為刑事責任主體爭論的核心就在于“單位能否像自然人一樣,從而實施犯罪行為,并且具有犯罪的意識和意志,是否有承擔刑事責任的能力”。[5]德國費爾巴哈學者曾說:“只有個人才能成為犯罪的可能的主體,而法人(如公司、大學或者學院等)決不可能成為犯罪的主體。[6]因此與單位進行比較可以明顯發現,智能機器人比單位有更加高意志和自由,完全有可能脫離人類產生獨立的意識,相對于單位來說,其運作方式和方法都是仿照人類思考方式,刑法應該考慮其意志自由性,考慮賦予其法律上的主體地位。
其次,智能機器人的行為完全可能成為法律意義上的行為。歷史上關于行為的理論由自然行為論、因果行為論、目的行為論等。這些行為理論普遍地認為只有“人”的行為才可能成為法律意義上的“行為”。
綜上,筆者認為,人類既然有能力去創造一個前所未有的人工智能技術,那么便有理由去利用好它,我們必須重視人工智能有關刑事責任的問題,要建立嚴格的人工智能設計嚴格審批制度,從源頭上對這些風險加以防控或許是一個較為明智的選擇。因此,刑法需要在其他法律法規對人工智能產品的研發和使用過程作出具體規定的基礎上,將其中嚴重危害社會的行為納入規制的范圍。