文詩映
海南師范大學,海南 海口 571158
目前,人工智能的發展已經滲透到各大領域,其在博弈、語言理解、數據算法等方面都獲得了巨大的成功。2017年,我國國務院發布了《新一代人工智能發展規劃》,將人工智能作為我國重點發展項目推進。而同年,AI犯罪案的破獲也使人們開始客觀的對人工智能進行分析,對其刑事法律地位開始了探究。
早在1956年,人工智能的概念就已經提出,并在業內進行研究,但其還沒有獲得社會的廣泛關注。直至2016年,谷歌公司推出的智能機器人“阿爾法狗”在圍棋比賽中戰勝了世界冠軍李世石,人工智能才真正走進了人們的視野。隨后,“阿爾法狗”在圍棋網站上與中日韓多名圍棋高手連戰60場無一敗績;2017年,其與當時世界排名第一的圍棋選手柯潔對戰,以3:0的比分大獲全勝,更讓人大吃一驚。經過人們對其的了解后發現,“阿爾法狗”的升級版AlphaZero已經具備了自主學習的能力,并只通過40天的時間,就完全戰勝了“阿爾法狗”。其驚人的能力讓人們看到了人工智能對社會發展的推動作用,由此開始大力投入研究。當人們沉浸在人工智能帶來的發展機遇中時,“AI犯罪案”的出現讓人們意識到人工智能犯罪巨大的危險性[1]。
2017年9月,浙江紹興警方破獲了我國首例利用人工智能竊取信息實施犯罪的案件,截獲了公民個人信息10億余組。在某非法平臺上,有著破解、盜取、販賣和盜用公民個人信息并實施詐騙的完整鏈條,人工智能就應用在信息盜取中識別驗證碼這一環節上。驗證碼是各大網站為了抵擋黑客入侵設置的安全樞紐,它所提供的驗證形式不易被機器破解,而又容易被人類回答。在人工智能應用前,驗證碼對黑客撞庫起到了很強的防范作用,但在人工智能應用后,黑客通過AI的學習功能創建打碼平臺,并將撞庫中獲取的驗證碼導入其中,由人工智能將驗證碼圖片轉為字符,實現驗證碼破解,獲得用戶信息。根據互聯網協會的統計,我國網絡用戶信息,每人每年平均被泄露5次,每年因信息泄露造成的經濟損失達到約900億人民幣。由此可見,人工智能犯罪離我們并不遙遠,隨著技術的發展,人工智能的不斷投入使用和優化,其犯罪率甚至會超過人類。
由此,人工智能在刑事法律領域引發了一系列的問題。例如,在人工智能引導的無人駕駛汽車中,如果發生交通事故,汽車本身能否承擔刑事責任;當人工智能從事工業生產時,如果對他人的生命安全或財產造成危害,是否由機器人承擔法律責任;如果通過人工智能造成了對他人的侮辱或誹謗,對智能機器人能否成立侮辱、誹謗罪名等。這些問題的出現無疑都指向了對人工智能刑事法律地位的探討,我國法律研究人員應盡快明確人工智能犯罪的責任歸屬問題,確認相關犯罪機制,讓我國在人工智能管控方面更加清晰[2]。
明確人工智能是否能成為刑事責任主體,是對人工智能刑事法律地位探究的重要方向。刑法是制約人的法律,是對有獨立思想的人進行控制的重要手段。如今,人們對于人工智能刑事法律地位的討論是由于對強人工智能的設想而提出的,但就目前來說,現有的人工智能處于弱人工智能階段,如AlphaGo或是Siri,雖然具有著人不能超越的能力,但其只是一種程序的設定,沒有感知及理解能力,所以現下對人工智能是否能夠成為刑事責任主體要針對弱人工智能進行分析。
刑事責任的判定不是對客觀危害行為的考察,而是判斷其是否具有主觀意志,對自身行為能否準確判斷。而人工智能雖然在直觀條件下是自身進行行為動作,但不能稱其為具有主觀意志的動作。人工智能無論是發出語音還是作出行為都是由其中央控制系統所掌控,而運行中央系統的不是人工智能本身,而是它的程序設計者。所以人工智能是否能作為刑事責任主體,要根據其行為是否是主觀意識控制來確定。例如,2017年10月,沙特阿拉伯授予一個名為“索菲亞(Sophia)”的女機器人沙特國籍,使其成為了第一個具有公民身份的人工智能。因此,有人認為,授予機器人國籍就是承認了人工智能應該承擔刑事法律責任,無論是其對他人造成危害,或是其他人對其造成傷害,都應該付相應的法律責任。但實際上,機器人無論是否具有國籍,其無法擁有自己的主觀意識,無法履行公民義務,也不需要享受公民權益。“索菲亞”雖然以一個公民的身份出現,但她對自身的行為沒有感知能力,她不能主觀對人造成傷害,也無法判定他人是否對自身造成危害,一切行為的判定還是由人來決定的。因此,人工智能的主觀行為不屬于真正意義上的主觀,而是通過人類干預,為其設定的主觀意志。所以,這種沒有主觀意識的人工智能不能成為刑事責任的主體[3]。
當人工智能出現錯誤,對人的生命及財產安全造成傷害后,對其的屬性判斷如果是人工智能脫離了人類程序控制,利用自主思維對人或物造成傷害,就代表其具有主觀意識,需要承擔刑事責任。但如果其單純由于技術故障造成損害,就無需承擔責任。從目前的科技發展看,人工智能具有脫離人類的獨立思維明顯是無稽之談。所以,人工智能實際上缺乏承擔刑事責任的本質要素的。其實,人們對人工智能創設的概念本身就存在一定問題,人們創設人工智能時,需要其具有一定的獨立創造能力,有需要其完全在人類的控制之下,這種想法本身就是相對立的。創造需要有獨立的思維,如果人工智能完全受到人類的控制,就必然不具有創造力,也就違背了人們對“智能”的定義;如果人工智能能夠擁有獨立的思維,也就不能再稱之為機器,而是一種生命體,這無疑也違背了人們創造人工智能的初衷,而且也沒有技術能夠支持創造出具有獨立思維的機器。目前,對于人工智能研發重點的自動駕駛領域,如果在自動駕駛中出現交通事故,對于危害屬性的判定明顯不能歸結于人工智能系統本身。因為自動駕駛只是系統的設定,它作為單純的機器系統,不具備思考與行為能力,只是通過對周邊環境的感知完成設計者為其安排的指令。該系統的一切反應和行為都歸結于其設計者,所以,人類對于自動駕駛的感知與反饋行為有著絕對的控制權。因此,當自動駕駛發生事故時,需根據原因判斷決定刑事責任的歸屬,與人工智能本身無關。由此可以證明,人工智能不能作為刑事責任的主體。
刑罰是刑法中對犯罪者進行制裁的主要手段,我國目前對于人的刑罰主要有罰金刑、自由刑和生命刑,如果人工智能具備承擔刑事法律的主體地位,那么就需要對其是否能收到刑罰制裁進行判斷。首先,對于罰金刑,是強制犯罪分子繳納一定財產的刑罰方法,也是現下學者認為最適用于人工智能的刑罰。有人認為,在人工智能開始投入使用后,其制造者和使用者應購買一定的保險作為人工智能出現問題后的罰金,但如果人工智能能夠作為主體承擔法律責任,通過保險繳納罰金也就代表了將對人工智能的處罰轉嫁給了制造者和使用者,這違背了刑罰中對犯罪分子進行處罰的原則。也就是說,罰金刑對人工智能并不適用。其次,對于自由刑,是指對犯罪分子自由權益的剝奪,通過拘禁的方式對其進行處罰。但這種方式并不適用于人工智能,人工智能作為機器,沒有具體的思想,不會理解限制自由的意義,無法達到處罰的效果。最后,對于生命刑,也就是死刑,其在人工智能范圍內實施就是對其程序進行刪除或銷毀,這實際上不能解決人工智能所造成的問題,還會對其開發者和購買者造成損失。如果承認人工智能是能夠承擔責任的主體,實施生命刑也有為人道主義和禁用死刑原則。因此,總的來說,人工智能沒有使用刑罰的可能性,所以也不是刑事法律的主體。
綜上所述,隨著人工智能在教育、醫療、商業、交通、生活服務等領域的不斷運用,人們對其風險的風險的研究也逐漸深入,人工智能的刑事法律地位探討成為一個重點話題,無論人工智能在未來是否需要對刑事法律負責,我們都應該立足于刑法理論對其進行風險的預判和規避,使其在科技發展的大環境下為人類做出更大的貢獻。