□段恩佳 管晞羽
人工智能,利用計算機科學技術研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用的學科。在網絡技術日益發達的今天,人工智能技術不斷走向成熟,涌現出:特斯拉人工智能系統自動駕駛、亞馬遜的個人助手Alexa、谷歌公司研發的AlphaGo等一大批人工智能產品。目前,人工智能產品的實際應用已經變得十分廣泛,物聯網的實現、辦公室、銀行系統、電子游戲等都是以人工智能技術為基礎,人工智能已經成為重大行業技術革新乃至國家競爭實力的關鍵因素。但是,正如為曼哈頓工程工作的著名的波蘭裔美籍數學家烏拉姆直擊心靈的話:不斷加速的科學進步,以及對人類生活模式帶來的改變,似乎已經把人類帶到了可以稱之為“奇點”的階段,也就是人工智能超越人類的階段。眾所周知,人工智能依靠著計算機設定的程序算法運行,現如今,超越人類大腦的非智能機器并不存在,但隨著未來智能科技的發展,未來不可預知,人類無法確保不會出現具有獨立于人類指令控制的具有自我感知、情感的超級機器人。超級機器人的出現將打破現有的既存的刑事責任理論認知的結果,對于“只存在行為反應出行為人是行動者時,行為人才要對行為負責”構成一定的挑戰[1]。故對于未來可知的超級機器人的出現,其應用造成的傷害的刑事責任的承擔應該作為考慮范疇。正如所說:新興科技倫理規約所面臨的現代化困境其實在于責任問題,如何確定人工智能技術活動及其后果的責任主體,是人工智能的發展所必須考慮的問題[2]。
刑事責任可以定義為:刑事責任是刑事法律規定的,因實行犯罪行為而產生的,由司法機關強制犯罪者承受的刑事懲罰或單純的否定性的法律評價的負擔[3]。人需要對自己的行為承擔刑事責任,刑事責任己成為一座犯罪與刑罰之間的橋梁。其中刑事責任能力作為刑事責任中的重要一環,可以定義為:行為人能夠對自己的行為意志、意義及后果進行控制并能承擔刑事責任的能力。又稱:行為人控制和辨認自己行為的能力。在判斷行為人的是否構成犯罪,需要根據行為是否符合犯罪構成[4]。
人工智能的產品是否能夠具有人格屬性,具有刑事責任的主體地位?大多數學者認為未來的人工智能產品應該具備類似于人的刑事責任能力,承認人工智能產品的主體性,認為在人工智能發展的高級化階段,將會成為具有控制能力和辨認能力的智能機器,當具備此種能力之后,智能產品所實施的具有自主意識的行為達到了嚴重危害的程度,需要歸責于人工智能產品,若將其責任歸責于人工智能產品的設計者和使用者是不恰當的。
事實上,人工智能發展大體可以劃分為兩個發展階段:初級化階段和高級化階段。在人工智能的發展初級階段,智能機器處于人類的算法控制之下,人類事實上是真正的主宰者,并不具備達到人腦的發達神經系統運轉模式,并不具備自我控制能力和辨認能力。智能產品行為所造成的危害結果,從根本上說,是行為人造成的危害后果。最終的刑事責任也將由行為人承擔。人工智能的高級發展階段預示著未來人工智能技術所創造的具有自我感知、控制和自我辨識能力的智能機器,此時,承認人工智能產品的法律人格屬性和刑事責任的主體地位還是否有真正的必要?人工智能產品本質應定義為工具,推動人類社會發展的利益工具,無法擺脫自我的工具性質。高級人工智能產品具備了在各方面超越一切智慧人類的時候,人類處于明顯弱勢,形勢可能發生了變化。人類設計并利用的工具可能被激活,深度學習人類的智能產品將會成為社會統治的主體。當這一時刻出現的時候,去界定人工智能產品的刑事責任討論將會失去意義。產品的設計者和利用者可能成為責任的附屬品,可能成為利用的工具。真正的責任承擔是社會人工智能的倫理立法,規避技術使人類面對的自我困境,考量風險社會下對于人工智能技術刑事立法規制問題,故無論何時,人工智能的本質屬性不會改變,也不應發生改變。
在現實的刑法學理論中,生活中的人這個個體作為刑事責任的主體,刑事責任作為法律責任的一種,已然成為國家和社會對于人在整個社會價值中最嚴厲的一種懲罰手段[5]。無論是刑事責任理論中的法律責任說、強制方法說、法律后果說乃至否定評價說,都是國家對于犯罪人及其行為所作的一種否定性評價和譴責。故目前討論人工智能產品的刑事責任問題主要圍繞著人工智能產品是否能夠類似于人作為刑事責任的犯罪主體,是否應當賦予人工智能產品的法律主體地位。一部分學者主張:根據目前人工智能產品的發展階段將其劃分為弱人工智能階段和強人工智能階段,以人工智能的發展為著點,認為區分強人工智能與弱人工智能的關鍵在于其是否超出設計和編制的程序范圍,是否具備獨立意識和自我決策能力。承認了弱人工智能產品刑事責任的的工具屬性,無需刑事責任的承擔。主張強人工智能產品的歸責性質,一個具備自我控制能力和辨認能力的人工智能的產品,在原有的自我程序算法之外產生自我的犯罪意圖且實施了嚴重危害社會的行為,需要承擔單獨責任或者設計者或使用者的過失程度共同承擔責任。實際上承認了強人工智能產品的責任屬性,賦予了其法律責任的地位。另外一些學者存在著對立的觀點,其主張:人工智能產品的本質是工具,無論如何,人工智能產品始終作為一種工具而存在,主張中的人工智能產品并不具備刑事責任中的犯罪主體地位,故現有的刑事責任理論能夠對此進行規制[6]。
大多數學者以人工智能的發展歷程,實質上以未來科技能力作為衡量,普遍認為人工智能產品可以劃分為兩個階段:初級階段與高級階段。在人工智能發展的初級階段,現有的計算機算法技術無法企及于人的大腦,人工智能產品依舊是附屬于人類可控制范圍的工具,在刑事責任的承擔上,創造和使用此工具的犯罪行為的實施者承擔著最終的刑事責任。在人工智能的初級階段,人工智能產品本質上依舊是工具。自從艾倫.圖靈在其1950年的論文《計算機器與智能》中提出探索將大腦的核心算法變成人腦這一目標以來,當20世紀最杰出的數學家和電腦時代先驅的最后著作者堅定計算機將會模仿人腦對信息進行加工的過程,提出計算機和人腦在本質上是相同的后,人工智能似乎在朝著此方向發展[7]。對此,即使未來的人工智能發展到高級階段,人類社會真正創造出具有獨立意識和獨立思考能力的超級人工智能產品,庫茲韋爾基定律預言成為現實,計算機智能超越人類,真正將人類帶到“奇點”之后,智能產品擁有的能力超越人類,人類現有的知識框架、思考能力、聯結數目難以抗拒令人眩暈的加快爆發的人工智能,一切傳統的和習以為常的認識、理念、常識將統統不復存在。超越臨界點之后的人類終將會迷失自我,嚴重的是失去對自我的控制。超強的人工智能真正具備了人類的模式識別、認知能力后,真正具備處理紛繁復雜的人腦意志后,特別是意識、想象和創造能力后,人類的處理能力根本無法對抗智能產品后,人類社會將會淪為“工具”,當人類成為附庸,人類不再成為現在的主體,討論未來的刑事責任承擔問題將會失去意義。強人工智能產品是否被需要,人們需要這樣的高級不可控制的人工智能產品嗎?答案可能是否定的。
本文的目的主要分析現有的人工智能刑事責任理論問題的認定,并不是直接指明解決人工智能刑事責任問題具體的解決方案。現在既存的刑事責任理論足以解決目前人工智能產品所帶來的刑事法律中刑事責任的挑戰,真正的問題在于人工智能自由化發展引發的嚴峻挑戰。高級人工智能的設想能否實現及如何實現需要真正地掌控在刑事立法的規制之中。