于沖(中國政法大學副教授、網絡法學研究中心研究員)

人工智能時代背景下,人工智能犯罪開始越來越多地受到學界關注。對于人工智能算法自主決策行為及其引發的危害后果,傳統民事、刑事規則很多情況下都顯出明顯的滯后與評價的空白,以至于刑法學界關于人工智能犯罪的研究呈現出“智能化”、“想象化”和“過度未來化”的空想特質。針對可能出現和已經出現的人工智能犯罪,應當明確刑法所要規制的對象不是機器人,而是機器人背后的技術行為和人的過錯。因此,關于人工智能的刑法規制,應當立足于人工智能的技術實質和發展規律,以算法規制為核心,系統化地思考人工智能的刑法評價進路。
在智能互聯網時代,人類決策權向人工智能的不斷轉移,導致“制定標準、制造硬件、編寫代碼的人擁有相當程度的控制力量”,而“人工智能變為執行人類指令、通過算法解決問題的一種智慧性高級工具”。因此,關于人工智能基于自主決策造成的危害后果的責任追究,傳統刑法逐漸面臨挑戰。基于此,學界圍繞人工智能的刑法規制模式,展開了人工智能主體化與否的爭議。
整體上講,人工智能犯罪基本可以分為三類:一是以人工智能為對象的犯罪,即對人工智能系統、數據、算法等實施的攻擊破壞等狹義的計算機犯罪;二是以人工智能為工具的犯罪,即利用人工智能實施的非法爬取數據、侵犯公民個人信息,以及違反人工智能安全管理義務觸犯的拒不履行信息網絡安全管理義務罪等傳統犯罪;三是以人工智能為“本體”的犯罪,即人工智能深度學習“本體化”以后自主決策實施的危害社會的“犯罪行為”。前兩類犯罪同當前網絡犯罪以及傳統犯罪的網絡異化態勢具有相似性,完全可以以現有的應對思路進行回應。對于第三類以人工智能為本體的犯罪,成為困擾當前學界的一大難題,形式上體現為傳統刑法的罪過論、行為論、刑罰論在人工智能自主決策實施“犯罪”面前束手無策。這種束手無策所體現出的人工智能主體化、算法的不可控性進一步加劇了刑法理論在解決人工智能犯罪面前的“妥協”。典型的人工智能主體化觀點認為,可以以智能機器人能否在設計和編制程序范圍外實施行為,作為區分刑事責任能力即辨認能力和控制能力有無的界限。針對強人工智能階段智能機器人獨立實施嚴重危害社會的犯罪行為,應當堅持相對獨立的刑法評價,借鑒法律擬制的思維,將人工智能擬制為與自然人和法人并列的第三類新型責任主體,從而建立適合該類主體的特殊刑罰體系。另有學者從應對“道德困境(moral dilemmas)”作出倫理選擇能力的角度,論證了機器人刑事歸責的合理性,認為當人工智能能夠成功學會表達和決定道德的問題時,其將會有能力理解懲罰的意義,進而具有刑法意義上的行為人的資格。持否定論觀點的學者一般認為,未來人工智能系統成為犯罪主體應當具備“具有與人類社會規范意義上的辨認能力和控制能力”“法律允許進入人類社會”“受到人類社會法律的管理”三個核心要素,且需與刑法體系相協調,即包括刑法的目的與任務,以及犯罪、刑事責任與刑罰相關規定相協調,而這些條件都是人工智能所不具備的。另有學者從“道德預設”和“目的預設”的角度否定了人工智能的法律主體資格,認為機器只能被設計成遵守法律而不能理解法律,只有人類才能理解“權利”和“責任”的涵義,法律不可能會對機器人本身的行為產生影響,如刑罰的震懾效應對機器人來說幾乎沒有意義。與肯定論和否定論有所不同,階段論的基本立場是,是否賦予人工智能刑法主體地位應當結合當前科技發展現況進行探討。因此,階段論的學者認為,在未來很長一段時間內人工智能都將是從屬于人類的工具,現階段承認人工智能具有刑事主體地位為時過早,純粹出于“幻想”的理論探討有違刑法的“沉穩”與“謙抑”品格。
在肯定說、否定說和階段說中,筆者認為,否定說雖然在刑法意義的層面否定了人工智能的主體地位,但是不同的否定說的理論依據并不完全相同,筆者將在本文接下來的論述中予以闡明。而階段說和肯定說都是不妥當的,誠然,當前人工智能技術依然停留在弱人工智能階段,此時的人工智能更多的是作為一種智能“產品”和輔助人類具體事務的“工具”出現在人類面前,其不具有自主意識和自由意志已基本成為學界的通說觀點,當人工智能與犯罪行為相聯系,出現侵害法益的后果時,通過傳統刑法的犯罪理論體系追究其背后的“人”的刑事責任即可解決問題。但是技術的發展遠超于人類的想象,強人工智能時代的到來必然是大勢所趨,因此階段論適用范圍過窄且缺乏一定的立法遠瞻性,無法回答未來強人工智能時代自主性極強的智能機器人獨立進行犯罪行為時的立法規制問題。
而肯定說存在的最大問題在于,一味地將智能機器人與人的特征進行對比,論證人工智能具有刑事責任能力的可能性,忽略了刑法理論中責任主體,只能是人的最基礎也是最核心的要素。人工智能作為一種人造物是否會產生自我意識并不是刑法所要討論的問題,這是一個至今理論界無法得出定論的哲學問題。法律所要調整的是穩定、清晰的法律關系,人的本質是社會關系的總和,人工智能的本質是人的工具、人的器官延伸,人工智能不可能在法律關系中成為一個真正的主體,刑法理論中的責任主體只能是人,即使現今大部分國家承認法人也具有犯罪能力,但法人本質上是由自然人組成的社會集合體,即使是我國規定的單位犯罪,也是通過具體的自然人實施的,單位犯罪中除追究單位的刑事責任外,一般也要追究相關自然人的刑事責任。因此,筆者基本上贊同否定說的觀點,即不論是弱人工智能抑或強人工智能階段,智能機器人均不得具有刑法主體地位。但筆者的理由與否定論者并不完全相同,而是源于對責任主體理論根基的重新解讀,源于對技術倫理與立法道德沖突的自我反思。
當前學界對于人工智能是否具有刑法主體地位的討論,似乎偏離了最基本的軌道,即應當在堅持刑法基本理論的基礎之上,去探討人工智能刑法主體地位的合理性。筆者認為,刑法對人工智能刑事責任主體地位賦予與否的關鍵,核心不是在于能不能的問題,而是應不應的問題。
刑法中責任主體的理論根基只能是人,刑事責任是人在應該而且能夠選擇符合法律規范的行為時,卻主體性地選擇了違反法律規范的行為,因而必須接受的譴責和懲罰。通說認為,刑法上的責任能力,由辨認能力與控制能力組成。但辨認能力與控制能力,不是對任何事物的辨認控制能力,而是對法律規范、社會規范的辨認能力和行為人控制自己按照規范行為的能力。這種辨認控制能力的選擇與承認,不單單是從技術層面進行的,還要經過法律的價值選擇。概言之,責任能力是人特有的主體性特征,而人工智能經過深度學習算法和數據處理后生成的“思維能力”,僅僅是從技術層面對外部事物進行感知并作出判斷,雖然會進行思考,但此類思考都是基于人類的初始程序設定,歸根究底還是離不開人類的控制。即使未來出現了智力遠超人類的人工智能,仍然應當將高階人工智能的認知和決定能力與人的辨認能力和控制能力嚴格加以區分。這是由人與人工智能基本關系的定位所決定的。不管是何種階段,人工智能都是模仿人類智能所創造出的、處于人類控制之下的延伸物,人工智能由于機器學習的算法所產生的意識和意志能力具有依附性,永遠是人類賦予的,具有相對性,永遠應當受到人的控制。人工智能只是復制和模擬作為主體的人類,其終究是模仿人類智能創造而出的,是人類思維的產物,屬于人類勞動創造的客體。
“刑法不僅要面對犯罪人保護國家,也要面對國家保護犯罪人,不單面對犯罪人,也要面對檢察官保護市民,成為公民反對司法專橫和錯誤的大憲章。”若賦予人工智能以法律主體地位,相應地,人工智能也應具備一套完整的權利義務規則體系,當人工智能具有法律主體資格,其被人類侵害時是否也要考慮人工智能應受法律保護的權利?當人工智能成為犯罪主體時,法律是否需要保障人工智能作為“犯罪人”的權利?這一系列的問題都需要法律進行解答。其次,刑罰是以痛苦為本質內容的,但單純的痛苦并不是刑罰的目的,包含在刑罰中的對行為的否定評價,由刑罰傳達給行為人與一般人,從而抑制未然的犯罪。對人工智能科以刑罰并不能有效實現刑罰針對特定人的特殊預防以及不特定人一般預防的功能。人工智能不具有生物學意義上生命特征以及獨立財產,現行刑法中的自由刑或財產刑無法有效地針對人工智能進行處罰,實施犯罪行為的人工智能并不能意識到自身行為的社會屬性以及可制裁性。而對個別人工智能實施制裁,也并不會影響到其他具有法益侵害可能性的人工智能,同樣無法實現刑罰威懾、教育、感化的一般預防功能。另外,從刑罰的安撫、補償功能角度審視,對人工智能進行處罰所實施的刪除數據或永久銷毀等,并不能慰藉被害人及其親屬因犯罪侵害而受到的精神創傷和引起的憤恨情緒,使受到犯罪破壞的社會心態回復平衡,而且人工智不具有獨立的財產,也無法彌補被害人受到的物質損失,由此將導致刑罰一般預防目的中所需的社會效應得不到反饋。
人類的道德觀和價值觀設計,人工智能作為服務人的工具,而非與人類并存的主體。人工智能本質上是一種工具,這種工具和其他工具一樣,是人類發現和利用自然規律的產物,是為了追求更好的生活目標所創造出的科技產物,從服務人類的工具屬性而言,人工智能并非與人類并存的主體,僅具有客體屬性。對人性的理解決定了刑法學的性質,所謂人性,即為人區別于動物、區別于其他事物的本質特征。人工智能表現出的“人性”僅為人類知識的處理結果,人類在作出決定時,更多的不是靠理性計算,而是靠直覺、情緒、感情等來作出判斷,這是人與跟智能機器人最大的區別,即使未來出現能夠進行自主思考的智能機器人,也不可能和人類一樣,機器只能靠邏輯或者從數據中自我學習,進行判斷。
針對可能出現的人工智能犯罪以及刑事責任承擔的問題,需明確刑法所要規制的對象不是機器,而是機器背后的技術,也即人工智能技術背后的行為和行為人。
2006年以來,以深度學習為代表的機器學習算法,在機器視覺和語音識別等領域取得了極大的成功,人工智能的發展模式也從過去追求“用計算機模擬人工智能”,逐步轉向以機器與人結合而成的增強型混合智能系統。有學者認為,人工智能的本質在于算法和數據處理,“類人化”的物理形體并非構成人工智能的必備要素,即使是人形機器人,也只不過是算法主導下的一個硬件系統。此即突顯出算法在人工智能發展中的核心和主導地位。現今人工智能具備的深度學習能力、獨立的自主判斷能力和自我決策能力,使得機器自我學習的結果變得更加不可控,這種機器學習的結果,將會使得將來社會面臨更大的風險和不確定性,而如何規制人工智能時代的智能機器犯罪問題,表面上看屬于法律難題,實際難點卻是在于技術而不是法律。盡管強人工智能基于深度學習算法,能夠不受最初編寫的原始算法控制,進而擁有自主作出判斷和決策的能力,但卻不能全盤否定人類作為算法設計者和開發者的主導性地位,及對人工智能行為的決定性影響。人工智能進行深度學習所需的原始算法,以及作為學習內容的海量數據,都是由人類設計或提供,即便人工智能在后續學習中可能會有新的算法產生,數據庫內容進行動態更新,但人類依然可以在源頭控制人工智能風險發生。
人工智能帶來的犯罪異化,對于傳統刑法理論的沖擊,已經超越了傳統犯罪的網絡異化、網絡犯罪的傳統化對于刑法理論、刑法體系的挑戰。如果說網絡犯罪異化帶來的刑法沖擊尚可以借助傳統刑法的擴大解釋、刑法的罪名增設進行應對,人工智能犯罪的沖擊則是跳出了傳統刑法的理論框架和規則框架,以至于刑法學界關于人工智能犯罪的研究呈現出“智能化”、“想象化”和“過度未來化”的空想特質。2016年歐洲議會針對人工智能可能獨立作出自主“決策”并執行“決策”的情況,提出賦予人工智能以“電子人格”的立法建議報告。但就如何具體落實人工智能“電子人格”所必需的民事行為能力和責任能力時,該份報告并未給出具體可行的方案,對于人工智能機器人造成的損害,報告僅提議制造商為機器人購買強制性保險。由此觀之,最終的責任承擔者都是人,智能機器的財產終究是人類通過某種方式給予的,因此賦予人工智能以“法律人格”似乎多此一舉。應當明確,人工智能刑法、人工智能主體化觀點的提出,某個程度上反應出傳統刑法在信息化時代、智能化時代的準備不足和理論慌亂。解決這一癥結的出路,在于明確人工智能的問題,明確人工智能犯罪背后的技術過錯是人的過錯,在刑法可評價的范圍內對人工智能進行規制。
人工智能生產、部署、運行的核心在于數據的獲取、加工和分析,而支撐數據活動的算法則成為核心的核心。因此,對于人工智能的刑法規制,應當跳出規制企業行為、規制人工智能本身(即人工智能主體化)的傳統思維,樹立起數據安全保障、算法規制為核心的人工智能刑法評價模式。可以說,算法的開發者及應用者等決定著算法影響社會的具體方式,不當的算法應用必然對既有的社會秩序和傳統的法律框架體系造成威脅。在刑事領域,對于人工智能潛在的犯罪風險,大部分可以通過傳統刑法對人工智能算法背后的行為人進行規制得到解決。需要強調的是,算法的可解釋性是算法進入法律的前提,法律對算法的規制可以使技術的發展不偏離合法合規的軌道。“即使算法結果是由數據自動化處理得出,從本質上講就是人為編制的運算法則,其中的回報函數體現著工程師的設計意圖和價值取向。因此在算法設計過程中,應當通過法律的價值影響算法的回報函數,加強對網絡社會的技術治理手段的法律歸化。”社會治理目標的實現必然要對技術進行法律化的規制,必須打破算法的黑箱操作,加強對算法的法律規制,使得算法更符合社會的倫理基礎與價值基礎。我們需要理性對待信息技術的發展并看清其本質的有限性,使網絡技術回歸到原初的工具位置,更好地服務人的生活。