楊凌霄 李喆
摘 要:近年來,快速發展的人工智能技術與大眾生活的聯系日益緊密,由此也引發了對人工智能涉罪問題的熱烈討論。本文從人工智能體是否具有刑事責任主體地位入手,立足目前人工智能技術穩步發展的基礎上,從生產者、設計者等不同角度分析其存在的刑事法律風險,最后闡述當前預防人工智能犯罪風險應持的基本立場。
關鍵詞:人工智能;刑事責任;刑事應對;風險預防
隨著人臉識別、智能翻譯、AI畫畫等逐漸進入日常生活,人工智能技術展現出強大的生命力和廣闊的應用前景。但同時,新的犯罪模式也隨之產生,如利用語音合成冒充他人、利用計算視覺技術進行換頭變臉實施網絡詐騙,利用人工智能技術竊取個人信息等,對公民個人及公共利益均受到不同程度的侵犯。如何應對人工智能技術引發的新型犯罪,是目前法律規則亟需面對的重大挑戰。
一、人工智能體的刑事責任主體地位是否能認定
從近代刑法來看,刑事責任的主體是自然人和單位,自然人獨立的意識和行為,是犯罪理論研究和刑罰制度設立的基礎,單位屬于一種特殊的情形,它的獨立的意識是單位決策層多個人的意識的總和,因此歸根結底,我們研究的始終是人的獨立意志,無論這一獨立意志是客觀存在的還是法律擬制的,都不妨礙刑法規范人類的社會行為。目前,存在承認人工智能主體地位的理論觀點,這對自然人和單位的刑法主體地位產生了一定的沖擊,但我們認為無論從事實出發,還是從規范出發,目前人工智能都不宜認為是刑事責任的主體。
從事實層面看,人工智能的發展雖然取得巨大進步,但是其自主意識并不能與人類相提并論,依舊是特定程序算法的產物。出于對人工智能技術的樂觀展望,部分學者認為能夠自主識別并精確控制自身行為的強人工智能一定會出現,而且會改變人類的生產與生活。然而,以法律意義上的辨認能力與控制能力來界定強人工智能的自主意識和行為,不僅無科學依據,而且也不具有說服力。同時,人工智能刑事責任主體論者從物理學、數學等方面論證人工智能與人類的同質性,但是他們卻忽視了人工智能與人類的本質不同。被公認為20世紀最偉大生物學家之一,弗朗西斯·克里克曾說,盡管關于大腦的詳細知識在不斷積累,但大腦的工作原理仍然是一個難解之謎。人類對自己大腦工作原理的探索還在繼續,即使人工智能、強人工智能迭代演進,其產生了自主意識,其與人類大腦的發展軌跡未必一致,那就很難說人工智能等同與人類了。
從規范層面看,人工智能沒有必要成為刑事責任主體。如果賦予人工智能刑事責任主體地位,則會制造更大的風險,不僅弱化了刑事責任的公平性、同時也動搖刑罰制度的正義性。更重要的是,在智能風險的應對中,賦予人工智能刑事責任主體地位不具有必要性,也并非只有構建人工智能刑法體系這一種方法。因此,面對人工智能涉罪問題,仍應當在以自然人及單位為行為主體的基礎上進行分析。
二、人工智能犯罪風險的刑法應對
面對人工智能的飛速發展,為處理好人工智能可能引發的犯罪行為,刑法規范也應進行妥善應對。目前而言,人工智能處于弱人工智能階段,強人工智能時代可能會到來,但是從本質上講,人工智能依然需要程序設置,所以法律追究的范圍依然包括生產者、設計者的責任。當人工智能技術支持達到一定程度后,由于自身所產生的問題,或者利用其所產生的刑事責任歸屬問題,不僅會追究生產者設計者等主體的刑事責任,而且,與之相關的其他責任主體的刑事責任都要進行具體分析追責。
(一)研發者和生產者責任
當人工智能產品為了實施違法犯罪活動而設計時,產品設計出后為其實施違法犯罪具有幫助作用,就可以認為研發者具有犯罪意圖,應當構成故意犯罪。當研發者或生產者出于正常生產生活需要,設計人工智能產品,然而人工智能產生嚴重社會危害性,研發者或生產者不能也不應當預見該人工智能的犯罪可能性,該犯罪結果并非其積極主動追求,由于人工智能被犯罪分子利用,或者人工智能自主學習后被利用,或者程序設計存在問題等引發不利后果,則不能認定為故意犯罪,研發者或生產者有可能構成過失犯罪。
(二)使用者責任
使用者在使用人工智能產品時,要正確認識人工智能,將人工智能產品與其他產品加以區分。當在使用人工智能產品出現嚴重的違法犯罪行為時,要理性分析使用者的地位作用。比如當使用者作為被害人時,由于使用者并未實施侵權行為,自身法益也受到了侵害,此時刑法便不能懲罰使用者;如果使用者是被害人,但同時使用者存在過錯,如應當采取預防措施而沒有采取,應從輕或減輕其他主體刑事責任。當使用者使用人工智能的目的是為犯罪行為準備工具時,使用者屬于明知是危害行為,會產生危害后果,但仍然希望或放任這一結果的發生,這種情況下,使用者應該依照刑法追究相應的刑事責任。[1]綜上,當使用者應當對人工智能履行相應的管理使用義務而沒有履行時,則需要承擔相應的刑事責任。
三、當前預防人工智能犯罪風險的基本立場
人工智能發展趨勢不可阻擋,需要加以警惕,對犯罪風險進行有效預防,讓人工智能更好服務人類社會。一方面,可以通過完善制度、規范,權衡人工智能在具體場景中運用的利與弊。例如,從整體上看,自動駕駛技術對于防范交通事故具有一定積極意義,但是自動駕駛系統的風險降至何種程度,才能夠走向市場、在不同智能等級背景下,駕駛人員承擔事故責任的程度等,均需要通過完善制度、立法等予以規范。成文法具有不合目的性、不周延性、模糊性和滯后性,因此,在面對具體案件時,不可避免會出現法律不能解決的情況,此時,無論是專家、學者,還是社會大眾都應當堅定不移地信仰法律,首先要根據實際情況對法律進行合理解釋,將法律規范的調整作為最后手段。面對人工智能的大日新月異,更需要仔細論證,完善與之相關的法理解釋。法學理論界的法律解釋方法多元,包括系統解釋、目的解釋、擴張解釋等,均可以對人工智能涉罪問題進行科學合理歸納;實踐中,我國特色的司法解釋制度,足以在保證法律穩定性下,解決涉人工智能法律問題。以擴張解釋為例,交通肇事罪的主體是交通運輸人員,但是在自動駕駛階段,司機并未駕駛汽車,而僅僅是履行監督義務,此時,應當將此處的交通運輸人員進行擴大解釋,將此時汽車行駛監督者納入到交通運輸人員范圍。
另一方面,應當加強人工智能領域過失犯罪的主客觀注意義務。對于涉人工智能過失犯罪,首先需要討論的是,刑法規范與相關領域的行為規范之間的關系。[2]有專家認為,客觀注意義務的的產生,可能來源于法律明文規定,或者來源于習慣或道德要求,因此,注意義務需要結合具體案例,考慮到社會現實的要求可能性。在人工智能領域涉及的過失犯罪中,應當以預見能力的不同為判斷依據。如人工智能運用于智慧金融領域,人工智能進行自動獲客、身份識別、大數據風控等服務時,應考慮到操作該人工智能產品的金融人員在對該領域的風險能否具有預見的能力,需要對其知識體系,金融經驗等進行綜合分析判斷。如果確實具有預見能力,則該金融人員滿足了主觀的注意義務。
未來已來,在人工智能時代的法律路徑選擇上要具有前瞻性,結合智能犯罪特征,慎重選擇匹配的策略或方法,有效控制刑事風險,使人工智能更好服務于人類社會發展。
參考文獻:
[1]姜子明:《人工智能的刑事主體資格研究》[D].《甘肅政法大學博士論文》,2021-06-3。
[2]姚萬勤:《新過失論與人工智能過失刑事風險的規制》[J].《法治研究》, 2019-07-10。