王馨慧 郝悅彤
(遼寧大學 遼寧 沈陽 110000)
人工智能指的是在機器中模擬人類智能,這些機器被編程后可以像人類一樣思考、做出同人類相似的舉動。20世紀50年代,人工智能的概念就已經被提出,因為先進的算法和計算能力及存儲能力的改進,近年來,人工智能的發展速度與日俱增。由于其發展速度過于迅猛,目前,世界各國都十分關注人工智能的發展并出臺相關政策以積極應對隨之而來的問題。國務院于2017年頒布的《新一代人工智能發展規劃》,將發展人工智能技術提升到戰略高度,明確了人工智能在我國發展道路上的重要地位。鑒于目前我國刑法尚未考慮到人工智能的發展對刑法帶來的影響,筆者將論述人工智能所帶來的刑事風險,對人工智能法律人格進行研究,明確人工智能的刑事責任承擔,并通過研究國際法的方式探討國內立法。
從總體上來說,人工智能的發展可以分為三個階段,分別是普通智能時代,即人工智能的萌芽時代;弱人工智能時代,即人工智能的發展時代;強人工智能時代。
普通機器人的學習能力并未達到其他兩者的高度,而弱人工智能相較于強人工智能不具有辨認能力和控制能力,因而其有為人所利用實施犯罪行為的風險;強人工智能具有辨認能力和控制能力,因而具有獨立人格與刑事責任能力,其嚴重危害社會的行為可以被界定為犯罪并予以刑事處罰。由于我國立法已對普通機器人作為犯罪工具的刑事責任承擔問題進行了相應的規制,因此本文中不再展開論述。
從總體上來說,弱人工智能時代的刑事風險可分為兩大類:第一類是可能增大部分傳統犯罪的社會危害性;第二類是可能導致新的犯罪類型生成。
1.弱人工智能可能增大部分傳統犯罪的社會危害性
互聯網的快速發展雖然不能直接導致所有犯罪都異化,但是不可避免會使得部分傳統犯罪產生質變或是量變。弱人工智能技術可通過與軍事相結合的方式給國家和公共安全領域帶來刑事風險,人工智能武器便是弱人工智能與軍事相結合的成果。如果人工智能被恐怖分子等勢力利用,將會給人類健康和世界和平帶來巨大的威脅。韓國科學技術院于2018年建立了人工智能研發中心,目的是研發適用于作戰指揮的人工智能技術,消息一經傳出,便遭到世界30多個國家的一致反對。可見,盡管人工智能武器會給人類社會帶來福祉,人們更關注其造成的社會危害性。
2.弱人工智能可能導致新的犯罪類型生成
弱人工智能可與大數據結合產生新的犯罪形式。從我國最高人民法院、最高人民檢察院出臺的司法解釋及指導性案例中可以看出①,犯罪分子利用人工智能技術實施犯罪主要體現在其對大數據的濫用,產生新的濫用數據的犯罪形式。從最高人民法院、最高人民檢察院出臺的司法解釋可以看出,我國刑法及司法實踐側重于保護用于維護信息系統自身功能的、以訪問控制為主要考慮的數據,沒有關注數據自身內容屬性上的價值與保護的必要性。[1]但是犯罪分子利用人工智能技術實施犯罪主要體現在其對大數據的濫用,產生新的濫用數據的犯罪形式。人工智能技術往往可以得到超出人類預期的結果,一些數據從表面上看可能不包含關鍵的敏感信息,但是通過人工智能技術分析海量數據,及對多個數據庫進行綜合分析,最終完全有可能通過推演得到關鍵的敏感信息,甚至包括一些威脅國家安全的重要信息。
強人工智能時代的標志就是強智能機器人的出現,它可以在自主意識的支配下獨立決策。隨著技術的迭代更新,具備辨認能力和控制能力的強人工智能機器人的出現并非無稽之談。如果未來科學技術發展到更高的階段,智能機器人具備了獨立思考的能力,對人類來說將會是一場滅頂之災,一場人類與機器人之間的較量在所難免。因而,強人工智能時代的刑事風險主要是由人工智能產品因脫離人類的控制而實施嚴重危害社會的犯罪行為造成的。
從法學研究角度來看,在判斷主體的法律人格時,三個因素是主要的判斷依據:行為能力層面、權利義務層面、法律意識層面,義務的履行需要以具備意識和選擇能力為前提。在最新的研究中,國際上的學者主要持有兩種觀點:
1.法律人格主體說
這一學說主要是從傳統道德及倫理角度進行分析,認為法律人格主體不僅包含傳統意義上的法律主體,還應該包括機器人等新興事物。
2.法律人格客體說
這一學說認為自然人是不能被替代的,不可比擬的,機器人等不能成為法律主體,而只能成為法律關系客體,權利義務指向的對象。
會議要求,要進一步細化落實國務院辦公廳關于做好非洲豬瘟等動物疫病防控工作通知的任務分工,完善聯防聯控工作機制。近期,要組成督查組,赴各地特別是重點省份開展非洲豬瘟防控工作督查,聚焦責任落實、應急處置、生豬調運和餐廚剩余物監管等重點工作。要壓實地方的屬地管理責任,督促地方各級人民政府對本地區防控工作負總責,切實落實有關防控措施,統籌做好養殖業生產安全和肉品供給保障。
在中國現今的司法實踐中,智能機器人屬于限制刑事責任能力主體,類似于法人的刑事責任能力。當刑事犯罪是由于其自身的不作為時,例如,人性機器人不履行法律義務,看護機器人不善待被看護人等,人工智能主體就要承擔相應的刑事責任。這類似于父母對子女的撫養義務,兒女對父母的贍養義務,如果未盡義務,則有構成遺棄罪、虐待罪等的可能。當刑事犯罪是由于人工智能主體作為,例如智能機器人實施指令行為時,其經授意的行為引致的刑事責任將必須由“實際控制人”承擔。例如在美國近幾年出現的新型恐怖襲擊事件中,恐怖活動組織利用人造機器人攜帶武器、彈藥、爆炸物等危險物品在人員密集的場所或公共區域實施爆炸襲擊等恐怖活動。在這類事件中,雖然嚴重危害公共安全的犯罪行為的直接實施主體是人造機器人,但是,刑事責任是由教唆指示人造機器人實施該行為的恐怖分子承擔的。
人造程序,作為人類使用頻率最高的人工智能產品,屬于無刑事責任能力。因為人工智能產品的刑事責任應當與其自主性相匹配。人造程序本身沒有辨別和控制能力,它在法律規制中尤其是責任承擔條款中不具有可責性。當且僅當人類,包括自然人、法人和其他組織,將其作為犯罪工具使用來實現人的犯罪目的的情況下,才有可能被納入刑法規制的范疇。
司法實踐中常見的利用人造程序可以實施的犯罪行為涵蓋刑法分則已有的大部分犯罪,如危害國家安全罪、危害公共安全罪、危害人身安全罪等。在這些種情況下,人造程序僅僅是犯罪工具,其本身不具備刑事責任能力,應受刑罰處罰的是使用該工具的人。從這個角度看,人造程序和上述智能機器人在被教唆實施犯罪行為時,二者具有相似的法律地位。
綜上所述,我國在面對人工智能主體的刑法規制的一系列問題時,需要以積極立法觀和風險立法觀相結合的角度進行思考與探究。
隨著信息技術的飛速發展,人工智能領域得到了極大拓展,實現了廣泛應用。人工智能武器是人工智能在軍事領域中的重大變革,對現有軍事管理與指揮體制造成了巨大沖擊。它能夠改變傳統的軍事斗爭形式,是贏得國家安全戰略的重要切入點。相較于自然人主題,人工智能武器信息化、專業化的程度高,在可控范圍內能夠實現精確打擊,降低軍事人員傷亡率并且能夠最大限度地避免和減少執行任務過程中受客觀條件的影響。盡管如此,其弊端也是顯而易見的。
首先,人工智能的研發者、操縱者無法保證智能武器自身的絕對安全,因為人工智能發展過程中的弊端和負面因素會不可避免地傳輸到人工智能武器上。其次,缺失人的倫理屬性的心理屬性的人工智能無法理解戰爭中自然人的心理變化。[2]缺少心理因素的智能武器,即使其思維方式、行為模式與人類完全相同,也不是一個完整的“人”。正是因為存在這樣的屬性,再加上人工智能武器在戰爭和武裝沖突中有取代戰斗員,甚至凌駕于戰斗員之上的趨勢,智能武器無法判斷敵人下一步將會采取什么樣的行動,很有可能因人工智能武器的誤判,導致局勢向不利方向扭轉,這給國際法尤其是國際人道主義法帶來了深遠的影響。為應對這些影響,國際人道法也應進行相應的完善,并進行法律規制。結合我國的立法現狀來看,我國未對人工智能武器所帶來的安全隱患進行規制,因而可通過完善國際法的方式來促進我國刑法在此方面的研究與規制。
人工智能武器的研發適用,不僅會產生多方面的輿論風險,還將面臨巨大的輿論壓力。隨著人工智能技術的飛速發展,各國必須采取切實可行的舉措來強化人類在武裝沖突進程中武力使用問題上的自主控制程度,盡可能防范人工智能武器研發使用所帶來的法律風險和道德壓力。
本文認為,國際人道主義法針對刑事責任追究機制的完善應充分考慮主觀的過錯,當指揮官未按照人工智能武器的既定用途使用武器時,當程序設計者未承擔充分的注意義務導致程序設計錯誤時,當生產商或產業工人沒有按照操作規范生產人工智能武器時,上述四種主體應當承擔國際刑事責任。當上述四類主體不存在主觀過錯時,由國家承擔責任。
馬爾頓斯條款僅僅是關于適用國際法沒有規定的武器的準則,它意味著國際人道主義法關于武器的規則應當以符合公眾良心的要求和人道主義原則的方式來解釋,然而,該條款不能禁止自治系統,因為它取決于習慣國際法的一項禁止性規則的存在。第一,人道主義原則只包括人工智能武器所遵循的國際人道主義法規則;第二,公眾良知可以從大會決議和立法條約等權威來源中推導出來。目前,還沒有這樣的權威來源禁止致命的自主系統,相反,各國正在初步探索這種系統的能力。
現行法律體系下對于人工智能的法律人格規制缺位,學界亦對其是否具有法律人格持不同的態度。隨著人工智能的不斷發展,新一代的人工智能武器逐漸興起,此類新式武器的出現勢必會引起不法之人利用該武器實施犯罪,給社會帶來巨大的危險性。面對人工智能時代已經或可能出現的刑事風險,對刑法進行一定的修正和完善是我國現階段的當務之急,然而我國目前在這一領域仍存在制度空白的缺陷。結合我國的國情,既可以在原有犯罪的基礎上對人工智能犯罪進行定位,也可以增設濫用人工智能罪,同時考慮到我國對此類新式犯罪的立法經驗不足,可通過借鑒國際法的方式完善國內立法,形成國內法與國際法相統一的局面。
注釋:
①2011 年最高人民法院、最高人民檢察院《關于辦理危害計算機信息系統安全刑事案件應用法律若干問題的解釋》第一條規定,獲取支付結算、證券交易、期貨交易等網絡金融服務的身份認證信息10組以上的,或除此以外的身份認證信息500組以上的,屬于“情節嚴重”的情形。