999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能時代的刑事歸責路徑探析

2019-03-26 13:51:44夏陳婷
法治社會 2019年1期
關鍵詞:人工智能產品能力

夏陳婷

內容提要:人工智能技術推動社會進一步轉型,并不斷呈現深度學習、自主操控的新特征,由此必然會給法律體系帶來新的挑戰。人工智能產品存在刑事風險,對其采取相應的刑事規制不可避免。本文從風險刑法角度選擇行之有效的人工智能犯罪刑事歸責原則,并討論在不同類型的人工智能犯罪中的適用,以探索有效的刑法規制原則,確保人工智能產品能夠在有益于人類共同利益的范圍內進行研制開發。

人工智能的概念被認為追溯于 “人工智能之父”Marvin Minsky在1956年夏季達特茅茨人工智能項目議案中所提出的:“讓機器從事需要人的智能的工作的科學”。①J.McCarthy,M.L.Minsky,N.Rochester,C.E.Shannon,A proposal for the Dartmouth summer research project on artificial intelligence, August 31,1955,see:http://www-formal.stanford.edu/jmc/history/dartmouth/, 2018 年 7 月 10日訪問。在人類神經物理學、神經解剖學以及 “圖靈機”(Turing Machine)的理論模型的研究基礎之上,Marvin Minsky在該項議案中提出:“人工智能研究建立在機器可以模擬人類的前提下,通過程序語言、構建理論模型的方式幫助解決人類現實問題,并提高人類解決相關問題的能力”。從中可以看出,人工智能的理論前提是設計的模擬能力,而人工智能的模擬能力除了來自設計研究者的初設程序設定之外,更多地來自人工智能的深度學習能力。

根據深度學習能力的習得,人工智能產品迅速完成了代際的更替,不斷模仿并超越人類智慧的極限。作為對人工智能產品主體資格的確認,沙特阿拉伯于2017年10月26日在 “未來投資峰會”上授予Hanston Robotics公司研發的Sophia人形機器人合法公民身份。②https://www.cnbeta.com/articles/tech/664757.htm,2018年7月10日訪問。2018年3月21日,Sophia又作為代表參加聯合國可持續發展目標亞洲和太平洋地區創新大會。盡管Sophia的創始人漢森承認,目前Sophia距離自我意識覺醒還很遠,因為其現在還處于 “嬰兒期”。但是可以預見到的是,伴隨著深度學習能力的發展,Sophia終會具有自主意識并能夠獨立支配自己的行為,成為辨認控制能力和行為能力完備的 “人”。

一、人工智能產品存在刑事風險

作為發明者和創造者,人類在前幾次生產方式變革中仍然占據主宰者的地位,掌握著先進生產力的核心技術。但在以人工智能技術應用為標志的人工智能時代中,人工智能技術已經逐步突破科技和人類的固有界限,技術由工具化走向擬人化、類人化,人類在此次變革中扮演的角色不再僅是技術發動者,同時也是技術承擔者、共享者。不可忽視的是,人工智能技術研發和應用中存在倫理風險、道德風險以及相應而生的法律風險,其中涉及的刑事風險不僅在于其會使得犯罪行為 “升級”,同時會使得部分犯罪的危害發生 “量變”。③劉憲權:《人工智能時代的刑事風險與刑法應對》,載 《法商研究》2018年第1期。具體而言,人工智能產品涉及的刑事風險主要表現在以下兩個方面:

其一,人工智能產品作為犯罪工具或犯罪手段存在。人工智能技術首先表現為在社會生活全方面覆蓋,無論是醫療科技、藝術創作、工業生產或者智能生活方面,都表現出強勁的發展潛力,同時也和人類的生產生活方式融合得更加緊密。人工智能技術可以使得產品更加智能化,同時也使得犯罪工具或犯罪手段更加先進,一方面幫助犯罪行為更加隱蔽,另一方面促使犯罪行為造成的后果更加嚴重、更加難以挽回。犯罪人利用人工智能技術作為犯罪工具或犯罪手段,不僅可以利用人工智能識別和決策功能中的漏洞,自動通過人工智能監控系統的監測或管理,而且可以通過干擾或欺騙人工智能監控系統,使得自己的犯罪行為合法化,不致遭受監控或追查。

其二,人工智能產品作為獨立的犯罪主體存在。在現行的刑罰體系構成中,只有自然人和單位可以成為刑事責任主體。但人工智能產品在具備獨立的辨認控制能力和行為能力的前提下,在自主意識支配下實施或控制超出設計研發的程序范圍的犯罪行為,我們有理由認定實施或控制類似犯罪行為的人工智能產品實現的是 “自己”的意識,和其他具有刑事責任能力的主體一樣,完全可以作為一種全新的刑事責任主體。在此情形下,人工智能產品對其在設計研發的程序范圍內實施的行為不需要承擔刑事責任,但對其在設計研發的程序范圍之外實施的犯罪行為需要承擔相應的刑事責任。

總之,人工智能產品開始具備獨立的辨認控制能力和行為能力是其承擔相應的刑事責任的前提。我們有必要在考慮人工智能在具備民事行為能力和刑事責任能力的前提下,思考如何界定人工智能的責任承擔和歸屬,從而為爭議問題的解決提供參照思路,積極應對人工智能技術成熟后所面臨的社會風險和法律挑戰。

二、人工智能產品的分類及相應的刑事責任能力

正如同單位能夠被認定為犯罪主體的依據主要在于其具備獨立的自由意志,人工智能基于深度學習能力也能夠獲得獨立的自由意志。從法律屬性上看,人工智能擁有的獨立意志相較于單位的集體意志,更符合 “法律人”的主體特征。既然可以將犯罪行為、刑事責任等歸責方法適用于單位,也完全可以將其適用于產生獨立意志的人工智能產品。刑法上的辨認能力是對行為的性質、后果、作用的認識能力,其中包括事實層面的認識和規范層面的認識,人工智能的深度學習能力為其通過學習掌握事實層面和規范層面的辨認能力提供可能;而刑法上的控制能力是根據對事實和規范的認識控制自己行為的能力,人工智能通過程序設計和控制能夠具備相較于人類更強的控制能力。人工智能完全具備掌握刑法意義上的辨認、控制能力的條件,因此其作為新的刑事法律主體納入刑事法律體系應當成為未來刑法的發展目標。相應地,如何規制人工智能犯罪便成為該前提之下的應有之義。

針對人工智能的類型劃分,目前學界仍然存在不同觀點:有學者提出 “兩分法”,指出以人工智能產品是否具有辨認能力和控制能力,可以將人工智能產品劃分為弱人工智能產品與強人工智能產品;⑥劉憲權:《人工智能時代的 “內憂”“外患”與刑事責任》,載 《東方法學》2018年第1期。也有學者提出 “三分法”,即按照意識的有無和程度的差別,人工智能可以劃分為弱人工智能、強人工智能和超人工智能。⑦黨家玉:《人工智能的倫理和法律風險問題研究》,載 《信息安全研究》2017年第12期。筆者認為,無論 “兩分法”還是 “三分法”,其類型劃分的依據仍然是對照人的辨認能力和控制能力,判斷人工智能是否具有類比人類的能力,從而進一步判斷人工智能是否具備獨立承擔責任的前提。因此,無論人工智能具備和人類同樣的智能或是超越人類的智能,其本質都在于認定該人工智能已經具備獨立承擔刑事責任的基礎,即應當認定該人工智能具有刑事責任能力。在筆者看來,在刑事法律的語境下,刑事責任能力的有無是討論人工智能刑事責任承擔的核心,“兩分法”解決了人工智能刑事責任判定的前提問題,因此更具有學術研究價值。

因此,根據人工智能產品是否具有辨認能力和控制能力,可以相應地確定人工智能是否具備相應的刑事責任能力。因為目前人工智能技術還未發展到強人工智能水平,即便是已經獲得公民身份的Sophia人形機器人還未達到自我意識覺醒的程度,故現有的人工智能產品還只能歸屬弱人工智能產品的范疇。在當前人工智能還不具備完全刑事責任能力的前提下,如何界定人工智能的刑事責任承擔的范圍和程度具有重要的實證意義。目前的主流觀點認為弱人工智能作出的判斷和行為仍是在程序控制范圍之內,即使實施了嚴重危害社會的行為,也只能將其視為設計者或使用者實施犯罪行為的 “工具”,人工智能產品本身不應當承擔刑事責任,而應當由人工智能產品的設計者或使用者承擔刑事責任。只有當強人工智能超出設計和編制程序實施危害行為,才應當獨立承擔刑事責任,同時負有預見義務和監督義務的設計者或使用者也有被追究刑事責任的可能。⑧參加前引⑥,劉憲權文。也有觀點認為人工智能僅是一項技術,本身不具備刑事責任能力。機器人無論以何種方式承擔責任,最終的責任承擔者都是人。而人工智能觸犯法律,歸根到底是使用者、所有者、制造者在利用人工智能技術過程中違法犯罪,因而理應由人來承擔刑事責任。⑨參加前引④,黃京平文。由此看來,目前學界探討的焦點還是人工智能產品犯罪以及刑事責任承擔的可能性,而對于強、弱人工智能犯罪的刑事歸責原則及方法尚無深入探討,而這對于弱人工智能時代已然來臨的當下顯得準備過于不足。以無人駕駛技術為例,因為沒有人工智能法律限制,該項技術尚未成熟便已經上路行駛公測,導致相關道路交通安全事故頻頻發生。2018年3月18日晚10點,一輛Uber無人駕駛汽車在美國亞利桑那州坦佩市與一名正過馬路的行人相撞,后者不治身亡。該起全球首例無人駕駛汽車在公共道路上撞擊行人致死事件在暴露弱人工智能產品的技術缺陷的同時,也充分說明了法律應對不足帶來的危害。同樣,對于類似案例的處理,也沒有形成公認的刑事歸責原則供參照援用,大量案件停留在個案爭議的基礎之上,尚未形成系統的案件爭議解決機制。這也是本文關注并試圖解決的問題,筆者將在下文中繼續展開討論。

三、人工智能犯罪對傳統的刑事歸責理論提出挑戰

在我國刑法中,刑事歸責通常指的是刑事責任歸責,即將違反刑事義務的行為歸因于行為人。⑩馮軍:《刑事責任論》,法律出版社1996年版,第18頁。刑事責任歸責是對廣義的定罪活動的一種抽象性概括,是以定罪或犯罪構成的定罪意義為前提,依據犯罪構成認定犯罪是否成立,在此基礎上經由刑事訴訟程序的有效配合,最終確定犯罪是否成立和刑事責任是否存在及其程度的一系列活動的總和,也是犯罪與刑事責任關系 (罪責關系)的集中展現。

現代刑事歸責理論產生于德日犯罪論體系背景之下,而德日的犯罪論體系是一種階層式的犯罪論體系,包括構成要件符合性、違法性和有責性三個階層,不同于我國的犯罪構成四要件的平面式犯罪論體系。而我國的犯罪構成理論沒有明確區分刑事違法和刑事責任,完全符合犯罪構成既是刑事違法的前提,也是刑事責任的成立條件。由于四要件的犯罪構成理論自身不能涵蓋刑事責任能力和違法性阻卻事由等歸責要素,因此,有學者認為四要件的犯罪構成沒有很好地解決歸責問題,進而提出只有三階層的犯罪論體系才能使犯罪構成合理化。①陳興良:《教義刑法學》,中國人民大學出版社2010年版,第128-129頁。筆者認為,在我國的刑法體系中,適用犯罪構成四要件論并沒有在前提上絕對否認刑事歸責理論的適用,刑事歸責理論是一種實質判斷構成要件的理論,與犯罪構成理論在刑事責任判定的過程中共同作用,最終在裁判活動中實現將違反刑事義務的行為歸因為行為人的目標,其歸責路徑與德日公認的客觀歸責理論在本質上是一致的。

一般認為,刑事歸責是客觀歸責和主觀歸責的統一,包括行為歸責和結果歸責,行為歸責的要素是從行為人到行為,而結果歸責的要素是從行為到結果。客觀歸責的目的在于確認符合構成要件的行為可以從客觀上歸責于行為人,同時構成要件結果對于構成要件行為是可以客觀歸責的;主觀歸責的目的則在于確認行為人的行為故意在主觀上可以歸責于行為人,同時具體結果的發生對于故意來說是可以主觀歸責的。現代刑事歸責理論的代表是德國學者羅克辛的客觀歸責理論,該理論的初衷在于解決過失犯罪的刑事歸責問題,將因果關系與歸責問題相區別,而兩者聯系的紐帶是法規范意義上的風險,即行為制造并實現了刑法保護的風險,則將產生的后果歸屬于行為人。②張明楷:《外國刑法綱要》,清華大學出版社2007年版,第126頁。總結傳統的刑事歸責理論,其理論的前提在于將行為人假設為自然人,其中無論風險的制造、實現時導致刑事歸責或者風險的減少、未實現時導致刑事歸責的排除,都離不開一般人的預見可能性這一判斷標準,即行為人通過預見可能性判斷進而選擇制造或阻止、增加或減少風險的形成并進而實現之。總而言之,傳統的刑事歸責理論以行為人實施的侵害行為為基礎,其默認的責任主體是存在預見可能性缺失或認識錯誤可能性的自然人。

人工智能犯罪作為技術進步的不利后果,既是工業社會的產物,也是風險社會下技術性風險③[德]烏爾里希·貝克:《風險社會》,何博聞譯,譯林出版社2004年版,第19頁。的典型體現,其制造的社會風險嚴重程度遠遠超出人類事先預警檢測和事后處理的能力,因此對人工智能犯罪進行刑事規制的必要性不言而喻。但是,人工智能作為高度理性的 “人”,具備準確的預見能力和完備的認識能力,不可能存在預見不足或認識錯誤的情形,其不但能夠制造并實現法律不允許的風險,而且能夠通過運算控制準確避免風險的減少和喪失,也就意味著人工智能一旦實施侵害行為,就應當承擔所有的不利后果,刑事歸責的論證過程顯得多余,同時也不存在刑事責任排除的余地。囿于傳統刑事歸責理論的責任主體限制,對其適用傳統的刑事責任歸責和刑事責任排除存在理論障礙,因此,有必要構建符合風險社會特征的人工智能犯罪歸責原則,解決規制人工智能犯罪的核心問題。

四、人工智能犯罪的刑事歸責原則之選擇

刑事歸責原則是在犯罪成立的基礎上進行刑事法律責任判定的基本準則。不同于具體的刑事歸責過程,刑事歸責原則應當依據社會共同體的價值共識進行判斷,最大程度地體現刑法規范目的所蘊藏的憲法權利和基本原則等價值。

EOLDs過程中如醫生、患者、家屬無法達成一致意見時,經患者及家屬知情同意,需請倫理委員會輔助EDLDs。倫理顧問審查患者醫療記錄,采訪治療患者的相關人員,綜合評估和推斷患者的生命質量以及根據相關政策,幫助醫患雙方解決分歧,達成意見一致,并保存此次倫理記錄。實踐證明,倫理委員會的介入沒有影響患者的死亡率,但明顯地減少了ICU的無效治療。

傳統的刑事歸責原則的主要內容在于法律責任的承擔以主觀上的過錯為前提條件,行為人的主觀過錯是承擔刑事責任的起點。故意或者過失作為主觀過錯的內容,不僅是犯罪構成的主觀構成要件,同時也是確定刑事責任的前提。因此,行為人主觀上無過錯則不承擔刑事責任,簡言之,即“無罪過即無犯罪”,強調刑法中的主客觀相統一原則。隨著風險社會、風險概念的引入,傳統的過錯責任原則受到了沖擊,大量嚴重威脅社會公共利益的業務性犯罪伴隨著風險社會業已出現,但卻因為過錯責任原則的限制或者責任方復雜化等原因而出現刑事歸責不能的情況。面對技術進步帶來的眾多復雜難控的社會風險,刑法理論界產生界分,有觀點認為應當突破以過錯責任原則為基礎、以消極司法地位自守的罪責刑法的限制,將刑法的任務轉向風險防控以維護安全,④郝艷兵:《風險刑法:以危險犯為中心展開》,中國政法大學出版社2012年版,第66頁。也有觀點認為應當堅持罪責刑法的謙抑性原則,守住刑法保障自由的底線。⑤勞東燕:《風險社會與變動中的刑法理論》,載 《中外法學》2014年第1期。盡管刑法學界對此意見不一,但是社會實踐和法律發展依循其內在規律發展嬗變,刑法作為解決社會防控的最后一道防線,其本身隨著時代的變更而不斷豐富自身的內容。隨著刑事立法領域由結果本位向行為本位轉變,嚴格責任原則便成為刑法應對風險社會的重大風險時所作的主動調試,在進行刑事歸責時強調主觀過錯與刑事歸責的適度分離。

刑法中的嚴格責任原則被認為是英美法系所特有的刑事歸責原則,起源于民事侵權法,同時也是英美法系功利主義的集中體現,主要應用于英美國家的公共福利犯罪和少量道德犯罪中,它代表的是罪過 (或犯意)要求的邊緣化趨勢,即罪過之于犯罪定義的構建與犯罪的認定正在逐漸喪失決定力和影響力。⑥李立豐:《美國刑法犯意研究》,中國政法大學出版社2009年版,第132頁。嚴格責任原則是在認定少數侵犯社會公共利益類犯罪時,因為責任人的主觀過錯難以直接證明或需要耗費過度的司法資源來證明,在此條件下認定有無犯罪意圖對責任人來說都不是實質性的歸責依據,責任人即使提出無犯罪意圖的證據也無法對其進行刑事責任排除。嚴格責任原則的出現標志過錯責任原則已被突破和變革,其強調以法規范的保護目的為導向進行責任分配,更加符合風險社會的預防目的和安全價值的實現,但在我國目前的刑法中尚未得到承認。⑦參見前引⑤,勞東燕文。

正如前文所述,人工智能犯罪是技術性風險的集中體現,符合風險社會中現代性和風險不確定性并存的特征,同時人工智能產品通過深度學習能夠達到并超越人類智能的可能性又大幅增加了其制造不可控制的風險的幾率。與此同時,由于人工智能產品中 “黑箱”技術⑧許可:《人工智能的算法黑箱與數據正義》,載 《社會科學報》2018年3月29日第6版。的使用導致其算法不透明,終端用戶并不清楚人工智能產品的算法是如何得出結論的,在此技術性障礙之下進行人工智能產品的決策說明成為一項不經濟甚至不可能完成的任務,而依照傳統的罪過責任原則,刑事責任主體的決策說明在刑事歸責過程中至關重要并且不可或缺。筆者由此認為,基于人工智能犯罪的風險不可控性和行為決策不透明性,對其刑事歸責適用嚴格責任原則更加符合人工智能時代的技術規范要求和法規范要求。

盡管如此,適用嚴格責任原則并不意味著必然招致絕對嚴格責任,即不問主觀心態,由人工智能承擔全部責任,否則難免落入客觀歸罪或結果歸罪之嫌。實施嚴格責任的初衷在于減輕甚至不需要公訴方履行證明行為人主觀要件的證明責任,辯護方自然不能以主觀罪過的缺乏為由進行抗辯,但在某些國家也允許提出事實錯誤此種否定犯意的辯護理由,不過由行為人承擔證明責任而已。⑨周新:《英國刑法嚴格責任的構造和借鑒》,載 《政治與法律》2011年第2期。隨著理論和司法實踐的深入,英美刑法中的嚴格責任原則經歷從絕對的嚴格責任原則到相對嚴格責任原則的演化。作為與民法中的過錯推定責任相對應的刑事歸責原則,相對嚴格責任原則一般要求舉證責任倒置和過錯推定原則,即公訴方在起訴時不負擔行為人的主觀罪過的舉證責任,但同時允許行為人提出無過失等辯護理由并承擔相應的舉證責任。筆者認為,相對嚴格責任原則同樣適用于嚴重危害社會公共安全和公共利益的人工智能犯罪,人工智能產品中 “黑箱”技術能夠在最大程度上掩飾或隱藏人工智能產品的主觀過錯,直接導致司法證明不能或者司法資源利用極不經濟,從而難以直接有效地實現刑法的預防犯罪功能。相對嚴格責任原則蘊含的功利價值能夠最大程度地對抗人工智能產品帶來的刑事風險,不僅有利于減輕公訴機關對人工智能主觀罪過的證明責任,在極大程度上提高訴訟效率,同時與人工智能犯罪的風險不可控性和行為決策不透明性相契合。另外也應該看到,我國刑法中規定的犯罪的實質特征包括:社會危害性、刑事違法性和應受刑罰處罰性,對人工智能犯罪適用相對嚴格責任原則并不違背犯罪的實質特征,在承認人工智能犯罪存在主觀過錯的前提下免除公訴機關相應的證明責任實質上沒有打破犯罪的基本構成,也是風險社會下刑事證明的應對之舉。

五、人工智能犯罪的刑事歸責原則之適用

如上文所述,面對人工智能犯罪風險已然來臨的威脅,刑法的任務除了討論確認具備獨立的辨認能力和控制能力的強人工智能法律主體資格之外,更應當選擇合適的刑事歸責原則以解決不同情形下的人工智能犯罪的刑事責任規制。筆者在前文中已探討在人工智能時代引入相對嚴格責任的刑事歸責原則的可能性,但應同時看到,考慮到嚴格責任原則對人權價值的限制,即使在英美法系國家中,其適用也是嚴格限定于制定法中的少量危害社會公共利益犯罪和道德犯罪。筆者認為,我國對人工智能犯罪適用相對嚴格責任原則也應當實行嚴格的法定主義原則,即通過法律條文明文限制相對嚴格責任的刑事歸責原則的適用范圍和適用程度。在此前提下,針對人工智能的強弱之分,以及人工智能和自然人的結合程度,有必要確認以過錯責任原則為主,以相對嚴格責任原則為補充的刑事歸責原則。

就弱人工智能產品的刑事歸責而言,目前學者多數持 “工具說”或 “代理說”,⑩吳漢東:《人工智能時代的制度安排與法律規制》,載 《法律科學》2017年第5期。認為應當由人工智能產品的設計者或使用者承擔刑事責任,尤其在弱人工智能產品被使用者利用實施故意犯罪時應當根據自然人的主觀過錯,認定由使用者承擔刑事責任。筆者認為,盡管弱人工智能產品尚未具備完全的自我意識,從刑事責任能力認定來看尚不具備獨立的辨認能力和控制能力,不可能獨立實施故意犯罪,但也不完全等同于傳統的技術工具。弱人工智能具備深度學習能力,運用 “黑箱”技術作出相應的決策,因此相應具有一定的個體特征,即使由同樣的生產者按著同樣設計者的設計框架系統生產,弱人工智能產品在 “智力”上仍有可能呈現個體差異,甚至出現超出設計者意圖的情形出現。①《俄羅斯一機器人一周內兩度自主逃跑,或將被拆解》,網易網:http://tech.163.com/16/0623/18/BQ92HASN00097U7R.html,2018年7月10日訪問。此種情形下的人工智能過失犯罪應當如何進行刑事歸責存在爭議,筆者認為有必要引入相對嚴格責任原則厘清人工智能程序設計者、生產者、所有者、使用者的責任分擔。以無人駕駛汽車的交通肇事案件為例,在使用者未參與駕駛行為的自動駕駛模式下,使用者因為沒有參與駕駛行為,因此排除其未盡到注意義務的責任,依照相對嚴格責任原則,應當由無人駕駛汽車的所有者、生產商或程序設計者承擔責任,但此種情況屬產品責任問題,應由相關方承擔連帶賠償責任,相關方可以按照各自提出的主張排除和確定責任份額;在使用者部分參與駕駛行為的自動駕駛模式下,使用者雖可以以未完全參與駕駛排除自己未盡主要注意義務的責任,但依照相對嚴格責任原則,使用者在使用過程出現緊急狀態時未能采取及時有效的制動措施防止結果發生,應當承擔事故的刑事責任,使用者連同所有者、生產商或程序設計者承擔連帶賠償責任,相關方同樣可以按照各自提出的主張排除和確定責任份額。

就強人工智能產品的刑事歸責而言,如前所述,強人工智能具備類人的辨認能力和控制能力,因此,具備相應的刑事責任能力,因此對于其實施的犯罪行為,完全可以依照過錯責任原則進行刑事歸責。盡管有觀點認為強人工智能的到來可能意味著人類的毀滅,②霍金:《讓人工智能造福人類及其賴以生存的家園》,搜狐網:http://www.sohu.com/a/137173188_609518,2018年7月10日訪問。但筆者認為科技改進生活的努力不會停止,法律不斷調適進而規制科技發展進程的努力同樣也不會停止。正因為如此,“立法者的任務不是建立某種特定的秩序,而只是創造一些條件,在這些條件下,一個有序的安排得以自生自發地建構起來,并得以不斷地重構”。③[德]弗里德利希·馮·哈耶克:《自由秩序原理》,鄧正來譯,生活·讀書·新知三聯書店1997年版,第201頁。筆者相信,立法者有足夠的智慧將強人工智能的發展限制在維護人類基本利益的范疇之內,因此,關于強人工智能產品的刑事歸責的討論并非沒有必要。

可以預見的是,未來人工智能和自然人結合的模式會成為常態。就人工智能和自然人結合體的刑事歸責而言,筆者認為應當區別情況分別處置。在人工智能產品與自然人結合,且不影響自然人的辨識能力和判斷能力的情形下,此時的人工智能產品應當認定為純粹的輔助工具,屬于弱人工智能,如輔助醫療改善系統,那么結合體實施犯罪應當根據過錯責任原則,由其自身承擔刑事責任;在人工智能產品與自然人結合,且部分影響自然人的辨識能力和判斷能力的情形下,此時的人工智能產品理論上仍舊屬于弱人工智能,但其決策判斷引導或影響自然人實施犯罪行為,那么結合體實施犯罪應當適用相對嚴格責任原則,對人工智能產品生產者、設計者及結合體追究刑事責任;在人工智能產品與自然人結合,且主導和控制自然人的辨識能力和判斷能力的情形下,此時的人工智能產品理論上已經屬于強人工智能,而強人工智能具備刑事責任能力,根據過錯責任原則理應承擔刑事責任,此種情形下的結合體應當予以分解,對自然人免責。

六、結語

人工智能技術不僅代表未來科技發展的方向,同時也是未來法律發展的推動力。2017年7月8日,國務院發布 《新一代人工智能發展規劃》,④《新一代人工智能發展規劃》,中華人民共和國中央人民政府官方網站:http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm,2018年7月10日訪問。明確提出建立人工智能法律法規、倫理規范和政策體系的要求。其中,人工智能立法的重要原則包括保護人類利益原則、透明性原則和責任原則,責任原則不僅意味著人工智能可以被問責,還涉及人工智能應當如何被問責。因此,構建行之有效的刑事歸責原則也是建立人工智能刑事法律的重要組成。

猜你喜歡
人工智能產品能力
消防安全四個能力
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
大興學習之風 提升履職能力
人大建設(2018年6期)2018-08-16 07:23:10
你的換位思考能力如何
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
抄能力
2015產品LOOKBOOK直擊
Coco薇(2015年1期)2015-08-13 02:23:50
新產品
玩具(2009年10期)2009-11-04 02:33:14
主站蜘蛛池模板: 玖玖免费视频在线观看| 亚洲av色吊丝无码| 久久精品中文字幕免费| 亚洲av无码成人专区| 久热re国产手机在线观看| 一级做a爰片久久免费| 91福利一区二区三区| 久久国产V一级毛多内射| V一区无码内射国产| 欧美日韩va| 久久女人网| 91娇喘视频| 一级毛片网| 亚洲Av综合日韩精品久久久| 999国产精品| 国产成人8x视频一区二区| 国产小视频a在线观看| 色综合中文综合网| h视频在线观看网站| 亚洲日韩精品伊甸| 好吊色国产欧美日韩免费观看| 国产人人射| 国产精品yjizz视频网一二区| 中国国产一级毛片| 日本中文字幕久久网站| 国产精品.com| 亚洲免费成人网| 欧美第一页在线| 99re免费视频| 亚洲综合经典在线一区二区| 国产精品免费福利久久播放| 91蝌蚪视频在线观看| 色婷婷国产精品视频| 2020国产免费久久精品99| 天天干天天色综合网| 五月婷婷亚洲综合| 国产精品午夜福利麻豆| 国产成人盗摄精品| 在线观看亚洲精品福利片| 99精品影院| 国产成人一区| 露脸一二三区国语对白| 国产剧情无码视频在线观看| 国产色伊人| 中文字幕永久视频| 欧美精品伊人久久| 亚洲天堂网在线观看视频| 欧美亚洲国产日韩电影在线| 亚洲成a人在线播放www| 国产欧美视频在线观看| 日韩天堂视频| 国产精品高清国产三级囯产AV| 国产精品夜夜嗨视频免费视频| 免费播放毛片| 国产精品丝袜视频| 91精品国产无线乱码在线| 99热这里只有精品免费国产| 伊人91视频| 亚洲国产综合精品中文第一| 国产高清不卡| 九九热精品视频在线| A级全黄试看30分钟小视频| 麻豆精品视频在线原创| 99精品在线视频观看| 5388国产亚洲欧美在线观看| 久久这里只有精品免费| 国产精品无码久久久久久| 老色鬼欧美精品| 国产99视频在线| 免费毛片在线| 精品三级在线| 全裸无码专区| 中日韩一区二区三区中文免费视频| 日韩在线网址| 91国内外精品自在线播放| 久久亚洲中文字幕精品一区| 亚洲成a∧人片在线观看无码| 国产乱子伦手机在线| 囯产av无码片毛片一级| 国产一级无码不卡视频| 成人夜夜嗨| 色偷偷一区二区三区|