999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

涉人工智能犯罪的階層性考察與區別性判斷

2021-01-15 18:34:40隋林熹
濰坊學院學報 2021年5期
關鍵詞:人工智能

隋林熹

(北京師范大學,北京 100091)

一、問題提出

(一)人工智能分類及背景

“工具論”認為,人類最早制作的石器即屬于“制造工具的工具”,而這種工具一旦出現便產生了“工具的疊加”,每一次“工具的疊加”都促進生產力的極大發展。[1]人類與其他動物的重要區別即語言與技術知識的積累,使得人類不斷創造出更為高級的生產工具。從目前發展速度來看,人類所創造的工具正在不斷超越人類本身,最令人所熟知的是阿爾法圍棋(AlphaGo)智能程序,其在2016 年、2017 年接連擊敗世界冠軍李在石與柯潔。人工智能在多個領域取得的突破使得刑法應當考慮其實施犯罪、破壞社會秩序的可能。目前人工智能最常見的分類是強人工智能與弱人工智能之分。這種分類并非以是否類人化為區分標準,更不是以是否具有自由意識為區分標準,而是以處理問題的系統為界分。強人工智能可以通過一套系統處理不同智能問題,而弱人工智能需要不同系統處理不同智能問題。強人工智能可以和人類相近也可以具有與人不同的思維模式與生活法則。[2]強人工智能或弱人工智能的分類最早由哲學家約翰·賽爾提出,后出現人工通用智能(Artificial General Intelligence)和超人工智能(Super intelligence)等計算機科學領域術語,對人工智能的分類尚未出現準確符合刑法語境的方法。“智能機器人在沒有獨立的意識和意志情況下的任何行為,都只能看作是研發者和使用者犯罪的工具。”[3]目前學界內的討論主要以是否具有獨立意識為強人工智能與弱人工智能分類的依據。

(二)對否定性理論的審視

否定論一方面認為,刑法不應探討尚未誕生之物的刑事責任,不能建立在假設的基礎之上推定人工智能具有刑事責任主體資格。另一方面認為,有學者以人工智能不具有認識能力、控制能力為由,否認人工智能能夠成為刑事責任的主體。意識為何物現在沒有科學的定論,從現有科學來說人的意志也是依賴于客觀存在的,生物電與化學物質的分泌使得人有產生意識的基礎。機器是否具有如同人一般的自由意志是不可能證偽的,必須從實然角度去觀察機器的特有意識。過去想要達成強人工智能(AGI)普遍以計算機科學或神經科學為單一導向,最新的Tianjic 芯片可以兼容兩個平臺并通過神經生物科學模型模仿大腦皮層的運作方式進行整體性、魯棒性的自主學習。[4]法律條文具有滯后于社會發展的特性不意味著法學理論也應滯后于社會發展,并且上述Tianjic 的技術突破尚屬于擬人形人工智能,計算機的二進制與量子比特的態疊加原理注定人工智能與人思維方式的區別。不可否認作為碳基生物的人類具有創造硅基生物的可能。

在9 至19 世紀的西歐記載了兩百多件審判動物的案例,[5]在上世紀單位能否成為刑事責任的主體尚處于激烈爭論,由此可見刑事責任的主體是動態變化的過程。認為人工智能不具備意志自由從而否定其歸責可能這一觀點缺乏合理性。學者科爾勞什認為自由意志是一種被迫的但又必要的假設,[6]現代腦神經科學實驗逐漸認為自由意志是一場“幻象”,基于磁共振成像(FMRI)技術發現早在被試者意識到做出選擇之前,他們的大腦已經做出選擇,然后讓自己相信這是自己基于自由意志做出的選擇而不是生物化學導致的結果。[7]人的自由意志逐漸被證偽的情況下難以否認功能強大的人工智能不具有自由意志。法人的本質存在多種學說,我國《民法典》贊同法人實在說中的組織體說,認為法人不是擬制而來的,而是自然形成的。法人與自然人重要的差別在于人格權中的身體權、健康權、配偶權等,這些權利也被認為是人獨有的特征。與自然人差別巨大的法人具有獨立的行為能力與意思能力也可以成為刑事責任的主體,在問題解決、自我決策、最優路徑選擇方面勝于法人的人工智能至少應當作為擬制的主體受刑法所規制。

(三)肯定論提倡與癥結

目前依然沒有刑法語境下對人工智能的分類方法,主要采取是否具有“自由意志”為強、弱人工智能的界分標準,而人工智能的自由意志無法被證明且目前尚未產生成為肯定論的阿喀琉斯之踵。在分析素材匱乏的情況下大多以AlphaGo 與“大眾汽車殺人案”作為分析的出發點。雖然有諸多學者通過人工智能的技術特點與刑事責任能力對應的方法進行證立,但依然需要實際判斷標準作為補充。不能認為人工智能做出的行為只要在編程范圍之內就沒有“自由意志”。這要求必須從實然角度出發,觀察人工智能從事制造危險行為時的屬性、能否歸責于自然人以及是否突破預設程序邊界等等問題。判斷人工智能在某一案件中是否應當承擔刑事責任也不能僅僅從人工智能自身行為出發,生產者、使用者與監管者對人工智能刑事責任主體地位的認定也具有重要作用。

二、人工智能作為刑事責任主體的該當性判斷:以行為為中心

(一)人工智能人格的否認:目的行為與工具性的脫離

許多學者提出對人工智能應參考單位的評價與規制路徑,并采取相似的法律擬制技術。筆者認為單位與人工智能均由人所創造,但單位作為一種制度體現的是集體的意志而不是自然人意志的簡單相加。人工智能的擬制技術不能完全參考單位犯罪,但單位與自然人的刑事責任判斷的區別點同樣也會是人工智能與人刑事責任的區分點。在公司法中存在法人人格否認制度,刑法也有學者提出“單位人格”否認制度,[8]以此來刺破法人“面紗”,由自然人承擔相應責任。當一個人工智能制造了法律不允許的危險時同樣應當觀察其行為性質與屬性。若其制造危險、侵害法益的行為屬于“工具”或“制造工具的工具”。對人工智能作為“工具”則應當保持“價值中性”,也即目的與手段的分離[9],同一個工具可能體現出對立或各異的目的,人工智能自身對行為產生的任何后果不具有傾向性。根據韋爾策爾(Welzel)、毛拉賀(Maurach)等學者提出的目的行為論,人對自己動作所產生怎樣的結果應當具有可預見性,目的行為是“有意識地從目標的角度引導的所為。”比如護士注射時不知道自己手里的針劑量可致死,其行為是有目的的注射但不是有目的的殺害。[10]人工智能做出的自由行為應當與其意欲達成的任務目標保持一致。一個智能程度僅能被當做工具使用的人工智能不能稱之為強人工智能,真正的強人工智能能夠為自身創造目的,具有為自身設置任務的能動性與自覺性,不依賴于人類為其預設目標與任務。黃榮堅教授指出:“所有犯罪都是直接犯罪,也都是間接犯罪。這是由于人的意志永遠無法直接實現侵害,所以人永遠是利用工具才能實現侵害。”[11]人工智能制造危險的行為擺脫價值中性,體現出超脫工具特性時,才具備刑事法律主體的資格;若其存在價值中性或被認為所操控時應當否認其承擔刑事責任的能力。

(二)違反已習得的規范

人與人工智能的智慧所依賴的客觀存在不同導致其決策機制的差異,人的決策機制往往是趨利避害。比如霍布斯認為我們的決策來源于自利身體機制,目的是為了某種對自己的善。人工智能被創造之初即作為工具,目的是為了尋求最優解,是一種完全的“理性”。人在做某一行為時,行為方式與產生的結果是可以窮盡的。當在計算機運行預先設置的編程所可能產生的行為方式與結果多于人類時,其擺脫人類控制的條件下,自由選擇其中一種行為過程與方式那么可認為其是自主選擇的。人無法擺脫智力與身體的束縛,不能苛求人工智能機器也擺脫編程與算法的束縛。許多學者認為人工智能無法習得道德規范、沒有道德自我決定權,從而否認人工智能成為刑事法律責任的主體。“電車難題”這一道德困境不僅引起社會科學不同領域內的廣泛討論,在設計自動駕駛汽車算法時也出現諸多爭論。梅賽德斯-奔馳的安全產品經理 Christoph von Hugo 在《Car and Driver》上表示,在其設計人工智能汽車時將會優先保障乘客的生命安全,因為即使是人類駕駛員也不能很好地處理該問題,并且未來L4-L5 級自動駕駛汽車的水平勝于人類駕駛員。[12]這一采訪引發了激烈的討論。也有學者受羅爾斯《正義論》中“無知之幕”的啟發,提出“最大化最小值”的決策方法。[13]可見,人類對同一道德問題有著不同見解,機器人按照尋求最優解的方式解決問題不能認為是背離理性主體所信守的道德義務。目前人工智能在道德問題的決策往往采取一種算法,面臨同樣情形時可能采取一種行為方式。在能做出刑法意義行為的強人工智能時代,其道德行為的決策不應只遵循同一預設算法,而是可以通過神經網絡學習豐富自身決策水平與決策數量。當超過一定數量擺脫編程的預設時,可以認為獲得了道德上的自決權。同樣,在人工智能技術足夠發達時,相信會有相關行政法規、規范性法律文件以及行業標準對人工智能規范的習得進行嚴格要求,人工智能學習全部法律數據庫中的案例、條文并非難事。當人工智能在學習完現行有效的法律規范,依然在無人為控制與預設的情況下違反法律規范、制造法律不允許的風險,可以認為其行為是具有刑法意義的。例如微軟曾在推特上推出聊天機器人Tay,但其很快接受推特用戶“蠱惑”,散布女權仇恨主義、種族主義、納粹主義等等。像Tay 這樣的易于操控的人工智能,會因為外界信息的輸入,對整個系統的行為和功能產生嚴重影響。[14]如果該聊天機器人通過迭代升級,具備了計算機科學領域多任務處理的能力,成為強人工智能,并且其習得了法律規范以及不同類型的道德規范,其仍然在網絡空間散布分裂、仇恨等信息,那么可以認為其做出了具有刑法意義的行為,存在觸犯尋釁滋事或者煽動分裂國家等罪名的可能。

三、人工智能作為刑事責任主體的責任形式:故意與過失的罪過評價

(一)人工智能責任能力思考

責任能力是承擔刑事責任的前提,刑事處罰對自然人的非難建立在犯罪決議的基礎之上,行為人應當承擔不克制犯罪沖動、未能阻卻結果發生的責任。在單位引入刑事責任能力這一概念時,學界也存在反對的聲音。自然人引入刑事責任能力是為了排除不適格的人群,年齡、認知能力等生物因素成為核心判斷標準。刑事責任能力理論以自然人為核心,單位顯得格格不入,因此有學者主張將單位合法性、財產等內容作為專門規定單位犯罪的主體條件。[15]自然人具有限制或減輕刑事責任的形態,而單位僅有具備或不具備兩種狀態。對于人工智能責任能力的考察不應將重點放在人獨有的“心理責任”,而是可以圍繞硅基生物特點賦予獨有的責任能力判斷方式。通過“綜合觀察標準”的確立,多道心理測試(俗稱“測謊”)在美國大多數州的案件審理過程中所采納,中國司法部《法醫類司法鑒定執業分類規定》對該技術也進行了認可。犯罪心理測評儀器與讀譜技術的發展,使洞悉人類想法逐漸從空想、偽科學走向現實、科學。想要探求人工智能的主觀心理狀態相比人腦而言顯得更加簡單,通過提取人工智能系統的處理數據、指令等方式分析其行為來源。若發現其相關數據被自身隱藏、刪除,則更能從側面證明人工智能具有認識自身行為的能力或有人為操控因素。但由于運作機制、決策方式的差異使刑法對其責任形式的判斷不得不采取異于人類的方法。

(二)對生產者責任的依托

對人工智能進行歸因與歸責離不開對生產者、使用者甚至監管者構成要件符合性的判斷。例如,生產者自研發之初即帶著殺人目的制造出強人工智能武器,即使該人工智能主體具有承擔刑事責任的能力,但由于其創造時就帶有犯罪的目的性,仍然屬于人犯罪的工具。生產者沒有下令殺死誰,人工智能基于自己意志進行判斷而殺人,生產者在此情形下也屬于“概括性”的故意,對行為對象、手段、性質不要求有明確的認識。[16]其認識到該機器會殺人,但對殺死誰沒有具體的認識。這種情形下人工智能不會與生產者構成共同犯罪,因其目的和手段與研發者目的產生耦合,無法擺脫工具的屬性。即使生產者自研發與損害后果的產生具有較長的時間、空間跨度,但從客觀歸責角度,其研發行為就是制造了法律不允許的風險,生產之后不對其進行法律規范與道德規范的指引學習更使風險提升。若在生產者故意制造犯罪工具的情形下承認人工智能承擔刑事責任,則可以借鑒共同犯罪實行過限的原理。例如甲生產一款人工智能機器,可以通過神經網絡習得所有暴力犯罪,并指揮其從事相關暴力犯罪。但在人工智能不斷提升自己的過程中逐漸習得了其它犯罪方法,從事詐騙、操縱證券期貨市場、侵犯知識產權等類型犯罪,其犯罪所產生的損害后果已經無法被生產者的故意所包含,不能認為其屬于生產者的工具。另一方面,生產者對注意義務的違反也影響著人工智能的刑事責任。行業標準、國家標準以及規范性法律文件對研發者義務的規定會成為法律的先導,其會對人工智能的生產者、研發者避免從事犯罪行為進行技術上的引導。比如對人工智能進行安全性測試的義務、強制習得法律道德規范義務、風險行為的預測制止義務、數據保存與上傳義務等等。當人工智能生產者未能履行到上述義務、違反相關標準時,可以認為其具有間接故意或者過失。當構成間接故意時也不宜以共同犯罪論處,因不輸入法律規范、加裝保護程序所可能導致的損害結果多種多樣。可以參照生產銷售偽劣產品罪名的方式進行處罰。構成過失時也可以參照重大責任事故罪,[17]對生產者進行處罰。將人工智能作為刑事責任的主體的重要原因之一即在于對自然人、法人處罰的空白。當人工智能技術被普遍性適用并屢屢引發危害行為,但對自然人、單位又無刑法上歸因、歸責的依據時,不能簡單作為意外事件或民事案件進行處理。如果認為對人工智能科處刑法不能起到一般預防與特殊預防的作用也無實際意義,那么處罰的空白更會導致危害行為的發生。當人工智能發表引起公憤的言論抑或是操縱機器產生危害他人健康的后果,對其進行銷毀,一定程度可以滿足民眾對其犯罪的憎恨情緒,無論是道義報應還是法律報應,能夠體現對人工智能的懲戒。而對人工智能切斷網絡、阻止其學習與工作、銷毀等方式抑制其再犯可能,體現了特殊預防的目的。當法律文書裁判上傳網絡,強人工智能在深度學習后,了解此行為會導致負面的結果,也可以起到一般預防的作用。肯定人工智能刑事責任是有必要的,但也要以自然人的刑事責任認定為依賴,不能單獨審視人工智能的刑事責任。

(三)故意與過失的推定

根據行為責任論,刑法非難對象是行為本身以及行為中所體現的犯罪意圖。根據《刑法》十四條,一般認為故意的責任形式可以被劃分成認識因素與意志因素。從認識上明知會發生危害社會的后果,從意志上希望或放任危險結果的發生。劉憲權認為,強人工智能產品可以通過“電子眼”、“電子耳”達到對外界的認識,通過精準的算法與大數據形成對自己行為的控制。[18]由于自然人與電腦決策機制不同,也應當適用不同的判斷方式。從認識因素來看,是否認識到行為會發生危害社會的后果,目前的弱人工智能也可以實現。犯罪預測系統在公安偵查中發揮的作用有目共睹,例如孟菲斯警察廳使用犯罪預測技術“BLUE CRUSH”,能夠預測可能出現問題的區域,從而使孟菲斯警察局能夠主動分配資源以降低風險,此舉使得該市犯罪率下降10%。[19]目前犯罪預測可以預測人的犯罪行為與后果,人工智能預測自身行為產生的后果更為簡單。在最為簡單的人身暴力犯罪中只要習得醫學、法醫學知識,即可預估自己行為所可能造成的傷勢。而意志因素中的希望或放任則可以檢索人工智能為自己預設的目標與任務。若數據表明該目標明確以該目標、該危害結果呈現積極追求的任務處理方式可以認為是直接故意。而為了實現另一個犯罪意圖或正常意圖,行為過程中造成了損害后果,且能夠表明人工智能技術上具有結果避免的高度可能,可以認為是放任危害結果的發生。從過失角度而言,舊過失論強調結果的預見義務,新過失論則以違反結果回避義務為核心。人工智能可能由于自身架構、學習歷程以及設計上的局限,導致其可能產生偏離任務目標的行為與損害后果。以自動駕駛汽車為例,路況、天氣、地形以及交通規則的差異極有可能使自動駕駛系統違反交通管理法規,進而造成嚴重后果。同樣基于依托于大功率計算機的人工通用智能存在運算負荷超載仍繼續運算從而觸犯過失損壞電力設備罪的可能。刑法的發展應當具有一定的前瞻性,以強人工智能尚未誕生、不具有自由意志來否定人工智能的可歸責性不符合客觀發展狀況。生物具有多樣性,智慧生物同樣具有多樣性,人可以通過科學技術量的積累實現“人類工具”向“人造智慧體”發生質的改變。為法人設計法人人格否認、單罰制雙罰制等方式說明目前罪責理論不排斥人工智能,需要的是發展人工智能的歸責判斷標準加以支持,符合客觀發展趨勢。

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 天天摸天天操免费播放小视频| 免费一级毛片在线观看| 美女被操91视频| 国产一级毛片网站| 欧美精品v欧洲精品| 婷婷在线网站| 怡春院欧美一区二区三区免费| 色屁屁一区二区三区视频国产| 在线国产三级| 日韩一级二级三级| 久久婷婷人人澡人人爱91| 99热这里只有精品在线观看| 国产麻豆va精品视频| 欧美a级在线| 国模私拍一区二区| 国产精品主播| 鲁鲁鲁爽爽爽在线视频观看 | 日韩成人在线视频| 亚洲人免费视频| 黄色三级网站免费| 欧美亚洲综合免费精品高清在线观看| 一本二本三本不卡无码| 青草视频免费在线观看| 精品国产香蕉在线播出| 国产精品视频猛进猛出| 亚洲三级视频在线观看| 永久免费AⅤ无码网站在线观看| 伊人天堂网| 久久精品无码一区二区日韩免费 | 东京热高清无码精品| 亚洲午夜综合网| 狠狠干欧美| 成人免费网站久久久| 亚洲国产天堂久久综合| 一区二区偷拍美女撒尿视频| 久青草国产高清在线视频| 国内精自线i品一区202| 亚洲Va中文字幕久久一区| 欧美精品在线免费| 国产欧美日韩综合一区在线播放| 国产人人射| 久久亚洲中文字幕精品一区 | 国产三级国产精品国产普男人| 一本色道久久88| 热re99久久精品国99热| 本亚洲精品网站| 2020国产免费久久精品99| 黄色一级视频欧美| 91福利免费视频| 99精品视频九九精品| 国产亚洲高清视频| 日韩小视频在线观看| 美女毛片在线| 亚洲男人在线| 亚洲日韩每日更新| 国产极品美女在线观看| 中文无码伦av中文字幕| 成人亚洲国产| 成人免费网站久久久| 中文字幕无码中文字幕有码在线| 国产综合无码一区二区色蜜蜜| 一级爱做片免费观看久久| 好吊色妇女免费视频免费| 一区二区三区毛片无码| 精品国产黑色丝袜高跟鞋| 亚洲国产中文精品va在线播放 | 亚洲视频一区| 国产一区免费在线观看| 免费无码又爽又黄又刺激网站 | 免费播放毛片| 亚洲人成亚洲精品| 天堂亚洲网| 97se综合| 天堂亚洲网| 国产一区二区三区夜色| 美女一级免费毛片| 欧美爱爱网| 午夜国产不卡在线观看视频| 欧美激情视频一区| 久久99精品久久久久纯品| 国产乱肥老妇精品视频| 日本一区中文字幕最新在线|