999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx

自動系統、人工智能和機器人
——一個刑法角度的定位

2019-03-27 10:19:11埃里克希爾根多夫黃笑巖
法治現代化研究 2019年1期
關鍵詞:人類系統

[德]埃里克·希爾根多夫 著 黃笑巖 譯

一、數字化革命

我們是當今這場史無前例的技術、經濟以及社會變革的見證人。數字化革命——一些人甚至將其稱為“世界的數字化轉變”①——涵蓋了我們的生活和工作的方方面面。它們造成改變的速度和沖擊力可以媲美工業革命。如果法學不想僅僅作為邏輯嚴謹的文字游戲存在的話,就需要面對界定數字化轉化范圍以及捍衛我們法律②以人為本的任務。

為了應對這一挑戰,我們需要首先了解數字化革命的特點??蓪底只斫鉃閷⑷我庑畔⒄故緸?和1的序列。③它可以在計算機中實現無與倫比的快速有效的信息處理和存儲,這些數據可以實時地在全球范圍內被使用,幾乎不會浪費任何時間。此外,數字化實現了信息“可塑性”的新維度:在數字化的基礎上,文本可以以音頻、圖像和視頻的形式展示。在不久的將來應該會出現觸覺脈沖。這一步驟在某一時候將被用來創建與人腦的直接接口。④對此的方法早就存在了,例如治療患有“閉鎖綜合征”的病人,這類病人雖然意識清醒,但是(大多在聽覺功能完整的情況下)喪失了通過身體運動而和外界溝通的能力,有時他們連眼球也無法移動。現在“閉鎖綜合征”病人經常通過“腦機接口”實現與外界的溝通。對此參見Brukamp,Gehirn-Computer-Schnittstellen:neurowissenschaftlicheGrundlagenundnormativeThemen,in:Hilgendorf(Hrsg.),Robotik im Kontext von Recht und Moral,2014,S.287ff.

數字化的另一成果使得物體和進程虛擬成為可能,也就是說在計算機中形成真實世界的虛擬對應物。⑤這一技術在經濟上的一項十分有趣的應用就是生產者制造“數字孿生體”,例如銷售的汽車的孿生體。由此可以在問題因素生效之前對其進行識別并采取應對措施。虛擬化的趨勢已經涵蓋了我們大部分的通信交流,并且正在擴展到我們的工作以及閑暇生活中。⑥概況參見D?rner u.a.(Hrsg.),Virtual and Augmented Reality(VR/AR):Grundlagen und Methoden der Virtuellen und Augmentierten Realit?t,2014.厘清“虛擬現實”帶來的機遇以及風險可能是未來技術引導的最大挑戰之一。

另外兩個與數字化密切相關的主要技術趨勢是人工——或者更好的表述為——機械的智能和機器人的發展。現在難以定義這兩個概念。如果我們將人類作出的某一行為視為“智能的”,那么也往往將由機器作出的同樣的行為視為“智能的”(或者“聰明的”)。⑦Kaplan,Künstliche Intelligenz,2017,S.15;詳細內容參見Boden,AI.Its Nature and Future,2016;Lenzen,Künstliche Intelligenz,2018.鑒于我們對人類智能存在巨大的理解和定義困難,所以這個定義并不是很有說服力。⑧基礎性的概況參見Rost,Handbuch Intelligenz,2013;另參見Tegmark,Leben3.0.Menschseinim Zeitalter Künstlicher Intelligenz,2017,S.79 ff.此外,定義“智能”概念面臨困難的原因還在于,這一領域的實證研究特別受到大眾媒體和政治的調控。智能需要具備獨立解決較為復雜的任務,并適應不斷變化的環境的能力。從錯誤中學習的分析能力可能是理解智能的關鍵。今日的機器也都具有這些能力。

導致人們對“人工智能”理解復雜化的一個因素是人類的擬人化傾向(Anthropomorphisierung),以及對獨特性的需求。我們試圖類推人類的能力來解釋機器的能力,同時又嫉妒性地認為機器只是在“模仿”我們。這兩種趨勢似乎都存在問題:一方面,機器的能力在可預見的未來會越來越專精于特定領域;另一方面,人類的潛力在“它們”的領域正日益落后。很長時間以來,國際象棋的電腦程序已經能夠擊敗所有的人類玩家,甚至包括國際象棋的世界冠軍。然而玩“連珠棋”、剝雞蛋殼以及咖啡服務對于這種程序而言又過于苛求。若認為國際象棋程序“不是真的”下國際象棋,這種論點難以成立——如何將根據游戲規則移動棋子,力圖讓對手“損失”的能力理解成不是“下國際象棋”?一些程序的卓越成績引發了機器具有自我愿望和自我意識的設想。這在目前看來(仍然?)不被認可。

除了擬人化傾向,還有一個明顯的強烈需求是為人類保留特定的能力。只有人類才能具有“真正的智能”。因此,“人工智能”的概念是一種“界限概念”。隨著機器在迄今為人類預留的領域中越來越多的推廣,該概念就不斷地回縮。國際象棋游戲仍可作為這方面一個很好的范例:它被視為人類智能和創造性的頂峰,直到國際象棋程序被設計出來,這種程序的游戲技巧可與人類相媲美。⑨Lenzen,Künstliche Intelligenz(Fn.7),S.30.從國際象棋程序“深藍”在1996年擊敗國際象棋世界冠軍卡斯帕羅夫以來,很多棋類活動就不再被認為需要什么特殊的智力能力,而只是需要在最短的時間內計算無數的比賽選項。這樣的程序也因而不被認為具有“真正的智能”。

以上所提到的困難恰恰證明了應該命名為“機械的智能”或者“機器智能”,而非“人工智能”,并且對此不再理解為一種普遍解決領域特定的問題的特殊能力以及與此相關的獨立從錯誤中學習的能力。它無論如何必須是一種對復雜問題進行數據處理的功能。⑩對《德國刑法典》第263條a意義上的數據處理進行“智能替代”的理念,參見Hilgendorf,JuS 1999,S.542(543).

類似問題也出現在機器人制造技術領域(Robotik)。工程技術科學中并沒有統一定義機器人的概念。[11]Jordan,Roboter,2017,S.57ff.對于法學目的而言,可暫且將“機器人”理解為一種具有執行功能(Aktuator)并對“世界”產生實體影響的機械智能。在特定情形下也可以將機器人固定在某領域(例如工業機器人),并且它不一定要具有人形樣式。然而,可以設想未來會出現許多人形機器人,因為只有這樣才能使機器在人類預設的環境中靈活移動,成為我們的助手、陪伴者和工作伙伴。

沒有其他技術像機械智能和機器人那樣在文獻中醞釀了百年之久。[12]Jordan,Roboter(Fn.11),S.61 ff.;詳見 Barthelme?/Furbach,IRobot—u Man.Künstliche Intelligenz und Kultur:Eine jahrtausendealte Beziehungskiste,2012;大量的文學短文收錄于V?lker(Hrsg.),Künstliche Menschen.über Golems,Homunculi,Androiden und lebende Statuen,1971.“機器人”概念最早出現于1920年捷克作家凱勒爾·凱佩克的幻想劇《羅莎姆的萬能機器人》中。值得注意的是,劇中的機器人不是由金屬制成,而是由生物材料制成。從那時起,機器人和機械智能就成為大眾文化不可分割的一部分,例如,1968年的電影《2001:太空漫游》中的超智慧電腦“HAL9000”;1984年的電影《終結者》系列以及1999年的電影《黑客帝國》中的“史密斯特工程序”。值得注意以及對法律討論而言非常重要的是,人工智能和機器人的發展總被視為對人類的威脅。最知名的例外是美國科幻小說家艾薩克·阿西莫夫將機器人視為人類的仆人和朋友,而非敵人。[13]阿西莫夫最早的關于“機器人歷史”的著作出版于20世紀40年代初期,匯編于Asimov,The Complete Robot,1983.

二、數字化與刑法

之前粗略描述了數字化、機械智能和機器人的發展,這對于刑法意味著什么?為了回答這個問題,應該區分以下三個問題范圍。

(1)第一個主題范圍是在刑法領域出現了數字化的新現象。這就包括互聯網犯罪的新形式。[14]例如,(“捕獲密碼”式的)“網絡釣魚”和盜竊身份。為了應對這些問題,在30年前就形成了計算機和互聯網刑法,已被證明其具有非常強的適應能力。[15]Eisele,Computer-und Medienstrafrecht,2013;Hilgendorf/Valerius,Computer-und Internetstrafrecht,2.Aufl.2012,3.Aufl.in Vorb.für2018.

(2)第二個主題范圍涉及數字化對法律職業,包括刑事追訴機關、刑事辯護以及刑法學工作的潛在影響。例如,使用數據庫、新的出版形式以及提供新的技術輔助工具(透過科技協助法律服務[16]Hartung/Bues/Halbleib (Hrsg.),Legal Tech.Die Digitalisierung des Rechtsmarktes,2018.),傳統法律工作形式在它們的影響下不得不作出改變。

(3)第三個主題范圍是信息處理系統作為新的參與者(客體)甚至可能作為新的刑法主體出現。[17]Chopra/White,A Legal Theory for Autonomous Artificial Agents,2011;Gless/Seelmann (Hrsg.),Intelligente Agenten und das Recht,2016;Gless/Weigend,ZSt WBd.126(2014),S.561ff.;Hengstenberg/Kirn,Rechtliche Risiken autonomer und vernetzter Systeme,Eine Herausforderung,2016,S.59 ff.;Hilgendorf,K?nnen Roboter schuldhaft handeln?Zur übertragbarkeit unseres normativen Grundvokabulars auf Maschinen.In:Beck (Hrsg.),Jenseits von Mensch und Maschine,2012,S.119ff.這一主題范圍中的基礎和應用問題緊密相連。本文就致力于探討這個主題。

首先是進行方法論上的初步考慮。法律的核心任務之一是規制沖突,并且防止出現新的沖突。解決這項任務的前提在于法律判決基本上是一致的。人類存在一個根深蒂固的需求,即應被一視同仁地對待。除此之外,還需要一個透明、明確以及合理的判決證成。當人們考慮到刑事判決可以深深地影響當事人的法權領域(Rechtssph?re)時,這一點就尤其明顯。這種干預的基礎是現有的法律,應在現有法律的框架下探討新的現象。

因此,我們應在現有(刑事)法律的基礎上探討數字化革命。法律人自然應當參與其中。然而在公眾和大眾傳媒中時常出現這樣一種設想,即必須馬上制定新的法規來應對新的技術現象。[18]要求形成針對自動化汽車的全面的新型法律框架就是一個例子。相反,立法者支持了“小型的解決方式”,參見Achtes Gesetz zur ?nderung des Stra?enverkehrsgesetzesvom 16.Juni2017,BGBl.I,S.1648.這對于理性的法政策而言是一個沉重的負擔。相反,應提出這樣的命題,即技術革命應當受到法律進化的制約。

三、案 例

接下來本文將通過五個案例從刑法角度分析新型的技術參與。

1.鮑納塔爾案

2015年6月,大眾汽車位于德國鮑納塔爾的工廠發生了一起意外事故,工人A在工作時被一個未放置在安全籠中的機器人手臂抓起并擠向一塊金屬板,最終導致死亡。工人B出于失誤過早地開啟了機器。[19]https://www.hna.de/kassel/kreis-kassel/baunatal-ort312516/toedlicher-roboter-unfall-bei-vw-kassel-in-baunatal-vor-gericht-8413531.html,最后訪問時間:2018年12月26日。這起事故很快傳遍了世界,甚至美國有線電視新聞網(CNN)也對此進行了報道。[20]https://edition.cnn.com/2015/07/02/europe/germany-volkswagen-robot-kills-worker/index.html,最后訪問時間:2018年12月26日。

我們面對的是機器人殺死人類的問題。在案情中明顯沒有出現特別的法律問題,由于排除了故意殺人,若能證明工人B違反了注意義務,就存在成立依據《德國刑法典》第222條規定的過失犯罪的主能。這種情況很可能是因為多年來機器人不再在安全籠中工作,而是直接與工人接觸。還可考慮第三方的責任,比如部門負責人或者公司的安全專員,只要他們對工人而言具有保證人地位。[21]關于合規可能面臨的可罰性的爭論,參見Fischer,StGB,§13Rn.38f.總而言之,這個案件不會帶來新的挑戰。這表明與新型科技相關的損害事故部分可在傳統法律的框架下輕易得到解決。

這個案件引起高度關注的原因主要在于自動機器人——一臺機器殺死了一個人。這顯然引發了對能夠傷害人類的“人工生命體”的深層恐慌和幻想。[22]處理這一主題的經典之作是恩斯特·特奧多爾·威廉·霍夫曼(E.T.A.Hoffmann)的短篇小說《睡魔》(1816年),刊登在V?lker,Künstliche Menschen(Fn.12),S.181-221.數字化使得這種生命體成為現實。對這些案件的理性法律探討是以認識到倉促擬人化[23]諸如《霹靂游俠》(1982年及后續幾年)、《我,機器人》(2004年)或者《機器人總動員》(2004年)等影視劇就涉及了這些明顯帶有生物學色彩和普世性的趨勢。另參見本文第一部分。所帶來的危險為前提。

2.阿沙芬堡案

2012年春天,一輛配備有功能強大的車道保持輔助系統的汽車駛入阿沙芬堡市附近的阿爾策瑙村。在駛入口處,車上60歲的司機突然中風并失去了意識。他向右扭轉方向盤,在正常情況下汽車會停在駛入口前的灌木叢中。然而車道保持輔助系統又將汽車駛回馬路上,車輛高速駛入阿爾策瑙村并撞死了一位年輕女子和她的孩子,孩子的父親因為及時跳開躲閃,只是腿部受了傷。[24]Hilgendorf,DRiZ2018,S.66ff.

這是自動系統給人類造成損害的第一個案例。自動系統意味著在具體情況下不依靠人類指令能夠作出適當反應的技術系統,對此的最佳范例是火星探測器。它可以在另一個星球上面對不可預見的困難“聰明地”作出反應,并不需要來自地球的指令。就這方面而言,“自動”和哲學或神學意義上的“自治”并不是同一個概念。[25]關于哲學和神學中的“自治”觀念眾說紛紜,很少得以闡明。在康德的傳統著作中,將“自治”觀念和“自我立法”的能力相結合的觀點影響甚大。對此詳見Lenzen,Künstliche Intelligenz(Fn.7),S.124ff.

鑒于《德國道路交通法》第7條規定的嚴格責任(Gef?hrdungshaftung),這個案例不會在民法上產生特別的問題,[26]由于《德國道路交通法》第7條中的嚴格責任可以輕易地適用于客車自動化系統的新問題情況當中,因此應當審驗,是否不能將這種模式擴展適用到現代機器人制造技術的其他形式中。問題在于刑法評價。首先想到的責任主體是肇事車輛的司機,但是事實上他更應是受害人而不是行為人,他并沒有過失地引起這個致命的事故。鑒于造成兩死一傷的結果,可以依據《德國刑法典》第222條、第229條的規定考慮制造商的責任。

造成這起事故的是自動系統,它讓車輛保持在馬路上行駛,否則汽車就會停在駛入口前。問題在于是否可以對該系統的制造商給予違反注意義務的非難(可以肯定的是未來會時常提及這樣的問題,因為那時自動系統幾乎普及。因此,阿沙芬堡案意義重大)。很明顯,發生在阿爾策瑙村的交通事故原則上是可預見的,只是不需要預見每一個細節。[27]Fischer,St GB,§15Rn.12a.若生產商放棄安裝車道保持輔助系統,就可避免年輕女子和她的孩子的死亡。鑒于潛在的損害程度,對于制造商注意義務的要求將會非常高。這種像在阿爾策瑙村發生的事件的概率確實很低。然而這種場景描述得越普遍,它發生的可能性就越大。特別是考慮到不是一輛汽車,而是很多輛汽車裝配有這樣的車道保持輔助系統。由于樣本數量巨大,在統計學上幾乎可以肯定,該系統將會造成人身傷害或死亡。所有這一切都贊成認可對注意義務的違反。

這就產生了是否要對制造商注意義務進行限制的問題,使得繼續生產以及安裝車道保持輔助系統成為可能。本該在公路交通中發揮核心作用的信賴原則[28]概況參見Fischer,StGB,§22Rn.10f.在這里并不適用,因為并不存在他人的不當行為。但是這里可以考慮被允許的風險。這種形態是在批量生產可能會產生危險的,但是在社會倫理上可接受并且有益于社會的產品的背景下被人熟知。[29]BGHSt37,180;Fischer,Vor§32,Rn.13;Kindh?user,LPK-St GB,§15Rn.58;ders.,Zumsog.“unerlaubten”Risiko,in:Bloy(u.a.),GerechteStrafe und legitimes Strafrecht.Festschrift für Manfred Maiwald zum75.Geburtstag,2010,S.397 ff.;關于教義學上的定位詳見NK-Paeffgen,Vor§32Rn.23ff.沒有任何產品是百分之百安全的,因此很早就出現了限制注意義務的法律規則:生產社會倫理上可接受并且有益于社會的產品,即使其創設了可識別的風險,而且這種風險只有通過停止生產才能避免,那么制造商在生產過程中以及之后能夠采取所有措施盡可能地減少這種風險,他們就不違反注意義務。

部分觀點認為,“被允許的風險”的概念已經在所謂的客觀歸責的背景下加以考慮。[30]例如Wessels/Beulke/Satzger,AT,Rn.258.然而客觀歸責的范疇過于模糊,無法對本文的問題提供足夠精準的幫助。將行為歸責于制造商“自己的行為”并不具有爭議,顯而易見,制造商將繼續承擔民事產品賠償責任。這也不是對太過寬泛的因果關系的限制,而是對制造商承擔的注意義務的限制??蓪⑦@種考量定位于“客觀歸責”的框架下,但是很明顯可以將絕大部分的事物都定位于“客觀歸責”的背景下??陀^歸責理論越來越像一個偽教義學“黑洞”,它很可能吸食、拉平以及最終吞噬數十年來艱難取得的大量刑法教義學分殊化成果。[31]Hilgendorf,Wozubrauchen wir die “objektive Zurechnung”?Skeptische überlegungen am Beispiel der strafrechtlichen Produkthaftung.In:Festschrift für Ulrich Weberzum 70.Geburtstag,hrsg.von Heinrichu.a.,2004,S.33ff.

制造自動的車道保持輔助系統就像制造安全氣囊和安全帶一樣,符合上述被允許的風險的前提:即便對該系統的批量生產與特定的危險情形相關聯,但被絕大多數人視為有利于社會。一旦制造商傾全力將自動系統產生的危險限制在合理范圍內,對該系統的生產就屬于“被允許的風險行為”。但是制造商應在生產以及產品進入市場時注意技術的現有水平。[32]關于技術條款,參見Knopp,in:Datenschutz und Datensicherheit 2017,S.663 ff.很多觀點都認為,制造商在銷售產品后還應承擔產品注意義務,就像從民事賠償責任中為人熟知的那樣。[33]Foerste,in:Foerste/Graf von Westphalen,Produkthaftungshandbuch,3.Aufl.2012,§24Rn.372ff.通過無線網絡進行改進(升級、補丁)將會變得越來越普遍。

這里概述的“被允許的風險概念”包含了一個動態元素,因為制造商有義務監控他所投入使用的技術,并且在銷售產品后盡可能將產品風險降到最低程度,這樣一種寬泛的產品注意義務看來十分適當,因為制造商一方面從產品銷售中直接受益;另一方面相比產品的最終用戶,他具有更高程度的評估風險以及事后將其降低到最低程度的能力。

3.自動駕駛的悖論問題

一個裝配自動駕駛系統的車輛快要臨近一個事故地點,此處的兩名重傷者意識全無地躺在馬路上,第三名傷者爬向道路邊緣抱住道路指示公告牌。設想車輛車速太快,要停車已經來不及了,回避已然不可能,要么碾過兩名躺在路上的重傷者,要么向左偏轉撞向抱住道路指示公告牌的第三名傷者。對此,駕駛系統該如何選擇?

諸如上述緊急避險的情形近年來引起了公眾的極大關心。這可能是因為一方面緊急避險問題一直以來都十分引人注目;[34]費迪南德·馮·席拉赫(Ferdinand von Schirach)的話劇《恐怖》(2016年)所引起的轟動也展現了這一點。劇情是,一個士兵擊落了被恐怖分子劫持的載有大量無辜乘客的客機,從而拯救了該客機將要墜落在的足球場內的更多數量的人。在該話劇中,觀眾可以自行決定該士兵無罪或是有罪,絕大多數觀眾支持無罪。法學家對該話劇的批判是正確的,因為席拉赫沒有區分違法性和責任。另一方面,這個主題的重要性在于在公路交通的緊急避險情況中要處理以下問題,即在未來以機器為基礎的環境中人類居于何種地位,機器具有多大范圍的決定權限,允許機器殺害人類嗎?[35]媒體對于這些問題百談不厭,例如http://www.zeit.de/digital/internet/2016-08/verkehr-wen-sollen-fahrerlose-autos-ueberfahren,最后訪問時間:2018年12月26日。

為了回答以上問題,德國聯邦交通和基礎設施部在2016年夏天特別成立了道德委員會,他們認為,對于自動駕駛而言,在上述案例中向左偏轉并撞死一個無辜者并不合法。[36]https://www.bmvi.de/SharedDocs/DE/Publikationen/G/bericht-der-ethik-kommission.html.(S.19),最后訪問時間:2018年12月26日。這與從“扳道工案”的爭論中發展而來的古典法學觀點一致。[37]OGHSt1,321,334;Welzel,ZStW63,51;RoxinATⅠ,16/33ff.在以下案件中極難作出選擇:一輛汽車高速駛來,在經過的道路上突然跳出來三個小孩,一個位于車左前方,兩個位于車右前方。停車已經來不及了,回避也已無可能。汽車向左轉向就要碾過一個小孩,向右轉向就要碾過兩個小孩,繼續向前行駛就要撞上所有的小孩,會導致他們三個重傷或者死亡。[38]案例情況參見Hilgendorf,Autonomes Fahrenim Dilemma.überlegungen zur moralischen und rechtlichen Behandlung von selbstt?tigen Kollisionsvermeidesystemen,in:ders.(Hrsg.),Autonome Systeme und neue Mobilit?t,2017,S.143(156).

通常無須思索的說法是人類間的生命不容衡量,但以上情景使其陷入嚴峻考驗。從敘述的角度來看,關于不能衡量的命題明顯是錯誤的——對人與人之間的生命進行衡量是可能的。[39]人類生命的量化就是這樣。德國在2011年5月進行的人口普查就是對人的生命進行特別全面的量化的例子。問題更多在于,依據我們的道德認識或者我們的法秩序,是否允許彼此間的衡量,比如說殺害一個人相比殺害兩個人或者更多人而言,更易被接受。通說迄今為止都否定這樣一種衡量權限。[40]Baumann/Weber/Mitsch/Eisele,AT,§15 Rn.102;MüKo-Erb,§34 Rn.116 f.;S-S-Perron,§34 Rn.117.這一觀點原則上仍然值得贊同:在一個擔負著人文主義價值的法秩序[41]參見前引②,Hilgendorf文。中不允許使任何人擔負容忍義務,為他人犧牲自己的生命。[42]Fischer,St GB,§34Rn.18;MüKo-Erb,§34Rn.116;Hilgendorf,Autonomes Fahren im Dilemma(Fn.38),S.151 ff.

這個基本決定將會導致在初始案件中否定車輛的偏轉,因為若車輛偏轉就會給馬路邊上本沒有危險的第三名傷者造成嚴重危害,他生還的概率將會明顯降低。第二個案件則有所不同,汽車在不改變行駛方向的情況下會給所有小孩造成嚴重危害,向左偏轉則位于車左側的小孩的生還概率和向右偏轉則位于車右側的兩個小孩的生還概率都沒有發生任何改變;而向左偏轉,位于車右側的兩個小孩生還概率就會提高,反之亦然。若遵循通常作為緊急避險評價基礎的更輕損害原則,就可主張向左偏轉碾過一個小孩,另外兩個小孩就可得救,這至少在道德上是可取的。如何在法學上解決這個案例是另一個還未最終澄清的問題。[43]參見Hilgendorf,Autonomes Fahren im Dilemma (Fn.38),S.156f.

此外,這個案例還表明了自動駕駛的出現,或者更廣泛地說,案情中涉及的數字化常常迫使我們要準確地抓住特定問題,以便更為清晰地識別其結構。數字化將法律和法學置于一種巨大的解釋需求之下。但是這并不是一件壞事,而是一個挑戰。

還有其他重要問題:一個結果出現的概率具有怎樣的作用?[44]MüKo-Erb,§34 Rn.129 ff.;Hilgendorf,Autonomes Fahren im Dilemma(Fn.38),S.160 f.具體而言,若保持行駛方向不變,車輛只會以一定的概率碾過兩個躺在馬路上的重傷者;若向左偏轉,車輛肯定撞上在路邊的第三名傷者導致其重傷或死亡,這樣的問題會給衡量過程造成什么影響?此外的問題則涉及司機的地位以及他可能負有的刑事責任,畢竟他參與交通的行為是風險情境發生的原因。對這個以及其他問題的學術討論才剛剛開始。[45]除了前引[38]中的文獻,還可參見Beck,Joerden,Schuster 和Hilgendorf等人的論文,尤其可參見Weigend,ZIS 2017,S.599ff.;H?rnle/Wohlers,GA2018,S.12ff.另參見即將出版的Jochen Feldle的博士論文Notstandsalgorithmen.Dilemmatische Situationen im automatisierten Stra?enverkehr,2018.

最后,判斷制造商的責任也是困難重重。[46]值得注意的是,在兩難困境當中這個問題大多沒有被提及,盡管它對于引入沖突避免系統意義非凡。若認為在以上兩個案例中的緊急避險情況下的殺害行為是違法的(即所有可能的決定下都是如此),[47]換言之,所有這些案例中的結果無價值都得以實現。那么,制造商就造成了一個符合構成要件的違法結果。他是否負有刑事上的責任只取決于是否能以違反注意義務對他進行非難。作者在其他文章中也試圖通過可允許的風險的法律形態回答這個問題。[48]Hilgendorf,Autonomes Fahren im Dilemma (Fn.38),S.164ff.如果自動駕駛系統不能避免在極少數例外情況下造成人類死亡或重傷,那么對它的生產和投放市場不違反注意義務。在作者看來,應當像處理安全氣囊、安全帶或者車道保持輔助系統造成損害的案件那樣處理自動系統造成損害的案件。[49]質疑性觀點,參見H?rnle/Wohler,GA 2018,S.12(21).

這就為一個中間結論掃清了障礙:在新興科技的背景下,刑法理論的古典問題有時會以新形態出現,比如,生命對生命的可衡量性問題。在這里,解決新問題也應與傳統的教義學基礎保持一致。值得注意的是,數字化顯然迫使我們對許多迄今沒有明確作出的假設進行解釋。在衡量時需要大量額外的差別化嘗試。這可以幫助我們分析、評估以及檢驗自動系統的決定行為,并賦予其結構化。

4.“Tay”案

2016年3月,微軟在推特平臺推出了一個人工智能聊天機器人“Tay”。它可以與任意第三人進行對話。但是Tay推出的當天微軟就不得不關閉了Tay的推特賬號,為什么呢?因為Tay開始有一些仇視女性和種族歧視之類的偏激言論,而這些言論明顯是和網絡上一些有偏激言論的人互動后被刻意教導而出現的。對此,微軟別無選擇,只能將它從推特平臺上撤下。[50]詳細案情參見英文版維基百科“Tay (bot)”詞條。

這個案件富有幾個方面的啟發性。設想依據《德國刑法典》第185條規定的檢驗侮辱行為,那么應考慮哪些責任主體?那些刻意教導系統出現偏激言論的人或可觸犯《德國刑法典》第185條的規定而構成侮辱罪。然而,前提條件是他們要具有一個相應的故意,但這看上去似乎難以證明,至少教導者對于可能的受害人身份和對受害人造成損害的時間點的認識是模糊的。進一步可考慮系統制造商或程序員的責任,然而該系統沒有出現任何錯誤,它按照預期進行學習。此外,制造商和程序員也都不具有侮辱故意。原則上似乎可以考慮系統本身的責任。[51]支持機器的可罰性的觀點,參見Matthias,Automaten als Tr?ger von Rechten:Pl?doyer für eine Gesetzes?nderung,2008,2.korrigierte Aufl.2010;關于“電子人”的爭論,參見Beck,über Sinn und Unsinn von Statusfragen—zu Vor-und Nachteilender Einführung einer elektronischen Person,in:Hilgendorf( Hrsg.),Robotik und Gesetzgebung,2013,S.239ff.這很可能出自大多數人的直覺。然而這在法學上是不成立的,當下的刑法并不將一個由運算法則組成的計算機系統視為責任主體。這樣一種系統不是自然人,嚴格上來說它都不是一個物。[52]不過,根據《德國著作權法》第2條第1款第1項的規定,電腦程序屬于受著作權法保護的作品。

如案例所示,對具有自我學習能力的系統進行刑事規制就出現了相當的困難。雖然刑法學中的絕大部分意見認為,刑法無須無漏洞地保護法益。[53]Baumann/Weber/Mitsch/Eisele,AT§2Rn.7f.另一方面可以設想,若進一步推廣具有自我學習能力的系統,系統本身總會造成損害,而如果人類以同樣的方式造成了損害就會被課以刑罰。這就產生了一個問題,即法秩序如何對待原則上合法的公民的預期刑度(Straferwartungen)。[54]自動化系統“擬人化”的第二個參考點可能在于,未來越來越多的機器人將與人類建立直接的聯系,例如作為老年護工或孩子的玩伴。這要求機器的形態越來越接近人類,或者至少引起人類的積極情感(例如機器人“瓦力”的角色)。如果這樣的機器受損甚至是毀損,那么對很多人尤其是它的人類伙伴來說,難以接受將該狀況僅僅視為“損壞財物”。就此而言,甚至“機器的人權”這種口號也能擁有支持者。

無論如何,可達成的共識是,具有自我學習能力的系統的制造商必須預先對系統的學習可能性進行一定的限制,以便它們不能學習到危害人的東西。也就是說,制造商從一開始就要限縮系統學習成果的可能空間,這在民法上可通過擴大《德國產品責任法》中的嚴格責任來達到。迄今為止,產品責任只適用于(移動的)有體標的(物),即《德國產品責任法》第2條所規定的,然而人工智能聊天機器人“Tay”不是一個物,而是一個程序。消費者權益保護者主張應將產品責任擴展到這樣的程序上。此外也應包括通過無線網絡的程序變更的安裝或升級。

在刑法上,由于罪責原則而排除引入與罪責無關的嚴格責任,[55]Baumann/Weber/Mitsch/Eisele,AT§2Rn.64ff.但是可以考慮對可自主造成損害的自動系統引入抽象或者具體危險犯,可以考慮設置發售危險產品的抽象危險犯,可以將損害結果的出現作為可罰性的客觀前提。通過這種方式可以在刑法上給相應系統的制造商提供一個強有力的動機,使他們從一開始就限制系統的可能空間以及阻止具有風險的學習過程。

總之,“Tay”案表明了具有自我學習能力的系統對法學特別是刑法學構成了巨大挑戰。應然之,法除了立法者的想象外,還需要考慮實踐知識以及跨學科的合作。[56]2017年,德國聯邦教育及研究部(BMBF)成立了“平臺學習系統”。該平臺的其中一個小組委員會研究自主學習系統的法律和倫理挑戰,參見www.plattform-lernende-systeme.de/ag-3.html.目前仍難以預測數字化革命的實際影響,這就意味著對于新的立法提案應當持保留態度。

5.“感知心”——鑒于科學幻想

為了得到技術和社會發展方向的大致印象,我們可以閱讀科幻小說。科學幻想可以窺見未來,此外,科學幻想也對技術發展產生了明顯的影響。盡管科學幻想在很多時候體現了特定的威脅感,但是也體現了技術主導的藍本功能——可以這樣說,科學幻想是技術發展的前導。[57]Hilgendorf,Recht und autonome Maschinen-ein Problemaufri?.In:Hilgendorf/H?titzsch(Hrsg.),Beitr?geder1.Würzburger Tagung zum Technikrecht,2015,S.11ff.

在伊恩·M.班克斯《文明》系列的科幻小說[58]Consider Phlebas,1987;The Player of Games,1988;Use of Weapons,1990;The State of the Art,1991;Excession,1996;Lookto Winward,2000;Matter,2008;Surface Detail,2010;The Hydrogen Sonata,2012.中,早已超過人類水準的人工超級智能作為人類的合作伙伴、保衛者(以及主人?[59]應當將《文明》理解為積極的烏托邦還是反烏托邦,對此并無定論。本文認為更多的是前者。),是社會的支柱。這一系列科幻小說是建立在人之條件(conditio humana)急劇變化的基礎上:人類生活充沛,借助無所不能的機器幾乎可以實現每一個愿望,不再需要金錢,人類生活完全致力于自我實現。值得注意的是,人工智能實體知道“好”和“壞”的范疇并受其引導。這一系列科幻小說致力于討論這樣的問題:生物實體和機械實體到底存在怎樣的根本差異?個人自決是否有一個界限?一個在技術和道德上處于優勢的(或者只是自命不凡的優越)文明是否應該干預其他文明的發展?

這些問題具有一個間離功能,它們觸動了看似不證自明的真理以及打破了迄今無可置疑的思維習慣。這些影響促進了刑法理論的反思。[60]有時捍衛現有刑法教義學原則和規范的決心也可能與缺乏幻想有關。這里就不僅僅涉及通過對虛構場景的探討來進一步發展刑法的術語庫。聯系伊恩·M.班克斯的科幻小說就會提出以下問題:人工智能實體是否可能承擔道德或者法律義務;或者是否可以存在“屬于機器的倫理”,而不是“為機器設計的倫理”。[61]這個問題在英美倫理學中已經得到了相當一段時間的集中討論,例如,Anderson/Anderson (Hrsg,),Machine Ethics2011;Wallach(Hrsg,),Moral Machines.Teaching Robots Rightfrom Wrong,2010.另參見文集Lin/Jenkins/Abney(Hrsg.),Robot Ethics 2.0.From Autonomous Cars to Artificial Intelligence,2017.德語區的文獻,參見Heesen 和Neuh?user的文章,載于Hilgendorf (Hrsg.),Robotik im Kontext von Recht und Moral,2014.

這些問題遠比與現實的距離看上去近。正如上面討論具有自我學習能力的系統問題那樣,迫切需要限制具有自我學習能力的系統的“可能空間”,即確保這種系統不會大量學習具有社會危害性甚至要面臨刑法處罰的行為。為實現這一目標,可以賦予機器“良知”,即在軟件中確定規范和價值,然后借助它們校正和監督系統的學習過程。[62]艾薩克·阿西莫夫在其短篇小說《環舞》(1942年)中提出的著名的“機器人三定律”顯然是這種“機器人道德”的早期形式:“第一,機器人不得傷害人類,或坐視人類受到傷害;第二,除非違背第一法則,否則機器人必須服從人類命令;第三,除非違背第一或第二法則,否則機器人必須保護自己?!痹诤芏嗫苹眯≌f和電影(例如2004年的《我,機器人》)中,這些定律都是主題,而且面臨著問題。從法學視角來看,阿西莫夫定律難以令人信服,它沒有明確應當如何理解“傷害”,對于兩難困境也缺乏決定規則。顯然,這不僅是一項技術任務,更是對法理學和法哲學構成了一個挑戰:如何準確表達和運作像“規范”和“價值”這樣的概念,以便它們可以被機器理解?我們希望給我們的技術產物,就是“我們的智力后裔”,[63]這一表述是根據一位奧地利裔美國機器人技術幻想家的名著,參見Hans Moravec:Mind Children.The Future of Robot and Human Intelligence,1988.提供什么樣的規范和價值?

四、總 結

本文將以上明顯概略的闡述總結為以下核心論點。

第一,數字化革命不應由立法者的臆想孤注一擲地應對,而應伴隨著謹慎、適度的法律演進一同發展。

第二,數字化經常產生迫切的法律解釋需求,特別對諸如(法益)衡量那樣的方法論程序必須準確化和體系化。這體現在對自動化駕駛的悖論問題的討論上。

第三,許多新的問題可以在現有法律的框架下得到解決。這也恰恰適用于責任法以及刑事責任法領域。若沒有令人信服的理由,就不應放棄已被證明可靠的教義學結構。

第四,沒有技術系統是百分之百安全的。為了在教義學上掌控剩余風險,就出現了被允許的風險形態,可將它理解為對制造商注意義務的限制。它可能是一個有意義的責任規則以及技術系統的制造商和用戶之間風險分擔的關鍵。

第五,具有自我學習能力的系統對法律構成了特別的挑戰。在民法上應擴大嚴格責任,在刑法上可考慮引入新的危險犯構成要件。當然前提是從實證角度對風險情勢進行更強有力的解釋。

第六,科幻場景可以觸發間離效應,從而有助于提出新的問題并制定可能的答案。因此,“機器倫理”的主題對于研究數字化影響的法律專業人員而言具有重要意義。

猜你喜歡
人類系統
Smartflower POP 一體式光伏系統
工業設計(2022年8期)2022-09-09 07:43:20
顫抖吧,人類
哈哈畫報(2022年4期)2022-04-19 11:11:50
人類能否一覺到未來?
人類會成長起來嗎?
英語文摘(2021年2期)2021-07-22 07:56:54
WJ-700無人機系統
ZC系列無人機遙感系統
北京測繪(2020年12期)2020-12-29 01:33:58
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
基于PowerPC+FPGA顯示系統
1100億個人類的清明
半沸制皂系統(下)
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
404 Not Found

404 Not Found


nginx
主站蜘蛛池模板: 呦女亚洲一区精品| 国产成人精品一区二区免费看京| 99激情网| 多人乱p欧美在线观看| 精品久久香蕉国产线看观看gif| 高潮爽到爆的喷水女主播视频| 亚洲国产欧美中日韩成人综合视频| 国产99视频精品免费观看9e| 亚洲av无码久久无遮挡| 成年女人18毛片毛片免费| 日韩在线欧美在线| 波多野一区| 婷婷综合缴情亚洲五月伊| 久久免费精品琪琪| 久久精品中文字幕免费| 国产成人精品高清在线| 黑人巨大精品欧美一区二区区| 亚洲AV一二三区无码AV蜜桃| 五月天福利视频| 亚洲成人播放| 国产精品免费电影| 欧美综合在线观看| 毛片最新网址| 国产高清毛片| av大片在线无码免费| 国产成本人片免费a∨短片| 国产成人无码播放| 精品成人一区二区三区电影| 在线观看亚洲天堂| av在线人妻熟妇| 激情综合网激情综合| 国产啪在线91| 51国产偷自视频区视频手机观看| 香蕉久久永久视频| 欧美国产日本高清不卡| 18禁高潮出水呻吟娇喘蜜芽| 亚洲第一视频免费在线| 亚洲首页国产精品丝袜| av午夜福利一片免费看| 国产在线观看精品| 538国产视频| 毛片免费高清免费| 日韩 欧美 小说 综合网 另类 | 色悠久久综合| 国产一级毛片在线| 最新无码专区超级碰碰碰| 精品在线免费播放| 亚洲精品片911| 亚洲自拍另类| 激情综合婷婷丁香五月尤物| 中文字幕乱码二三区免费| 久久免费视频6| 国产福利影院在线观看| 亚洲大学生视频在线播放| 精品成人一区二区三区电影| 青草娱乐极品免费视频| 91原创视频在线| 国产亚洲第一页| a欧美在线| 欧美一区精品| 欧美日本中文| AV无码国产在线看岛国岛| 日韩在线网址| 亚洲福利片无码最新在线播放| 人人爽人人爽人人片| 日韩在线欧美在线| 亚洲va视频| 在线亚洲小视频| 夜夜操天天摸| 国产a在视频线精品视频下载| 97se综合| 992tv国产人成在线观看| 精品乱码久久久久久久| 99re在线视频观看| 全午夜免费一级毛片| 日韩天堂网| 夜夜爽免费视频| 亚洲精品无码久久久久苍井空| 精品国产乱码久久久久久一区二区| 18禁黄无遮挡网站| 国产欧美精品一区二区| 国产欧美在线观看精品一区污|