孫道萃
中國政法大學 國家法律援助研究院,北京 100088
智能駕駛(也稱自動駕駛)具有技術的難預測性、駕駛行為的難解釋性、傳統因果關系的脆弱性、駕駛模式的多樣性、駕駛人員的非特定性等特征,不同于“人”的駕駛,首要區別在于“人是否還作為唯一法定的駕駛主體”。這從根本上顛覆了人類中心主義統攝下傳統交通安全理念、交通法律制度及“機動車”“人的駕駛”“機動車駕駛安全”“人的法定交通安全義務與罪責”等基本概念[1],引發傳統認識顛覆與觀念禁區的淪陷,也使傳統刑法中的公共交通安全犯罪正經歷深度蛻變。目前,上路測試或行駛的智能汽車,已經造成了一些交通安全事故,引發了新的刑法適用議題[2]。例如:(1)特斯拉事件①2016年5月,美國佛羅里達州某男子,以自動駕駛模式在高速公路上駕駛特斯拉Model S,全速撞到一輛正垂直橫穿高速的白色拖掛卡車,造成車毀人亡。,美國國家公路安全管理局調查結果最終認為,特斯拉的自動駕駛模式設計并無明顯缺陷,但對自動駕駛事故的法律責任問題卻含糊不清。人工智能系統已經可以在不需要人類的操作和監督下獨立完成部分工作,機器自主性操作造成的損害如何判斷和劃分責任成為新的難題[3]。(2)Uber 事件②2018年3月晚10點,Uber自動駕駛汽車處于自動駕駛模式(四級以上),駕駛位配有安全駕駛員應急司機,沒有搭載乘客,在美國亞利桑那州坦佩市碰撞到一個橫穿馬路的行人,后不治身亡。。安全駕駛員不控制駕駛活動,事發時對駕駛活動沒有注意義務(due care),不承擔法律責任。如果可以證明因產品存在缺陷造成損害的,車企需承擔法律責任。但人工智能系統的黑箱性質和不可解釋性導致難以證明缺陷的存在。警方初步調查指出,一旦認定Uber 存在責任,不排除可能向Uber 和安全駕駛員提出起訴[4]。域外刑法界積極關注自動駕駛并提出有益的解決方案,但這些經驗和做法并不必然適合我國國情與有中國特色的刑法學理論體系。
如何對智能駕駛引發的新型公共安全問題進行歸責是當前的難題,既包括智能駕駛系統是否可以作為犯罪主體等重大疑問,也包括智能駕駛系統的安全可靠性與研發者、設計者的過失責任范圍,還包括智能駕駛與傳統駕駛交互過程中的新型公共交通安全犯罪的責任劃分。智能駕駛測試與廣泛的商業應用正在全面推進,在法學理論、立法及司法層面引發諸多風險,刑法保障智能駕駛安全刻不容緩。應當厘清傳統刑法理論、立法以及司法所面臨的問題和挑戰①這方面已有相應的研究成果,但問題在于:(1)基本或主要只立足或堅守現有刑法理論與規定進行“隔空”分析,對正在出現的理論危機的解說不足。(2)參照人類中心主義下的刑事責任理論,直奔探索新的處理規則,理論與立法的多維應對偏弱。(3)側重域外介紹或借鑒,對我國自動駕駛的態勢缺乏有效關注。,明確智能時代的新型駕駛交通安全犯罪的基本議題,指明正確的發展方向與應對策略。
智能駕駛對傳統交通安全犯罪問題形成重大的沖擊,引發新舊刑法知識體系之間的沖突。傳統交通安全犯罪的歸責基礎、價值預設、立法導向等問題處在變革的歷史轉型關口,亟待澄清這場新舊刑法知識碰撞的法理問題,以明確刑法應對的基本邏輯與理念。
在智能駕駛時代,以機動車和“人”為雙軌核心所建立的交通法律規范體系,正面臨前所未有的“肢解”效應。智能駕駛逐步取代人類駕駛者的身份與地位,甚至將出現顛覆人的駕駛主體地位、過錯責任以及公共安全觀等附隨結果。
其具體影響表現為:(1)人的法定駕駛主體與智能駕駛“自主身份”的正面博弈。“人是唯一法定的駕駛主體”已是基本共識,也奠定“人需要對駕駛安全負責”的道德正當性與倫理的必要性,是依法規范“可以自主自由控制駕駛行為的人”的體現,是對嚴重的交通安全違法行為可以追究刑事責任的依據。然而,“智能駕駛”的實質是“代替人的駕駛”,實現“智能系統(智能人等)自主駕駛”。駕駛主體的法定地位之變動,既是對傳統駕駛觀念的根本性突破,也沖擊駕駛規則、法律責任等問題。在“智能人”作為駕駛主體后,“人”可能變成純粹的“用戶(消費)主體”,甚至是駕駛過程的“絕對旁觀者”。“人”不再是行為主體,也不可能是刑事責任主體,但“智能主體”是否具有“類人”的刑事責任能力并承擔刑事責任尚不可知。這使“人”的責任主體地位面臨危機:一是交通事故的主體發生變化,使刑法的調整對象隨之改變;“人”退居二線,智能駕駛系統被推向首要責任的席位。二是基于刑法“允許的風險”(可信賴的利益)原則,根據人的駕駛主體地位,所確立的交通事故犯罪的“風險分配”責任體系并不繼續合理,無法按照傳統的過錯原則進行歸責,除非可以查證智能駕駛系統等具有主觀罪過。(2)智能駕駛的“自主智能”與“人的意志自由”之歸責地位的坍塌。對“人”作為法定駕駛主體予以歸責,其法理基礎是“人”具有相對的意志自由。人的駕駛地位一旦喪失,意志自由作為刑事歸責的前提和基礎不復存在。當“智能汽車(系統)”達到預期的智能程度,完全可以與人的駕駛能力、地位媲美,就出現是否具有“刑事責任能力”并作為獨立的駕駛主體問題。不乏觀點認為,智能機器人具有辨認、控制能力和學習能力,擁有自主的意識和意志,可以獨立實施犯罪行為,是新的犯罪主體。[5]當前完全肯定智能主體的刑法地位仍為時過早,智能駕駛系統不是法定的駕駛主體。在人的駕駛與智能駕駛系統交錯的復雜局面下,對智能駕駛行為的刑事歸責會陷入“無規則”狀態。
智能駕駛的無“人”屬性,與智能交通安全“主體脫逸”相互策應。智能駕駛通過訴諸算法實現高度智能化,既剔除“人”的情感等本能因素對駕駛行為的控制,也會淡化或抹去具體駕駛境況的特殊性。智能駕駛技術以非人格化的方式,抹殺情境的具體性、特定性和突發性,消解人的意向性、能動性和差異性,削弱公共安全價值的多樣性。在智能駕駛時代,去“人(主體)的中心化”跡象明顯,真正的責任主體及其構成要件要素模糊不定。
就此產生的后續影響主要有:(1)“犯罪人”之歸責基礎的消解。傳統由“人”作為駕駛主體的身份具有天然的合法性與合理性。刑法可以基于“人”的“駕駛行為”及其所引發的危害結果,根據主觀罪過與法定義務等要素予以歸責和制裁。人作為駕駛主體,人的本能是處理交通意外事故的重要或決定因素;事故發生的瞬時性,使“人”無法正常在瞬間完成復雜的利益權衡;因缺乏足夠的干預時間,并不必然可以做出理性且審慎的判斷;一般只能概括性預見但難以逐一有效避免,更多是條件反射、非故意的行為。社會整體傾向于接納這一“辯解”。駕駛主體的技術水平、車輛的安全狀況、交通條件的好壞、其他駕駛主體是否遵守交規等,往往是引發交通事故犯罪的主因,而非駕駛主體的道德品格或道德責任等。因此,根據社會整體對交通規則的遵守態度以及公共交通安全觀念,規范評價是主要,道德評價是次要。理論上也往往根據“允許的風險”確立刑事歸責的基礎和依據。但是,算法實現了對影響因子的量化與計算,可以更科學地規劃與指導駕駛行為。人作為駕駛員,瞬間作出的本能反應,將被極速且精密的算法程序所取代。算法及其邏輯可以延長應對事故的時間,為處理事故贏得“時間差”。而且,本應借助駕駛員的本能解決的安全問題,因前置性的算法程序設計,而被賦予技術倫理意義。智能技術的智能預判與理性抉擇等獨特因素,直接關乎智能駕駛系統判斷的正當與合理。智能駕駛系統的自主選擇具有鮮明的道德正當性,成為智能駕駛技術難以繞開的新技術倫理難題,引發與價值權衡相關且難以達成共識的道德爭論,也與智能駕駛技術安全及其可靠性,共同成為智能駕駛行為中的疑難問題。(2)“罪過”歸責的邏輯虛化。對于交通安全事故犯罪,主要根據汽車制造商生產的車輛是否達到質量標準、車輛所有人是否履行法定義務、駕駛者是否存在過失等因素,認定機動車事故的成因,并決定對道路交通違法行為是否追究刑事責任。駕駛人的主觀心態往往是過失,也包括故意。但智能駕駛技術相對中立,難言技術存在罪過問題。使用智能汽車的“人”,因實際上沒有駕駛行為,也難言有“共同”的罪過。智能系統或機器人作為駕駛主體,不存在“人的過錯”問題。一律轉向研發者、設計者以及銷售商等,是技術風險的概括性轉嫁,涉嫌用替代責任來解決智能駕駛安全問題,但將責任歸屬于所有權人或具體使用者,直接突破“無行為、無責任”的基本立場。智能汽車通過內置芯片智能系統完成駕駛行為,是否違反交通運輸管理法規的判斷,必然涉及期待可能性問題。出現技術無法預見的情形,應屬于意外事件。屬于可以預見的情況,可能主要是過失或單位過失。對無辜者造成傷害的,預先設定的算法程序往往是可以提前預見或可以避免的,否則可能是有預謀、故意的行為,應當處以更嚴厲的道德責難與刑事責任。政府監管部門負有監管保障義務,但刑事責任邊界仍有待澄清。
智能駕駛的應用與智能汽車的商業化所引發的刑事風險,涉及諸多不同階段與類型的責任主體。新型罪責主體的鎖定與劃分,是刑法充分保障智能駕駛安全的又一難題。
初步看,該問題表現為:(1)智能駕駛安全主體的聚合與交互。在傳統機動車與人駕駛的時代,駕駛風險類型及其表現等內容相對已經固化。在智能駕駛中,開發者、設計者是算法的“攝入者”,制造者、經銷者、監管者、所有者、使用者等不同主體共同參與,導致刑事責任主體相互嵌合,加深刑事責任分配的難度。一是智能駕駛的風險類型及其表現等內容基本是空白,責任主體的歸屬與分配規則也處于闕如狀態。二是智能汽車或智能駕駛系統正成為應負責的駕駛主體,人的駕駛地位基本被取代。但只追究智能系統的責任,在操作性與有效性上存在重大缺陷;追究“人作為純粹消費者或無關聯的用戶”的責任,顯失公平。這引出了法律責任的斷層問題。三是智能技術的研發與設計者、智能汽車的生產經營者、智能汽車的監管者、用戶或消費者等,都是智能駕駛刑事風險這一完整鏈條上的關聯部分且相互交錯。確保刑事責任的正當化配置及責任分配承擔的科學化,是智能駕駛時代的立法任務與司法難題。(2)智能駕駛主體的歸責地位之迷失。在智能駕駛下,“人”并非真正的駕駛者,而是更純粹的“第三方中立”的消費者或用戶,對交通事故的發生沒有過失,行為與法律后果之間不存在因果關系。“人”已經不參與任何駕駛行為,“人”的駕駛主體虛化,不能承擔刑事責任。這使發生交通事故犯罪后,真正的責任主體無從可尋。追究提供者的刑事責任,是對技術追責,技術作為“替代羊”是倒退。這暴露了交通肇事罪等傳統交通犯罪規定在智能時代的“矛盾性”,以及法律責任判定的泛化問題。此外,提供商負責智能駕駛技術與車輛及其技術可靠性、駕駛安全系數等,不宜在刑事歸責上缺席,但其罪責范圍的界定是難題。
智能技術及其應用仍在發展,智能駕駛技術具有相對的中立性,而其應用客觀上存在“不可控”的刑事風險。這加劇了智能駕駛安全犯罪的罪責邊界模糊問題。主要表現為:(1)算法規則與歸責倫理的正當性困局。人的駕駛行為具有不可控的技術風險,使對駕駛主體的歸責不嚴格。基于保護弱勢者的道德取向,行人或非機動車駕駛者往往被看作弱勢方,以實現更實質的公平。從現有交通法規的設計看,整體上對行人或非機動車駕駛者存在政策性傾斜。人的有限性、直覺或本能反應、駕駛員掌握的信息不完全或不對稱,以及安全事故的不可預見性等,為所造成的傷害提供公認的辯護理由,“意外”地減輕了良心責難或行為責任的程度。一是技術主宰價值判斷問題,完全交由算法和程序自主處理。算法運行存在“技術黑洞”,存在“技術壟斷”與“認知獨裁”問題,完全有可能對主流道德觀念產生顛覆性影響。二是研發者與設計者根據算法及其規則,最大程度窮盡可能的情形,植入類型化、模塊化、自主化以及默認的優先模式等應對機制,以便實踐中根據預設規則予以處置。但面對疑難復雜情況,特別有關價值判斷等情況下,預設規則未必奏效,可能導致智能駕駛系統的默認選擇不合理或不正當。這引出了技術的道德難題,既包括智能駕駛公共安全與人的生命安全何者應優先保護的重大“道德命題”,也包括智能駕駛過程中的內部與外部安全取舍問題。如果智能駕駛系統奉行自保原則,不正確履行智能駕駛的基本安全注意義務,可能忽視對人的生命權的絕對優位保護,無法顧及弱勢群體的安全,在根本上挑戰現行的道德體系與公共安全的基本倫理。三是相比于在“人的情感、意志”下、人駕駛時發生事故的,通常是非故意行為或無法預料等因素。從智能駕駛行為的危險屬性與技術條件看,智能駕駛過程中造成的危害,在某種意義上是更有預謀或更明顯的故意。“意外”再作為辯解理由的說服力,與智能技術的成熟程度“相悖”,也逐漸削弱“意外事件”對人的責任。(2)技術中立與“開發源”責任的歸咎問題。智能駕駛及駕駛系統,充滿不可避免的不確定的技術風險與“價值悖論”。其隱患為:一是技術中立的泛化問題。技術的研發者、產品的設計者以及產品的運營者都是智能技術發展的積極力量。但上述關聯主體,也是危險源。雖然部分屬于智能技術的不可控風險,應受“技術中立性”理念的庇護,而不應無差別地承擔“替代性風險”,但技術的中立性理念作為辯解不能隨意化,泛化使用可能導致放縱犯罪。二是智能交通公共安全的“不負責任”危機。“人”將逐步徹底脫離駕駛主體的地位,“人”不能繼續作為責任的主體。但一律將歸責的矛頭完全轉向研發者、設計者、運營者等前端群體,不利于協調技術創新與技術安全的價值博弈。只是不追究前端主體的責任,也可能出現“不負責任”的歸責危機。三是研發者、設計者、運營者的刑事歸責模式之正當性困境。在智能駕駛與人的駕駛地位相互剝離過程中,技術的研發者與產品的設計者、甚至產品的運營者,對智能駕駛更富有實際的控制力和管理力,可能架空智能駕駛系統與人的存在意義,成為實質操控智能駕駛時代的“幕后者”。即使可以正當地追究前端關聯主體的刑事責任,也應當遵循必要、正當、比例原則,合理分配責任范圍。而該領域尚是空白。
智能駕駛安全不僅限于智能系統及汽車的安全,還包括智能配套體系的公共安全。這對傳統刑法中的公共安全犯罪規定而言,顯然是“猝不及防”的大變樣。
展開而論:(1)智能駕駛配套安全的開放格局與內涵異化。傳統公共交通安全體系、交通管理制度、交通安全保障機制等,都以人和機動車為核心展開,以機動車為基本對象。智能駕駛技術的成熟與應用,引發整個交通安全制度、管理制度、交通安全體系的巨變。除智能汽車這一基本元素外,還包括關鍵的智能系統、智能交通道路設施、智能交通工具、智能交通管理等開放性的智能安全問題。這使傳統交通安全的配套體系面臨新情況:一是機動車與智能汽車所對應的運行設備、設施、工具不同,將是完全獨立的運行體系。現有法律法規難有奏效的余地,可能出現刑法保護的空白地帶,配套安全難有保障。二是智能駕駛的配套安全處于全新的不確定狀態,未知的不確定性風險必然存在,包括制度轉型過程中的風險、法律銜接滯后的風險、新出現的難以預料并有效控制的各種風險。(2)傳統交通配套安全保障規范的機理挫敗。傳統交通安全問題主要包括:一是人駕駛不同交通工具引發的外部危險,以駕駛機動車引發的公共安全事故為主;二是針對機動車等交通設施、工具實施的危害更廣義的公共交通安全的行為。智能公共交通安全在內涵和外延上都有更新,智能交通工具、設施等被賦予新的內容,涉及交通工具種類、交通設施、公共道路、國家交通安全規定等配套安全要素。現行交通安全犯罪規定難以無縫對接,甚至相互排斥,極可能使破壞交通工具、交通設施等罪名,在保護智能公共交通安全上出現“規范失效”。智能公共安全的要素不斷成熟,智能公共安全法律體系逐漸成型,迫使刑法與立法必須保障智能駕駛配套的公共安全。
現行刑法理論所遭遇的危機,顯示了傳統駕駛時代與智能駕駛之間出現質性的知識分流。有必要針對新型智能交通安全犯罪的歸責議題展開理論銜接的討論。
只有科學地理解智能駕駛犯罪這一根本前提,才能有效地作出應對。參照當前對網絡犯罪的“對象型”“工具型”“獨立型(空間型)”的三分法經驗,可以將智能駕駛犯罪的基本形態分為智能駕駛系統(汽車)作為“工具型”與“對象型”兩類,但未來也可能演變為“獨立型”犯罪。以此確立“三分法”格局,可作為設定立體化應對邏輯的依據。
具體而言:(1)智能駕駛“工具型”犯罪形態。智能駕駛汽車仍然首先并主要作為新型駕駛工具,而非能獨立承擔法律責任的特殊法律主體。易言之,智能駕駛系統及智能汽車,首先是智能化的交通工具。對于所有者與使用者而言,智能駕駛系統及其載體,都可以視為犯罪意義上的“工具”。在智能駕駛系統并未完全獨立自主的技術條件下,人將智能駕駛系統作為新型犯罪工具的,如利用智能駕駛系統或智能車輛實施犯罪的,都實質上是人實施的犯罪,應按照故意犯罪論處。(2)智能駕駛“對象型”犯罪形態。在智能駕駛系統作為產品或財產等范疇時,是刑法應當保護的對象。這是“對象型”智能駕駛犯罪的始源。實施非法竊取等行為的,可以參照傳統財產犯罪規定論處。智能駕駛系統也包括應當受保護的新類型數據,非法獲取智能駕駛系統數據等行為,可以考慮參照計算機犯罪規定論處。(3)智能駕駛“獨立型”犯罪形態。在不同智能模式下,智能駕駛系統的地位及其能力是不同的,與人的分工以及作用也不同,導致“人”的罪責的邊界亦有差異。“人”是否中途參與或接管,對智能駕駛系統是否作為獨立的罪責主體而言,是重要的“技術”分水嶺。“人”對智能駕駛系統的控制力非常微弱,智能駕駛引發的刑事風險,不能直接歸咎于“不再駕駛”的人。當智能駕駛系統完全自主運行,“人”徹底脫離駕駛主體,具體或直接的“駕駛主體”是智能駕駛系統,應承擔刑事責任。目前,智能駕駛并不能立刻取代傳統駕駛模式,主要是傳統人工駕駛與不同程度的智能駕駛交互共存。在“混合”的駕駛環境中,智能駕駛與“人”駕駛共同造成危害結果的,屬于智能“混合”駕駛模式的罪責問題,究竟按照傳統交通安全犯罪規定還是智能駕駛安全規定論處爭議較大,也是過渡期需要著重解決的新問題。
當前,以智能程度為標準①《關于進一步優化營商環境更好服務市場主體的實施意見》(國務院辦公廳,國辦發〔2020〕24 號)要求,統一智能網聯汽車自動駕駛功能測試標準,推動實現封閉場地測試結果全國通用互認。這意味著標準仍在制定中。《智能網聯汽車道路測試與示范應用管理規范(試行)》(工業和信息化部,2021 年1 月)未對技術等級等作出明確規定,但具有積極的參考性意義。因此,我國目前還沒有建立法定的統一的技術(等級)標準。,刑法上可以區分不同智能駕駛類型[6]。一般應以智能駕駛系統與駕駛人對智能汽車的支配能力與情況為中心,分為輔助駕駛模式、共同駕駛模式和自主駕駛模式,差異性地具體界定罪責的范圍與類型。
以智能駕駛系統與人的駕駛之間的關系、分工、各自作用、地位等因素為標準,可以分為三類情況:(1)智能駕駛“輔助”系統與人的駕駛模式。目前,智能駕駛系統并未完全獨立自主,需要與人的駕駛行為共存,人也可以自主接管智能駕駛系統。這誘發智能駕駛系統與人接管駕駛下的刑事責任分擔問題。一般而論,輔助智能駕駛的行為主體是輔助駕駛人,根據輔助駕駛人的故意或過失心態,具體判斷是否構成犯罪。在非完全智能駕駛的情形中,駕駛員因過失而未能有效接管智能汽車的,導致社會危害結果的,駕駛員應承擔過失犯罪的責任。因為人的駕駛邏輯與地位未被實質改變,可以繼續按照傳統交通犯罪規定論處,在性質上仍然是過失犯罪為主。但對于相互交叉并造成危害結果的,完全遵循現有規定無法徹底解決責任分配問題。(2)智能駕駛系統與駕駛人共同駕駛模式。在準智能駕駛階段,駕駛人員、智能駕駛系統共同承擔駕駛行為,駕駛人與駕駛系統(設計者、生產者、銷售者)的過失責任分配成為主要問題。智能駕駛系統的研發、設計、平臺運營者應當是主要的責任主體,涉及產品責任等問題。例如,研發者、設計者違反法定義務,明知或應當知道智能駕駛系統存在產品瑕疵,造成重大事故的,可能構成過失致人死亡罪,但不能追究駕駛系統的所有者、使用者的刑事責任。判斷駕駛人是否構成交通肇事罪,需判斷是否具有預見能力和結果回避可能性。不具有結果回避可能性,不構成過失犯罪;所有者與使用者按照規定的操作程序駕駛的,在共同駕駛模式中,應免除自動駕駛車輛的責任。在判斷是否有足夠的辨認、控制能力上,需查明制造、生產、編程企業和個人的法定義務、預見能力以及避免能力。這必然突破我國現行共同犯罪的規定,尚需立法明確規定義務競合及其責任分配等問題。(3)完全獨立的智能駕駛系統與駕駛主體模式。按照國際汽車工程師學會(SAE)自動駕駛汽車分級標準,第4 等級與第5 等級的自動汽車,已無傳統的“駕駛員”概念,出現了人沒有“控制權”的困境[7]。在完全智能駕駛階段,已無“人”作為駕駛人的固有概念,智能駕駛系統全權負責駕駛行為,傳統駕駛人的身份完全變成“所有者”或“使用者”。智能駕駛系統完全獨立自主,可以自由駕駛,應當作為新型犯罪主體并獨立承擔責任。由于智能系統真正取代人并負責駕駛行為,應獨立承擔刑事責任,但也存在駕駛系統(設計者、生產者、銷售者)的過失犯罪問題。智能駕駛系統是“駕駛主體”,引發交通肇事的,應直接追究駕駛系統或車輛的責任,但無法預測、無法解釋的危險除外。采取有效且特定的預警防范措施,仍造成事故的,符合危險分配的,不應承擔刑事責任。
當前,智能駕駛犯罪尤以產品安全事故犯罪、公共安全犯罪常見,系“工具型”與“對象型”的交叉。應遵從罪刑法定原則,合理運用擴張解釋加以應對。
1.智能駕駛產品安全事故犯罪
智能駕駛系統的“人造物”屬性,使智能駕駛系統與智能汽車,可以在一定程度上視為刑法中的新型“產品”。在產品的系統出現瑕疵所引發的刑事風險中,一般不存在自動駕駛主體的犯罪問題。這確立了追究產品安全刑事責任的事實前提與犯罪基礎。從罪責的屬性看,智能駕駛時代的產品安全問題,屬于“內部刑事風險”,是指智能駕駛系統因設計不科學等引發智能系統與智能汽車受損、所有者與使用者遭受損失等新型刑事風險。在目前技術條件下,智能汽車可以認為是“智能產品”,是由研發者、設計者以及經銷商等提供的,可以作為產品安全犯罪對待,追究研發者、設計者以及銷售者的刑事責任。目前,參照生產、銷售偽劣商品犯罪規定予以定罪處罰,還尚需依賴擴張解釋的方式予以實現。
關于智能產品缺陷的判斷標準。它不能完全套用傳統產品缺陷的標準體系,應當根據智能駕駛產品的基本特征加以確定。(1)研發者、設計者負有提供合格產品的法定義務。智能駕駛系統客觀上具有一定的技術風險,部分是研發者、設計者的責任。研發者、設計者作為提供者,負有法定的注意義務,應當提供質量可靠的產品。這是追究智能駕駛產品安全刑事責任的依據。智能駕駛系統的不可預測性風險,雖具有一定的不可控制性,但它不能一律作為免責的控辯事由。溢出的消極外部性風險已經造成危害結果,所有者、使用者等消費者往往不具備足夠的預見能力與避免能力,由研發者、設計者承當刑事責任更合理。在本質上,雖然最終承擔智能駕駛中的產品責任的主體是研發者、設計者等生產者或經營者,但實質上是以產品瑕疵或操作系統漏洞作為歸責的事實基礎。(2)所有者、使用者的嚴格產品責任。智能駕駛系統雖已經存在有限的獨立性,但目前在功能上仍依附于真正的所有人或者使用人。智能駕駛系統與車輛是高度危險的產品,所有者或使用者作為實際的控制者、管理者,必要時應當承擔無過錯的嚴格責任,解決智能汽車之間及其與外部主體的責任分配問題。這與危險駕駛罪的入罪邏輯相似,但也可能顛覆當前刑法基本理論及公共安全犯罪本質特征等認識。
2.智能駕駛公共安全犯罪
對于新型智能駕駛公共交通安全犯罪,真正的“駕駛者”應承擔刑事責任。在方法論上,仍可參照現有犯罪規定加以規制,并應具體地運用擴張解釋。
具體而言:(1)智能駕駛系統的責任地位。在現階段,智能駕駛系統仍不能完全擔任駕駛人的身份[8],相對獨立于“使用者(消費者)”。智能駕駛系統尚未取得獨立的犯罪主體地位,不能作為獨立的刑事責任主體,智能駕駛引發的公共安全犯罪,可以通過擴張解釋激活現行規定。當智能駕駛系統具有足夠的獨立性,不僅擺脫研發者、設計者的控制,還可以自主決策駕駛行為,應獨立承擔刑事責任。根據2017 年通過的德國新交通法的規定①在符合規定情況下,允許具有高度自動化或全自動化駕駛功能的汽車上路行駛;自動汽車駕駛員仍與傳統汽車駕駛員享有相同的權利與承擔同樣義務;自動駕駛系統運行時,駕駛員有執行部分個人事務的自由,不必全程緊盯系統;駕駛員得于系統提示或自己注意到緊急情況時無延誤地接管汽車。,智能駕駛系統不具有完全的獨立駕駛功能和地位,但被賦予和“人作為駕駛員”相同的權利和義務,應當對智能駕駛行為承擔刑事責任[9]。同時,傳統的人作為駕駛主體,按照系統的預設,根據需要臨時接管智能駕駛系統后,變成獨立的駕駛主體,按照現行刑法規定應當承擔刑事責任。但如何追究“混合駕駛”下的刑事責任仍需研究。使用者一般并不直接控制系統,也不存在傳統意義上的“駕駛行為”,對其追究刑事責任有失妥當。(2)研發者與設計者違反注意義務的過失責任。研發者、設計者違反法定的注意義務是承擔刑事責任的前提。對于注意義務的設定與認定,應堅持必要性與相當性。既要符合智能技術的發展狀態,也要結合研發者、設計者的預見能力與避免能力,防止超出一般社會的“期待可能性”。在智能駕駛主體地位尚未被法定的情況下,與智能駕駛安全的關聯主體,均應履行注意義務;研發者、設計者等不具體的“駕駛”實體和所有者、使用者等個體承擔間接性的注意義務,跟隨、接管車輛等輔助操作者承擔有限的注意義務。關于注意義務的來源,具體包括一般交通運輸管理法規、有關自動駕駛車輛的特別交通運輸管理法規、責任主體對產品的承諾與規范。(3)所有者與使用者的責任范圍。智能駕駛系統的操控者一般是所有者或使用者,未盡謹慎義務,造成交通安全事故的,應承擔刑事責任。進言之,只有智能駕駛系統處于非完全智能化的情況下,使用者可以在特定條件下主動或被動接管并操作智能駕駛系統,如違反配合與保障自動駕駛系統正常工作的結果回避義務,所有者與使用者有具體的駕駛行為,實質變成“駕駛者”,才可能負有法定的注意義務,并需承擔刑事責任。此外,對于非法利用智能駕駛系統實施犯罪的,目前可以根據行為的性質,參照非法利用信息網絡罪等關聯網絡犯罪罪名論處。(4)銷售者、經營者的刑事責任。智能駕駛系統處于早期試用階段或進入市場作為智能產品的,是討論銷售者、經營者刑事責任的前提。銷售者一般僅銷售研發者、設計者完成的制成品,只是智能汽車商業運營的中轉站,不存在故意銷售偽劣產品的行為,基于銷售業務具有中立性,一般不負有刑法上的謹慎義務,不應追究刑事責任。明知是偽劣的智能產品而銷售的,可能涉嫌銷售偽劣產品犯罪。(5)監管主體的刑事責任。在完全智能駕駛時代,獨立的監管部門負有不可推卸的監管職責。監管機構違反法定的謹慎注意職責,情節嚴重的,可能涉嫌構成瀆職犯罪。當然,智能駕駛系統的監管是否還存在“人作為監管人員”或已經出現新的法律擬制主體等,顯然是全新的技術難題與倫理挑戰。
在智能時代,新舊知識沖突引發理論危機與司法困境,通過積極、主動的立法,不僅可以調補規范供給不足的漏洞,也盤活了刑法應對的整體性。
智能駕駛與當代公共交通安全理念之間的“不適”,已經直接延伸到刑法規范的有效性層面。這種規范供給不足的結構性矛盾,集中反映在以下方面:(1)刑法中的駕駛概念遭遇深度的規范撕裂危機。“人的駕駛主體身份”的法定化、規范化與明確化,以及機動車及其設施、工具作為犯罪對象的觀念固化與形態的特定性等,才使追究傳統交通安全犯罪的刑事責任可以“落地”,不至因行為主體與責任主體的“非物理性”或“不可視性”等,或駕駛對象等因素的模糊或不確定,而無法有效地歸責。然而,智能汽車依賴的智能程序、系統或背后的算法原理等,都并非“人”及其附隨的生理特征、心理特征或智力內容,無法直接對接或實質等同,也無法直接根據現行法律認定智能駕駛的刑事責任主體。既然實施危害行為的主體已經發生“質變”,應當調整相應的主體內容以及配套內容,以消除新舊刑法知識之間的“制度溝壑”。這些悄然進行中的變化,共同侵蝕傳統駕駛概念的存在意義與規范地位。(2)傳統駕駛行為作為規范判斷的對象面臨結果歸屬難題。在智能駕駛中,危險的“駕駛人”已不存在,“人”沒有任何駕駛行為,完全是智能駕駛系統的行為。原本作為駕駛主體的“人”,變成潛在的“被害主體”或“無關人員”。“人”的脫離與“肇事行為”的消失,必然導致交通肇事罪、危險駕駛罪出現新變化。這增加對智能駕駛中的使用者、所有者、提供者、制造者進行刑事責任的歸屬與分配之難度。作為允許的風險對待,雖符合“技術中立”的導向,卻縱容過高風險的存在。(3)智能駕駛系統的主體地位陷入超越法定化的合規隱憂。刑法主體具有嚴格的法定性,維系了罪責的法定性與強制性。作為法定的犯罪主體與責任主體的“自然人”不必然存在,實際控制的是智能駕駛系統(主體)。罪責主體究竟是駕駛系統還是人、甚至是技術提供商等尚懸而未決。智能主體單獨實施犯罪和承擔刑事責任,需要突破的道德觀念、倫理觀念的束縛。(4)智能駕駛的歸責基礎與“人”的罪責倫理觀在規范上互斥。對人的歸責,建立在人的道德倫理之上。在智能駕駛系統中,駕駛主體這一核心要素出現新情況,傳統駕駛理念及其具體要素的法律定義開始變得模糊,刑法倫理與責任分配的前提出現變動。基于智能技術的專業性、封閉性、不可視性,從研發、設計到應用的完整過程,技術的壟斷性、控制性等,主導了系統內部的信任關系與決定溯責的邏輯鏈條,也是決定刑事責任分配的核心要素。責任的倫理基礎出現重大質變,也會加劇理論供給不足問題。
在總體國家安全觀下,刑法仍應發揮打擊新型智能駕駛安全犯罪的機能,有效保障新型智能公共交通安全等新型法益[10]。雖然立足傳統刑法理論體系與規范體系的“解釋張力”,仍可以探討開放性的司法應對邏輯與策略,但是不能完全依靠現有刑法理論體系,否則是對擴張解釋能夠激活現行刑法規范應對效能的過度迷信。為了緩解當代交通安全犯罪規定的有效性危機,應創立相適應的刑法知識體系與內容,特別是應當推動專屬立法的啟動與完善。
在智能駕駛與傳統駕駛深度交互與博弈的過渡期,應及時修改現行公共交通安全犯罪規定,既滿足刑事司法的新需要,也“反哺”人工智能刑法理論體系的有序進化。
具體而言:(1)刑法中的駕駛概念的更替。2017年5月,德國聯邦議會通過法案,修改《道路交通法》,允許高度自動化和完全自動化的汽車作為“交通工具”行駛。如何重述“駕駛”這一核心規范要素是最大的難題,但也決定整體刑法意義中的駕駛主體、駕駛行為及其構成要素、責任歸屬等基本要素的規范性升級。法定的安全注意義務是追究刑事責任的前提。增設新的法定義務,有助于增強交通肇事罪介入智能駕駛安全的可能性,及時更新危險駕駛罪的客觀方面。此外,智能駕駛安全犯罪是新型法定犯罪。隨著智能駕駛安全立法的日趨完善,針對“駕駛”及其基本要素所展開的專屬性立法不斷增加,法定義務的來源趨于健全,旨在實現技術與規范、理論與立法及司法的高度協同。(2)交通肇事罪的修改。交通肇事罪遭受的規范有效性沖擊最明顯,包括犯罪主體、注意義務、罪過形態等。可以參照刑法修正案模式及其立法技術,增加第133條第2款:“智能汽車的研發者、設計者違反國家規定,智能汽車的所有者、使用者違反智能汽車駕駛規定,因而發生重大交通安全事故的,依照前款的規定處罰。”該條款主要解決智能安全駕駛犯罪的一般問題,并無形中默認法人可以作為智能駕駛環境下交通肇事罪的犯罪主體。當前,不宜直接增加“法人”的犯罪主體。盡管這更便于追究智能駕駛汽車的研發、設計主體的刑事責任。但智能駕駛的罪責主體,不只是研發、設計法人,還包括其他關聯主體,甚至包括智能駕駛系統。直接增設“法人”主體的立法建議具有一定的狹隘性、單一性。(3)危險駕駛罪的修改。智能駕駛亦削弱危險駕駛犯罪規定的有效性,既涉及行為主體,也波及行為方式。在客觀方面的行為方式上,已經出現了“違反自動駕駛安全管理規定使用無人駕駛汽車,危及公共安全”“駕駛員惡意發出錯誤指令、未經允許擅自改動自動駕駛汽車程序設置”等新的危害行為形式。危險駕駛罪是典型的行為犯(危險犯),既要考慮智能駕駛系統的刑事責任主體問題,也要兼顧智能駕駛危險行為的擴張趨勢。為了提高立法的包容性與預見性,可以在第133條之一中增加新的一款:“在智能汽車的行駛過程中,實施上述行為的,依照前款的規定處罰。”簡明罪狀的表述方式,為不同智能程度的自動駕駛系統及其歸責提供更靈活的刑法解釋空間,有利于激活該修改內容的司法張力。(4)智能駕駛產品安全犯罪的增設。在早期應用階段,智能駕駛仍處于非完全自主狀態,人可能繼續獨占駕駛主體地位或共同參與駕駛。這決定了它可以作為刑法中的“產品(商品)”。對于因智能駕駛系統或車輛的瑕疵而引發的智能駕駛安全犯罪,遵循擴張解釋的立場,仍可以考慮適用產品犯罪的規定,如生產、銷售偽劣產品罪。從立法層面看,短期內可以考慮修改生產、銷售偽劣產品罪的規定,長遠上也可以考慮增設智能駕駛產品安全犯罪的規定。可以增設第140 條第2 款:“智能應用產品的研發者、設計者、生產者、銷售者,在產品中摻雜、摻假,以假充真,以次充好或者以不合格產品冒充合格產品的,依照前款的規定處罰。”這既克服擴張解釋可能帶來的類推問題,也實現更精準的規制意圖。(5)智能駕駛安全監管瀆職犯罪的增設。監管部門對智能駕駛安全的保障負有不可推卸的職責。盡管目前智能駕駛方面的行政立法仍處于空白狀態,監管部門仍未明確,監管主體違背法定的監管義務,造成重大智能駕駛安全風險與危害結果的,應當承擔瀆職犯罪的刑事責任。考慮到智能駕駛安全法律法規及其監管具有特殊性,應當考慮增設智能駕駛安全監管瀆職犯罪規定,而不能直接套用現有的罪名。可以增設第408 條之二:“負有智能駕駛安全監督管理職責的主體,濫用職權或者玩忽職守,導致發生重大智能駕駛公共安全事故或者造成其他嚴重后果的,處五年以下有期徒刑或者拘役;造成特別嚴重后果的,處五年以上十年以下有期徒刑。徇私舞弊犯前款罪的,從重處罰。”(6)智能駕駛犯罪與刑事制裁措施的同步更新。在網絡犯罪時代,應當逐步探索網絡刑事制裁體系及其措施[11]136。同比之下,對智能駕駛引發的新型交通安全犯罪也應如此。罰金、拘役、有期徒刑等傳統刑罰處罰措施,對智能駕駛系統缺乏直接有效的制裁作用。為了有效治理新型智能駕駛法定犯罪,應同步增設具有智能時代屬性的新型刑事制裁措施。具體應根據新型智能駕駛安全犯罪類型設置,促進刑罰目的的實現。