武曉瀟
太原科技大學,山西 太原 030024
近幾年來,人工智能的表現愈發耀眼,在全力打好新冠肺炎疫情防控阻擊戰的關鍵時刻,政府也將目光投向了人工智能。關于人工智能法律地位的確認,也再度引起了法律領域內的爭議。
盡管在“官場+市場”[1]的雙重驅動下,司法領域的AI應用貌似熙熙攘攘,但實際效果卻不那么盡如人意。以案例自動推送系統為例,盡管自動化的案例推送提高了案件檢索的效率,但是,由于案例匹配精準度不高,推送案例的范圍過窄、來源不明、層級不清等原因,一些法官使用意愿不強等主客觀因素,案例推送系統發揮的作用實為有限。[2]
然而,就像歷史上所有給人類社會帶來顛覆性影響的科技一樣,人工智能的發展對現有的社會制度和規范也帶來了嚴峻的挑戰和沖擊,特別是在法學領域。本文以人工智能的法律地位問題為中心,針對人工智能應用的法律和現實困境展開討論。
在大數據時代,“直覺的判斷被迫讓位于精準的數據分析”[3]。“公共決策最重要的依據將是系統的數據。過去深入群眾、實地考察的工作方法雖然仍然有效,但對決策而言,系統采集的數據、科學分析的結果更為重要”[4]。人工智能不僅僅可以輔助決策(supporting decision),還可以整合相關數據(assembling relevant data)進行分析。通過人工智能對數據的收集整合,可以更清楚、更有效率地發現政策制定中的變量。這種變量分析越細致,相關的政策制定越具有科學性[5],行政機關以及政府就可能形成更富有科學性和滿足多數人需求的規則[6]。
然而,在大數據技術日臻成熟的今天,我們不再拘泥于傳統的問題—原因—對策的邏輯順序,而可以直接尋找數據間的關聯,并根據這種關聯來直接解決問題,這就要求立法者從傳統的因果規律思維向蓋然性的數據規律的觀念上飛躍,具備數據思維[7]。然而,當前法律從業人員多數為法律科班出身,缺乏算法、大數據、統計學等方面的專業技能培訓和能力,因此在法律制定和實施過程中可能對技術的不熟悉而導致最終呈現的效果與內心預期不一致。而真正掌握算法技術的企業能夠借助技術優勢對立法進程和結果施加影響,其中必定會摻雜特殊利益偏好,從而削減了法律的權威性和對社會秩序的一般約束力。
此外,法律人工智能的興起促使大量平臺紛紛涌現,打破了傳統的行政中心主義。但這并非完全意義上的“去中心化”:中心依然存在,不過是由原來的“行政中心”轉移到了“平臺中心”,由原來的“政府-公民”二元結構轉變為了“政府-平臺-公民”三層話語體系。在實踐中,政府授予了專業性平臺準入審查權監督權等諸多“準公權力”,掌握大數據和算法的企業和個人正逐步利用自身的行業特性和專業技術把握信息和社會資源,并爭取話語權。平臺權力集群化將不可避免地引發“算法權力”(algorithmic power)與政府公權力在分配結構上的爭議,這也使得人工智能的立法實現變得較為棘手。
人工智能技術促進了執法自動化的應用和普及,極大地提高了執法效率,但潛藏著對個人隱私侵犯的風險。一個民主與自由的國度中,執法行為是社會共同意志的延伸,必須來源于公民的授權。但是在自動化執法環境下,公民行為模式的改變是出于對管理者監視和報復的恐懼,而非對作為社會契約關鍵要素——法治的自發性尊重(self-generated respect)。政府監視所造成的寒蟬效應,“不僅通過創設一種無助感和無力感致使個人感到沮喪,而且通過改變人們與就其生活做重要決定的機構之間的關系,來影響社會結構”。[8]
人工智能執法的機械化會給公民和法律系統帶來更加沉重的行政負擔。例如,司機駕駛汽車通過顛簸路段時自覺把自動巡航控制器(Automatic Cruise Control)設在了限速范圍內,但是路面的凹凸不平使得車速時而高于時而低于限速,如果嚴格遵循時速規定,他已經違章了很多次,可能會收到十幾張罰單。正當程序(procedural due process)原則并沒有得到體現:既沒有對受處罰的行政相對人進行通知,也沒有給予其陳詞的機會。而且自動化執法無法識別需要犯罪意圖(mens rea requirement)的犯罪/帶有明知要件(scienter requirement)的犯罪,無法區別基于緊急避險(necessity defense)而造成的違章、違法與一般的違章、違法行為,如果沒有適當的約束,自動化執法可能冒險創造一個若不大規模改變社會文化和規范則幾乎不可能守法的環境。
人工智能裁判的內在特點決定了其無法取代人類法官的主體地位。1.符號式裁判。人工智能裁判包含兩個核心步驟:語言轉換和算法運行。人工智能裁判系統只能識別物理符號,而不能理解人類的自然語言。在運用人工智能時,其接觸到的并非是原始證據,而是經技術轉化后的“傳來證據”,此過程中的“失真”將對證據的證明力提出疑問。2.封閉式裁判。智能司法裁判所倚仗的是預先編制的裁判系統,除了開發該系統的程序員,當事人和社會公眾甚至是法官并不能準確掌握裁判系統運行的原理和規則,這極大地降低了當事人及其代理人參與法庭裁判的能力和意愿,傳統的法庭審理環節如質證、辯論將不復存在。3.歸納式裁判。人工智能系統只是對與案件有關的歷史數據進行處理,裁判過程中突發的情況和即時的信息未被納入系統裁判范圍內。而且由于部分詞語語義并不明確等原因,智能裁判無法借助法官的經驗實現司法裁判的意向性、親歷性和價值衡量[9],法官的自由裁量權和司法的彈性機制作用將被嚴重限縮。
如前所述,標準化的司法人工智能會改變法官的判斷和決策模式?!皹藴驶鸵馕吨鴮徟袡噙€給法官的同時,確保類似案件的裁判尺度盡量相同?!保?0]因而,一些人樂觀地認為在司法裁判過程中運用人工智能有助于實現同案同判,推動個案正義。然而,盡管我國擁有世界上最大的案例檢索系統——中國裁判文書網,但無論是事實證據方面,還是裁判理由部分,都過于概括、泛化。在案件中真正值得借鑒的內容,往往只體現在法院內部的案件審理報告或審結報告中[11]。另外,早期的人類社會囿于信息成本只能對概率較大的事件制定一般性規范進行規制,但伴隨著算法發展所帶來的信息成本的急劇降低使規制重復博弈行為變得可能,諸多“無知之幕”也得以揭開,作為一般性規則約束對象的抽象的“人”逐步被還原為特定的“個人”,司法裁判過程和結果的“私人定制”屬性日漸突出,這種個案的異質性給何為同案、如何同判的界定帶來了挑戰。
短視頻APP發掘并迎合了大批年輕用戶的娛樂消費觀,造就了娛樂消遣的流量怪獸;基于數據分析的信用等級評估為這個“評分的社會”(Scored society)帶來了更為直觀、便利和高效的管理模式[12],這些在很大程度上都得益于算法基礎上的“精準投食”。然而,屢被曝光的電商平臺大數據殺熟等負面新聞引發了公眾對人工智能的擔憂:表面上中立的算法可以反映隱藏在背后的歧視。很顯然,盡管開發者們一直強調數據中立和技術無罪,但人工智能已經不可避免地學會了“傲慢與偏見”。
造成算法歧視的原因產生在不同階段。算法最初階段的研發是由公司完成的,企業在研發時,首先考慮到的是經濟效益和工作效率。使企業在選擇中更加傾向于那些成本更低、經濟效益更大的算法模型,基于這種局限性而不成熟地在社會普遍推廣應用難免會導致不公平。另外,機器學習的訓練數據本身可能帶有現實世界中的歧視與偏見,基于這些數據分析產生的識別錯誤進一步內化了這些偏見,也可能無意識地侵害了被歧視群體的權利。當進入下一階段,即在接收數據后、輸出結果前,會有一個我們無法洞悉的黑箱,算法就是在這一黑箱進行自動化的數據處理、評估和行為分析。對算法歧視的擔憂主要來源于這一階段。盡管官方已經作出了相應努力,如歐盟最新發布的《數據保護通用條例》(GDPR)增加了數據的透明度要求,但其實際效果如何尚待進一步觀察。
1.隱私
社交平臺的相似內容推送、腦機技術(BCI)等都被認為給人們的工作、生活帶來了極大的便利。然而,數據泄露的危害也日漸突出,因此對數據的保護愈發迫切。
“物聯網”時代的每個人都是“量化的自我”(qualified myself)或“可測度的自我”(measurable self),個人的一舉一動都將被轉化為可供處理、分析和利用的數據。作為算法權利客體的公民在保護個人數據上將會產生深深的無力感。一方面,借助人工智能實現自動化行政的政府掌握著公民方方面面的數據,企業也借助網絡平臺地位和技術優勢掌握著用戶的個人信息,二者顯然屬于信息優勢方;另一方面,處于算法專業槽外的公民專業技術水平和信息成本承受能力較低,隱私保護意識和能力較弱,加之在授權數據使用過程中存在的概括同意、格式化合同泛濫等情況,其“網絡留痕”不可避免會被第三方利用,因此處于相對不利的地位。這種信息不對稱(information asymmetry)將進一步擴大法律主體之間的鴻溝(justice gap)。
2.自主性:沉默權與同意
邊境自動安檢、“測謊機器人”等極大地提高了工作效率,但卻忽視了一個重要環節:對象的同意。人工智能會對法律相對人的同意權帶來極大的現實威脅。以《刑法》為例,《刑法》的功能之一在于保護犯罪嫌疑人、被告人和罪犯的合法權益,這一點在米蘭達警告(Miranda Warnings)中體現得尤為明顯。然而,在人工智能自動執法中,很可能會未經其同意而直接讀出其內心思想,嫌疑人的沉默權將形同虛設。此外,被告“不得強迫自證其罪”(privilege against self-incrimination)的規則也將被打破?!叭绻f蒙上雙眼的正義女神曾經是法律中公平正義最典型的象征符號的話,那么,借助人工智能的法律運作可能不僅摘下了蒙眼布,而且還帶上了柏拉圖在《理想國》開篇所討論的‘古各斯的戒指’,其可以沒有障礙地窺視一切人,以零成本獲取信息。”在缺乏對人工智能進行有力法律規制的環境中,公民仿佛穿上了皇帝的新衣,隱私被窺探一盡卻渾然不知。