摘要:我國的自動化行政裁量應用在政策推動下處于世界領先水平,但存在數據瑕疵、轉譯偏差、算法黑箱等基礎誘因,易產生行政權利與義務被技術性懸置、官僚系統越權與卸責蔓延、機械裁量與個案正義相沖突等負外部效應。若要科學解決這些基礎問題及其負外部效應,則需改進既有的發展優位規制模式,構建兼顧創新發展與合理規制的包容性規制框架。在以人為本與權利保障雙向融合的技術賦權趨勢下,自動化行政裁量的技術創新應注重提升公民參與行政活動的信息能力。技術性正當程序是正當程序的數字化升級與過程論闡釋,有助于推動自動化行政裁量應用邊界的劃定與實質化人工干預機制的構建。
關鍵詞:人工智能;自動化行政裁量;技術性正當程序;包容性規制
目次
一、引言
二、自動化行政裁量的容許性分析
三、自動化行政裁量的負外部效應
四、自動化行政裁量的包容性規制原理
五、自動化行政裁量的包容性規制路徑
六、結語
一、引言
國外關于人工智能與法律相結合的研究,最早可追溯至20世紀60年代。隨著凱文·阿什利(Kevin Ashley)等人設計出根據案例進行推理的HYPO軟件,法律人工智能逐漸被納入法律專家和技術專家的研究視野。此后,各國相繼開發了各類法律人工智能系統,如ROSS、Lex Machina等。相較于國外,國內開展法律人工智能的研究最早出現在20世紀80年代,如龔祥瑞、李克強1983年提出法律工作計算機化具有現實可能性。2009年,以環保行政處罰自由裁量輔助決策系統為代表的智能輔助行政裁量開始出現。2022年,OpenAI公司發布的ChatGPT-3.5,更是掀起了法律人工智能的研究熱潮。相比于個案化裁量,機械化裁量可以提升行政活動的一致性、緩解行政資源的不均衡。但行政裁量從“人類”到“機器”的載體變化,引發了行政權力運行機制、行政裁量運行方式的深刻變革。盡管部分學者將目光從“自動化行政”移向了“自動化行政裁量”,較全面地闡釋了自動化行政裁量的學理基礎與功能定位。然而,當前關于自動化行政裁量的學術研究囿于理論探討與前景預測,未觸及自動化行政裁量的負外部效應以及因應手段的實質匱乏。
各國針對自動化行政裁量的規制研究均處于起步階段,規制模式各具特色:歐盟在數據保護框架下采取嚴格監管模式,美國通過發布法案與作成判例而呈現漸進規制模式,中國積極推動人工智能與行政活動的深度融合而形成發展優位模式。盡管我國自動行政裁量應用走在世界前列,但是相關規制研究卻長期處于缺位狀態。習近平總書記在2014年兩院院士大會上強調,“抓住新一輪科技革命和產業變革的重大機遇,就是要在新賽場建設之初就加入其中,甚至主導一些賽場建設,從而使我們成為新的競賽規則的重要制定者、新的競賽場地的重要主導者”。因此,我國既應保持推動自動化行政裁量應用的政策連貫性以鞏固先發優勢,也應主動提出規制方案以避免技術控制的“科林格里奇困境(Colingridge’s Dilemma)”再現。這種對發展優位模式的前瞻性改進思路,體現了兼顧創新發展與合理規制的“共建共治共享”與“包容審慎監管”理念。本文通過考察自動化行政裁量的政策依據、技術原理、權力來源及容許性限度,揭示自動化行政裁量負外部效應的基礎誘因與外在表現,在此基礎上進一步提出自動化行政裁量的包容性規制原理和規制方案。
二、自動化行政裁量的容許性分析
自動化技術可以發掘行政機關搜集信息的潛力,進而徹底改變行政機關解決復雜問題的方式。由于自動化行政裁量在依據上具有政策引導性、在應用上具有技術可行性、在法理上具有權力正當性,因而在我國行政執法領域得以快速推廣應用。然而,當前技術發展所處的弱人工智能階段,決定了自動化行政裁量的輔助功能定位以及必要的容許性限度。
(一)自動化行政裁量的運作原理
自由裁量權允許執法部門選擇“執法優先權”,但這些選擇卻可能帶有社會性和政治性,同時又不能期望執法部門隨處都能全面執法,因為他們的自由執法行為可能帶有歧視性和武斷性。在此意義上,使用自動化行政系統有助于減少自由裁量權的負面影響。我國行政處罰領域最早引入了自動化裁量。南京市環保局早在2009年就研發了“環保行政處罰自由裁量輔助決策系統”,該系統的研發思路是按照違法事實“無、輕微、一般、較重、嚴重、特別嚴重”的六個等級,將每個違法事實二維概分為違法行為和違法后果,每個違法行為和違法后果再拆分為若干個子行為和子后果,通過子行為和子后果的分別疊加,計算出總行為和總后果,進而得出違法事實的相應等級。這類基于二維數組的行政處罰裁量輔助決策系統,主要是通過創建算法模型來模擬行政處罰的自由裁量過程。目前,行政處罰裁量輔助系統在我國市場監管、城市管理、交通運輸及稅收征管等領域得到了全面推廣。
人工智能的本質是功能模擬,自動化行政裁量實質是通過機器模擬行政裁量的過程,其運作原理可被概括為三個環節,即“從場景到數據”“從數據到模型”“輸出裁量結果”。首先,“從場景到數據”環節以歷史違法事實、既有裁量依據的結構化為目標,通過語料獲取、數據清洗、特征標注等步驟,搭建自由裁量輔助決策知識庫。在這一知識庫中,數據的完整性與真實性將決定算法模型能否還原行政裁量場景。其次,“從數據到模型”環節以選取最優算法模型來擬合輸入與輸出關系為目標,通常需要完成通用模型選配和模型選配后的結構改造兩項工作。算法模型只有隨著行政裁量任務的調整而持續優化,才能不斷接近程序正義的理想狀態。最后,“輸出裁量結果”環節以自動化行政系統輸出個案裁量結果為目標,通常是將個案事實與自由裁量輔助決策知識庫中的違法事實、裁量依據分別進行匹配,從而給出具體的行政裁量結果。
(二)自動化行政裁量的政策依據
相比于歐洲國家的保守態度、英美國家的慎重態度,我國對法律人工智能應用整體上持積極發展態度。在開放包容的政策氛圍下,我國的“智慧警務”“智慧法院”“智慧政務”等人工智能應用處于世界領先地位。回溯我國“互聯網+政務服務”的發展歷程,可以管窺“人工智能+政務服務”的未來發展趨勢。在2015年政府工作報告提出制定“互聯網+\"行動計劃后,國務院隨即印發了《關于積極推進“互聯網+”行動的指導意見》。而在2016年政府工作報告提出推行“互聯網+政務服務”后,《關于加快推進“互聯網+政務服務”工作的指導意見》《“互聯網+政務服務”技術體系建設指南》等指導文件陸續出臺。因此,在2024年政府工作報告首次提出開展“人工智能+”行動的政策背景下,綜合過往“互聯網+政務服務”的發展歷程、地方“人工智能+政務服務”的實踐案例以及當前我國對數字中國、數字政府等命題的重視程度,推動“人工智能+政務服務”的頂層設計勢在必行。
除《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)從個人信息保護視角對人工智能應用(自動化決策)作出限定外,我國既有法律對行政領域的人工智能應用還未有直接規定。在我國,政策是法律的靈魂,是制定法律的依據,因此規范意義上的政策幾乎具有等同于法律的實施效果。一些走在法律規制前面的政策甚至更具實效性。政策的支持是我國推動自動化行政裁量應用的正當性根據。首先,中央的政策文件為自動化行政裁量提供了原則指引。例如,中共中央、國務院2021年8月印發《法治政府建設實施綱要(2021-2025年)》,提出運用人工智能技術促進依法行政。其次,國務院所屬機構發布的指導文件為自動化行政裁量的推廣應用提供了實質性支撐。例如,國務院辦公廳2019年1月印發《關于全面推行行政執法公示制度執法全過程記錄制度重大執法決定法制審核制度的指導意見》,明確要求研發行政執法裁量智能輔助信息系統。生態環境部2021年1月印發《關于優化生態環境保護執法方式提高執法效能的指導意見》,旨在推動自由裁量系統研發以實現行政裁量的電子化。國務院辦公廳2022年8月印發《關于進一步規范行政裁量權基準制定和管理工作的意見》,要求運用人工智能技術將裁量基準嵌入行政執法系統。
(三)自動化行政裁量的權力正當性
赫拉利(Harari)指出,人類已被海量數據所淹沒而無力處理大量數據,導致其正將手里的權力交給集體智慧、外部算法等。從傳統行政裁量到自動化行政裁量,盡管裁量主體由行政人員轉變為人工智能,但本質上仍是行政裁量權的運作。行政裁量的存在,主要是調和立法萬能與行政萬能兩種理想的需要。在行政裁量所具有的法律正當性與平衡功能基礎之上,自動化行政裁量應用可以技術性修復傳統行政裁量長期存在的固有瑕疵,進一步增強自動化行政裁量的權力正當性。
不違背法律禁止性規定是自動化行政裁量應用的法律基礎。《中華人民共和國憲法》第2條第2款允許人民通過多種形式管理國家事務、第27條第1款要求國家機關不斷提高工作效率,這些條款是允許以自動化方式作出行政行為的憲法淵源。此外,《中華人民共和國行政處罰法》(以下簡稱《行政處罰法》)和《中華人民共和國行政許可法》(以下簡稱《行政許可法》)均未限定行政裁量的實施方式,《行政許可法》第33條倡導行政機關推行“電子政務”,《行政處罰法》2021年修訂時在第41條新增“利用電子技術監控設備”的執法規定。
行政裁量的平衡功能是自動化行政裁量應用的功能基礎。相比于司法活動的被動性,行政活動具有更高的靈活性和更多的能動性。尤其在適用法律時,行政人員享有更多的裁量空間,導致行政活動存在更多的平衡空間。邁耶(Mayer)認為,行政裁量是對集體利益、正義、目的性等自行權衡的過程。行政裁量理論經歷了從嚴格限制到相對獨立的發展歷程,在現代行政活動中扮演了能動、靈活的平衡功能。這種平衡功能體現在除非這一概念明顯被錯誤解釋,否則司法機關不能審查行政機關針對不確定法律概念作出的權衡性決定。
修復行政裁量瑕疵是自動化行政裁量應用的價值基礎。德國行政法學者毛雷爾(Maurer)認為行政裁量應是“受法律約束的裁量”,行政裁量瑕疵主要呈現出裁量逾越、裁量濫用、裁量怠惰三種形態。自動化行政裁量具有主體多元性、裁量自動性等算法技術特征,可以技術性修復傳統行政裁量的固有瑕疵:其一,算法不存在二義性,因此法律代碼化過程可以確保裁量結果的唯一性;其二,自動化系統只能按照預設的基準和流程運行并輸出裁量結果;其三,自動化系統每秒可以輸出百萬級的機器語言指令,極大節省了非必要的行政裁量程序流轉時效限制。
(四)自動化行政裁量的容許性限度
我國對以半自動化方式作出行政裁量持包容態度。江蘇省、甘肅省等地先后研發了環保行政處罰裁量輔助系統。在地方取得可復制、可推廣的經驗后,國家層面相繼印發政策文件指導并鼓勵各地使用自動化行政裁量智能輔助系統。
以人工智能技術在行政裁量中發揮的作用為界限,自動化行政裁量可分為輔助計算、執行規則及機器學習等模式。不同模式背后所體現的是人工智能介入行政裁量的深度和廣度。自動化系統的設計研發往往依賴于市場機制中的科技企業,在理論上為科技企業介入行政裁量開放了空間。然而,實踐中的智能化(電子化)系統不僅在名稱上被行政機關限定為“裁量輔助系統”,而且在系統運行步驟上被設置為“兩段式裁量”:第一階段為程式化的機器裁量,第二階段為個案化的人工裁量。美國宇宙學教授泰格馬克(Tegmark)指出,構建具備人類水平的通用人工智能(AGI)是人工智能領域的“圣杯問題”。自動化行政裁量應用當前仍處于弱人工智能的技術發展階段,已然決定了其行政輔助的功能定位。
明確自動化行政裁量的輔助功能定位,并不意味著禁錮其技術優勢的最大發揮。既然我國在政策與制度上并不限制自動化行政裁量,那么就應以發展的眼光、進取的姿態對待自動化行政裁量的容許性限度。這是因為,盡管行政裁量具有實現個案正義的法律品格,但在事實清楚、關系簡單、小額頻發的行政案件中,裁量一致性意味著更高的正義追求。并且,隨著技術迭代與樣本擴容,機器裁量與人工裁量之間的差距正在逐步縮小,有望無限逼近人工裁量的集體經驗和裁量水準。近年來,以ChatGPT為代表的生成式人工智能席卷全球,讓自動化行政裁量的拓深應用有了更多想象空間。而以貝葉斯模型(Bayesian Model)為代表的人工智能模型不斷涌現,為自動化行政裁量的因果推理提供了方法論啟示。
三、自動化行政裁量的負外部效應
自動化行政裁量的本質是算法自動化決策,在撼動行政規律與提升行政效能的同時,亦生成了權力行使、責任承擔及公平正義等法治維度的負外部效應。究其原因,既有自動化行政裁量固有的技術性缺陷,也有傳統行政法存在的立法局限性。
(一)自動化行政裁量負外部效應的基礎誘因
自動化行政裁量在世界范圍內的應用推廣緩慢,源于復雜因素的疊加作用。由于數據、規則、算法是法律人工智能運行的核心驅動要素,因此引發自動化行政裁量負外部效應的基礎誘因主要存在于數據收集、規則轉譯及算法設計等方面。
第一,大量的行政案例為自動化行政裁量提供了基礎性數據,但是數據質量不高、數據樣本不足、數據共享不充分等實踐難題,導致創建可信數據算法模型的目標難以實現。首先,高質量訓練數據的匱乏影響了機器學習的效果。以中國裁判文書網為例,大量裁判文書的分析、論證過程較為簡略,而較為詳細的合議庭筆錄等內部文書卻無法成為底層數據。其次,數據的規模和代表性不足,可能對數據分析結果的完整性、代表性產生影響。最后,數據共享不充分將催生政務服務的“數據孤島”。盡管中央層面2023年已經成立了國家數據局,但是自下而上的跨層級數據共享渠道還不夠通暢。
第二,將裁量規范與基準(以自然語言表現)轉碼為機器可識別的算法規則(以機器語言表現)的過程中,可能存在對照轉譯、細化轉譯、創設轉譯等情形。對照轉譯是將裁量規范與基準直接轉譯為算法規則,但囿于技術水平而存在表述差距。細化轉譯是將相對寬泛的裁量規范與基準進行算法解構以涵攝個案事實,本質是對裁量規范與基準的技術性修正,甚至可能修改其法律構成要件,具有實施意義上的立法功能。創設轉譯則是通過機器學習自主創設裁量規范與基準之外的算法規則,將從根本上動搖法定立法權。若創設轉譯不受限制,則《中華人民共和國立法法》確立的立法權體系將面臨人工智能的巨大威脅,尤其是下位法規、規章制定權將面臨技術性擴容的風險。
第三,自動化裁量的黑箱化運行無法滿足行政信息公開原則。算法黑箱是對算法運行過程不透明現象的比喻。算法黑箱的存在,導致自動化行政裁量出現了邏輯隱層,即裁量算法的運行邏輯處于不可知的隱蔽狀態。倫敦大學法學教授拉迪加(La Diega)將產生算法黑箱的原因歸結于組織、技術、法律三個維度:在組織維度,在最低限度的透明度義務下,算法運行被追求利益最大化的私主體所操控;在技術維度,人工智能使算法決策的技術原理在本質上難以獲得,比如以人腦為模型的人工神經網絡同樣不透明;在法律維度,算法和源代碼受到了現有知識產權等法律制度對技術的保護。科技企業通常為承擔算法系統研發任務的第三方,擁有以軟件著作、方法/產品專利、商業秘密等知識產權保護為由的公開抗辯權,合法阻卻了算法和源代碼的公開。例如,在智搜訴光速蝸牛一案中,法院認為經智搜公司優化后的推薦算法屬于不為公眾所知的勞動成果,應予以商業秘密保護。
(二)自動化行政裁量負外部效應的外在表現
自動化行政裁量與傳統行政裁量所追求的價值目標具有同一性。然而,自動化行政裁量固有的技術缺陷與人工智能嵌入行政裁量的理想圖景之間張力漸增,具體表現為行政權利與義務被技術性懸置、官僚系統越權與卸責蔓延、機械裁量與個案正義相沖突等。
哈貝馬斯(Habermas)認為參與交往行動的主體愿意使其行動計劃建立在一種共識的基礎之上,而這種共識又建立在對有效主張的相互表態和主體間承認的基礎之上。然而,自動化行政裁量過程的非交往性,容易導致行政法規定的告知說明、陳述申辯、要求聽證等權利與義務被技術性懸置。首先,行政機關的告知說明義務被虛化。行政機關既可能以算法運行黑箱為由不履行法定的告知說明義務,也可能囿于專業知識匱乏而無法釋明機器裁量原理。其次,行政相對人的陳述申辯權利名存實亡。核心在于,自動化行政裁量的非現場性易導致相對人行使陳述申辯權利的時點發生了后移。最后,行政相對人要求聽證的權利被實質剝奪,聽證程序因技術壁壘而被完全架空。域外已有與之相應的立法動態,如《德國聯邦行政程序法》第28條規定“借助自動化設備作出行政行為時,可以免除事先聽證程序”。
受制于算法黑箱化運行,自動化行政裁量可能加劇現代官僚系統的越權與卸責伴生現象。自動化行政裁量的外在表征通常為電子設備、機器屏幕,甚至可以籠統稱之為機器。自動化行政裁量過程由多個關聯的行政行為及其輔助行為構成,導致既有身份識別制度無從適用。行政人員以機器裁量為由進行越權裁量或推卸責任,將引發侵權責任分配方式與比例的爭議。首先,行政權力包裹于算法權力之中,將會遮蔽行政人員可能的裁量越權行為。其次,在傳統問責理論中,問責力度越大,卸責可能性越高,二者呈因果互動關系。若自動化行政裁量引發的不利后果被問責,則自動化系統將是行政人員轉移問責壓力絕佳的“替罪羊”。官僚系統有組織的越權與卸責伴生蔓延,進一步產生無法問責自動化行政裁量的連鎖后果。
自動化行政裁量的機械裁量與個案正義之間存在巨大張力,主要表現在法治價值空心化與裁量路徑依賴化。首先,效率優位易引發價值迷失。雖然自動化行政裁量提升行政效率的功用已得到普遍認可,但在技術解決方案中如何實現法治價值并未受到應有重視。一個著名的反對圖靈測試的理由是,雖然算法可以模仿道德,但除非算法理解它所做的道德選擇,否則它就不可能是道德的。若在自動化行政裁量中堅持效率優位,將導致公平公正、程序正義等法治價值的失衡。其次,行政人員易被機器裁量的技術中立表象所迷惑。因技術萬能而產生的路徑依賴,將會深層次、系統性地削弱行政人員的專業知識與裁量能力。
(三)自動化行政裁量負外部效應的行政法檢視
現代行政法已然踏上了人工智能開拓的制度荒土,相對滯后甚至缺位的法律制度加劇了自動化行政裁量負外部效應的溢出。因此,有必要進一步分析其負外部效應的制度因素。
以法律關系恒定為視角,自動化行政裁量帶來了行政法律關系的微妙變化,傳統行政法面對其負外部效應時供給不足。首先,行政機關數字化轉型促使行政裁量由“人際型”向“人機型”轉變。傳統行政裁量受人力資源、時間成本等影響,呈現“嚴格立法、選擇執法”態勢。自動化行政裁量則由“人機互動”作出,設備設置不夠科學、行政執法全域全時更是加劇了非現場執法的“全民違法”現象。其次,自動化裁量引發行政法律關系由“封閉型”向“開放型”轉變。全網協同的自動化行政裁量打破了行政法律規定中關于管轄地域的限制,裁量過程的主體多元化打破了行政法律規定中關于“兩造恒定”的限制。
以法律秩序異化為視角,自動化行政裁量被深深地打上了算法烙印,法律規范與算法規則皆成為維護行政秩序的現實工具。行政秩序由建立在傳統行政法基礎之上的“法律秩序”異化為由算法規則支配的“算法秩序”。隨著自動化行政的普及,行政機關因技術中立和技術依賴而過度信任機器裁量,導致現代風險社會的行政秩序常常需要依賴不同的自動化系統進行維持。行政場域在事實上演變為被各種算法規則所驅動的計算空間,行政機關與相對人淪為算法規訓對象。自動化行政裁量依賴算法驅動,意味著以算法為中心重建了整個行政場域中的法律秩序。
以法律適用缺陷為視角,當前行政法沒有對自動化行政進行回應性立法,更難以針對自動化行政裁量進行立法規制。相較于傳統行政裁量,自動化行政裁量具有主體多元性、程序自動性等算法技術特征,確有進行特殊制度安排的立法必要性。具體而言,對裁量自動化系統從設計研發到責任追究進行有效規制的行政法尚處于空缺狀態:在系統設計環節,既未建立研發主體的市場準人制度,也未建立行政主體的研發監管制度;在運行反饋環節,既未構建自動化行政裁量的偏差預警機制,也未構建裁量偏差的人為干預機制;在責任追究環節,既未明確自動化行政裁量的法律定位,也未建立自動化行政裁量的信息披露制度。
四、自動化行政裁量的包容性規制原理
作為全球人工智能技術發展的重要引領者,我國繼《全球發展倡議》《全球安全倡議》《全球文明倡議》之后,于2023年10月對外發布了《全球人工智能治理倡議》,倡導構建一個兼顧發展與安全的人工智能包容性治理框架。在全球人工智能治理框架下.我國自動化行政裁量規制方案的設定,應當堅持以人為本和權利保障,推動多利益攸關方積極參與,并強調規制過程的互動合作和利益均衡,實行具有中國特色的包容性規制原理和方案。
(一)包容性規制:自動化行政裁量的規制原理
行政裁量與包容性規制都呈現“利益均衡”的價值向度。自國務院2017年印發并實施《新一代人工智能發展規劃》以來,積極推進人工智能技術在行政領域的實踐運用已成為我國的政策導向。現代公共行政的生命在于裁量,行政裁量是通過利益博弈、協調及權衡實現實體內容“均衡合理”的過程。當前我國處于自動化行政裁量應用的無人區,以《全球人工智能治理倡議》為代表主張包容性規制的全新方案,體現了本土規制理念的原創性。從理論源流看,包容性規制的創新提出,主要受中央所倡導的“共建共治共享”與“包容審慎監管”理念的深刻啟發:前者以包容為內涵,首次出現在黨的十九大報告有關構建社會治理格局的論述中,強調多元主體參與社會治理、共享治理成果;后者以包容為前提,在國務院有關加快新舊動能轉換的指導意見中首次被提出,尤其是包容審慎原則于2021年被明確寫入《中華人民共和國科學技術進步法》第35條,所表達的激勵發展、增進效率之要旨極為突出。
包容性規制重視對弱強制色彩、未型式化行政行為的應用,采用非正式機制回應大數據、人工智能等新興技術的規制需求,為技術發展提供了必要的容錯空間。隨著數字社會信息不對稱加劇,不同群體的信息需求日趨復雜,包容性規制因而呈現出濃郁的合作規制范式轉向,在規制制度形態上則表現為“多元行政法”。盡管包容性規制中充斥著大量不確定法律概念,但通過構建“技術—制度”協同演化的試驗性規制框架,有機會科學解決自動化行政裁量引發的大部分負外部效應。如前所述,負外部效應既源自技術缺陷誘因,也有行政程序失范問題,故構建包容性規制框架就是在構建一個以法律為基礎,統合技術、倫理的多元治理秩序。其中,針對技術缺陷誘因,不僅應堅持人工智能治理中的以人為本原則,而且要實現行政裁量中的權利保障要求,因此在數字技術賦權公民參與的發展趨勢下,應當重視自動化行政裁量的技術研發與創新應用;針對行政程序失范,則需以行政過程論為視角全面、動態考察自動化行政裁量,適時引入技術性正當程序推動自動化行政裁量應用邊界的劃定與實質化人工干預機制的構建。技術賦權與技術性正當程序均具有規制新興技術的前瞻性與包容性,二者共同服務于激勵發展與合理規制相協調的包容性規制目標。概言之,包容性規制堅守以人為本原則和權利保障要求,踐行技術賦權和技術性正當程序,通過創新發展與合理規制之間的利益均衡,為全球的自動化行政裁量規制提供了中國方案。
(二)技術賦權趨勢:以人為本與權利保障的雙向融合
任何成熟的法律思想體系均離不開作為邏輯起點的人的預設,否則整個理論大廈將會坍塌。為降低人工智能應用風險,學界相繼提出了“人在環路”“人本主義”等哲學觀念,以及“機器倫理學”“道德計算觀”等倫理觀念,這些創新觀念無不指向了以人為本的科技倫理觀。隨著人工智能立法的持續推進,以人為本的科技倫理觀逐步成為降低人工智能應用風險的標準指引。例如,歐盟2024年正式批準了全球首部具有法律約束力的《人工智能法案》,該法案的立法目的之一即為“促進以人為本與值得信賴的人工智能應用”。
若聚焦于自動化行政領域,以人為本的科技倫理觀則體現為以人為本的行政理念。以人為本的行政理念是以“國家尊重與保障人權”的憲法要求作為邏輯起點,其本質內涵為維護行政活動中人的主體性與人格尊嚴。在數字社會,行政相對人與行政機關獲得了普遍性的技術賦權。盡管新興技術為拉近二者關系創造了基礎架構,但這種雙向賦權方式在實踐中對行政機關的賦權遠超行政相對人,帶來的后果是以人為本的行政理念并未完全融入保障相對人程序性權利的行政法之中。需要警惕的是,自動化行政裁量的應用初衷是為了提高行政裁量的一致性與成本效益,卻可能與人工智能所倡導的以人為本科技倫理觀和現代行政法所追求的程序性權利保障相悖。解決這一悖論的可行性進路是將“以人為本”與“權利保障”進行雙向融合,適應自動化行政裁量的技術賦權發展趨勢,進而提出技術性正當程序理論。
美國社會學家所羅門(Solomon)最早提出賦權理論,他認為“賦權”是一個過程,外化為協助弱勢群體對抗社會壓迫以降低其無權感。美國政治學家亨廷頓(Huntington)進一步指出,“若要保持政體穩定,則需從提高公民參與程度與制度化程度兩方面著手”。該觀點在數字社會仍具有借鑒意義,并且技術在現代國家治理中的賦權、增權作用更加凸顯。技術賦權既增加了體制運行的韌性與載荷,也拓寬了公民參與的機會和渠道。在“以人為本”與“權利保障”雙向融合的技術賦權趨勢下,自動化行政裁量的系統研發、部署應用及運行反饋均應以是否有助于保障行政相對人程序性權利作為重要判斷標準。此外,數字技術賦權公民參與,可以為自動化行政裁量的事前、事中及事后規制提供評判尺度,糾偏技術賦能過度所帶來的行政權力無序擴張,借此強化自動化行政裁量應用中的程序性權利保障。
(三)技術性正當程序:正當程序的數字化升級與過程論闡釋
目前學界針對自動化行政的規制研究,形成了信息權利規制、算法權利規制、行政過程規制三種主流方案。相較于后一種方案的程序法屬性,前兩種方案均屬于實體法范疇。作為自動化行政的下位概念,自動化行政裁量的規制方案應當由實體法轉向程序法,這可以從算法定義、行政概念、爭議屬性等維度找到合理依據。其一,算法主導了各領域人工智能應用運行的全生命周期。因此,阿比特博(Abiteboul)將算法定義為“解決問題的進程”。其二,行政是一個動態、連續的過程,由多個關聯環節組成并且分步驟進行。其三,自動化行政裁量風險本質是程序性爭議,主要源于機器裁量中產生的程序價值損失。
引入行政過程論對自動化行政裁量進行分析,對于變革行政法學研究范式具有重要的方法論意義。遠藤博也、鹽野宏等日本學者最早提出的行政過程論屬于典型的程序規制理論,可以對行政裁量的行為與要素進行全面、動態的考察。傳統正當程序的中立性、參與性、公開性等最低限度要求具有“魯棒性”,不因人工智能技術在行政裁量領域的應用而貶損。美國學者希特倫(Cit-ron)對傳統正當程序進行技術性改造后,于2008年在《華盛頓大學法律評論》上提出了具有賦能取向的技術性正當程序(Technological Due Process)理論。隨后,該理論被寫入美國電氣電子工程師協會(IEEE) 2017年發布的第2版《符合倫理的設計(Ethically Aligned Design)》法律部分之中。從理論演進脈絡來看,技術性正當程序是行政過程論在自動化行政領域的重大理論發展,有效克服了傳統正當程序在數字社會的解釋力失靈問題,有助于充實自動化行政裁量負外部效應的包容性規制框架。
技術性正當程序強調對行政相對人的技術賦權,以參與性、中立性、公開性等為最低限度要求,圍繞軌跡留存、系統測試、理性聽證、原理公開等過程要素而展開。第一,在自動化系統中留存審計軌跡,既可以建立行政行為的使用臺賬,也可以增強自動化裁量的可解釋性。第二,自動化系統在投入使用前、運行期間及內置規范修改時應進行嚴格的測試評估,這既有利于識別設計環節的算法偏見,也有助于發現轉譯過程的規范誤讀。第三,建立聽證法官的技術培訓機制與決策釋明機制,可以確保相對人獲得“被聽取意見的機會”。第四,以透明性與可問責性作為設計目標,合理公開自動化系統的數據及算法。政府預算部門可以將算法公開作為提供資金的先決條件,采購部門可以在簽訂合同時明確研發機構的公開義務。
五、自動化行政裁量的包容性規制路徑
對自動化行政裁量進行過程規制,應當基于包容性規制原理,實現激勵發展與合理規制相協調的價值目標。在此過程中,若自動化行政裁量的質量具有提升可能性,則應從激勵發展視角思考如何建構技術創新方案。若自動化行政裁量的質量不具有改良可行性,則應從合理規制視角思考如何建構法律規制方案。
(一)技術創新推動自動化行政裁量的質量控制
習近平總書記在2016年全國科技創新大會上強調,“科技創新、制度創新要協同發揮作用,兩個輪子一起轉”。制度工具通常是在技術工具無效的情況下才出場。在通過制度工具解決自動化行政裁量負外部性前,應先在“技術一制度”框架下探索可行的技術路徑。學者關于自動化行政裁量的規制研究,深受人工智能“通用技術+通用流程”的影響而在認識論維度存在不足。但并非在通用領域取得成功的技術都可以適用于行政裁量領域,照搬通用技術的質量控制方案往往成效不彰。自動化行政裁量在研發主體、技術路徑、數據知識、模型設計等方面具有領域特殊性,使得人工智能通用技術遭遇了特定的技術障礙。為實現法治引領科技向善,需要將行政法學理論映射到人工智能通用技術的質量控制方案之中。
在研發主體方面,法律專家“單向度”的認知障礙導致其長期游離于技術研發之外。事實上,法律專家與技術專家的對話合作,有助于破除“領域知識壁壘”。在“十三五”至“十四五”期間,科技部發布了若干涉及智慧司法、社會治理的國家重點研發計劃,東南大學、清華大學等高校法學教授牽頭的多項重點專項獲批,表明國家層面鼓勵法律專家結合專業知識在技術研發中扮演積極角色的科研導向。因此,法律專家在技術研發中的角色與狀態應由“游離”轉變為“嵌入”,形成“法律專家+技術專家”的研發主體人員結構。
在技術路徑方面,人工智能的道德設計通常有“自上而下”“自下而上”兩種技術方案。道德判斷依賴于價值判斷,英美法語境中的價值判斷對應于歐陸法中的自由裁量,二者在技術路徑上具有一致性。其中,“自上而下”模式預設了知識框架,依賴專家知識的人工構建;“自下而上”模式雖沒有預設知識框架,但依靠機器學習的自動獲取。自動化行政裁量的技術復雜性,促使現階段“自上而下”模式占據了主流地位。“自下而上”模式中的自然語言處理(NLP)、光學字符識別(OCR)、計算機視覺(CV)等技術應用問題較多,仍需大量的人工干預進行裁量糾錯。隨著技術發展,未來可通過“自上而下”與“自下而上”的融合路徑,推動行政裁量領域知識框架的自動化構建。
在數據知識方面,自動化行政領域的數據知識要求與通用技術領域截然不同,這種區別表征為訓練數據集、法律知識庫的構建依據與更新頻次不同。德國民法學者拉倫茨(Larenz)將“構成要件”與“法律后果”視作法律規范的基本邏輯結構。法律構成要件屬于法律規范的最小單元。在訓練數據集創建伊始,為提高數據質量,可以遵循“法律規范一解構標注一深度學習一人工智能”路徑,提取法律規范中的構成要件作為數據標注的標簽特征。此外,自動化行政裁量依賴的法律法規、法條釋義、司法解釋等法律知識內容龐雜且更新較快,因此法律知識庫在創建完成后需要保持動態更新才能確保其有效性。
在模型設計方面,數據驅動的同時若將規范要求融入模型設計,可以對機器裁量進行前置性糾偏。在實踐中,可供選擇的技術實現方法不一而足,示例如下:一是基于有向無環圖技術習近平:《為建設世界科技強國而奮斗》,載《人民日報》2016年6月1日第2版。(DAG)將行政裁量“三段論”推理建模為多層級任務的因果關系,貝葉斯網絡(BayesianNetwork)就是典型的有向無環圖模型;二是使用事前可解釋性(Ante - Hoc)、事后可解釋性(Post-Hoc)的機器學習模型,推動算法模型的可解釋性迭代;三是基于模糊邏輯理論,在模型設計中解析不確定法律概念、認定不完備待證事實并作出模糊綜合評判。
(二)法律保留作為自動化行政裁量的應用界限
為從根源上規避自動化行政裁量的負外部效應,有必要對其適用范圍加以限制。當前技術正在快速迭代,若按照以往中國制度建設“三張清單”的方式,將因數字社會治理的異步困境而較難提出有效的自動化行政裁量應用清單。行政權力本質上屬于一種由法律設定與控制的國家公權力,并且不是所有的法律規范都適合進行代碼轉譯,因此自動化行政裁量的適用范圍應遵循法律保留的合理限制。至于法律保留采取何種模式作為自動化行政裁量的應用界限,可參照《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)與歐盟《通用數據保護條例》(以下簡稱GDPR)禁止完全自動化決策的“原則+例外”規范模式:《個人信息保護法》第24條與GDPR第22條第1項規定了禁止完全自動化決策的一般原則,GDPR第22條第2項規定了禁止完全自動化決策的例外情形。
自動化行政裁量的原則禁止,主要針對以全自動化形式作出行政裁量的情形。除非有法律規范的明確授權,否則不得以完全自動化方式作出行政裁量,這屬于法律保留的經典表達。對此,德國《聯邦行政程序法》2017年修法引入全自動化行政概念時,在第35a條明確對行政裁量情形進行了附條件的禁止性規定。德國立法者對完全自動化行政裁量所秉持的加重法律保留態度,根源在于機器無法適用于需通過個案解決進行法律續造的領域。之所以設定這種原則性應用界限,與全自動化行政裁量的技術局限與法治國原則下的權利保障息息相關。一方面,行政裁量要求行政人員在事實與規范之間不斷保持目光的“往返流轉”,但全自動化行政裁量的自動性、單向性決定了其無法在事實與規范之間反復對比。另一方面,全自動化行政裁量應用始終存在行政效能與權利保障之間的張力。這是因為全自動化行政裁量雖然顯著提升了行政效能,但其“去人類中心化”趨勢卻動搖了人的主體性地位。
自動化行政裁量的例外允許,主要針對以半自動化形式作出行政裁量的情形。若一律禁止自動化行政裁量應用,有違數字政府建設與行政體制改革的初衷。人工智能在技術原理上并非完全不可控,針對半自動化行政裁量的“允許性保留”是實現個案正義的有效方式。要求法律規范對全自動化行政裁量進行明確授權,同樣意味著立法者應當在特別法中明確半自動化行政裁量的應用界限。在立法模式上,由于技術發展與人類認知間的交互作用效應,半自動化行政裁量不宜采取統一立法模式,而應進行個別性立法權衡。在功能定位上,“人機協同”意味著“人機互助”與“人機互限”,故以“人機協同”定義行政機關與人工智能的關系更為恰當。在適用事項上,從“人機協同”的關系定位出發,確立半自動化行政裁量適用事項的“充分+簡單”選擇標準:其一,裁量因子是機器裁量的基礎,因此在形式上應先判斷某一事項的行為與后果形態是否可以充分轉碼為自動化系統的裁量因子;其二,機器裁量在處理低復雜度事項時比人類表現的更加公正,因此在實質上應判斷某一事項的內容復雜程度,從中選取高發常見、事實清楚、爭議不大并且易于數據化的簡單事項。
(三)基于技術性正當程序的實質人工干預機制
行政領域的人工智能居于輔助地位已是共識,對自動化行政進行人工干預是不言自明的。但是,當前的人工干預并不以實際參與程度與干涉效果作為評判標準,“口號式”的人工干預儼然成為自動化行政弊端的“遮羞布”。在自動化行政裁量中,行政機關需面對人工智能對其行政行為的實質拘束,相對人需應對人工智能對其程序權利的實質侵蝕。因此,作為解困之道的人工干預機制,亟需從形式化走向實質化。人工干預機制的實質化配置過程,需要對照技術性正當程序的最低限度要求而展開。
在程序參與維度,圍繞“人在回路”構建行政監督與行政參與機制。所謂“人在回路”(Hu-man in the Loop),通常是指人有意義的存在于算法決策回路中。在自動化行政裁量中,“人在回路”謀求建立一種人機交互的混合決策模式。混合決策意味著在決策場景中,將人工監督內嵌于人工智能系統的工作流程。歐盟《人工智能法案》序言第91條提出,“執行人工監督的人員應具備必要的能力,特別是適當的人工智能知識水平、培訓以及適當履行這些任務的權力”。這其實是強調人工智能應用中的人工監督應當是一種有意義的監督,人在回路中扮演了錯誤糾正、故障介入、決策正當化、責任承擔等實質化人工干預角色,可以最大限度規避算法決策下的“判斷力萎縮”(Judgemental Atrophy)。但人工干預的法律效果應受到“禁止不利變更原則”的約束。即,若人工干預后的自動化裁量結果對行政相對人更為不利,則應維持自動化裁量結果不變。
在程序中立維度,圍繞增強聽證人員與行政相對人的信息能力而展開。首先,行政機關應建立技術培訓機制,提高聽證人員對自動化行政裁量的技術認知,確保行政相對人可以獲得“被聽取意見”的公平機會。而在聽證報告中,行政機關應要求聽證人員就初步裁決結論與自動化裁量結果的關聯性進行說明,這屬于一種干預并糾正聽證人員偏見的裁決釋明機制。其次,行政機關應要求系統供應商在自動化系統中設置“留存審計軌跡”的功能。審計軌跡包括與自動化行政裁量過程相關的案件事實、規則依據等原始記錄。相應的,行政機關應配套建立針對審計軌跡的自動留存與防止篡改機制。最后,行政機關應要求系統研發主體在系統使用前與調整后均開展測試與評估。在制定測試標準時,應以ISO標準、國家標準等權威標準為先導,以企業內部標準作為重要補充。在制定評估標準時,應當將行業倡議、道德倫理等社會共識作為重要依據。
在程序公開維度,圍繞技術原理公開與行政信息告知展開。行政機關既應承擔公開自動化系統技術原理的義務,也應承擔向相對人告知“有意義的通知”的義務。首先,行政機關可以要求系統供應商以透明性與可問責性作為系統設計目標,并且公開自動化系統的源代碼與算法。例如,行政機關內部的預算管理部門可以將“公開源代碼與算法”作為預算編報條件,實際使用部門可以將“公開源代碼與算法”作為合同必備條件。其次,行政機關在自動化行政裁量過程中應向相對人告知“有意義的信息”。當前,行政機關的電子告知事項存在立法缺陷,導致自動化行政裁量面臨信任危機。未來應當統一電子告知事項的案件事實、職權依據,告知行政相對人享有的權利、救濟途徑等具體內容。只有約束行政主體按照法定程序進行信息告知,才能有效預防行政主體在行使裁量權過程中濫用職權、恣意裁量等現象的發生,提高行政裁量行為的準確性,確保行政裁量行為的合法性。
六、結語
人類社會自16世紀以來經歷了多次重大科技革命,如機械化、電氣化、信息化、智能化等。前幾次科技革命對人類生產生活的影響,更多的是把人類從體力勞動中解放出來。當前以大數據、人工智能為代表的新一輪科技革命,呈現全行業替代人類的發展趨勢,正在形成以數字化、智能化新技術為支撐的新質生產力。隨著現代行政國家的崛起,“人機關系”成為了“人際關系”的重要補充,數據驅動下的智能機器脫離了工具屬性,開始具備自動化裁量能力。新興技術融入行政裁量所引發的負外部效應已經凸顯,對既有的行政管理與行政法治產生了巨大沖擊,成為新時代數字法治中國建設中亟需解決的重大命題。“共建共治共享”與“包容審慎監管”是當前我國推動數字經濟社會高質量發展的原創性規制理念,為理解激勵發展與合理規制的二元關系提供了鮮活的制度樣本。面對技術創新與經濟發展的高度不確定性,包容性規制理念的提出,代表了現代行政法學研究范式從“規制導向型”向“發展導向型”的演化趨勢。為應對公共行政領域人機關系的深刻變革,學術界與實務界應當形成包容性規制的理念共識,充分研判人機關系變革可能引發的法律問題,遵循自動化行政裁量的行政屬性,堅持以人為本與權利保障相融合,遵循技術性正當程序的程序規制框架,提升我國在自動化行政裁量規范化與法治化進程中的國際規則引領。
(責任編輯:王青斌)
基金項目:2024年山西省高等學校哲學社會科學研究項目“自動化行政技術性正當程序的系統建構”(項目編號:2024W003)的階段性成果。