2007年,時任馬里蘭大學法學教授的希特倫提出了“技術性正當程序”的概念,強調通過優化計算機程序設計提高自動化決策系統的透明性和可問責性。此前,德國著名行政法學家毛雷爾教授在1999年就已經提出,必須從法治國家的角度認識和規范“專門的技術程序”。申言之,再復雜、高深的技術程序也不允許從法治國家的規范中逃逸,否則就會形成法治國家的“蟲洞”,最終造成法治國只剩下一個“合法性的空殼”。
排除偏見,確保算法的公開、透明和程序一致性。排除算法歧視的技術,需要借助于算法的公開、透明,同時確保程序的一致性。
第二,說明理由,提高算法的可解釋性。算法的解釋方法因算法模型的不同而有較大差異。影響算法可解釋性的關鍵因素,除了算法的透明度(白箱模型或黑箱模型),還有算法結構的復雜度。在具體的解釋方法上,需要根據具體情況靈活運用或者綜合運用預建模的解釋和建模后的解釋、全局解釋與局部解釋等方法。同時,提供審計跟蹤記錄以保證算法的可解釋性。
第三,聽取意見,包括允許質疑、事后聽證、專業審計以及及時糾錯。其一,對自動化決策應當允許提出質疑和挑戰。其二,自動化決策的適用場景只能采取事后聽證。這也意味著:自動化決策不能完全免除聽證,但聽證的形式可以變通。其三,在專業審計人員的協助下審查算法并及時糾錯。
技術的發展帶來治理模式的轉變,自動化行政方式下的行政處罰制度發展也出現了一定的變化性與不確定性。為了在這樣的變化中保護相對人的基本權利,需要構建一定的程序底線,不管技術如何變化,相對人可以通過程序的保護來獲得應有的公正。在自動化行政時代,正當程序原則還將繼續發揮重要作用。
第一,提高透明度與可解釋性。自動化行政處罰中如果在程序、證據等方式中,使用了包含人工智能算法等在內的新技術,當這種新技術對相對人權益產生重大影響時,應當對這種技術影響處罰決定的方式做出解釋,或者說,應當至少保有解釋的能力。第二,確保技術運用中的形式公平。在行政處罰這樣的負擔行為中應當建立起一系列程序公平的具體要求,從而使得新技術平等地適用于每一個體以及程序的設計不會特別地不利于特定的人。第三,評估與認證。可以通過專業機構與專業人士對技術手段予以測試,交流和發布可能存在的風險,滿足正當程序的需求,同時提高公眾的可接受度。
另外,在現階段的行政處罰中,自動化系統出現錯誤所導致的責任形式還難以以“人的行為”作為類比,而更多地接近于“物的瑕疵”。自動化行政處罰的賠償責任中采用無過錯責任原則更為恰當。不過也應當注意到,自動化系統錯誤所導致的行政賠償責任與一般的物之責任還是存在明顯不同的。比如按照我國現行法,公共設施致害的“物的瑕疵”責任不納入國家賠償的范圍,是按照民事程序處理的。這對于行政處罰錯誤的責任和救濟來說是明顯不合適的。隨著技術的不斷發展,這兩種責任之間的不同還將愈發明顯。因此,從長遠來看,將自動化系統錯誤導致的責任予以單獨類型化,確定專門的責任構成要件,是一種更為可取的路徑。
第一,基于行政信息公開原則增強算法自動化決策透明度。現有算法自動化參與的行政活動中,我國法律作出了一定調整,但仍在某些領域需要行政信息公開規則的回歸。首先,應增強算法自動化決策的可見性,作為行政信息公開的基本要求。其次,算法作出決策的基本規則和因素權重,應該對公眾與社會公開。具體包括行政信息公開原則在算法數據收集環節的貫徹、行政信息公開原則與保護算法商業秘密的衡平以及行政信息公開與算法決策輸出的說明等三個方面。
第二,基于公眾參與原則進行算法影響評估。行政正當程序中的公眾參與原則具有重要的實體權利保障功能,應從加強公眾參與與恢復相對人陳述和申辯權利兩個方面,發展算法治理時代的行政正當程序。具體包括以算法影響評估保證公眾參與算法系統訂購與使用、將通知與申辯環節作為算法決策生效必經程序等兩個方面。
第三,基于說明理由規則創設算法解釋權。由于數據來源的不透明、“算法黑箱”等因素,算法自動化決策的結果是如何得出的卻難以為個體所知曉。算法治理時代應在適用算法自動化決策時堅持并修正行政行為說明理由的制度。具體包括發展算法解釋權說明具體行政行為的理由、行政行為算法解釋的內容和標準以及解釋語言清晰平實以書面形式作出等三個方面。
第一,從廣義的角度來看,行政程序也是救濟路徑之一,如告知、聽證等。對于處罰數額不大、情節認定較容易的違法情形,自動化執法完全可以引入,同時為了保障相對人的程序性權利,減少或避免后續出現的救濟等問題,應要求當事人知情、確認并認可,而不能單純依賴自動化執法機器,不然很容易使相對人陷于“無知之幕”的恐慌之中。告知環節本身也應依行政程序法的要求,行政機關應采取短信、網絡等電子化方式輔之以書面告知等形式。此外,還有一點需要強調,即依賴自動化行政所作出的決定,在技術手段上需要確保行政相對人,即指令施加對象的可識別性。在多數情況下,自動化行政更適宜于可采用簡易程序的場合,實際上也就排除了聽證會的適用問題。如果自動化行政在獲取信息的后續過程中,出現了諸如隱私權的侵擾等問題,也就依然需要程序上的保障,尤其是正當程序的保障。技術性正當程序要求告知、聽證等必要的程序適用,尤其當自動化行政決定涉及公民的人身權、自由權時;同時還須在技術上采用無歧視的數據挖掘技術,避免個人被歧視;此外,還要求行政機關作出一定的理由說明。
第二,在特定的情形之下,作為傳統的救濟方式——申訴,仍存在適用的必要性。然而,基于自動化行政的特征,我們需要對現有的申訴、信訪制度進行一定程度上的改革以適應信息時代。例如,設立機器智能委員會等專業委員會來辨別判定一些涉及自動化行政的專業性問題。再如,歐洲議會法律事務委員會主張建立歐洲機器人和人工智能機構;還有些學者主張建立跨國的、獨立的、多利益相關的人工智能和數據委員會。他們認為,人工智能不僅僅是一個公用事業,一旦成熟就需要被監管,它更是重塑生活、互動和環境的強大力量,是人類棲息地向信息圈深刻轉變的一個部分。人工智能專業委員會不應僅僅是行政機關的智囊團,也應當為行政機關和普通公民之間搭建橋梁,對于自動化行政決策發揮說明、闡釋作用。在處置申訴、信訪過程中可以借鑒這種專業委員會的設置目標,即加入專業性的考量因素,借助第三方委托、協助等方式,更好地提升申訴、信訪處置的水平以及行政機關處理自動化行政所涉問題的能力。如健康碼實施至今,各地都有設立復核制度,通過網絡化的復核實則也是信息化時代的一種申訴方式。下一步,司法實踐領域可借鑒英國法的經驗,設立數據保護專員為數據控制者提供數據方面的建議,處理申訴。
第三,針對瑕疵指令所導致的不同后果,行政程序、行政活動抑或事實行為更易在復議和訴訟環節發揮作用。總體上,更多情況下,數據來源的瑕疵在自動化行政決定中更容易構成復議和訴訟中的證據來源。算法瑕疵在理論上是有可能構成復議、訴訟的直接審查對象的,也就是說,伴隨著法院審查算法能力的加強,未來也應具備審查算法的能力。系統瑕疵,則更多被歸入事實行為,即使因此產生了對相對人權利義務的影響,也有復議、訴訟的可能性。在現有的法律體系下,審查對象實際上依然只是依據自動化行政所作出的相應的決定,而非自動化行政本身。在復議和訴訟環節,涉及自動化行政的案件需考量幾點:首先,從系統的設定、算法的設計等方面來看,自動化行政在當下更多地發揮了“輔助”和“助手”的功能,即便在直接作出決定的情形中也是如此。因此,在絕大多數情形下,相應責任也應歸由行政機關及其工作人員承擔,除非有相反證據可以排除其責任。其次,舉證責任的分配或者相關問題的解釋,都應本著有利于行政相對人的角度來進行。隨著自動化行政的發展,更需要加強對事前、事中的控制,司法機關作為最后的救濟主體,在未來會面臨著更多算法審查的挑戰。
〔文獻來源〕
余凌云:《交警非現場執法的規范構建》,載《法學研究》2021年第3期。
謝明睿、余凌云:《技術賦能交警非現場執法對行政程序的挑戰及完善》,載《法學雜志》2021年第3期。
劉東亮:《技術性正當程序:人工智能時代程序法和算法的雙重變奏》,載《比較法研究》2020第5期。
胡敏潔:《自動化行政的法律控制》,載《行政法學研究》2019年第2期。
胡敏潔:《論自動化行政中的瑕疵指令及其救濟》,載《北京行政學院學報》2021年第4期。
張凌寒:《算法自動化決策與行政正當程序制度的沖突與調和》,載《東方法學》2020年第6期。
馬顏昕:《自動化行政的分級與法律控制變革》,載《行政法學研究》2019年第1期。
馬顏昕:《自動化行政方式下的行政處罰:挑戰與回應》,載《政治與法律》2020年第4期。