□陳 亮,薛 茜
(1.西南政法大學 人工智能法學院,重慶401120;2.西南政法大學 經濟法學院,重慶401120)
隨著人工智能技術的不斷發展,行政決策交由人工智能處理的場景日趨廣泛。當下,多地政府開始借鑒企業的經驗,將大數據、區塊鏈等智能技術應用于行政審批、公共管理、生態環境保護、應急管理等多個公共領域。在國內,典型代表如天津市建立的“政務一網通”政務服務平臺、深圳市的“落戶秒批”以及百分百公司最新推出的智能政府決策系統(Deep Governor)。在域外,如在美國,通過檢索和收集天氣預報中的實時天氣信息,利用人工神經網絡技術能有效提升灌溉用水需求的預測精準度,為政府部門合理安排灌溉水資源提供科學支撐[1](p163)。與商業決策不同,在公共領域應用算法決策具有利用機器的智能性來提升行政治理效能以及利用技術的中立性來防止行政恣意的雙重目的。但由于技術的兩面性,算法決策所帶來的算法歧視、算法獨裁、算法黑箱等固有“基因”也為現行法律制度帶來了挑戰。目前,行政決策領域面對人工智能技術的強勢融入導致現行行政法中的正當程序原則被架空。正當程序作為行政法的一項基本原則承載著現代行政程序的基本價值追求——程序正義,往往具體化為中立性、參與性和公開性三項最低要求。然而,在行政決策日趨算法化的場景中,經過深度學習,系統自動生成的算法模型使得正當程序中的三項最低要求難以踐行,從而對算法決策的正當化提出了嚴重的挑戰。從實踐經驗上看,與中立性和參與性相比,對公開性的侵蝕更為嚴重,以公開性問題為中心進行針對性討論具有現實意義。
在法治社會中,作為行使公共權力的人,無論其權力性質如何,都必須得到法律的授權。例如《行政許可法》第23 條規定:“法律、法規授權的具有管理公共事務職能的組織,在法定授權范圍內以自己的名義實施行政許可。被授權的組織適用本法有關行政機關的規定。”①參見《行政許可法》全文釋義,http://www.ccdi.gov.cn/djfg/fgsy/201401/t20140107_114270_1.html.最后訪問于2020年11月12日。而針對那些不僅會涉及國家,也會對公民合法權益造成影響的行政行為,要求對行使行政權的主體進行法律授權的同時也應要求行政權行使在陽光下。
為加強行政的透明度,20 世紀中期西方各國行政發展出一個普遍趨勢即行政公開。行政公開是行政主體在行使行政職權時,除涉及國家機密、個人隱私和商業秘密外,必須向行政相對人及其社會公開與行政職權有關的事項[2](p100-106)。廣義地理解“與行政職權有關的事項”,包括行政權力運行的主體、依據、過程和結果向行政相對人公開,即行政主體行使行政權的行為以公開為原則,不公開為例外。行政公開作為現行行政程序法的一項基本原則,它不僅是行政主體的法定職責,同時也是行政相對人的一項保障性權利。而行政決策公開作為行政公開的一個側面,是行政決策合法性不可或缺的程序性保障。在行政公開視域下,行政決策的公開是為了讓公眾更有效地參與決策,使決策者獲得更加詳實、準確的信息,讓各方利益能夠得到充分整合,推動決策機關不斷調整和完善其決策草案,促使最終的決策方案能夠體現盡可能多元和均衡的法益[3](p64)。因此,為了達到決策公開性的目標,現行的行政程序法對決策公開性的要求主要體現在決策主體公開、決策程序公開以及決策內容公開三個方面:
現行行政程序法中所規定的出示證件、身著制服以及有固定的辦公場所等措施在于實現決策者的身份公開透明。從立法目的上看,一方面,這一制度要求不僅是為了防止假冒、詐騙,也是為了防止行政機關超越職權、濫用職權[4](p552)。從歷史角度看,對于傳統法中的決策主體公開的制度設計來源于一直以來世界各國對“責任政府”的普遍共識。正如奧斯本和高伯勒在他們的暢銷書《重塑政府》中所描述的那樣:“政府應轉型為精簡、反應迅速、以客戶為中心的企業。”正所謂“有權必有責”,被法律明確授權的決策主體才是承擔決策結果責任的主體。因此,為實現決策主體公開這第一層次的目的,我國現行法律中對不同公共決策場景下的行政主體公開進行了具體規定。但殊途同歸,表明行政決策主體身份是決策主體公開的題中之義。例如,我國《行政處罰法》第34 條規定:“執法人員當場作出行政處罰決定的,應當向當事人出示執法身份證件……行政處罰決定書中應包含行政機關名稱,并由執法人員簽名或者蓋章”②參見《中華人民共和國行政處罰法》全文,https://duxiaofa.baidu.com/detail?searchType.最后訪問于2020年12月1日。。另一方面,行政公開在公民的知情權、參與權、表達權以及監督權等權益保護上具有重要意義,而具體到行政主體的公開上,要求決策者表明身份則是為了讓公民可以準確地識別權源,為建立權責一致的責任追究機制提供前提條件。在實踐中,決策主體的這種公開性含有防御性的價值[5](p232-233),即決策對象在決策者不表明身份時,可拒絕其作出的決策甚至進行一定程度的抵抗行為,而排除違法的可能性。
在利益多元的社會形態下,任何行政決策都會涉及資源和利益的調整和分配,為滿足“讓權力在陽光下運行”的新需求,程序公開對于行政決策過程的透明度有一個高標準的要求,這不僅應該包括對靜態的決策信息公開,也應包括動態的公眾參與。因此,為滿足決策程序的高透明度要求,具體應該體現為對決策信息的公開以及在公眾參與上進行“度”的把握。
一是要保障決策過程中信息的公開程度。一方面,現行法律規定,在決策過程中公開其權利行使依據是行政主體的職責之所在。具體包括兩方面內容:首先,關于一般職權依據事項的公開。一般性職權依據指的是由法定的國家機關制定,發布的不具有直接執行性的規范性文件。《行政處罰法》第4條第3款規定:“對違法行為給予行政處罰的規定必須公布;未經公布的,不得作為行政處罰的依據。”這是事先公開職權依據行政公開的基本內容在我國《行政處罰法》中的具體體現。其次,關于具體職權依據的公開。行政主體在沒有實施行政權或者作出最終行政決策之前,應該將作為行使自由裁量權的依據向社會或者行政相對人公開展示,使行政相對人可以知曉,而這里所說的依據應該做廣義的理解,包括法律依據也包括事實依據。另一方面,賦予利益相關人申請公開信息的請求權,但是也做出了一定的法律保留。例如,我國的行政資訊獲取制度規定:“除法律規定不得公開外,行政主體根據行政相對人的申請,應當及時、迅速地提供其所需要的行政資訊。”從適用范圍上看,該制度雖然可適用于抽象行政行為,也可適用于具體行政行為,但在相對人可以獲取資訊的范圍上受到國家安全與個人隱私的限制。從實踐中看,對于決策過程中信息的公開問題,我國一般采取列舉的方式列舉出行政相對人不能獲取的范圍,列舉之外的信息行政相對人都有權獲取,以最大限度地保障決策過程的透明。例如我國《行政復議法》第23條規定:“申請人、第三人可以查閱被申請人提出的書面答復、作出具體行政行為的證據、依據和其他有關材料,除涉及國家機密、商業秘密或者個人隱私外,行政復議機關不得拒絕。”
二是要保障決策過程中公眾的參與程度。公眾參與是協商民主理論的要求在行政決策領域的應用。總體上看,行政程序法中所要求的公眾參與是對決策過程的一個深度參與,一方面,對于與公民自身利益相關的行政決策,應當提供利益博弈機制,即讓公民參與決策的討論、協商或實施。另一方面,對于無特殊相關人的公共事項的決策,也應當構建廣泛的社會公眾參與機制,以實現行政決策的合理性、回應性和有效性。為滿足行政決策過程的高透明度,讓公眾參與到決策過程中來一直是各國行政法治的重要內容,高參與度帶來高透明度也一直是立法者的共識。從目前的法律法規來看,為保證決策主體與決策對象的這種雙向互動,我國現行行政程序法以及相關法律法規進行了一系列的制度設計。如行政聽證制度作為行政程序法的核心,通過聽證使利害關系人各方在一個平等的空間上進行對話成為保障公眾參與度最重要的通常手段。在實踐中,我國的《行政許可法》《行政處罰法》中都已經確立了行政聽證制度,它要求行政主體在作出行政決策前,在聽取意見、接受證據的過程中作出最為理性的選擇。
決策過程中的信息公開是簡單的信息披露,而決策內容的公開還應包含對于信息的解讀。決策內容的公開不僅僅是披露決策相關信息,公開決策內容的主體還有義務對信息進行解讀,從而使信息轉化為行政決策參與者所必需的知識[6](p172)。行政決策的內容公開應當遵循“釋明原則”是由行政公開的目的所決定的,為此,“說明理由”要求成為行政決策內容公開中的一項普適性制度設計。整體來看,行政行為說明理由是制約權力的要求,是行政合作的趨勢,也是司法審查的基礎[7](p41-48)。因此,雖然我國一直以來都存在著“重實體、輕程序”的法律傳統,但是,“說明理由”作為行政程序法的一項制度安排,我國已在諸多行政領域中確立了該項制度。從適用范圍上看,凡是對行政相對人權益造成影響的一切行政行為都應當說明理由,僅以法律法規明確作排除性規定為例外。從實現方式上看,行政主體說明理由的時間應該確定在行政行為成立生效之前并以書面說明為主,以口頭說明為補充。從說明內容上看,目前法律規定說明理由的內容應包含事實依據與法律依據兩方面,對于事實依據,行政機關做出行政決定前必須要以事實為依據,沒有這種對事實的收集、整理和印證,行政機關就不可能做出一個公正的裁決。對于法律性依據及其選擇理由的說明,除要求指明適用的某法某條之外,必須要求行政主體說明它為什么要選擇適用該法律,即要求其說明根據事實性依據選擇該法律的邏輯推理過程。從法律后果上看,目前我國雖然對說明理由的及時性與準確性沒有規定具體可行的法律救濟方式,但是也籠統地規定了不說明理由的法律后果。例如,《行政處罰法》第41 條規定了不說明理由的法律后果,即不依據本法規定向當事人說明理由的行政決定不能成立。
目前,我國在沒有統一的行政程序法的現狀之下,散見于各層級的法律法規為滿足行政程序公開的要求進行了一系列的制度設計,在控制行政主體自由裁量權以及保障公民權益方面發揮著重要功能。隨著人工智能時代的到來,不僅一些私營機構使用算法進行商業活動,以自動化系統與深度學習系統為基礎的計算機程序也在不斷地滲透進公共領域。例如2020 年年初,我國在疫情防控中使用的“健康碼”便是利用大數據分析技術進行公共決策的一次大規模嘗試。但是,算法決策的方式并沒有改變這些決策的行為性質,現行法律法規中關于行政決策公開性的要求也應當適用于算法決策的不同場景之下。然而,伴隨著利用計算機程序進行行政決策的行為日漸普遍,算法代替規則時有發生,從而使傳統法律規制與算法規則之間的兼容性問題一直被討論。同樣,在行政決策領域,部分環節的算法化使得一些現有程序制度未能在算法決策中得到完全的貫徹,也正是由于算法的特定屬性對現行行政決策的公開性造成愈益嚴重的挑戰。
國務院發布的《新一代人工智能發展規劃》中曾提到人工智能進入新的發展階段,呈現出算法自主操控特征。而行政決策領域中算法模型的應用從決策樹模型到神經網絡模型的轉變是算法自主性日益增強的典型實例[8](p16-17)。與之前的決策樹模型不同,具備深度學習能力的神經網絡模型模仿大腦擁有自己的計算和學習方式。如果這些模型被應用到行政決策場景中,接受過特定決策任務的培訓,它就可以得出自己的決策方法。這雖然與我們對智能系統的期望差不多,但是不可忽視的是在神經網絡中,這些過程都是獨立于人為控制而自主運行的。
在法治社會中,為保障公民對權源的準確識別要求決策者公開其詳細信息,如機構名稱、職權依據,并以此促進對結果的問責。然而,在算法決策場景下,當算法代替公務人員進行行政決策時,傳統上基于行政人員職務行為建立的身份識別制度很難發揮作用。現實中,行政機關是一種擬制的存在,本身不具備意思表達和行為的能力。因此,法律中一般將其所屬的正式工作人員(行政人員)的行為和意思推定為行政主體的行為和意思,并通過職務行為和個人行為的區隔,明確行政主體承擔責任的情形和方式[9](p4-5)。而如今,我們可以引入并遵循越來越多的算法體系,首先是相對易于遵循的體系,但后來演變為復雜得多的體系并且超出了人類理性的上限。雖然算法決策涉及計算機程序開發者、使用者以及決策制定者等多方主體的參與,但其外在表征被一張二維碼、一個電子眼甚至是我們肉眼所不能識別的“機器”所代替,如上海市食品藥品監督管理局探索運用人工智能圖像識別技術自動識別食品監控拍攝的違法行為①參見騰訊新聞網,http://k.sina.com.cn/article_1914880192_7222c0c0020008zrv.html.最后訪問于2020年10月18日。。在這種模式下,決策主體隱藏于機器后方,行政機關的行為意思不能借由公務人員的行為加以推定,而是通過“機器系統”做出,傳統的決策主體公開制度將原本規制人的行為的法律逐漸異化成規制機器行為。因此,傳統的決策主體公開制度并不能有效地規制算法權力在行政決策領域的隱蔽性問題,從而引發了技術性的“權力異化”風險[10](p60-62),具體表現為以下兩個方面。
一方面,對這些設備的公開使公民無法準確地識別作出決策的權力主體,使得傳統法上決策主體公開的防御性價值無法體現。現行法律規定,決策主體行使決策權力來源于法律的授權,決策主體超越法律范圍行使行政權力則構成違法,并且需要承擔法律責任。比如,證券法將公開發行股票的核準權授予中國證券監督管理委員會,中國證券監督管理委員會就可以用自己的名義作出是否核準的決定。現行法律授予行政主體的權力并不具有延伸性,當行政決策完全或者部分依托算法作出時,那么這樣的一種算法決策系統的運行必須也要得到法律的授權。然而,在目前廣泛應用的股票交易算法系統中,系統可以自主工作,不斷地對收集到的數據進行分類,識別出重要的信息,并自動發布審批意見。在這樣的算法主導的決策場景中,公眾并不能從所公開的“機器決策者”被設計過的算法系統中準確地識別出法律所授權的決策者是中國證券監督管理委員會。而且,面對這些具有自主性的算法在行政決策領域的適用,使得算法本身在沒有法律授權的情況下也出現具備了權力屬性的現實情況。除了該算法系統的設計者,不管是算法決策的使用者還是作為接受決策結果的相對人都根本無法察覺,也就不可能有機會糾正算法權力的錯誤并維護自身合法權。另一方面,算法決策所帶來的權力行使的隱蔽性問題不僅意味著算法系統有我們不能察覺的“隱層”,也意味著我們無法理解用于公共決策場景下的算法邏輯。這種情況下,身份表明的主體公開要求不僅不能防止權力的濫用,而且還會為行政恣意提供合法化空間。以滬首例聲吶電子警察執法糾紛案為例,交警支隊在針對行政相對人提出的質疑時,更多的是強調聲吶“電子警察”違法鳴喇叭抓拍設備均已通過國家權威機構檢測合法,同時解釋了該聲吶“電子警察”的工作原理以體現其科學性,并得到了法院的支持。這表明,當將傳統的行政程序法中的決策主體公開要求適用于規制算法場景時存在明顯的合法不合理現象。當作為行使自由裁量權的法律依據和政策轉化為代碼被植入決策系統中時,不僅對于受其處罰的行政相對人來說是無法理解的,而且算法決策系統的使用者也會沉浸在這種科學性的體驗之中,計算機程序員無形地承擔起所適用實體法的準確性的責任。算法決策系統使用上述所說的“超級推理”,能夠以微妙而有效的方式塑造用戶的感受和行為,破壞作為真正決策者的獨立判斷力[11](p118-136)。在這樣的情況下,傳統法上的公開要求只能讓我們看到數據輸入過程和輸出結果,行政決策由誰作出以及如何作出的問題,也只有少數“圈內人”可以掌握,這也無形中增加了受算法操縱的決策主體濫用行政權力的可能性。
算法的價值全部體現在它的速度上。算法是為解決一個或一組問題而設計的一組指令,而算法系統是由多種不同類型的算法集結而成的。一般來說,應用于行政決策領域的算法決策系統由成千上萬條命令組成,這些命令可以輸出數億條指令,決策結果被瞬間完成[10](p66-70)。例如,在“秒批”“智能審批”等算法決策應用場景下,一個需要作出某種決策的決策者依賴于機器系統的輸出,而整個過程中沒有或者很少有人的投入。不可否認,這樣的算法系統大幅提高了行政決策的效率,然而算法決策在帶來便利與高效的同時,也引發了決策過程中公眾參與要求的懸置。
行政決策的科學性和民主性是現代行政法治的必然要求,亦直接關系著政府政策及政府行為的公信力,而公眾參與是行政決策合法化的重要途經[13](p110)。決策公開程序上要求公眾參與決策過程以保障其合法權益不受侵害并增加整個決策過程的透明度。當下,由于算法的復雜性和專業性,行政決策過程中的信息不對稱可能會更加嚴重,這種信息不對稱加重不只發生在使用算法決策的行政主體與接受算法決策結果的行政相對人之間,更發生在人類和機器之間,所以算法決策應用下更應該強調公眾參與要求的重要性。在傳統行政決策場景中,法律為行政決定的相對人和利益相關者提供了提出申辯、表達利益訴求的機會,并設置了相應的程序性裝置[14](p36)。但是,隨著算法的自動化程度越來越高,程序公開因算法決策瞬時性的存在而無法保障公眾的參與,也造成對公民陳述、申辯和聽證等程序性權力的損害。例如,根據《行政處罰法》規定,對處罰應當履行告知義務,讓當事人有一個陳述申辯的機會。而反觀發生在2005 年的“杜寶良案”中,杜寶良連續違章105 次,并沒有人來履行告知義務。可以預見的是“杜寶良案”是新技術帶來的新問題。以行政處罰領域為例,我們原有的法律制度都是建立在行政機關與行政相對人這種面對面處罰的基礎上的,當算法代替人類作出某項處罰決定時,不僅提高了作出決策的效率,也壓縮了決策的過程,使得公眾參與被迫排除在決策程序之外,決策過程的透明度問題遭到公眾的質疑。
另外,行政決策過程之所以要保障公眾的參與是因為許多行政決策涉及行使自由裁量權進行評估性決斷。例如,一個人“是否品行良好”“是否有重大威脅”等。不可否認,算法下的行政決策效率更高,并且更符合政府對這種效率日益增長的需求。但是,也有學者提出:“自主決策的前提是要應用的規則不容易被解釋,并且決策者在做出決策時沒有太多或任何自由裁量權的前提下進行。”其原因有二:其一,在算法自動決策場景中,決策的控制權實則由算法模型的設計者和使用者掌握著,“控制權的分布是極其不對稱的。公民將被評測,但他們不能反過來去評測那些評測他們的機構”[15](p125)。其二,由于行政決策是由算法模型在瞬間作出,行政相對人和利益相關者在決定作出前,無法透過法定的程序裝置參與到行政決策的過程中,充分行使法律所賦予的陳述、申辯、要求聽證等各項程序性權利,而只能接受冷冰冰的算法決策結果[13]。簡言之,合法的決策程序必須允許公眾參與和理解這些進行決策的程序,然而,不區分具體場景對算法系統的廣泛應用以及日益依賴限制了人們積極參與和理解決策程序的廣度與深度,從而因泛化應用與過度依賴算法系統對決策程序公開要求構成了實質性威脅。
事實上,陳述理由既可以提高決策的透明度也可能會降低決策的透明度,其關鍵在于規制的對象本身是否可以被解釋。在實踐中,對于算法的不可解釋性來說,主要來源于兩個方面:一方面,決策公開之保留上的限制,即傳統法中的行政決策公開為國家安全、商業秘密、個人隱私作出的例外規定。然而,在算法決策應用場景中使得這些保留條款功能和作用出現異化。另一方面,算法決策會產生“黑箱效應”。例如,在AlphaGo大戰柯潔一戰中,AlphaGo 被輸入的指令是“贏得比賽”,但是它在比賽過程中思考下一步棋應該怎樣走的原理,我們不得而知。具體到目前在行政決策場域下應用最為廣泛的機器學習領域,這種輸入的數據和輸出答案之間的不可觀察的空間就是人們所說的“黑箱”。綜上,這兩種算法決策的不可解釋性導致決策公開中說明理由無法達到現行法律所要求的披露效果,也因此引發了算法透明性的危機。
1.算法黑箱導致的算法決策披露不能。簡單的“自動化”決策時期,機器的透明度不會對決策背后的邏輯解釋造成特殊問題。例如,如果一個攝像頭檢測到司機的速度,并告知行政機關超過了限速,超速罰單就會自動發出。在這樣的場景下,決策背后的邏輯以及決策依據的規則可以很容易地向數據主體解釋,即如果超速,就會開出超速罰單。不同的是,基于復雜算法的自動決策在解釋決策背后的原因時會面臨許多復雜的問題。從目前的技術發展來看,機器深度學習系統的應用增加了算法的復雜性。與自動化機器不同,機器深度學習系統是一個開放的系統,對于絕大部分機器學習的輸出結果,無論輸入和輸出的因果關系在表面上看起來多么直觀,這種因果關系都很可能根本無法被解釋,其動態的變化也更難以把握[16](p1147,1156-1157)。
目前,基于機器深度學習技術所構建的算法模型正廣泛應用于行政決策之中,并造成公眾無法了解決策主體的決策過程,也無法監督政府權力運行的現實情況,究其原因主要在于決策主體將算法不具有解釋性作為抗辯理由。行政機關與算法開發者由此達成了共識,一致認為人類可能無法預測應用機器學習技術的結果,也無法理解某些結果是如何達到的,計算機完全可以自主學習某些人類根本沒有教過的東西。不僅如此,當兩個完全相同的決策相隔一段時間時,機器學習技術可能會在第二次因其“學習”過程出現問題時而產生不同的結果。因此,上述這些情況都有可能讓決策主體在說明理由上出現困難,以此而主張不具備對算法決策進行說明理由的能力。
2.法律保留豁免說明理由義務。即使在現行的決策公開制度下,也并不是所有的決策都必須公開,法律為涉及國家秘密、商業秘密以及個人隱私的行政決策設置了法律保留條款,以解決行政決策公開與國家安全、社會秩序以及私主體權力之間的法益沖突問題。例如,在個人隱私公開的豁免上,美國《信息自由法》明確規定,對于人事和醫療檔案及其他透露出去會明顯構成侵犯個人隱私權的檔案免于公開[17](p154)。但是,在算法自動決策場景中,行政機關和算法模型的開發者基于算法模型涉及商業秘密、國家安全等理由而拒絕對其決策結果予以說明并公開[13]已經成為決策主體逃避法律責任所慣用的一種手段。從域外實踐中看,早期跡象表明,決策機構會尋求在業務規則或技術助理守則方面依賴任何豁免[18](p21-23)。例如,在Cordover案中,行政上訴法庭支持澳大利亞選舉委員會(AEC)拒絕公布一個計算機程序的代碼,該程序是用于讀取和計算選票記錄在底線以下的參議院選票。澳大利亞選舉委員會辯稱,由于委員會公益與私益并存的雙重職能性質導致該程序也會應用到一些以盈利為目的的商業領域,如在為一些私營組織進行選舉的場景中也使用相同的代碼和程序,以此主張該程序應屬于“商業機密”范疇,對此法院也表示了采納。由于大多數行政機關的職能性質,從事行政決策的機構不太可能在其收費服務職能和公共職能之間面臨與澳大利亞經濟委員會同樣的緊張關系。行政主體雖然對其他機構的技術源代碼沒有基于商業秘密的豁免權,但也可以在現有法律框架中尋求其他豁免。例如,行政機關可能會尋求依賴與機構審議過程有關的豁免,聲稱算法所依據的準則或業務規則構成對行政機關的“意見或建議”,并且披露將違反公共利益等,從而形成了對算法可解釋上的阻礙。
在全球范圍內,歐盟《數據保護通用條例》(General Data Protection Regulation,GDPR)在算法決策領域的規制上具有前沿性和先進性。“博觀而約取”,歐盟《數據保護通用條例》的制定與實施對我國今后在算法規制的立法實踐上有著重要意義。歐盟《數據保護通用條例》回應了由于算法決策領域產生算法適用危機以及算法架構上的行為主體責任分配問題,使得人們對算法決策的“透明性”和“可解釋性”逐漸增加了需求。從決策績效的視角來看,盡管人腦的決策過程也是一種黑箱,但是傳統的行政決策公開制度構造下已經構建完備的事前、事中、事后約束機制。以我國為例,為保障行政決策的公開性,設置了告知制度、聽證制度以及說明理由制度等。這些制度使得人們一定程度上可以避免武斷決策并保證決策的可信性和正當性。
隨著“互聯網+政務”的全面推行,傳統行政程序法中的公開原則被延伸到算法決策領域,形成了算法透明原則,并且在適用范圍上走向私法領域而不再局限于公法領域。從表面上來看,算法透明就是打開黑箱將陽光灑落整個自動化決策過程的理想手段[19](p22)。目前,在算法決策的背景下,為滿足算法透明原則,要求一個負責任的決策主體必須向其決策對象提供其算法決策系統的設計和運行的理由成為業界共識。雖然一些學者認為解釋一個算法幾乎是不可能的,因為即使是它的開發者也不能確切地指出作出某一特定決定的原因。但是也有一些算法透明性的支持者們對此抱有樂觀的態度,采用某種決策算法背后的邏輯成為這些支持者們的基本任務,甚至提出了技術視角下的解決方案[11],以提高算法的透明度。從整體上看,算法解釋權仍是一種用于質疑算法決策的重要法律工具,其中,最為典型的實例應屬歐盟《數據保護通用條例》所規定的可解釋權。
歐盟《數據保護通用條例》的立法思路是希望借助賦予數據主體在算法架構內的控制權,以個體權益的路徑,形成對數據控制者應用自動化決策的治理。一般來說,《數據保護通用條例》禁止實體使用“純粹”自動分析用來作出具有法律效力的決策,不得對人們的法律權利或法律地位產生影響①GDPR第22條:“當政府要求個人使用自動或個人干預的決策時,提供個人使用自動或個人干預的能力。”。并且在其第13 條第2 款和第14 條第2 款中規定了數據控制者應向數據主體提供關于自動化決策的“從邏輯上來講有意義的信息,包括自動決策對于數據主體的明顯預期后果的信息”的義務②第13條、第14條討論了使用自動決策產生的各種透明度權利,包括解釋權。第13條規定了從個人收集信息時的要求,第14條側重于從第三方收集信息時的要求。這些條款涉及“完全基于自動化處理”的決策,決策對其產生法律效力或類似的重大影響,應使他們了解自動決策的存在,并提供關于自動決策所涉及的邏輯的有意義的信息。。該規定與其前言第71項結合,被認為是算法可解釋權的確權條款。從《數據保護通用條例》的這些具體條文中看,很可能需要解釋整個機器學習模型的邏輯,而不是它產生預測的子集。如果是這樣的話,《數據保護通用條例》比其他任何法律所要求的算法決策規制都更廣泛。例如,美國《平等信貸機會法》(ECOA)中的要求,即向申請人提供“采取行動的具體原因聲明”。ECOA 要求只關注個人結果,而GDPR可以說需要更廣泛的解釋形式。因此,歐盟《數據保護通用條例》被稱為迄今為止為規制算法決策所制定的最全面的立法。然而,對于該立法的接受度也主要存在于對可解釋權的爭論。
有學者認為:“GDPR關注的不是決策,而是隱私,這種隱私視角扭曲了對《數據保護通用條例》規制算法決策方法的解釋。”對于算法決策的規制正當性應該是首先被考量的,而不是用簡單的解釋性一并概括。正當化的形式應該是誰向誰證明什么是正當的,故應該確定適當的解釋形式。這就意味著應更注重系統的責任,而不是對孤立的、有權利的個人進行模式化的技術解釋。
筆者認為,在《數據保護通用條例》的法律框架下,關于算法決策規制的爭論由于其過分關注隱私而受到了不小的阻礙。稅務機關根據數據主體的收入計算的納稅申報決定,是一項在GDPR意義上具有法律效力的決定。但是,行政領域的公共決策不一定都能與特定個人的個人數據相聯系,也很容易基于匿名數據產生,這將使歐盟數據保護立法不適用。因此,對于公共領域的算法決策不能在隱私保護的框架內進行,超越隱私框架的方式需要讓我們更加關注整個決策的系統而不是算法技術的內部運行程序,而對《數據保護通用條例》中“可解釋權”的改造應確保在算法決策過程中進行系統問責機制的實現為目標,而不是過度關注算法內部運行的技術邏輯。
從理論上看,傳統法上責任制的構建,其優勢在于保證了那些有決策權力的人必須向他們將要影響的人證明他們的決策是正確的,而將這種問責制的觀點應用于使用深度學習等技術的算法決策程序中也可以確保一系列工具性利益。不論是在傳統決策模式還是算法決策場景下,公眾對行政決策的接受程度除了取決于決策者的獨立性以外,更為重要的是關注決策是公開的還是私下進行的,公開是為了解決透明度問題。不可否認,決策的公開透明一直被認為是重要的,因為透明度提供了治理和監管所需要的信息。在傳統的行政決策中,因為需要透明度來推進系統問責的目標,所以透明度就變得很重要。與透明度一樣,算法解釋也是工具性的。然而,雖然系統有效的問責也是目前指導算法決策規制方法的基本目標,但在行政決策算法化的背景下,目前的可解釋權僅對個人質疑決策或識別偏見和歧視具有工具性的重要意義,并不能達到公法領域決策公開所要求的問責價值目標。為了使“可解釋權”更好地服務于公共領域中算法決策的應用場景,就需要對《數據保護通用條例》中的“可解釋權”進行改造。
1.關于決策主體公開上的解釋。隨著這些有自主性的算法模型被應用于治安、信貸等各種決策場景之中,受算法決策影響的主體也在不斷擴大,算法的這種自主性使越來越多的人要求算法決策者對其活動負責①Finale Doshi-Velez&Mason Kortz.“Accountability of AI under the law:The role of explanation”,https://cyber.harvard.edu/publications/2017/11/AIExplanation.最后訪問于2020年8月22日。。然而,在現有法律體系中,如果將決策公開性作為算法可歸責性的重要工具,就必須以明確算法決策的主體性為前提。
與傳統的決策主體公開不同,算法決策中的主體公開是揭示算法技術輔助決策的可能性,即公開決策過程中是否受到了算法系統的幫助。算法場景下的行政決策,在要求決策主體表明身份的基礎上也要求對其決策過程中所依賴“機器”的程度進行披露是非常有必要的,其原因在于:一是不披露由算法決策或者由算法輔助決策可能會構成遺漏與誤導。這是因為,在通常情況下除非另有說明,大多數人都會認為決策是由人類決策者作出的。二是目前雖然算法系統的應用可能會增加披露事實調查結果、這些調查結果所依據的信息和推理過程的容易程度,但是這些事項最終還需要算法系統向人類決策者進行確認。因此,不管對于人類決策者還是算法的程序設計來說,將這些事情記錄在算法解釋中并不是一項繁重的任務。
從目前來看,鑒于實踐中算法應用于行政決策是被允許的,而且在某些情況下甚至可能是可取的。但是,依據現行法律的規定,單憑從主體公開的角度披露算法決策的這一事實,不太可能成功地對一項決策提出質疑,從而在某種程度上造成人們不信任算法的情況進一步加劇。從這一層次上看,問題不在于對算法本身的公開性,而在于公眾對算法決策的信心。因此,如果要讓受行政決策影響的人真正有機會決定是否以及如何質疑這一行政決策,不僅要在算法決策時的主體公開要求中披露算法系統的存在,并且應該公開解釋由算法系統提出并由人類決策者采納的任何調查結果、建議或結論。這種解釋應該包含人類決策者在多大程度上考慮了算法決策的推理,而不僅僅是采納建議的結論。此制度設計的根本原因在于受算法決策影響的人如果知道算法技術有助于決策者考慮必要的問題以及與這些問題有關的信息,他們就不太可能對決策提出質疑。因此,對決策主體以外的算法決策主體的公開及解釋為運用算法決策的行政機關提供了一個機會,使公眾對其決策主體建立信心,有助于傳統法律中行政決策公開目標的實現。
2.技術不應該成為說明理由的最終解釋。現行法律制度在算法決策的場景下未能達到決策披露應有的法律效用是因為將技術作為法律所要求說明理由的最終解釋。但是,在算法決策場景下,算法本身也是一種技術,將技術的科學性作為理由進行說明解釋并不能合理化該決策的正當性。一方面,技術需要被解釋。正如政府在作出重大的行政決策之前要對決策中的法律術語進行解釋一樣,算法決策中對內容的公布不應該只局限在對算法系統的披露上,也應考慮利用“技術”界的專業知識,發布針對使用算法系統應遵守的規則,并將其交給具有監管職責的機構進行測試和審查。另一方面,技術需要針對不同情形作出不同的解釋。由于這些用于行政決策的算法處于不斷迭代的狀態,故技術解釋也不能一成不變。如果在技術解釋中使用模板或標準段落,當決策受到影響時,此類模板只會使決策看起來符合法律規定。這時的理由陳述也會使人們產生質疑,即技術將提供一個準確和客觀的外表,掩蓋有缺陷的決策。這種算法決策的解釋要求會讓受決策影響的相對人產生對決策的不信任——算法決策不會導致事實上更好的決定,而僅僅會增強合法決策的外觀,從而影響決策的法律效力。因此,筆者建議在陳述理由時也應及時公布所使用的技術、程序或應用程序的版本(例如,eTax 版本2.1)以及該版本的有效日期。各機構應公布決策所用技術的登記冊,包括版本、版本日期和每一版本所包含的變更說明。這些信息將有助于受決策影響的人和審查者評估算法程序納入所有相關立法和政策變化的可能性。
3.決策程序公開中算法解釋權的合理定位。現行行政程序法對于行政決策程序公開最為重要的要求便是公眾參與,而公眾參與的核心理念是“聽取公眾意見”[20](p13)。例如,《中華人民共和國環境影響評價法》規定:“制定環境規劃和作出可能對環境造成重大影響的建設決定前,規劃編制機關和建設單位須公開信息,征求公眾意見。”因此,傳統法上的程序公開不僅僅是工具性的,其體現了自身的最終目的或民主價值,即知情權。然而,在算法決策場景下,算法解釋權并不能達到知情權的法律效果。基于簡單決策樹作出決策的原因或許仍然可以解釋①決策樹(decisiontrees)是一種推理或決策支持的形式,它使用類似于樹的圖來得出結論,直到20世紀80年代,它仍然是主要的決策工具,至今仍在使用。參見:Stuart J Russell&Peter Norvig:《人工智能,現代方法》(第三版),P638。。但是,如果決策所用的算法是一個神經網絡,易于進行非常快速的機器學習,則幾乎沒有時間在算法運行的過程中進行解釋而且在過程之外也很難解釋其決策背后的原因。因此,有學者主張,算法解釋權其實質是一種請求權。作為算法解釋請求權的制度核心即為反對完全由機器操作的自動化決策,要求特定情形下人為因素的適當干預,避免使特定個人的命運完全由機器操縱,甚至出現無法預測的極端風險[21](p88)。不可否認的是,解釋也是有必要的,如果行政相對人不理解決策背后的原因,例如逮捕行政相對人的決定,行政相對人也無法對此類決定采取有效的補救措施。即使決策是在人為干預下作出的,人類仍然需要向數據主體提供理由,讓其有機會有效地質疑決策。從目前的規制來看,算法解釋權的構建更多關注要求事先解釋系統如何運作,而不是事后解釋決策背后的原因。然而,對系統或算法功能的抽象理解對決策對象來說沒有多大用處,尤其是處于算法決策拒絕了當事人的請求時的場景下,比如,貸款或信用卡審批。基于此,對于算法解釋權應解釋的合理定位便應該回歸到如何解釋才能讓公眾易于理解而有效地提出質疑上來。
想象我們生活在一個所有算法都是“白盒”的理想世界中,公眾參與決策時最想要了解的信息是:(1)作為算法決策輸入的數據的信息,(2)關于影響決策的因素的信息,以及(3)關于為什么作出某項決定的合理解釋,而不是系統輸出結果的技術性信息。在現實中,鑒于存在的技術障礙問題,除非基于法律的規則非常明確和精確,如凡超速者都將被罰款,否則基于法律的算法決策必須面對法律依據與事實依據雙重的開放性和需要解釋概念的挑戰。因此,雖然目前以GDPR為首的算法規制都認為算法透明性是涵蓋了從揭示源代碼到解釋其功能的不同透明度。但是,算法決策的過程中的解釋權可能只包含解釋決策關鍵原因這一“唯一”信息,與其將這項權利指定為“解釋權”,不如充實其內容,并稱之為了解算法決策原因的權利與傳統法上的說明理由制度進行兼容,以保障公眾參與的實際效用。
2018 年,IBM 發布了一份白皮書宣稱:“人工智能技術不僅會讓政府在履行職責和滿足公民需求方面反應更加靈敏、更有效,而且會讓政府在運作中更加透明。”面對政府轉型的新呼聲,技術的進步讓算法在行政決策中的應用呈指數級增長,這使得在人工智能領域和法律領域都需要進一步的研究,以達到理解算法決策的最佳解決方案。人工智能領域的研究人員需要嘗試找到技術解決方案,以便更容易解釋此類決策,而法律研究人員應努力在算法強勢融入行政決策過程中所產生的利益碰撞之間再次找到適當的平衡,首先正當程序上的保障必不可少。