杜昕怡 肖澤晟
[摘要]人工智能算法輔助行政決策契合行政決策體制改革方向,能夠應用于行政決策的全過程和多領域。其意義在于通過輔助公眾參與、識別公眾需求、自動收集數據、深度學習自主推導、評估風險預測行為、全面收集和深度分析大數據,以提升行政決策的民主性、科學性。但人工智能算法輔助行政決策可能存在法治風險:算法隱匿和算法偏差可能危及利害關系人的實體權利,包括利害關系人的真實權益關切、隱私保護和平等對待要求;算法代表和算法至上可能危及利害關系人的程序權利,包括不符合正當程序原則的基本要求、不利于利害關系人的真實意愿表達、不利于利害關系人的真實程序性參與;當出現算法決策錯誤時責任承擔主體不明確。這在一定程度上違背了行政法治原理中的良法善治要求。因此,應當圍繞人工智能算法問題,從人工智能算法自身、行政機關、利害關系人三個方向尋找法治出路,完善人工智能算法的合法化設計,加強行政機關對人工智能算法的合法性、倫理性和合規性審查,完善算法公開制度,健全算法輔助決策的行政責任制度,從而契合行政法治原理的要求。
[關鍵詞]人工智能;算法;行政決策;依法行政
[中圖分類號]? D922.1[文獻標識碼]? A[文章編號]1003-7608(2023)03-0122-08
一、問題的提出
行政決策是政府依據既定政策和法律,面對要解決的問題,收集信息、擬定方案、作出決定的行為過程。我國的行政決策模式幾經嬗變,已由以權力集中、運作封閉和內部協調為特征的傳統決策模式轉為現代決策模式,更加注重決策過程的民主參與和專家參與,增強決策的開放性、合法性和科學性[1]。黨的十九大強調了科學決策、民主決策和依法決策的重要性,推進重大行政決策的科學化、民主化和法治化更成為推進行政決策體制變革的基本目標。
在這一目標的指引下,如何完善行政決策體制成為熱點議題[2],人工智能算法在行政決策中的應用逐漸成為現實。人工智能算法是一系列計算機指令組成的程序[3],其相比一般算法的特殊之處在于,人工智能算法能夠模仿人類在解決問題時所表現出來的智能行為,進而推動特定問題的解決[4]。行政決策和人工智能算法在概念上具有內在親緣性,但是囿于“弱人工智能”發展階段的桎梏、算法設計的種種問題以及責任承擔能力的欠缺,人工智能算法嵌入行政決策時只能處于輔助性地位[5]。但不論人工智能算法的發展階段及其在行政決策中的地位如何,行政法治原理總是行政決策智能化的邊界,也是人工智能算法輔助行政決策應當遵循的首要標準。學界亟須回應的問題是,如何化解人工智能算法輔助行政決策與行政決策的法治化要求之間的張力。
概括來說,行政決策的法治化要求既包括形式要求,也包括實質要求。一方面,在最基礎意義上,行政決策應當實現決策的依法化,決策的程序與內容應當符合法律法規的指引。出于這個原因,人工智能算法輔助行政決策的法治化風險,首先可能體現為對依法化原則性的僭越。除此以外,決策的形式法治要求還包括決策對明晰、確定等合法性原則的滿足,以及決策程序上的民主化與科學化。另一方面,在實質要求上,行政決策應當尊重并考慮個人權利、正義與社會福祉[6]。只有當人工智能算法輔助行政決策同時滿足法治的形式要求與實質要求時,它才是不與法治相背離的、可接受的技術進步。
結合目前既有研究文獻來看,人工智能算法輔助行政決策的法治化問題尚未成為關注和討論的焦點,失焦表現為兩點。第一,學界多是對人工智能的主體地位和權利問題[7]、人工智能算法的風險問題和規制問題[8]展開討論。這些宏觀探討有助于我們理解人工智能的一般特征及其在其他具體領域中的應用,但尚未步入行政領域。第二,在行政領域,現有研究主要圍繞人工智能參與行政執法[9]、公共治理[10]及其法治風險應對展開[11]。這些研究探討了人工智能有可能造成的歧視問題、公平問題和行政相對人權利保護問題,在此基礎上提出具體應對措施。總體而言,現有研究對人工智能算法輔助行政決策這一更為具體的現象關注較少,僅有的數篇文獻研究焦點主要集中在以下方面:在人工智能對行政決策的作用上,趙友華、蔡振華認為,其有助于決策的智能化[12];張恩典認為,其有助于提升行政規制效能,促進決策公正[13];李進華認為,智能技術保障了多元主體參與,實現了決策全過程管理[14];燕曉婕認為,其有助于提升決策的民主性和科學性[15]。在人工智能算法輔助行政決策的法治風險上,趙友華、蔡振華認為,其容易產生歧視、算法專權問題[16];陳飏、裴亞楠[17]、張恩典[18]認為,其侵害了行政法治原理;燕曉婕認為,其可能導致歧視問題、政府決策能力問題和法律倫理問題[19]。在風險應對上,趙友華、蔡振華認為,應當加強算法治理,明確人工智能的輔助定位,約束資本權力[20];張恩典認為,應當加強行政相對人的權利,加強對算法決策的評估[21];陳飏、裴亞楠認為,應當明確行政機關的主體地位,確定算法解釋責任,完善行政相對人權利救濟[22];燕曉婕認為,應當完善人工智能輔助行政決策體系,制定針對風險的防范措施[23]。
這些研究構成了我們理解人工智能算法輔助行政決策的法治風險與出路的理論背景,但是,在人工智能對行政決策的作用上,現有研究并未按照行政決策體制改革目標加以評價,在人工智能算法輔助行政決策的法治風險上,并未結合行政法治原理進行統一論述,在風險應對上,并未給出體系性應對措施。在此基礎上,本文對于這一主題的探討尤其注意以下幾點。第一,行政決策不是靜態的,而是一個問題設定、收集信息、擬定方案、作出決定的動態行為過程,并且行政決策最終指向行政相對人和利害關系人的權利義務。第二,人工智能算法輔助行政決策是在我國行政決策體制改革這一大背景下產生的,人工智能算法的設計和應用直接關系行政相對人和利害關系人的權益。第三,在探討人工智能輔助行政決策時,應當結合行政決策體制改革目標和行政法治原理,尤其是對行政相對人權利保護予以系統論述。
因而,本文首先指出目前人工智能算法輔助行政決策對于促進現代行政決策體制發展的應用與作用;其次以行政法治原理與行政相對人權利保護為標準,厘清其所引發的對行政法治原理的沖擊風險;再次以行政機關、行政相對人、人工智能算法三者結合的系統視角指出化解風險的出路。
二、人工智能算法何以輔助行政決策
當前,人工智能算法在行政決策中的應用已經逐漸深入。人工智能算法的輔助作用具有時間上的全程性與結果上的優越性。因此,若想探尋人工智能算法輔助行政決策面臨的風險,就應回答人工智能算法是如何應用于行政決策以及人工智能算法是如何輔助行政決策行為的問題。
(一)人工智能算法輔助行政決策的階段與領域
基于現代行政決策的動態性,行政決策中人工智能算法的應用體現在行政決策過程的前、中、后期。
第一,在行政決策前期,人工智能算法收集信息、篩選信息和處理信息。在傳統決策模式下,受制于信息不足或信息過載,往往難以有效獲取和加工信息,造成了諸如廈門PX項目決策的問題。在算法設定之下,智能信息決策系統將決策對象所涉主體視作信息數據的生產者和發布者,輔助公眾參與,不間斷收集海量數據,對這些信息進行匯總分析和分類處理,捕捉特定信息,精準篩選所需數據,留待政府決策取用。
第二,在行政決策中期,人工智能算法提供決策咨詢并評估決策方案。實際決策協商過程受制于成本、程序和多變性問題,而人工智能算法依賴自身的推理能力預測問題,快速響應問題,模擬專家決策,實現精準求解,模擬政策試驗,權衡利益沖突,提供決策咨詢服務,研判不同政策方案預期,靈活調整政策方案,相當于為行政機關提供了智囊團[24]。如在疫情防控的特殊時期,人工智能算法更凸顯其應用于行政決策的獨特優勢。正如習近平所指出:“要鼓勵運用大數據、人工智能、云計算等數字技術,在疫情監測分析、病毒溯源、防控救治、資源調配等方面更好發揮支撐作用。”[25]
第三,在行政決策后期,人工智能算法監督行政決策的執行。人工智能算法在評估決策后果和決策風險上具有天然技術優勢,通過后果預測,人工智能算法建立起了行政決策與決策效果的因果關系[26]。智能設備實時監控決策效果是否偏離原定計劃,實現了決策執行的動態調整[27],依靠評估決策的數字指標,實現對行政決策的“數目字式管理”。此外,人工智能算法在輔助行政決策中的細分領域也應用廣泛,具體而言,包括輔助食品安全決策、輔助環境保護決策、輔助公共安全決策等。借助人工智能算法收集決策信息、評估決策方案、監督決策執行,促進行政決策朝著民主性、公正性和科學性提升的方向進步。可見,行政領域的數字化轉型日益深化,行政決策與人工智能算法在全過程和多領域進行緊密結合,促進行政決策體制改革進步。
(二)人工智能算法輔助行政決策的優越性
1.提升親民性,助力行政決策民主性改革
行政決策體制改革目標之一是民主決策。解決傳統行政決策中公眾難以參與和“一把手”決策問題,民主決策的關鍵是要精準識別民眾需求,提升決策的親民性。人工智能算法在這方面具有優越性。
第一,人工智能算法傳達民眾真實意愿。親民意味著民眾的真實意愿得到真實表達,傳統民主決策形式是聽證會、論證會和座談會等,收集信息困難,樣本數量有限,信息匯總緩慢,親民性質不高,難以將民眾真實意愿傳達至政府。人工智能算法以優化數據收集、傳輸、運用的方式,通過大數據支撐、個性化指標設計、細分的場景應用,可以讓行政決策在民主性的基礎上,體現決策的親民性。
第二,人工智能算法精準識別需求。在海量數據產生的今天,可以在依法合規的基礎上,通過對算法的設計,就某一決策需要抓取特定人群特定種類信息,推導公眾的行為特征和意愿,實現對數據的精準篩選和輔助行政智能決策,從而給政府決策提供更有價值的參考數據,使得行政決策更加符合公眾意愿,提高行政決策的親民性。
第三,人工智能算法自動收集數據。通過設計算法在法律法規授權下進行自動數據收集,也可以為今后的決策建立“數據海”,在實現社會人群“橫向”數據搜索之外,實現時間軸意義上的“縱向”數據搜索,讓決策在時間、空間兩個維度上最大限度地體現親民性,便于決策的落實與公民的接受。
2.提升智識性,助力行政決策科學性改革
行政決策作為行政機關作出行政行為的前端行為,需要民主的程序、科學的方法,必要時需要其他智力支持。
第一,人工智能算法可以深度學習自主推導。在傳統模式下,科學決策要求組織專家進行論證,而人工智能算法輔助行政決策能夠做到用算法模型模擬人類決策過程,通過對收集的信息加以深度學習,不斷提高決策模型的復雜程度。此外,傳統專家論證有時也會受專家的專業背景和利益所限,出現專家意見不協調、不中立和不客觀的問題。人工智能算法不僅通過深度學習模仿專家決策,而且在知識儲備上將超過專家,更為重要的是,人工智能算法因其無利益和專業背景的限制,其得出的結果更加科學統一。
第二,人工智能算法可以評估風險預測行為。行政決策在作出的同時,也需要進行風險評估。如何進行風險評估便是一個事關科學的問題,科學性是風險評估的規范要求[28]。一般而言,評估決策后果和決策風險需要運用科學技術和科學方法進行后果預測,風險評估一般只解決事實問題,風險評估的目的在于建立概率性的因果關系[29]。引入人工智能算法來開展數據分析或行為預測,有助于研判復雜的政策問題,促進評估風險[30]。
第三,人工智能算法有助于幫助審查決策過程、決策結果是否科學。人工智能算法不僅能夠輔助政府決策,提高行政機關作出決策的科學性,還能夠檢驗行政機關的決策科學性,即實時監控行政機關決策的施行是否偏離原定計劃與原定目標,并將民眾的新訴求傳遞給行政機關,以期實現決策執行過程中的動態調整[31]。當這一過程不斷被重復時,便能夠形成一套成熟的行政決策執行監控系統,建立一套評估決策科學性的數字指標,實現對政府的“數目字式管理”,大大提高了行政決策的科學性。
三、人工智能算法輔助行政決策的法治風險
行政決策體制改革的目標之一是依法決策。從廣義來看,人工智能算法輔助行政決策所展現的效能有助于實現依法決策,但行政法治原理要求行政機關在作出行政決策時充分尊重利害關系人的實體權利與程序權利。在此標準的審視下,人工智能輔助行政決策存在法治風險。
(一)算法隱匿與算法偏差危及利害關系人實體權利
算法隱匿是指算法自身自主運作后相對于行政機關和利害關系人具有封閉性和不可解釋性[32]。算法偏差是指算法的運作偏離預定目的。目標設定、數據收集、算法設計一旦存在不合理,其程序運行偏離公正時就很難由技術人員自身從技術角度進行糾正。算法隱匿和算法偏差的結合將對利害關系人的實體權利造成損害。
第一,危及利害關系人的真實權益關切。盡管算法本身抓取數據的能力已經十分強大,但它還是無法把握所有能夠由人把握的因素。換言之,算法無法體驗豐富的世界,其得到的數據無論有多么海量,終究也是有限的。例如,算法難以捕捉人們的社會地位、情感需求、道德上的接受水平、人們的期望和對于自身利益的認知等,而這些無法量化的感性因素也是行政機關進行行政決策時應當考慮的相關因素,也是決定行政相對人評判決策結果公正與否的重要因素。
第二,不利于利害關系人的隱私保護。在數字化的今天,隱私的保護成為公民關注的重大課題,傳統行政決策一般不涉及社會大范圍的公民信息收集、運用,而人工智能算法的優勢就在于海量數據的收集與運用,特別是為各項決策準備的“大數據”,其具有“大”(功能強大)、“數”(數字化存儲便于計量和統計)、“據”(功能性強)[33]的特點,雖然是在法律授權下長時間、大范圍的搜集數據,但一旦出現算法設計以外的人為數據泄露等問題,則公民的隱私權就會難以保護。同時,算法的設計如何規避不必要的數據收集,也依賴技術人員的職業操守與監督程序的建立完善。人工智能算法不同于一般的數字算法,其具有的深度學習、智能決策的屬性,也增加了保護公民隱私的難度,即使技術人員依法合規地設計了算法,在人工智能自主運行后,甚至可能連設計者也不知道算法如何決策[34],公眾更是無從了解算法決策的依據與數據碰撞的具體情況。
第三,危及利害關系人的平等對待訴求。任何行政決策的內容制定與方案實施都不能背離社會公正性的規范要求[35]。公正性要求不歧視、平等、公開。但是,由于當前人工智能算法的設計、建立需要技術人員進行設定,而技術人員設定方面存在的數據選擇、運用偏差,在人工智能算法輔助決策運行中會造成無法逆轉的、持續性的不合理結果,最常見的是由于某些難以察覺的原因而對相同的人造成不同的結果,或者對不同的人造成相同的結果[36]。上述不合理結果的產生即算法歧視,包括但不限于算法性別歧視、算法用工歧視等,甚至在經濟領域,針對用戶個性化的定制也會帶來算法價格歧視[37]。此外,機器學習本身也存在缺陷,技術人員自身的價值判斷會在設計算法中體現,導致算法一定程度上成為機器化的技術人員,行政決策需要的公正中立就難以完全實現。
(二)算法代表與算法至上危及利害關系人程序權利
算法代表是指算法設計的指標和數值成為民眾真實意愿的數字化指征。算法至上是指算法設計目的取代其他目的成為算法運行的必然目的。算法代表和算法至上與民眾真實的程序性參與和真實意愿表達不符,將對利害關系人的程序性權利造成損害。
第一,不符合正當程序原則的具體要求。行政決策需要一套行之有效、合法合規的程序,而作為決策的程序,正當程序原則是其基本的價值遵循。公平、公正、公開則是行政程序正當原則的三個面向[38]。通過設置正當行政程序規范行政權,為行政相對人提供最低限度的程序正義,驅使行政機關在實現行政目的時采取善良手段,從而提高行政決策的可接受度。正當程序原則要求充分保障行政相對人行使陳述、申辯、聽證的權利,關注行政相對人的訴求,對行政行為作出的依據和理由進行解釋說明。但人工智能算法輔助行政決策在一定程度上與上述要求存在抵觸。由于算法行政決策在一定程度上的自主性、瞬時性以及不可解釋性等因素的多重共同作用,正當程序原則所要求的決策公開可能被架空[39],進而,由于程序正當性的缺失,決策的可接受度與信服力也將下降。
第二,不符合利害關系人的真實意愿表達。人工智能算法的基礎在于大數據的收集、應用,而對于何種數據信息才是行政相對人的真實意愿表達,本來是由行政相對人所決定的,但人工智能算法的應用使得其所選取的數據、設計的應用模式成為行政相對人表達意愿的“代表”,該“代表”有無獲得行政相對人授權、何種程度上體現行政相對人真實意愿,則有賴于技術人員在設計算法前收集、了解的情況。由于行政決策所面對的社會情況復雜多變,技術人員設計算法前收集、了解的情況與社會情況總是難以一一對應,設計的深度學習方向也可能存在偏離,導致人工智能算法輔助行政決策中提供的數據支撐并不能充分保障行政相對人的程序權利。
第三,不符合利害關系人的真實程序性參與。人工智能算法輔助行政決策會進行決策模型的建構,計算哪一模型更能取得良好的收益,但在最高效益與最真實的參與之間存在一定的張力。一方面,真正重要的是行政相對人真實的意愿表達,當其把真實意愿反映到行政決策之中時,行政決策便具備了民主基礎,不應再對該決策進行修改,否則便違背了民主原則,漠視行政相對人的真實意愿,行政相對人的知情權、聽證權和監督權可能因此而遭到破壞[40];另一方面,實際作出的行政決策未必總是最好的決策,有時決策的作出需要參考專家意見,需要運用科學技術和科學方法,以提升決策的質量。這便意味著多數人的真實意愿應當受到一定的限制,行政決策不完全是根據真實意愿做出的,其應當在最高效益與最真實的參與之間找到平衡,但是如果偏向了一方便意味著對另一方的侵害,人工智能算法輔助行政決策偏向于最高效益這一向度,同時意味著行政相對人真實參與的分量在行政決策中的降低。
(三)人工智能算法風險的責任分配難題
人工智能算法輔助行政決策的法治風險既表現在對利害關系人實體權利與程序權利的可能侵害上,也表現為當出現算法決策錯誤時,行政責任承擔主體配置不明的問題。行政責任的存在是確保政府“負責任”治理的最終保障[41]。然而,與傳統行政決策體制機制不同,人工智能算法輔助決策過程,涉及行政組織主體、算法運營主體、算法系統本身以及利害關系人的多方互動。算法決策錯誤的行政責任無法像傳統行政責任一樣,原則上概由行政組織體承擔,這是因為算法隱匿、算法偏差等問題的存在,并不來源于行政主體的過錯與失職。此外,交由算法運營主體承擔行政責任也不妥,因為它們不具有行政主體的資格能力。再者,算法系統本身是沒有責任意識與責任能力的,因此人類之間的責任關系也不應當被轉移到機器與人類[42]。同時,算法行政決策中還可能出現第三方開發者介入的情況,開發者在算法實際運作過程中扮演著相當程度的行政管理者角色,但如果由此而課予其行政責任,又將面臨混淆行政行為與市場行為的困境[43]。
四、人工智能算法輔助行政決策法治風險的化解路徑
為了應對人工智能輔助行政決策可能造成的法治風險,必須結合行政法治原理,以保護行政相對人和利害關系人的合法權益為底線,約束人工智能算法在行政決策中的應用。為此,有必要圍繞人工智能算法問題,從人工智能算法自身、行政機關、利害關系人三個方向尋找法治出路,強調完善人工智能算法的合法化設計、加強行政機關對人工智能算法的合法性審查、保障利害關系人對人工智能算法的合法權利主張,從而契合行政法治原理的要求。
(一)完善人工智能算法的合法化設計
第一,明確設計人工智能算法的合法性要求。人工智能算法的合法性要求與利害關系人的權利在法律中的宣示是一體兩面的。就實體權利保護而言,主要涉及個人信息保護和隱私泄露問題,但當前對于公民隱私權的保護仍處于發展階段,完善的法律法規尚未形成。因此,當人工智能算法輔助行政決策時,為了避免泄露公民隱私引發行政爭議,應當主動在設計算法階段進行合法審核。在法律法規不完善情況下,對公民隱私權保護設定除了參照憲法、民法典等法律法規,還應當在符合法律原則的基礎上設計算法。可以通過參照行政合理性原則、比例原則等最低限度獲取必要公民信息,完成決策所需要的大數據支撐。必要時,行政決策者可以通過競爭選擇算法,可以通過構建大數據基礎上的算法推薦系統[44],讓決策者在合法性考量基礎上進行選擇。
第二,增強人工智能算法的合法性設計與運作。人工智能算法輔助行政決策在算法設計之初,應當鼓勵、支持公眾參與設計討論,通過聽取公眾意見,完善信息采集范圍、使用方式、后期深度學習智能運行的控制模式。在輔助行政決策的過程中,也應堅持行政法上的合理性原則,說明決策理由、聽取公眾意見,從而實現行政機關自我約束,以后行政機關在處理類似事務時就承擔一旦偏離“一致性”原則就負有更沉重說理負擔的義務[45]。當人工智能算法輔助行政決策產生了對行政相對人不利的影響時,如過度收集相對人隱私信息等,必須要求行政機關對此說明理由。
第三,注重人工智能算法基于情境的識別技術的開發與運用。人工智能算法運算看似中立,卻可能潛藏著不平等對待,造成算法下的歧視風險。背后的原因是,在行政決策過程中,算法系統將某些不相關因素不恰當地納入考慮,使這些因素推導出差異化的決策結果。無論是在行政決策還是在司法裁判或者其他價值判斷領域,同等情況同等對待、不同情況區別對待的平等原則,都標示著決策的合理性與正當性。關鍵在于,判斷者應當熟悉掌握區別同等情況與不同情況的技藝。參考司法裁判中“同案同判”的理論探討和實踐經驗,可以總結出可能影響情境異同比較的標準。首先,分享同一條法律規范的構成要件的,構成相同情境[46];其次,關鍵性事實的相同,是獲得相同處理的必要前提;再次,如果存在與待決策的情境相同的已決情境,那么后者的存在可能構成前者應當獲得相同處理的理由[47]。換言之,在已決情境中影響決策作出的因素,如果沒有更強理由,在待決情境的決策中也應當獲得相同的評價。當人工智能算法可以正確地學習哪些情境是相同的、相似的或者不同的,就可以對相同情境作相同處理,對相似情境作類比推理,對不同情境作差異化決策,從而避免算法歧視和算法偏差的出現。
(二)加強人工智能算法的合法性、倫理性和合規性審查
第一,加強行政機關對人工智能算法合法性的規制。對于人工智能算法一系列問題的規制需要秉持審慎的規制原則,在效率與公平之間把握平衡。可以通過對產生算法歧視的原因進行分析和分類,針對性地解決不同類型的算法歧視問題。針對算法隱匿問題,要求算法設計者在不違背商業秘密的前提下作出解釋;針對算法代表和算法至上的問題,要求人工智能算法指標設置充分合理;針對算法偏差問題,要求人工智能算法完善自我審查與自我糾錯機制。
第二,加強行政機關對人工智能算法行業的倫理性審查。針對技術人員自身的價值判斷不一的問題,可以建立算法研發行業準入和監管制度。進行算法研發的人員須通過一定的倫理測試方可進入該職業,旨在最大化消解算法研發人員的道德傾向對于算法中立性的侵害。在進行倫理測試時,尤其要注意算法研發人員對于少數群體的倫理態度。建立算法研發行業監管制度,要不斷強化對算法研發的審查工作,要求算法本身必須符合一定的倫理標準方可投入使用。
第三,加強行政機關對人工智能算法收集運用數據的合規性審查。一方面,要求人工智能算法設計者通過技術手段,篩選和“過濾”歧視性信息,或通過算法設計之初,在反歧視領域實現規范整合[48],對歧視因素設置不同權重,采用算法監測的技術,分級分類進行信息收集、運用規制,避免社會交往空間中的偏見、某些群體的弱勢地位以及權利不平等等信息代入行政決策信息系統[49];另一方面,要求盡可能擴大輔助決策的數據集成范圍,更加注重代際公平,減少“數字鴻溝”,采取一定的糾偏手段來應對數據收集中的問題,避免對“少數數據”和弱勢群體的忽視。
第四,探索與建立人工智能算法輔助行政決策的偏離機制。已如前述,算法代表與算法至上是人工智能輔助行政決策過程中可能出現的法治風險。這兩類風險都基于“唯算法論”,即不加反思地信任與運用人工智能算法提供的決策方案。因此,風險的化解尤其需要警惕“唯算法論”。決策人員在得益于算法帶來的巨大便捷的同時,仍然應當審查人工智能運算所依據的前提是否合理、可靠,反思是否存在算法未予考慮的其他因素。除此以外,建立算法可偏離的機制是必要的。當工作人員經過審慎研究,主張人工智能算法提供的決策方案有違法理人情時,即應當啟動機制,重新(通過另一套人工智能算法系統或者通過傳統決策程序)敲定決策內容。人工智能算法輔助行政決策的可偏離機制,是既能確保算法決策的巨大優勢,又能避免算法減損行政機關決策的自主化與理性化的體制機制。
(三)完善算法公開制度,保障利害關系人的合法化主張
第一,明確利害關系人對人工智能算法的知情權。人工智能算法輔助行政決策讓公民難以如同過去那樣通過政策民意懇談會、聽證會等傳統路徑參與決策過程,又鑒于算法依賴于數據的收集,公民產生對自身權利保護的自然需求,因而可能對行政決策需要收集公民信息的行為產生心理抵制。針對現實的需要,提升算法透明度,讓公民理解決策需要的數據限度,增進政府與公民之間的互信,是完善人工智能算法的題中應有之義。
第二,依法公開算法內容。人工智能算法收集與處理的數據顯然構成2019年修訂的《中華人民共和國政府信息公開條例》第二條規定的政府信息內容,因此也應當堅持以公開為常態、不公開為例外的原則。尤其值得注意的是,通過人工智能算法獲取的數據材料,不應當簡單被當作過程性信息而免于公開。雖然算法決策建議作為過程性信息可能與最終的行政決策存在偏差,但是算法運算的結果并不體現出典型過程性信息所擁有的主體間磋商的特征。此外,如果人工智能算法具有公眾性,那么決策機關還應當依法主動予以公開;反之,則需要依當事人的申請而公開。當然,并非算法的所有內容以及通過算法獲取的所有數據都需要被完整地公開。公開過程要考慮不同主體間法益沖突的可能性,并盡可能小地減損次要法益[50]。例如,技術性算法是可公開的,涉及商業秘密、個人隱私的數據則原則上不予公開。
第三,建立保障利害關系人知情權的算法公開與解釋制度。為提升算法透明度,應當在算法公開與知識產權保護之間進行權衡,建立完善算法公開制度,公開算法流程、數據收集與運用的原理和實際應用記錄。技術人員應當鼓勵社會公眾、社會組織等各方參與,應當在設計及應用人工智能算法輔助行政決策之前對算法如何決策向公眾作出解釋,包括該算法的技術原理、該算法獲取和加工數據的方式以及該算法的技術局限等,行政機關也應當為輔助決策進行必要的行政公開。此外,還須對人工智能算法運行過程予以完整記錄,方便之后的溯源管理。機器學習的記錄也必須完整地保存并適時公開。這些數據記錄乃是解釋算法何以如此決策的重要證據。通過上述的努力,可以加深公眾對算法的了解,進而提升公眾對算法的接受度。
(四)健全人工智能算法輔助行政決策的行政責任承擔制度
一方面,傳統行政責任配置方式是算法決策行政責任制度的基礎與底色。建立健全人工智能算法輔助行政決策的責任制度,并不是拋棄傳統的行政責任機制而另起爐灶。在傳統責任機制中,當出現了行政決策錯誤而需要承擔責任時,首先依據行政法律法規向行政主體施加責任,再由行政主體在內部向致使錯誤發生的公務人員個體課以責任。在算法決策錯誤中,原則上同樣應當由行政主體承擔責任。這不僅因為它是決策過程中唯一出場的行政主體,而且因為行政決策最終是以它的名義作出的,是它的行政權力行使的結果,對外代表的是它的決斷。行政主體對決策結果擁有相當大程度的控制能力,應當意識到算法至上和算法代表的陷阱,進而決定是否有必要補充算法提供的數據、偏離算法的決策方案。當其他參與主體不存在過錯之時,由行政主體來賠償或補償利害關系人,是較為公平合理的做法。除此以外,如果內部的公務人員存在失職,也應該按照傳統的責任分配機制來承擔相應責任。
另一方面,原則上不應由人工智能算法的第三方開發者承擔行政責任。但是人工智能算法作為第三方開發者的產品,如果存在缺陷或瑕疵,那么行政機關仍然可以依據委托開發的合同、行政合同法以及民事法律法規,來主張開發者的違約責任并要求相應的救濟。為了保證追責的有效性,責任承擔內容可以包括經濟賠償、合同單方解除權利、納入政府采購黑名單等[51]。如果開發者基于合同而將應當承擔的責任全部履行,那么行政機關由此獲得的經濟賠償可以作為向利害關系人予以賠償或補償的經濟來源。
五、結語
依法行政是實現國家治理體系和治理能力現代化的題中應有之義,面對人工智能算法日益嵌入社會治理的現狀,回避與放任其參與行政決策之事實都是不可取的態度。我們應當檢視現狀,科學分析利弊,在此基礎上作出回應,將人工智能算法輔助行政決策納入科學化、法治化軌道。與大多數技術進步一樣,目前正在探索的人工智能算法輔助行政決策,機會與風險同行。一方面,假如我們審視“輔助”這個概念,擺正人工智能算法的“輔助”地位,就會發現,政府運用數據庫檢索、整理和分析材料,早已經不是什么新鮮事。換言之,通過科學和技術的發展,我們提升了行政決策的能力和效率,這是我國行政事業發展的長期規律,人工智能算法的參與只是在這個基礎上更上了一層樓。另一方面,我們也不應當過度依賴人工智能算法,或者說完全輕信算法運算結果,否則,人工智能算法就不是輔助而是替代行政機關的決策全過程。
人工智能算法輔助行政決策有助于決策結果的針對性、親民性,也為決策提供了智力支持,但由于其自身的算法問題,對利害關系人的實體權利和程序權利可能帶來損害,對強調公平、公正、公開的行政法治原理論造成沖擊。針對上述風險,可能的出路在于對算法設計、運用上進行合法規制,通過合法性審查、倫理審查、技術手段避免算法歧視,提升算法自身透明度。當然,上述完善路徑是現階段的學術探索,如何協調人工智能算法與公共行政決策、理順“法律之治”與“算法之治”的相互關系,仍是值得進一步探討的課題,還有待學界與實務界的共同努力。
[參考文獻]
[1][2][14][35]李進華.基于“大數據+區塊鏈”技術應用的重大行政決策模式變革研究[J].大連干部學刊,2021(8):53-59.
[3][17][22]陳飏,裴亞楠.論自動化行政中算法決策應用風險及其防范路徑[J].西南民族大學學報,2021(1):74-81.
[4][5][15][19][23]燕曉婕.人工智能時代行政決策的法治化進路[J].哈爾濱師范大學社會科學學報,2020(1):37-40.
[6]雷磊.法教義學與法治:法教義學的治理意義[J].法學研究,2018(5):58-75.
[7]張玉潔.論人工智能時代的機器人權利及其風險規制[J].東方法學,2017(6):56-66.
[8]馬長山.人工智能的社會風險及其法律規制[J].法律科學,2018(5):47-55.
[9]李飛達.人工智能在公安行政執法中的應用、風險及其規制[J].北京警察學院學報,2022(1):21-28.
[10]秦小建,周瑞文.人工智能嵌入政府治理的探索及啟示[J].國外社會科學,2022(2):30-45.
[11]徐輝.人工智能在社會治理協同中的應用、問題與對策[J].科學管理研究,2021(5):32-40.
[12][16][20][27][31][32][49]趙友華,蔡振華.人工智能時代行政決策體制優化的技術范式與風險因應[J].理論月刊,2020(2):60-68.
[13][18][21][26]張恩典.人工智能算法決策對行政法治的挑戰及制度因應[J].行政法學研究,2020(4):34-45.
[24]林敏,陳潔宏.海關行政執法自由裁量權人工智能輔助決策初探[J].中國口岸科學技術,2020(1):63-65.
[25]習近平主持召開中央全面深化改革委員會第十二次會議強調:完善重大疫情防控體制機制 健全國家公共衛生應急管理體系[EB/OL].http://www.gov.cn/xinwen/2020-02/14/content_5478896.htm.
[28][29]趙鵬.風險社會的行政法回應:以健康、環境風險規制為中心[M].北京:中國政法大學出版社,2018:173、173.
[30][34]宋華琳,孟李冕.人工智能在行政治理中的作用及其法律控制[J].湖南科技大學學報(社會科學版),2018(6):82-90.
[33]顧理平.大數據時代公民隱私數據的收集與處置[J].中州學刊,2017(9):161-167.
[36]劉友華.算法偏見及其規制路徑研究[J].法學雜志,2019(6):55-66.
[37]許身健,郜慶.反壟斷視閾下的算法價格歧視問題[J].中國法律評論,2022(3):105-116.
[38]章劍生.現代行政法基本理論:上卷[M].北京:法律出版社,2014:106-108.
[39]陳亮,薛茜.行政公開視域下行政決策算法化的法律規制[J].理論月刊,2021(3):119-129.
[40]程關松,苗運衛.相對人參與算法行政的困境與出路[J].東南法學,2021(2):43-57.
[41][43][50][51]王懷勇,鄧若翰.算法行政:現實挑戰與法律應對[J].行政法學研究,2022(4):104-118.
[42]Luís Greco.沒有法官責任的法官權力:為什么不許有機器人法官[J].鐘宏彬,譯.月旦法學雜志,2021(8):170-195.
[44]王天恩.人工智能算法發展的人類演化效應[J].華東師范大學學報(哲學社會科學版),2022(3):21-30.
[45]章劍生.面向司法審查的行政行為說明理由:郴州飯壟堆礦業有限公司與國土資源部等國土資源行政復議決定再審案評析[J].交大法學,2020(2):184-192.
[46]雷磊.如何理解“同案同判”?——誤解及其澄清[J].政法論叢,2020(5):28-38.
[47]朱振.從依據到理由:邁向一種實質性的同案同判觀[J].浙江社會科學,2022(4):36-44.
[48]張欣,宋雨鑫.人工智能時代算法性別歧視的類型界分與公平治理[J].婦女研究論叢,2022(3):5-19.
[責任編輯:向長艷]