摘 要:《中華人民共和國個人信息保護法》第二十四條第三款將對個人信息的利益保護轉變為對算法決策的行為規制,并賦予個人拒絕算法決策的權利。基于該法的公法屬性及其在行政領域的適用性,相對人享有在自動化行政中的算法決策拒絕權。面對算法決策方式對行政法治的技術挑戰,拒絕權能夠豐富相對人在自動化行政中的權利體系,發揮對抗算法決策異化的功能。算法決策拒絕權具有保障相對人參與自動化行政過程,并在設置與改造的程序裝置中予以實現的程序屬性,以及在權利地位上能夠請求利益實現與法律保護,在權利內涵上能夠主動選擇的積極屬性。相對人算法決策拒絕權的實現,需要結合該權利的程序屬性和積極屬性,構造在自動化行政不同環節的具有即時性特征的行使規則,包括算法決策方式選擇規則、算法決策過程脫離規則和算法決策結果抵抗規則。
關鍵詞:自動化行政;算法決策;算法決策拒絕權;個人信息保護
中圖分類號:D922.1文獻標志碼:A文章編號:1009-055X(2024)02-0088-11
doi:10.19366/j.cnki.1009-055X.2024.02.009
進入信息化時代以來,以移動互聯網、大數據、人工智能、云計算等為驅動的數字技術變革,深刻地影響著優化管理和服務的公共行政改革進程,體現在行政活動開展方式的變化之上,即促成了自動化行政方式的誕生[1]。在發展階段和具體類型上,自動化行政包括通過算法進行決策的完全自動化行政[2],此時,技術應用從行政程序環節擴展到實體決定層面,形成算法獨立分析與決斷的行政方式。算法決策給行政系統帶來高效的技術優勢,也引發行政相對人對算法存在黑箱與歧視等弊病的擔憂。為相對人配置算法決策拒絕權的賦權路徑,成為應對自動化行政中算法決策弊端的可行方案之一。《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)第二十四條第三款規定了個人面對算法決策時的拒絕權①。但從個人信息保護領域到自動化行政領域,相對人的算法決策拒絕權需要進行規范證成和功能分析,并放置在行政場景下研究拒絕權的權利屬性與行使規則,以期使之成為規范算法決策方式和保障相對人合法權益的有效舉措。
一、算法決策拒絕權的規范依據
算法決策的概念在與自然人決策的對比中產生,其是指利用算法技術進行自動分析而得出決策結果的決策方式。通過對《個人信息保護法》公法屬性的規范解讀,并關注其中從個人信息利益保護到算法決策行為規制的思路轉變,結合自動化行政中算法決策方式的運行特征,可以將《個人信息保護法》作為行政領域中算法決策拒絕權的規范依據,使之完成從新型權利到法定權利的證成。
(一)個人信息保護中的算法決策拒絕權
相較于依賴有限經驗與理性進行利益權衡的自然人決策,算法決策在決策主體方面表現為由技術主導而非人工決定,在決策基礎方面則建立在數字時代和網絡環境中的相關個人信息之上。算法決策以高效算法為技術依托,以高速運轉為技術樣態,能夠應對數據海量化和用戶個性化的信息社會的決策需求,因此逐漸被用于社會生活的各個領域,也成為行政決策的重要方式。
算法決策不僅擁有橫跨公私法領域的技術優勢,也不斷塑造著數字化與算法化的個人生存環境,繼而產生一系列的法律風險:一是在利益誘導下,算法決策的應用主體缺乏全面考慮而單方決定將應用范圍無序擴張,甚至未經個人同意而處理敏感個人信息;二是存在于算法決策中的技術黑箱不具備透明性和可解釋性,致使個人在決策過程面臨知情難的問題;三是算法的設計偏見和技術缺陷,經過算法決策過程將放大為侵害個人權益的歧視或錯誤決策結果。
隨著我國數字經濟的快速崛起,體現保護個人信息之時代需求和民眾訴求的《個人信息保護法》于2021年8月20日正式出臺,成為我國個人信息保護領域具有綜合性與專門性特征的法律基石。《個人信息保護法》第二十四條采取算法透明化要求和個體賦權的方式對算法決策進行規范,成為該法的一大亮點[3]。其中,該法第二十四條第三款賦予個人在其權益受到重大影響時對算法決策的請求說明權和拒絕權。該條款并未拘束于對個人信息的利益保護,而是轉變為對算法決策的行為規制,即只要采用的算法決策方式對個人權益產生重大影響,個人就有權予以拒絕。
歐盟《通用數據保護條例》也對算法決策方式進行了規范,其中第二十二條第一款規定,數據主體有權拒絕完全依靠自動化處理方式對其作出的具有法律影響或其他嚴重影響的決策。為解釋該條款,第29條數據保護工作組(WP29)制定的《為實施第2016/679號條例的自動化決策和分析指南》中明確,拒絕權并非僅在數據主體積極援引時才能適用,而是對完全自動化決策的普遍禁止。因此,歐盟采取“嚴格禁令”方式對待算法決策,形成了以“禁止為常態,應用為例外”的基本態度。相較而言,結合我國算法決策的應用實踐和《個人信息保護法》的規范文本,我國對于算法決策的規制不應解釋為“嚴格禁令”方式,而傾向于一種“主動權利”方式,即當滿足算法透明和公正要求時,個人信息處理者可以采取算法決策方式,而算法決策拒絕權由個體主動行使,以此來平衡算法決策的應用和個人權益的保護。
(二)自動化行政中的算法決策拒絕權
屬于領域立法的《個人信息保護法》采取兼容公法保護和私法保護進路的統一立法保護模式[4],這使得該法成為公私法交融、超越單一部門法的個人信息保護立法。《個人信息保護法》對國家機關處理個人信息的規定能夠體現該法的公法屬性。具體而言,該法要求國家尊重個人信息主體,通過規范國家機關對個人信息的處理行為,使之符合法律規定的權限與程序,以防范侵害個人信息權益的公權行為[5]。據此,《個人信息保護法》中規制算法決策的內容理應適用于行政領域,其賦予個人對算法決策的拒絕權也具有公法上的權利形態。由此出發,自動化行政中相對人享有的算法決策拒絕權能夠以《個人信息保護法》為規范依據。
討論自動化行政中相對人的算法決策拒絕權,一個必要前提是認識自動化行政的算法決策方式。在行政領域分析算法決策的運行特征,需要建立在完全自動化行政的發展階段和類型基礎之上。自動化行政作為開展行政活動的新型方式,其產生與發展和數字技術引入公共行政的歷史進程緊密相關,根據技術變革與應用程度的差異可以劃分為部分自動化行政和完全自動化行政[2]。在完全自動化行政中,技術系統不再局限于發揮程序性或輔助性的功能,而是涉足行政活動的實體決定層面,取代人成為決策的主導者,從而使行政活動的實體決策過程呈現自動化特征。通過算法決策方式開展行政活動,需要以個人信息作為資源要素和以算法技術作為行為要素:一方面,通過對由個人信息構成的數據化基礎的分析,行政機關實現治理對象的可計算性和行政活動的可預測性要求;另一方面,隨著人工智能算法的產生與應用,算法決策所依賴的算法并非人工編寫而是系統生成,決策結果也是由人工智能算法根據輸入數據而自主作出,真正在功能上形成脫離人的參與或控制的自動化決策[6]57。
因此,在自動化行政中,行政主體依賴個人信息與算法技術開展行政活動,自動化行政行為與個人信息處理行為高度契合,但屬于權力的擴張本質讓個人信息面臨來自行政機關處理行為的安全威脅,作為個人信息處理者的行政主體“本身也需要被納入監管”[7]。此外,算法決策方式的引入,不僅會削弱正當程序制度防范與矯正傳統決策失當的功能,還將引發技術權力異化侵犯個人權益的新風險。此時,面臨減損威脅的不僅是個人信息權益,還包括個人信息載體之外的其他人身權益與財產權益。《個人信息保護法》第二十四條第三款將對個人信息的利益保護轉變為對算法決策的行為規制,并將規制算法決策的目的由保護個人信息權益擴展到個人權益,符合在自動化行政中應用算法決策時保護相對人合法權益的需求。
當然,拒絕權并不等于拒絕數字化[8],賦予相對人算法決策拒絕權也絕非以“退回到一個前數字時代的方式”[9]來抵制數字政府建設的發展趨勢。算法決策拒絕權與數字政府建設的平衡策略在于:第一,《個人信息保護法》以“主動權利”而非“嚴格禁令”方式規制算法決策,即自動化行政中的算法決策并非為立法所完全禁止,而是相對人能夠主動拒絕的權利對象。因此,賦予相對人以算法決策拒絕權,具有行政系統引入數字技術應當契合相對人利益訴求的意蘊,符合數字政府建設應當“堅持以人民為中心”的基本原則【參見《國務院關于加強數字政府建設的指導意見》(國發〔2022〕14號)。】。第二,算法決策是脫離人的控制與參與的決策方式,這意味著算法決策拒絕權并非針對所有的自動化行政活動,其權利行使場景被限定為完全自動化行政。第三,鑒于自動化行政所承載的公共利益需要,相對人算法決策拒絕權的享有與行使應當具有一定的條件限制,需要在特定情形下認同行政機關對算法決策的選擇與安排,包括在已具備技術普及條件與社會認同基礎時僅提供自動化行政方式,如通過電子技術監控設備進行的非現場執法,以及在特殊場景中適用自動化行政方式,如突發公共衛生事件中“健康碼”的應用等。
二、自動化行政中算法決策拒絕權的功能
自動化行政方式的興起,關鍵在于其具有效率與公正價值。然而,自動化行政在將技術優勢引入行政系統的同時,算法決策也給行政法治帶來了實體公正和程序正當方面的技術挑戰。對此,賦權是應對算法風險的有效方式,算法決策拒絕權的功能在與其他權利的對比中得到彰顯。
(一)算法決策對行政法治的技術挑戰
人類決策不全是理性的過程,常因夾雜情感因素而在認知和處理上出現偏見。算法“技術中立”的研發初衷,使其能夠排除行政過程中人為偏見而促進行政結果的公正[10]。但技術中立的命題僅能起到在法律場景下呼吁關注技術專業性的作用,其本身并不具有價值中立的內涵[11]。在行政活動中發揮決策功能的算法從設計到應用都存在價值判斷,因此需要揭開技術中立的偽命題,關注其帶來的挑戰人的平等、固化社會不公和減損人的價值等歧視性后果[12]。
自動化行政中存在不同的算法歧視類型。其一,在“輸入垃圾,輸出垃圾(garbage in, garbage out)”的計算機程序運行規則中,當算法決策所依賴的數據存在偏見性內容或不相關因素,經由算法分析得出的結果也將呈現歧視性內容。實際上,這是算法技術對社會現實中歧視的復現[13],即自動化系統僅是發揮著對歧視的傳輸功能。其二,人工智能算法的自主性是經過海量數據訓練后的結果,因此,當算法將社會歧視內化為自身的偏見規則,即便輸入正常數據也可能得到歧視性結果。此時,算法對數據進行關聯、歸納與推導,形成帶有歧視的決策結果。算法本身就是歧視的來源。其三,算法作為人為技術產物,在設計之初便不可避免地包含設計主體的主觀認知和價值理念。當前自動化行政的技術架構主要通過合作行政方式完成,其中,技術設計內容由行政委托或行政協議確定的技術公司完成。這意味著自動化行政中的算法決策模型,在產生伊始就可能被注入來自技術公司的脫離行政機關控制的偏見內容,進而引發對相對人的歧視性結果。
除了算法歧視對行政公正的挑戰,算法決策更為嚴重的技術問題在于算法黑箱與正當程序之間的沖突。從傳統官僚制行政邁進現代民主制行政的進程中,行政機關和相對人之間形成了一種互動的行政法律關系,互動性體現為對行政過程開放性和相對人參與性的正當程序要求[14]。算法中夾雜的偏見性內容理應放置在開放與反思的正當程序中進行即時修正。然而,自動化行政通過技術邏輯營造封閉式的行政系統,排斥相對人參與行政活動。由于算法專業性的技術因素、算法秘密保護的設計因素或算法理解能力的應用因素,算法主導的行政決策環節處于缺乏透明與開放的技術“黑箱”之中,這與行政法治的正當程序原則相悖。
相對人知悉行政活動開展的依據和程序是其參與行政的必要前提,行政機關需要通過履行行政公開和行政告知義務來滿足相對人的知情需求。但算法決策的算法技術原理和算法運行過程并不對相對人實質性公開,決策環節前后關聯的秘密信息收集和行政結果通知,由于依賴技術程序進行,同樣可能致使相對人陷入知情困境。一旦獲悉行政活動的相關信息,相對人就可以通過行政程序裝置表達意見,與行政機關溝通互動,以表示其主體地位和確保所交涉內容的合理性。但在自動化行政的封閉技術程序中,相對人的陳述意見難以轉化為技術語言并影響決策結果[15]。算法決策方式對數據資源的依賴性,讓行政機關選擇忽視相對人的意見表達及其對行政行為的補充與糾錯功能。而行政機關對算法決策中技術要素應盡的說明理由義務,則表現出因行政機關缺乏算法技術知識而說理不能或說理不清,以及以技術標準或合格證明進行機械答復而難以令人信服的局限[16]。
(二)算法決策拒絕權功能的對比分析
面對算法決策方式給行政法治帶來的技術挑戰,通過為相對人配置新型算法權利以對抗算法決策異化風險的賦權進路,較之行政系統內部對算法決策進行行政自治,被視為更加長效的矯正方案[17]。規制算法決策的賦權進路需要從尊重相對人的主體地位出發,傳統官僚制行政將相對人完全視作管理對象,忽視其作為行政法律關系一方的平等主體地位。邁向現代化行政的改造方案,內容包含配置并保障相對人程序性權利,確保相對人在行政活動中的參與性,以此平衡行政機關的行政優先權。而在數字化時代,算法技術不斷對人進行分類、分析與評估,通過這一存在偏見與缺乏透明的過程將人馴化為可計算、可預測、可控制的客體,從而使相對人的主體地位面臨新的技術難題[12]。反映到行政領域中,算法主導的決策模式,改變了傳統行政權力與相對人權利的平衡格局,造成相對人運用傳統行政權力應對算法決策的不足。因此,為避免人的主體性與平等性被算法技術侵蝕,在相對人所享有的傳統行政權力基礎上,確認其有關數據與算法的新型技術權利,成為對抗算法權力附加的行政權力的基本要求。
從個人信息保護領域到自動化行政領域,將規制算法決策的賦權進路展開,可以將相對人應對算法決策方式的權利體系予以類型化,包括針對個人信息處理行為的各項新型權利、針對算法決策的要求說明權以及本文所論證的算法決策拒絕權。這些權利皆在規制算法決策方式中發揮重要作用,但相較于前兩類權利而言,相對人享有的算法決策拒絕權具有獨特功能。
《個人信息保護法》第四章規定了個人在個人信息處理活動中享有的一系列權利,其中與相對人的算法決策拒絕權密切相關,甚至被認為存在功能混同可能性的權利,包括對個人信息處理的限制權、更正權和刪除權。上述各項權利建立在個人對其個人信息的自決與控制基礎之上,但應用到自動化行政中以應對算法決策方式時,出現了適應性和功能性問題。首先,《個人信息保護法》第四十四條規定了個人信息權利行使的“法律、行政法規另有規定的除外”的例外條款【 《個人信息保護法》第四十四條:個人對其個人信息的處理享有知情權、決定權,有權限制或者拒絕他人對其個人信息進行處理;法律、行政法規另有規定的除外。】,而行政領域的個人信息收集,往往由于履行行政職責的必要,被規定為無須相對人的授權同意,甚至在某些場景中,提供個人信息被視作相對人的義務[18]。因此,由于適用例外條款,相對人無法行使針對行政機關個人信息處理行為的限制權。其次,在發現行政機關掌握的個人信息不準確或不完整時,相對人可以行使更正權,這既未突破行政機關實現行政目的的基本職責,也有助于相對人得到公正的行政結果。但更正權的權利對象僅是決策環節之前的個人信息,雖然此舉可以對基于個人信息的算法歧視予以糾偏,但無法針對性地糾正更具危害性的算法決策中的錯誤算法邏輯[19]。最后,當認為行政機關處理無關個人信息時,相對人行使刪除權具有正當性,但若想通過刪除個人信息達到拒絕算法決策方式的目的[20],則面臨可刪除的個人信息范圍有限的弊端,也無法改變其像更正權一樣并未直接針對算法決策方式的功能不足。
《個人信息保護法》第二十四條第三款規定了個人要求個人信息處理者對算法決策予以說明的權利,通過類比自動化行政中算法決策拒絕權的證成方式,相對人亦享有對算法決策的要求說明權。面對算法決策中存在的技術黑箱及其在行政活動中的衍生風險,算法的公開透明和可解釋性成為打開算法黑箱、促進程序正義和追究相應主體責任的必然要求[21]。賦予相對人對算法決策的要求說明權,有利于其主動參與自動化行政活動,縮小自動化行政過程中的信息不對稱差距。但相對人行使要求說明權的效果因算法技術的解釋性難題而飽受質疑[22],具體表現在:一是解釋后的算法內容可能并未脫離專業技術范疇,仍在技術黑箱的范圍內兜轉,無法為相對人所實質理解;二是人工智能算法的運行是一種“概率統計”邏輯[23],即便通過在自然語言下對算法功能進行解釋,其所揭示的僅是導入數據和決策結果之間的相關關系,難以滿足揭示技術行為和決策結果之間因果關系的說理性要求;三是由于相對人對算法技術應用于行政活動的天然不信任,無論對算法決策進行何種解釋以及達到怎樣效果,都難以在影響個人權益時拭去相對人的主觀質疑。
自動化行政中算法決策拒絕權的功能特征在與上述權利的對比中得以彰顯。相較于針對個人信息處理行為的限制權、更正權和刪除權,算法決策拒絕權的權利對象直接為算法決策方式,這意味著該權利的行使場景并不局限于自動化行政的信息收集環節,而是基于保護個人權益的目的關注整個算法決策過程。相較于針對算法決策的要求說明權,由于要求對算法決策予以說明并非拒絕算法決策的必要前提,相對人可以直接行使算法決策拒絕權,規避算法解釋的技術可行性和設置必要性爭議,從而將其意志控制范圍擴展到影響算法決策方式能否應用,進而對算法決策方式和結果起到決定性作用。當然,針對個人信息處理行為的各項新型權利以及對算法決策的要求說明權都有其特定的權利功能和行使場景,將算法決策拒絕權與二者進行比較的目的,并非否定二者的作用,而是意在描述算法決策拒絕權的功能,從而豐富相對人在自動化行政中應對算法決策方式的權利體系。
三、自動化行政中算法決策拒絕權的屬性
在面對算法決策的異化風險時,通過個人信息權益保護到算法決策行為規制的模式轉變,并采取“行為規制權利化”[24]的技術路徑,在個人信息權益擴大到個人權益的保護基礎上,《個人信息保護法》賦予個人以算法決策拒絕權,并與要求說明權等組成個人應對算法決策的權利體系。在個人信息保護領域,這些權利確保個人能夠參與到個人信息處理活動中[25]。而當算法拒絕權被引入行政領域時,其既表現出相對人能夠參與自動化行政活動的程序屬性,也表現出相對人能夠主動選擇決策方式的積極屬性。
(一)算法決策拒絕權的程序屬性
為了確保相對人請求的實質化和實效性,需要通過行政法律規范構建規范行政主體活動的客觀行政秩序,其中就包括具有約束功能的行政程序。在傳統行政法治中,相對人的參與性與互動性要求,通過包含行政公開、陳述意見、說明理由等具體內容的法定程序裝置實現。而從動態意義上來看,法律程序是當事人特定程序權利義務的實現過程,因而從中產生相對人的知情權、陳述權、申辯權和聽證權等程序性權利[26]。
隨著數字技術對行政系統的改造,約束行政行為和保障相對人權益的傳統行政程序出現適用性障礙,給相對人通過程序裝置行使程序性權利造成困境[27]。為了平衡技術要素導致的行政權力和相對人權利的失衡狀態,自動化行政中的技術程序愈發受到關注,被視作克服傳統行政程序對算法決策規制不足的突破口。其中,圍繞技術程序的規制路徑為:通過對算法技術程序的功能優化,提高自動化行政的公開性與透明性,使之達到技術程序正當化標準[28]。在技術程序正當化的基礎上,將行政規范中的法定程序要求內化為對算法決策的技術規范要求,并通過行政規范的認定使技術規范得以法律化,運用法律規則來增強技術規范的合法性與強制力[29]。
行政決策的自動化,源于提升行政效率和服務的算法應用價值,以及在人工智能環境下的算法技術變革,而自動化行政方式擴展到某一具體行政場景的動機,更多的是出于行政機關在大數據環境下履行行政職責的需要。但算法的技術優勢不僅要體現在行政機關完成行政任務的單方需求中,還要適應相對人在行政活動中的身份地位與利益訴求,能夠發揮減輕相對人負擔的便民效果。然而,當算法決策方式的應用未考慮相對人的客觀能力與主觀意愿時,將會給相對人帶來現實處境和主觀心理方面的負面效果。因此,相對人享有拒絕算法決策的程序性權利,并能夠通過自動化行政中拒絕算法決策的程序規則加以實現。
規制算法決策的目的從保護個人信息權益到個人權益的延伸,為相對人通過行使算法決策拒絕權來維護自身合法權益奠定了基礎。算法決策拒絕權作為相對人參與自動化行政的程序性權利,通過程序性裝置發揮著對抗得到算法權力增強的行政權力,以實現在維護與救濟相對人實體性利益方面的工具性價值。算法決策作為行政決策的方式轉變,當通過其作出的行政行為在客觀上仍可歸屬于具體的行政主體[1],或被確認為行政機關“自己的”行政行為時[30]438,并未超出行政法治的控權范圍,但可能產生不同的行為結果。為避免算法決策中隱含的算法弊端對相對人實體權益造成不公正影響,相對人通過行使算法決策拒絕權,為自動化行政中的個人權益尋求程序性保護。
算法決策拒絕權的配置與行使,體現了相對人在面對算法決策方式時的主體地位。即便該權利本身并未給相對人增添人身性或財產性的實體性利益,但僅認可算法決策拒絕權能夠保障實體權益的工具價值,未能揭示其程序屬性的本體價值,這將在自動化行政中形成對該權利主張、行使和保障的輕視氛圍。在程序正義理論中,行政程序具有獨立于實體結果的公正、平等、參與等程序價值。同樣,程序性權利行使過程中體現的交往理性,使其擺脫對相對人實體利益的依附性而具有獨立地位[31]120,這其中蘊含著維護程序利益和表達自由意志的獨立功能。就自動化行政中的算法決策拒絕權而言,該權利表達了相對人拒絕算法決策的程序主張,能夠發揮從相對人立場批判算法決策的功能,促使行政機關反思對算法決策的選擇及其效果,從而尊重與保障相對人的程序利益。
(二)算法決策拒絕權的積極屬性
相對人依據《個人信息保護法》而享有的算法決策拒絕權,在公法領域的自動化行政中同樣適用。這意味行政機關在適用算法決策方式時,需要通過創制或改造的客觀程序規則,將算法決策拒絕權納入相對人的程序性權利體系。由于行政法律關系中行政主體的優先權和強制力,相對人被迫放棄建立在實體性權益之上的自衛權,通過程序性權利的防御功能對抗來自行政權力的侵害[32]15。算法決策拒絕權體現的相對人消極地位,對應著行政機關應當履行尊重該權利的消極義務,即禁止于相對人算法決策拒絕權之上強加未經法律規范認可的否定性或限制性的命令與強制[33]92。
現代行政廣泛地建立在個人利益基礎之上,相對人擁有區別于反射性利益的要求行政機關履行義務的法律請求權[34]154。因此,算法決策拒絕權不僅包括不受行政機關妨害的消極地位,而且呈現出在受到妨害時請求利益實現和法律保護的積極屬性。在自動化行政中,對算法決策拒絕權的妨害具體表現為:一方面,嵌入自動化行政中的算法決策方式,使得行政任務在相對人不知情的情況下瞬時完成,行政機關對于公開義務與告知義務的履行懈怠,阻礙著相對人算法決策拒絕權的行使;另一方面,出于方便行政任務的單方需求,行政機關在行政過程或技術程序中對相對人拒絕方式進行限定與變相強制,干預相對人行使算法決策拒絕權的自愿心理,從而使相對人被動地放棄權利。
作為程序性權利的算法決策拒絕權,蘊含著相對人獨立的程序性利益,與之對應的是行政機關提供拒絕方式和設置相應程序的義務。相對人能夠主動要求行政機關履行程序義務和遵循程序規范,通過拒絕算法決策的程序性調整,有效制約得到算法技術增強的行政權力的恣意運行。此外,根據《中華人民共和國行政復議法》和《中華人民共和國行政訴訟法》的規定,違反法定程序是行政行為的違法情形之一。因此,通過程序裝置實施的程序性權利在法律規范上被賦予了救濟可能性。當行政權限和程序中制度性的自我統制裝置被破壞時,相對人拒絕算法決策的程序性利益無法得到滿足抑或受到侵害,對于算法決策拒絕權的保護將成為相對人通過行政復議與行政訴訟進行權利救濟的契機[32]15。
配置算法決策拒絕權的預設前提是行政主體單方決定采用算法決策方式,預設過程是相對人通過拒絕與否的方式表達對算法決策的應用態度,預設結果是通過否認算法決策的應用以引入人工決策方式。然而,這一套算法決策拒絕權的預設邏輯存在問題。一方面,相對人出于算法弊端或選擇意志而行使算法決策拒絕權,建立在行政主體應用算法決策方式的基礎之上,因而該權利并未在行政機關選用算法決策方式時發揮功能。這意味著在自動化行政的瞬時性特征下,算法決策拒絕權演變成只針對算法決策結果的拒絕權。另一方面,即便相對人能夠在自動化行政過程中積極行使算法決策拒絕權,但“拒絕”體現出消極與被動的行為內涵,其并不等同于默示同意或主動選擇。相反,只有在直接與正面的意思表達而非被動拒絕中才能體現相對人的同意與選擇[35]。換言之,相對人的拒絕行為并不能顯示其選擇算法決策方式的自由意志,也并不必然包含對人工決策方式的主動訴求。因此,分析相對人算法決策拒絕權的屬性,不僅需要強調權利行使中的積極屬性,也需要拓展權利內涵中的積極屬性,在自動化行政興起、算法決策方式和人工決策方式并存的背景下,使相對人能夠通過算法決策拒絕權,達到對行政決策方式積極選擇的效果。
自動化行政中的算法決策拒絕權肇始于個人信息保護領域,個人信息處理必須經個人充分知情并取得其同意的“知情同意原則”,被視作該領域的“帝王條款”[36]58。這一原則產生于醫學領域,是指患者在充分知情和理解醫護人員披露相關醫療信息的基礎上,作出是否接受治療的決定。正如從醫學領域推廣適用到個人信息保護領域,自動化行政領域中的算法決策方式也需要符合知情同意原則,并通過制定算法決策的知情同意規則,來滿足相對人的知情同意需求[37]。在數據與算法驅動的自動化行政中,行政行為與個人信息行為處理高度契合,相對人享有的算法決策拒絕權,也應以“知情同意”為前提。在對算法決策方式充分知情的基礎上,算法決策拒絕權的拒絕對象能夠從算法決策結果延伸到算法決策程序,因而權利行使場景從算法決策后的結果輸出環節,擴展到包含信息輸入環節、算法分析環節和結果輸出環節的自動化行政全流程。在自動化行政的算法決策中貫徹知情同意原則,意在將適用算法決策的正當性建立在相對人的同意基礎之上[38],通過清晰和明確的同意,算法決策拒絕權的內涵從對算法決策方式的被動拒絕轉變為積極選擇,真正發揮其作為一項權利而非相對人義務的功能,從而減輕行政機關施加給相對人對算法決策方式的風險控制負擔,形成對相對人權益的強保護[39]。
四、自動化行政中算法決策拒絕權的行使規則
從《個人信息保護法》規制算法決策的規范分析,以及其在行政領域中的適用性出發,可以實現自動化行政中算法決策拒絕權從新型權利到法定權利的證成。但對算法決策拒絕權內容的探討,并未超越其作為相對人應然權利的理想化狀態,也未能實現從權利享有到權利行使的過渡。因此,將算法決策拒絕權轉變為相對人的實然權利,需要結合算法決策拒絕權能夠保障相對人參與,并在設置與改造的程序裝置中予以實現的程序屬性,以及在權利地位上能夠請求利益實現與法律保護,并在權利內涵上能夠主動選擇的積極屬性,構建在自動化行政不同環節的具有即時性特征的權利行使規則。
(一)算法決策方式的選擇規則
信息輸入環節是從技術程序視角下拆分自動化行政后得出的首個環節,此時行政系統通過技術設備進行信息收集或通過政府平臺進行信息共享,完成算法決策前的信息準備。若信息輸入環節是在相對人不知情的情況下進行的,相對人就無法獲知自動化行政開展的必要事項內容,無法監督和判斷對其個人信息的處理是否符合必要性限度。作為算法決策前的環節,秘密進行的信息輸入過程將導致相對人算法決策拒絕權的落空,無法發揮該權利的防御性價值,難以通過權利行使來影響行政主體的決策方式。因此,從自動化行政的信息輸入到算法分析,需要人為在環節過渡之間架設程序公開與告知環節,以滿足相對人對行政活動所獲取信息和行政主體所采取方式的知情和同意需求。
根據《個人信息保護法》第二十四條第二款的規定【《個人信息保護法》第二十四條第二款:通過自動化決策方式向個人進行信息推送、商業營銷,應當同時提供不針對其個人特征的選項,或者向個人提供便捷的拒絕方式。】,個人信息處理者在應用算法決策時,需要履行“同時提供不針對其個人特征的選項”或“向個人提供便捷的拒絕方式”的義務,前者已有將規制算法決策的反對性內涵轉變為選擇性功能的趨勢,即個人有權在個人信息處理者提供的針對其個人特征和不針對其個人特征的選項中進行選擇。沿此思路出發,在行政領域中,具體行政行為建立在相對人利益之上,因此難以區分針對個人特征或不針對個人特征的選項,但相對人的算法決策拒絕權可以延伸為對算法決策方式和人工決策方式的選擇權利,即由行政機關在決策方式上提供算法決策和人工決策的選項,由相對人根據其主觀意愿和客觀能力進行選擇。此時,相對人能夠擺脫行政主體單方決定算法決策應用時的被動地位,既可以出于效率等技術優勢考慮而適用算法決策方式,也可以從信息安全等角度出發而選擇人工決策方式[40]。
對于決策方式的公開或告知,應當成為自動化行政中后續程序進行的必要條件,行政機關需要以獲得相對人對決策方式的選擇或對算法決策的同意,作為其行政行為的正當性基礎。為保障相對人知情的充分性和實質化,需要將行政公開、說明理由和聽取意見的法定程序要求內化為算法透明與算法解釋的技術規范要求,通過技術程序正當化來增強相對人選擇決策方式的認知水平。在對決策方式充分知情的前提下,相對人行使算法決策拒絕權來選擇行政決策方式,應當在預設的時間范圍內進行,一旦超出這一時間范圍,權利將喪失原有意義[41]。超過行使期限的算法決策拒絕權所產生的變化,表現為從相對人選擇決策方式的主動性,轉變為對行政機關所適用決策方式的服從性,并最終達到在知情基礎上默示同意的效果。
(二)算法決策過程的脫離規則
當自動化行政的程序從信息輸入環節順利過渡到算法分析環節,意味著相對人已通過明示或默示方式行使了算法決策拒絕權,發揮其選擇權能而適用算法決策方式。但所要構建的算法決策拒絕權行使規則,應使該權利的行使具有動態化與即時性,能夠在自動化行政全流程中發揮長效作用機制。因此,相對人可以在算法分析過程中主張要求脫離算法決策方式。但相較于信息輸入環節,算法分析環節中算法決策拒絕權的行使,不再僅是建立在相對人的主觀意愿之上,還需要自動化行政中出現客觀違法事由。此時,算法決策方式尚未得出于相對人而言具有終局性效果的結論,并未產生有關其實體利益的決定性影響。因此,相對人拒絕算法決策的主要依據為算法分析過程中可能存在的程序性違法事由,表現為對相對人知情、陳述、申辯和聽證等程序性權利的損害。
在自動化行政的信息輸入環節,相對人行使算法決策拒絕權建立在對決策方式的充分知情基礎上,然而一旦行政機關所披露內容出現片面與錯誤,將在適用算法決策方式進行算法分析的過程中引發連鎖反應。在算法分析環節,相對人可以向行政機關積極表達意見,并有權要求就算法決策方式作出進一步公開和說理,從而在該環節中架設行政機關與相對人之間的信息溝通機制[42]。這既是作為對信息輸入環節中相對人認知算法決策方式的內容補充,也是作為在算法分析過程中相對人脫離算法決策方式的前置條件與必要步驟,從而在通過一系列程序性權利的積極主張和有效行使后,使相對人能夠在自動化行政中表達利益訴求,消弭算法決策可能對相對人權益產生的負面效應。
當選擇算法決策時的程序性利益未能在算法分析環節得到彌補,或是適用算法決策過程中程序性權利受到侵害,相對人可以行使算法決策拒絕權,主張對算法決策方式的脫離。脫離意味著在程序權益受損或算法風險存在的情況下,相對人要求行政機關停止算法決策方式。而考慮到行政活動仍需繼續進行,脫離算法決策方式的進階效果是將決策方式變更為人工決策,通過申請人工介入形成對算法決策的替代或修正。即便在保障公正、效率與準確等功能方面人工干預并不一定能發揮更好的效果[43],但將完全自動化行政轉變為部分自動化行政,既能夠讓技術要素繼續發揮輔助性功能,也可以增強相對人對行政活動的信任。
(三)算法決策結果的抵抗規則
通過瞬時完成輸入信息到輸出結果的時間性能力,以及減少與相對人物理接觸的空間性能力,算法決策方式彰顯效率優勢。因此,最終呈現在相對人面前的多為算法決策后的結果。當在信息輸入和算法分析環節,相對人未能有效行使算法決策拒絕權脫離算法操控,對于算法決策結果的抵抗可以作為行政過程中消除算法決策風險的又一重保障措施。
在傳統行政法理論中,相對人享有對無效行政行為的抵抗權[44]。當行政行為出現重大且明顯瑕疵時,該行政行為自始至終不發生法律效力,即喪失其自作出就推定合法有效的公定力,成為無效行政行為[45]。一旦行政行為無公定力,相對人不必先行服從,因此可以進行抵抗。這是在相對人通過行政復議或行政訴訟救濟自身權益前設置的一種權益保障方式,但出于維護行政主體權威性和行政行為功能性的考慮,相對人能夠抵抗的范圍僅針對行政主體的無效行政行為。
若以無效行政行為理論為算法決策拒絕權的理論基礎,將限制相對人抵抗算法決策的范圍。在個人信息保護領域中,信息自決權理論是個人抵抗算法決策的理論依據。信息自決權理論強調信息主體對其信息的積極控制,信息主體具有決定其信息處理時間、地點與方式的能力,從而能夠防御國家對其信息的不當干預與操縱[46]。因此,借助信息自決權理論,相對人能夠抵抗通過處理信息實現的自動化行政行為。但追溯信息自決權的起源,德國1983年“人口普查案”的憲法判決主張,在自動化處理面前并不存在不重要的個人信息,此時個人對所有信息都享有支配權[47]。這將導致信息自決權在自動化處理中的絕對化傾向。因此,以信息自決權理論作為自動化行政中相對人抵抗算法決策結果的理論依據,又將極大地泛化抵抗范圍。
在自動化行政中,算法決策蘊含的算法權力是傳統權力與技術權力的結合,算法的自主性令算法決策中甚至存在行政主體都難以控制的外來影響和技術因素[17]。經由算法決策方式呈現的行政行為,即便是一般性違法,也并非行政主體應用算法進行決策的初衷。然而,通過算法決策作出的合法行政行為,又是自動化行政領域中技術優勢的體現。因此,區別于傳統行政中對無效行政行為的抵抗,在自動化行政中,相對人行使算法決策拒絕權而對算法決策結果予以抵抗的范圍,包括由算法決策方式作出的所有違法行政行為。此舉既可以形成相對人在面對違法行政行為時的初步防御機制,來獲得及時和正確的行政決策結果,又能夠喚起行政主體對算法決策錯誤結果的自我糾正程序,以調適高效率追求下的公正性問題。
為使相對人對算法決策結果的抵抗得到行政主體的有效答復,避免演化出采取激進方式進行抵抗的負面影響[48],在自動化行政的結果輸出環節應當設置回應算法決策拒絕權的行政程序。相對人在拒絕算法決策結果的同時,可以要求行政機關暫停自動化行政行為并對此予以說明。雖然相對人可對算法決策形成的所有違法行政行為予以抵抗,但是抵抗的效果將根據行政行為的違法程度而有所區分。當算法決策過程僅具有輕微的程序違法,如忽視相對人的公開請求,并未影響實體結果的正確性,出于程序經濟的考慮,可以在事后對算法決策過程中的瑕疵內容予以補正[49]94。而一旦算法決策中出現重大且明顯的程序違法,如將歧視性內容引入算法決策中,此時行政機關應當以人工決策方式替代算法決策方式,重啟行政程序并重新作出行政行為。
五、結 語
伴隨數字技術的自身發展及其被引入行政領域,行政決策迎來從自然人決策到算法決策的模式轉變。在充分發揮算法決策帶來的技術優勢之余,還需要警惕與治理其對行政法治的技術挑戰。以算法決策拒絕權為代表的賦權路徑能夠豐富相對人在數字時代的權利體系,對抗與平衡得到算法權力增強的行政權力。通過構建與完善算法決策拒絕權在自動化行政過程中的行使規則,相對人能夠在信息輸入環節選擇算法決策方式,在算法分析環節脫離算法決策過程,在結果輸出環節抵抗算法決策結果,充分發揮算法決策拒絕權的防范算法技術風險與保障自身合法權益的功能。
將算法決策拒絕權應用到自動化行政并作為相對人的公法權利,符合《個人信息保護法》在行政領域的適用性及其規范算法決策的功能性。但將拒絕算法決策放置在行政程序中并予以權利化的改造,在當前至少還面臨著如下難題:第一,無論是在個人信息保護領域還是自動化行政領域,算法決策拒絕權僅是得到規范證成,但具體的行使規則仍有待立法回應。第二,在自動化行政中,算法決策拒絕權作為相對人享有的程序性權利,僅具有權利化的名義而并不具備完整的權利形態,實質上屬于在行政程序中被賦予的權能,而尚未達到權利地位,尤其表現為缺失作為獨立訴求而請求法律保護的功能。第三,當個人權利和公共利益之間出現緊張關系時,就會產生限制權利的討論。近年來,算法決策方式的巨大推動力為突發事件中的技術治理需求,此時相對人行使算法決策拒絕權將不利于有效預防、及時控制和消除風險與危害,并與相對人在應急狀態下所需承擔的配合義務和風險責任相悖。因此,當出現突發公共事件時,常態下的算法決策拒絕權將被限制。當然,對相對人算法決策拒絕權的限制不僅要求具有正當化目的,還需要合法化依據與合理化手段。這些算法決策拒絕權所面臨的難題,或需要獲得法治實踐的回應,或有待進一步展開研究。
參考文獻:
[1] 展鵬賀.數字化行政方式的權力正當性檢視[J].中國法學,2021(3):114-138.
[2] 馬顏昕.自動化行政的分級與法律控制變革[J].行政法學研究,2019(1):80-92.
[3] 程嘯.十大亮點彰顯個人信息全面保護[J].法治與社會,2021(11):48-50.
[4] 程關松.個人信息保護的中國權利話語[J].法學家,2019(5):17-30,191-192.
[5] 王錫鋅.個人信息國家保護義務及展開[J].中國法學,2021(1):145-166.
[6] 卡洛,弗魯姆金,克爾.人工智能與法律的對話[M].陳吉棟,董慧敏,杭穎穎,譯.上海:上海人民出版社,2018.
[7] 蔣紅珍.《個人信息保護法》中的行政監管[J].中國法律評論,2021(5):48-58.
[8] 韓旭至.認真對待數字社會的個人拒絕權[J].華東政法大學學報,2023(1):22-34.
[9] 藍江.智能算法下人的數字異化與生存變革[J].人民論壇,2021(Z1):20-22.
[10] 張恩典.人工智能算法決策對行政法治的挑戰及制度因應[J].行政法學研究,2020(4):34-45.
[11] 鄭玉雙.破解技術中立難題——法律與科技之關系的法理學再思[J].華東政法大學學報,2018 (1):85-97.
[12] 洪丹娜.算法歧視的憲法價值調適:基于人的尊嚴[J].政治與法律,2020(8):27-37.
[13] 曹博.算法歧視的類型界分與規制范式重構[J].現代法學,2021(4):115-126.
[14] 程關松.論民主制行政法治范式[J].武漢大學學報(哲學社會科學版),2009(1):22-27.
[15] CITRON D K, PASQUALE F. The scored society: due process for automated predictions[J]. Washington Law Review, 2014, 89(1): 1-33.
[16] 謝明睿,余凌云.技術賦能交警非現場執法對行政程序的挑戰及完善[J].法學雜志,2021(3): 48-58.
[17] 蔡星月.算法決策權的異化及其矯正[J].政法論壇,2021(5):25-37.
[18] 陳曉勤.公共行政領域中的個人信息保護[J].法學雜志,2013(10):134-140.
[19] 唐林垚.《個人信息保護法》語境下“免受算法支配權”的實現路徑與內涵辨析[J].湖北社會科學,2021(3):134-142.
[20] 唐林垚.“脫離算法自動化決策權”的虛幻承諾[J].東方法學,2020(6):18-33.
[21] STOHL C, STOHL M, LEONARDI P M. Digital age managing opacity: Information visibility and the paradox of transparency in the digital age[J]. International Journal of Communication, 2016(10):123-134.
[22] 辛巧巧.算法解釋權質疑[J].求是學刊,2021(3): 100-109.
[23] 鄭智航.人工智能算法的倫理危機與法律規制[J].法律科學(西北政法大學學報),2021(1):14-26.
[24] 呂炳斌.個人信息權作為民事權利之證成:以知識產權為參照[J].中國法學,2019(4):44-65.
[25] 丁曉東.基于信任的自動化決策:算法解釋權的原理反思與制度重構[J].中國法學,2022(1):99-118.
[26] 王錫鋅.行政過程中相對人程序性權利研究[J].中國法學,2001(4):75-90.
[27] 劉東亮.技術性正當程序:人工智能時代程序法和算法的雙重變奏[J].比較法研究,2020(5):64-79.
[28] CITRON D K. Technological due process[J]. Washington University Law Review, 2007, 85(6): 1249-1313.
[29] 程關松,苗運衛.相對人參與算法行政的困境與出路[J].東南法學,2021(2):43-57.
[30] 毛雷爾.行政法學總論[M].高家偉,譯.北京:法律出版社,2000.
[31] 哈貝馬斯.交往行為理論[M].曹衛東,譯.上海:上海人民出版社,2004.
[32] 孫祥生.程序性基本權利法律保障研究[M].北京:法律出版社,2018.
[33] 耶利內克.主觀公法權利體系[M].曾韜,譯.北京:中國政法大學出版,2012.
[34] 小早川光郎.行政訴訟的構造分析[M].王天華,譯.北京:中國政法大學出版社,2014.
[35] KOSTA E. Construing the meaning of Opt-Out-An analysis of the European, UK and German Data Protection Legislation[J].European Data Protection Law Review, 2015(1): 16-31.
[36] 齊愛民. 信息法原論[M]. 武漢: 武漢大學出版社,2010.
[37] 楊立新,趙鑫.利用個人信息自動化決策的知情同意規則及保障——以個性化廣告為視角解讀《個人信息保護法》第24條規定[J].法律適用,2021(10):22-37.
[38] SU J. Google book search and Opt-Out procedures[J]. Journal of the Copyright Society of the USA, 2008, 56(4): 947-965.
[39] 馮愷.個人信息“選擇退出”機制的檢視和反思[J].環球法律評論,2020(4):148-165.
[40] 宋華琳.電子政務背景下行政許可程序的革新[J].當代法學,2020(1):79-88.
[41] 熊賴虎.時間觀與法律[J].中外法學,2011(4):681-694.
[42] 張凌寒.算法自動化決策與行政正當程序制度的沖突與調和[J].東方法學,2020(6):4-17.
[43] 張欣.免受自動化決策約束權的制度邏輯與本土構建[J].華東政法大學學報,2021(5):27-40.
[44] 王錫鋅.行政行為無效理論與相對人抵抗權問題探討[J].法學,2001(10):16-20.
[45] 南博方.行政法[M].楊建順,譯.北京:商務印書館,2020.
[46] 趙宏.信息自決權在我國的保護現狀及其立法趨勢前瞻[J].中國法律評論,2017(1):147-161.
[47] 楊芳.個人信息自決權理論及其檢討——兼論個人信息保護法之保護客體[J].比較法研究,2015(6):22-33.
[48] 張旭勇.權利保護的法治限度——無效行政行為理論與制度的反思[J].法學,2010(9):111-121.
[49] 沃爾夫,巴霍夫,施托貝爾.行政法:第2卷[M].高家偉,譯.北京:商務印書館,2002.
On the Right to Refusing Algorithmic Decision-making in Automated Administration
MIAO Yunwei
(School of Law, Southeast University, Nanjing 211189, Jiangsu, China)
Abstract:Article 24 (3) of Personal Information Protection Law in China transforms the protection of personal information interests into the behavioral regulation of algorithmic decision-making, and gives individuals the right to refusing algorithmic decision-making. Based on the public law attribute of the law and its applicability in the administrative field, the counterpart enjoys the right to refuse algorithmic decision-making in the automated administrative mode. In terms of the technical challenges posed by algorithmic decision-making methods to the rule of administrative law, the right to refuse algorithmic decision-making can enrich the counterparts rights system in automated administration and plays a role in combating algorithmic decision-making alienation. The right to refuse algorithmic decision-making has the procedural attribute of ensuring relative participation in automated administrative processes and implementing them in the set up and modified procedural devices, as well as the positive attributes of being able to request benefits and legal protection in terms of rights status and actively choose the content of rights. To realize the counterparts right to refuse algorithmic decision-making, it is necessary to combine the procedural attribute with positive attribute of the right to construct the exercise rules with immediate characteristics in different links of automated administration, including the selection rules of algorithmic decision-making methods, the separation rules of algorithmic decision-making processes and the resistance rules of algorithmic decision-making results.
Key words: automated administration; algorithmic decision-making; right to refuse algorithmic decision-making; personal information protection