汪太賢,唐 祎
(1.廣西大學法學院,廣西 南寧 530004;2.廣西大學公共管理學院,廣西 南寧 530004)
人工智能作為當下技術熱點正成為國家治理現代化過程中的重要驅動力,其與公共行政的交互融合,促進政府治理向行政決策自動化與公共服務精準化方向轉型,向世人描繪了一幅改進政府治理績效、提高決策公正性的算法行政圖景。然而,在算法行政的現實情境中,人工智能算法存有替代人類主體地位的趨向,輔助甚至可能取代公權力決策,其潛在的偏見、歧視、不透明等特性,致使智能算法技術的部分實踐活動存在價值負向實現的現象。目前,學界從公共管理學、政治學等學科對人工智能在政府治理領域的應用與反思研究日益增多,主要集中在以下方面:
一是探討人工智能嵌入政府治理的發展邏輯。政府治理與技術吸納實質是一種雙向互動關系,人工智能遵循基于機器學習形成自主決策的內在邏輯,驅動政府治理變革向著 “技術原始吸納—技術作用組織—政府自我重塑”的方向轉變,最終生成治理主體協同化、手段界面化以及過程智慧化的 “計算式治理范式”[1-4]。人工智能改變著政府體制模式,使得政府管理的體制、結構、職能、流程和方式發生革命性的變化[5]。
二是反思人工智能嵌入帶來的風險與挑戰。技術治理存有 “仁慈”和 “陰暗”兩幅面孔,政府運用人工智能技術治理可改善決策制定過程、公共服務供給和公共行政部門的內部管理[6-7],但同時亦會面臨貶低人類能力、減少人類控制、侵蝕人類自主權[8]、不透明決策過程[9]、公平與責任制[10]、數據安全與隱私[11]等方面挑戰,以及由于技術弱勢地位面臨算法霸權、獨裁和去中心化[12]等方面的風險。如果過分強調效率和其他經濟目標而犧牲公平、透明度和響應能力等公共價值目標,則可能無法滿足實現公眾關鍵價值觀的這一核心責任[13]。
上述研究從一定角度探究了人工智能技術治理的發展變革和風險挑戰,但呈現出碎片化和籠統化的現象,仍不足以清晰認識人工智能嵌入治理的具體境況,對于其帶來的價值問題也鮮有專門研究,尤其缺乏基于公共行政視角對價值問題的具體分析。人工智能技術的嵌入治理在塑造人類的選擇和行動、促進社會互動和合作的同時也可能產生超出人類期望或理解的影響力,破壞人類對環境和社會的控制以及威脅人類的自主能力[14]。作為一種公共行政的變革性技術,人工智能的運用更是關涉人性完善和社會可持續發展之目的實現,有必要對智能算法治理帶來的價值問題做專門性剖析,從而對其形成客觀全面的認識。鑒于此,本文通過探究人工智能嵌入政府治理的算法圖景,聚焦智能技術治理中的價值問題及其優化路徑,以期促進人工智能技術在正向意義上推動人民滿意的 “高質量”服務型政府的建設。
人工智能與公共行政交融于一定的社會歷史條件下,這一條件既包括科技本身的發展水平和價值目標,亦包含當時的社會政治利益和需求。隨著新一代人工智能技術的發展和社會環境的轉變,人類開始逐步邁入 “算法行政”的時代。相較于傳統發生在人與人之間的公共行政場景,人工智能的嵌入治理轉向一種人機對話或機機交互的智能化、算法化場景,整個政府治理過程呈現出全新景象。
人工智能在政府領域的深度融入產生了以算法決策為核心的治理范式,其深刻影響著政府的實踐決策,沖擊著公共行政過程中人類的主體性地位。這一主體性挑戰并不僅僅體現為作為技術產出的結果而引發的權利爭議,更在于作為影響社會運行重要規則的形成方式的變化[15]。傳統公共行政以人的行為作為出發點,強調人是治理的核心,而人工智能的嵌入治理可能會促使 “技術系統從人的自然感官、自然肢體或自然智能的代理者朝著自然人的以及人類中心地位的替代者的方向發展”[16]。
盡管人工智能算法的應用在較大程度上促進了政府治理的智能轉型和革新,但其強大的自主學習能力和數據運用效率使得其具備 “擬人化”的自主性內核,并對人的本質、人的主體地位形成強烈沖擊。在一些情形中,政府智能治理系統的運作愈發趨向 “無人化”,導致人的 “新異化”,由傳統的主導地位轉向非核心的參與者抑或旁觀者。
在智能算法治理的虛擬空間中,身體的直接交流開始轉向通過數字化編碼的虛體的中介進行交流, “溝通雙方既有可能是實體對象,也有可能僅是一段虛擬程序或是智能軟件系統”[17]。但無論是何種交流對象,算法應用一旦進入公共管理的規則或者平臺運行的規則之中,算法控制者與使用者都會在不同程度和范圍上受到算法規則的約束與限制。與此同時,各主體對算法程序產生的依賴和服從,還可能會使得以人類為核心的權力主體開始成為被規訓的對象,人類作為公共行政的實踐主體角色逐漸迷失,在諸多政府治理場景中存在開始退居幕后或完全退出的趨向。
人工智能算法決策對人類行為的沖擊,在嵌入治理的范圍和程度上體現出強弱不同的政治倫理,潛在著高低不等的價值受損風險。當下人工智能的應用范圍并不限于交通管理、道路維護、程序性審批等程序性行政場景,還涉及生命健康、公共安全等權利型分配場景,涉及對公民基本權利的分配價值判斷等政治與倫理屬性。隨著算法決策對行政決策過程占據越來越高的主導性,實體決定生成過程可能 “無需人類參與,或人類決策者完全采納人工智能的意見,不做或較少做出審核或干預”[18]。
綜上可知,人工智能算法主導性的高低不僅決定其應用模式,還關乎政府治理領域風險產生的高低。在人工智能只是提供輔助性決策咨詢時,人類可及時糾正人工智能算法存在的偏誤,而當人工智能主導實體決定時,決策者完全聽從人工智能,這就可能會導致算法中的問題被忽略或無法察覺,潛在著價值異化的風險。人工智能技術的強大優勢極易讓決策者、公眾等主體陷入技術依賴與崇拜的陷阱之中,繼而削弱決策者、公眾等主體的自主性。盡管技術專家在決策中扮演著界定風險存在、裁決不同風險認知、監督權力濫用等重要角色,但由于智能算法的復雜化、動態化和場景化特征,其角色及功能實現具有其限度。未來人工智能的快速發展與嵌入,將使得算法決策在較多領域輔助甚至代替人類決策,不可避免地會造成政府治理的負效應。
進入智能化時代,人工智能算法在知識共享和學習既往經驗方面非人類所能企及,可以說在這一層面上智能算法已經遠超人類理性的能力。這種能力作為人類理性的延伸,對充分認識世界自然大有助益。然而,算法行政本質上仍屬于技術治理思維的延續和強化[19]。
在推進公共行政算法化進程中,人與智能技術之間的主從關系遭遇挑戰,人的主體性地位容易喪失,且可能會自覺或不自覺地迎合人工智能的要求,國家和政府治理中的人性情感元素也隨著人類主體角色的迷失和離場而漸漸弱化和隱沒。盡管韋伯所述的理想科層制強調組織的 “非人格化”特質,然而其也論及在隱匿人性情感的形式主義及可計算的行政中無法收獲實質效益,提出行政只有在具有一種非形式的、基于實質內容之 “倫理的”性格時,才能執行此種任務[20]。
顯然,依托于科層制運轉的良善的政府治理系統必然需要具備深厚的情感基礎和人文關懷,只有擁有情感裁量的治理體系才能增強治理活動的有效性。在擬態的數字空間中,人工智能技術治理趨向于一種算法理性, “去人化”的算法理性構成了單向度的統治結構,它是以利己主義作為指引,算法秉持完全實用主義的認知方式,最大目標在于設計程序以達到特定結果[21]。而人類理性則具有更復雜的一面,在人的行動邏輯中還存有利他主義和批判主義的傾向。在馬克思辯證唯物主義看來,人類理性的發展包含著本能理性與認識理性、進化理性與建構理性、個體理性與社會理性的基本范疇[22]。因此,基于人類理性和情感的公共行政實踐顯然超越了實用理性的范疇,會將價值探討作為重要部分,時刻重視反思的重要意義。而算法理性則不具備這種能力,它極易被少數群體控制。有學者將此種情形下的現象稱為 “理性運用的封建化”,即理性運用具有相對固定和封閉的邊界,變成以維護智能算法所有者利益為旨歸的專斷獨白[23]。
“算法理性”之所以被稱為一種 “后人類時代”新的理性形式,主要原因在于人工智能算法具有理性意志和理性能力方面的優越性。作為無機生命,人工智能沒有理性意志方面的弱點,在占有關涉理性運用之基礎的理論性和實踐性知識方面也遠遠超過人類個體可以達到的程度。然而,當人們被這種日漸外在的 “技術優越性”俘獲之后,會自覺或不自覺地將 “技術的邏輯”所展示的理性視為理所當然的規律[24],將被智能化塑造的治理系統視為理所當然的選擇,這極易削弱治理相關主體的自主思考和行動能力。
由于算法理性的運用存在 “去人化”和 “封閉化”趨向,會讓政府治理活動不自覺地追求效率最大化,從而引致便利與安全、效率與公正等多方面的價值沖突。從人類社會長遠發展的角度看,完全依賴于人工智能反而會影響政府治理目標的實現,使得算法理性替代人類的情感和理性,減損人類社會的人文特質,不利于行政裁量權的有效行使。因此,在寄望于人工智能滿足人的發展需求、改進政府治理績效的同時,應當竭力尋回人類情感和理性在政府治理體系中的應有位置和獨特價值,防止 “人越來越像機器”的現象發生。
人工智能嵌入政府治理的軸心在于治理,強調人是治理的核心,技術只是輔助工具,切忌本質化,以避免人工智能對現行治理結構的重構。進入智能化時代,政府、社會組織和公眾在決策和行為等方面愈發依賴于算法應用,人工智能技術平臺的控制者憑借自身的算法技術優勢開始擁有較強的影響力,算法權力由此開始成型并在政府治理中日漸凸顯。然而,在以算法權力為核心的治理范式變革中,政府治理系統愈發趨向一種 “算法驅動”的智能化形態,并在諸多治理場景中呈現一種 “算法支配”的景象。
首先,重構公共行政的權力關系。人工智能的嵌入在一定程度上強化了公權力行使,使得權力作用范圍更具有延展性,不再受到傳統時間和空間方面的限制,有效延伸到公共治理領域內的所有個體。但公共行政傳統權力關系和結構也面臨重構,傳統行政中緊握于決策者之手的權力開始出現松動,政府部門的部分 “治理權”逐漸被人工智能算法接管, “算法輔助甚至代替公權力,做出具有法律效力的算法決策”[25]。假若將公共權力無限制地外包給機器,可能會破壞人權和法治[26],算法這一 “接管”的背后實際上潛藏著新興技術公司 “私權力”支配政府公權力的風險隱憂,且人工智能算法的不透明性和自主性還可能會進一步強化算法支配的力度。
其次,壓縮公眾表達的話語空間,弱化公眾參與的積極價值。盡管人工智能應用促進了個體權利實現方式的開闊性,但個人在實現權利自由時也會受到算法權力的潛在規制,其會形成對公眾更加分散化、強力化和無形化的控制。依托強大的智能算法,行政主體可實現對包括公眾在內的治理參與者行為的實時監控和精準畫像,這會使得二者的自由對話空間在一定程度上被壓縮。與此同時,人工智能算法依托深度學習系統這一優勢可以更為全面精準地獲取公眾真實訴求,而實際上公眾參與的價值在某種程度上得到弱化。在此情形下,公眾容易陷入技術萬能的幻象之中,繼而引致對自我表達和參與的迷失,存在被人工智能算法支配的可能。
在人工智能嵌入治理的虛擬空間內,算法權力的運行 “遵循商業邏輯、偏好原則、技術理性和隱性規則,呈現出資本化、歧視化、工具化和私密化的態勢”[27]。作為一種新型的技術權力,算法權力借助于公權力體系快速生長,自動改變著現實公共行政中的規則界限和主導權,算法支配之下的新型權力結構潛在價值減損的隱憂。傳統適用于公權力限制的依法行政、正當程序、行政公開、行政公平等法律基本原則難以踐行,行政法治原理面臨更加嚴重的挑戰,加上缺乏相應的法律規制和救濟路徑,從而更加大了這種算法權力異化的風險指數,還極容易與公權力合謀形成權力濫用[28]。
從功能效應看,算法權力的異化會弱化公共行政價值的考量,導致出現人工智能算法支配治理過程的結果。因此,在邁向算法行政時代的漫漫征途中,必須對算法保持清醒的認識,警惕算法權力對人的規訓和對政府治理過程支配帶來的負面效應。
人工智能的嵌入促使公共行政系統越來越走向一種 “算法驅動”的智能化形態,智能治理的過程和活動正沖擊著當下的社會秩序。新時代我國社會需求已轉向對美好生活的需要,人們對于安全、責任、公正、自主等良好的公共物品需求與日俱增。在這一算法新圖景下,政府運用智能技術在滿足人的部分需求、增進政府治理效能時,也存在著價值負向實現的情形,這不免會削弱政府治理的正當性基礎。
從某種意義上說,安全是第一價值目標,亦是風險社會的道德訴求和公共行政的價值旨歸。作為人類自身最優先、最重要的 “公共資源”和 “公共產品”,安全具有生命意義上 “善”的本質特征。邁入人工智能時代,數字政府建設與數據安全之間脫節的現象愈加凸顯,云上數據泄露、勒索攻擊、數據要素壟斷、信息偽造等現象日益嚴重,數據運用存在較大的不安全性。
一是算法決策促使相關主體之間搶占數據資源,加劇數據要素聚集和壟斷。算法決策的基礎在于數據,數據天然具有的 “生產價值性、技術可控性與客觀獨立性”[29]使其成為一項新型財產類型,算法對人類決策的替代使得數據資源成為現代極具競爭性的戰略資源。政府部門、技術廠商、平臺企業等通過自身系統和平臺獲取數據,愈加重視對高價值數據的占有而不愿開放共享。在政府數據資源的開發利用過程中,難免會讓技術廠商使用和控制這些數據資源,還可能會導致搶占數據、濫用數據、索取數據等現象。
二是算法理性的 “去人化”,引發數據安全和隱私泄露問題。盡管算法理性能幫助人類提升決策和行動效率,以更有效的手段實現特定目標的那些事務,但這些事務的實現大多是以數據處理為基礎。由于其運算過程和數據采集的 “去人化”,一旦缺乏有效的監管機制,將可能使得社會秩序鏈崩解。
三是數據權力背后潛在著資本力量,利益驅動數據誘發數據偽造、數據欺詐、數據歧視和數據霸權等問題。智能治理過程中形成了以數據為中心的新型權力,通過對收集的數據進行深度學習和特征提取,借助于偽造技術對數據進行篡改和偽造,最終生成的虛假信息會破壞治理秩序。例如,英國倫敦大學科研工作者研發的用于筆跡偽造的人工智能算法可以學習和偽造各種樣式的筆跡,這極有可能在治理活動中被非法利用來獲取利益。
作為公共行政的核心, “責任”構成了治理過程的基礎。在人工智能時代,命運的相互關聯、行動的相互依存決定了責任的重要性[30]。人工智能的深度嵌入使得人與人之間以及人與機器之間的關聯度和依賴性不斷增強,政府治理活動面臨著責任的日益復雜化與模糊化。
一是算法替代人類決策,致使責任承擔主體模糊化。隨著人工智能被運用于越來越多的公共行政場景,現實治理中的主體范圍得到擴大,其存在技術開發者、設計者與使用者的分離,而對于算法決策過程中造成的數據信息泄露或決策錯誤乃至財產損失,如何確定責任承擔主體并執行問責仍有較大難度,治理實踐難免會出現相互推諉責任的現象。關于杭州城市大腦首發的紅綠燈調控問題,盡管杭州交管部門為順利試驗城市大腦攬下責任,但仍未建立明確詳細的責任體系[31]。
二是人類主體角色弱化,引致角色責任意識模糊化,主要指在政府智能治理過程中出現的不能準確判斷自身所扮演的角色和認同所應擔負的責任。算法理性對人類情感和理性的替代,在一定程度上會使得人類的責任意識隨著人類主體角色的迷失和離場而逐漸弱化和模糊。由于嵌入范圍和程度的不同,各主體所處角色和所負責任亦存有差異,角色意識模糊可能會存在將責任歸咎于智能技術本身或者其他主體的現象。
三是算法權力缺乏有效規制,致使責任內容模糊化。人工智能運用存在邊界意味著嵌入治理的范圍和程度有所不同,當然,智能治理過程中所形成的算法權力亦存在強弱之分。在技術公司 “私權力”介入公權力的運行場域之后,由于缺乏相應法律規范的規制,不同時期和不同程度的智能算法治理存有責任內容不明晰的問題,未來需著重關注算法問責的確立和執行難題。
公正是人類社會具有永恒價值的基本理念,也是智能治理實踐必須重點關注的要素。智能算法越來越多地用于支持政府的決策,但算法通常對決策者乃至公眾來說仍然是不透明的。算法偏見與黑箱操縱對公共行政的公平正義的侵蝕加劇了不公平現象,降低了民眾對政府的信任值,當它們應用在治理系統中時,被稱作為民主調制了一杯 “有毒雞尾酒”[32]。政府治理實踐造成的公正減損主要體現為以下方面:
一是算法 “偏見”引發決策不公的價值判斷。算法依賴于大數據,核心數據源頭是人和物,每個政府治理利益相關者既是政府數據的生產者,也是政府數據的消費者。換言之,人工智能算法本質上仍屬于 “人算計人”的思維物化的表現[33]。首先,數據形成過程中的價值偏向成為算法偏見之源,帶有偏見屬性的數據會影響智能治理過程中算法決策的公正性。其次,算法規則的設計過程難免會注入個人價值,亦可能會嵌入主觀隱含的偏見。例如,美國司法系統實行的審前釋放評估系統 (COMPAS),其選擇變量生成的風險評估分數可能將黑人被告錯誤分類為比白人被告更高的風險。
二是算法理性的 “封閉化”引致治理活動有失公正。隨著智能算法取代生物算法,擁有強大算法的技術公司開始對財富和權力的壟斷,這一現象關涉算法理性趨向理性的算法,即它越來越以算法所有者為封閉邊界而運行,這勢必會導致政府治理過程弱化社會利益和公共利益,引致更多的不公正現象。
三是黑箱操縱導致不公正隱患增多。算法權力的快速生長,自動改變著現實公共行政中的規則界線和主導權,算法技術鴻溝使得算法的設計、訓練、使用面臨可信賴危機,在算法暗箱面前人們不得不擔心自己是否被公平對待。在虛擬空間內智能算法會自動按照自身邏輯運行,首先面臨的難題便是算法規則的透明度,其指稱算法所作公共決策的可訪問性和可解釋性[34]。然而,算法通常是不透明且缺乏明確解釋,這意味著外部機構無法評估其是否符合道德要求和法律標準,也無法解釋和理解政府決策做出的依據和情境。相關研究表明,算法可以幫助決策者做出更正確的決策,且可解釋的人工智能結合經驗可以幫助他們檢測算法提出的錯誤建議[35]。
現代智能技術日益顯現出對人的 “身體自然”的替代趨勢,從公共行政價值實現與人類在場之間的關系看,人工智能嵌入所引致的 “人類出場”情景勢必會沖擊傳統的 “以人民為中心”所構建起來的行政價值觀。算法行政的無接觸式和自主性特征,使得處在技術弱勢地位的政府和民眾處于一種 “智能失權”狀態[36],表現出較弱的行動能力和話語權,對技術依賴的增強引致行政自主性的減損化。
一是算法決策引致行政決策自主性受損。人工智能的深度嵌入促使治理活動愈加依賴智能技術進行信息的篩選、計算、分析等,算法決策替代人類決策的情景將不在少數。當智能算法對政府實體決定生成具有高主導性時,它會在自動運行程序中對行政對象的資格和權利進行分配,并做出應對行政任務的決策方案。在人工智能支配初期可能會讓人文主義加速追求健康、幸福和力量,然而,一旦權力從人類手中交給智能算法,人文主義的議題就可能慘遭淘汰[37]。
二是算法理性運用使得主體自主性思維受限。智能算法理性會將行政人員的情感裁量以及民眾潛在的、不可量化的價值理性排除在外,對人工智能的過分依賴反而會容易讓主體成為器物的工具,這常常令人忽略其中的價值立場和人自身被異化的現實。在政府治理現實中較少關注現象本身蘊含的知識價值,欠缺治理實踐現象本質的思考,一味堅持技術拿來主義,跟風新技術的應用甚至借此創造技術治理新現象。
三是算法的強支配力削弱主體的自主行動能力。隨著算法權力逐步獲得 “人類權力”的合法地位,其作用直接表現為算法所產生的影響力和控制力,政府治理對智能算法的依賴性漸趨增強。對于公眾和政府機構而言, “信息繭房可以變成可怕的夢魘”[38],對人工智能的這種依賴以及 “技術上癮”會大幅減弱人們的自主性思考和行動能力。
人工智能技術治理的正向價值實現是政府治理活動的不懈追求和希冀所在,如何消解治理過程中的負面價值,不僅影響人工智能技術的發展走向和未來政府治理的現代化水平,還直接關系到人類社會自身發展的命途。面對人工智能浪潮,只有科學促進人工智能與政府治理的交互融合,才能有效消解智能算法治理過程中存在的價值負效應。為了讓智能算法行政朝著滿足人的需求、改進政府治理績效的目標行進,可從以下方面探尋具體的行動路徑。
在新技術時代,數據的權力化特性日益凸顯,海量實時的數據和強大的算法技術已成為強影響力和控制力形成的基礎,國家面對的將是一個結合資本、技術和權力的數字化壟斷技術群體。政府數據安全治理的前提和基礎在于得到體系完善的法規政策的指導和約束,當前我國政府數據安全治理在法治建設方面相對滯后,配套政策缺乏系統性,難以滿足智能治理實踐的需求。由此,可從以下方面予以完善:
首先,加強數據相關立法供給,明晰主體間的數據權屬分配。數據不是中立和非政治性的,或者僅僅是一個物質實體,重要的是根據數據的傳輸和分配,對數據軌跡產生影響的技術、社會和政治力量的分類[39]。現行數據產權相關規定的不清晰極易導致多方數據主體的利益沖突,有研究從政府、企業和個人角度提出平衡數據權益 “三維配置”的制度框架[40],但治理現實中較難將某種數據權簡單配置某一單獨主體。因此,加強政府數據安全治理與人工智能領域的立法,應充分考慮數據主體的動態利益關系來確認權利配置,及時協調各主體的職責、權益關系,以提升政企間數據共享水平和促進不同主體之間數據資源的交換和流動。
其次,健全政府數據安全審查制度。雖然新實施的 《數據安全法》以及相關法規政策文本明確要建立數據安全審查制度,但相關論述過于宏觀、精簡,可操作性和執行性不強。故而現有法規政策應進一步明確數據安全審查的實施主體、實施機制、審查內容、審查結果等,并完善數據全生命周期方面的安全審查規定。
最后,健全以共享為基礎的數據流通監管制度。數據監管的目的不僅僅是規制算法權力和保障數據安全,還在于促進數據的流通。現有法規政策應確立數據安全和數據共享相結合的監管原則來促進數據流通,這有助于弱化少數平臺企業及其背后的資本所擁有的數據優勢。同時,除了規范事前數據收集外,還有必要從立法角度增加數據流通的事中和事后監管措施,賦予監管機構相應處罰權以規制違法行為。
責任明晰是實現治理透明、建立信任的中心問題。事實上,人工智能的嵌入治理并不必然會帶來公共治理績效的改善,陳舊的制度體系會限制技術應用的廣度和深度,從而影響智能技術賦能的效果[41]。因此,如何構建有效的問責機制來匹配技術的發展,將是政府治理的重要內容。在算法問責方面,美國政府在2021年6月發布 《人工智能技術問責框架》,確定了關鍵問責做法,英國、法國和其他國家也通過立法等形式明確了技術公司的算法技術責任。廣義的算法責任既包括人工智能設計者、研究者的行動內容,也包括使用者政府的治理行為。現階段,我國算法問責制可從以下方面予以完善:
首先,基于政府主導和行業驅動相結合的原則,明確主體責任承擔范圍。政府過多干預會減緩技術的發展創新,但缺乏外在有效規制極易導致出現邊界之外的技術研究和開發。當前我國新一代人工智能應以敏捷式治理為主,要保持技術創新力度和風險規制力度的持續并重、動態均衡[42]。政府應建立總體治理框架,技術公司在遵循框架要求下自主性擬定提升透明度等相關準則,繼而明晰主體責任承擔內容。
其次,堅持權力規制理念,強化主體責任意識。如果將算法作為技術規制的理念會偏重設計者的設計責任,而算法權力的現實運行才是造成負面價值的直接動因,換言之,研發人員能夠解決算法設計的偏見,但無法阻止算法濫用發生。因此,需轉向權力規制,以此督促算法使用者切實對人工智能算法應用負起責任。
最后,建立完善的算法權力問責機制。一方面,明晰算法問責的標準,通過對算法系統采用各種控制措施來檢驗其是否符合設計意圖,并及時有效地識別和糾正有害結果。另一方面,執行相對嚴格的問責制,明確定義責任機制和透明化流程,對于濫用數據、篡改數據、掩蓋透明度等惡意行為執行較為嚴格的問責制。新型技術公司應該積極地將責任嵌入其算法系統之中,以明確行動的責任邊界。
政府治理是圍繞公共行政價值實現而進行的活動,智能技術治理必須積極回應公眾的需求,加快推進 “高質量”服務型政府建設。然而,人工智能核心技術和決策程序的開發設計不可避免地滲透著研發者和設計者的主觀特質,主體采集數據的準確性和客觀性以及數據樣本分析的無偏差也難以得到保證,智能治理不免存在算法偏見和決策不公的可能。基于算法的決策不如基于規則的過程透明或可解釋,盡管具有相同認知偏見的人類決策者可能會改變其決定,但基于偏見的算法決策能夠使大規模歧視長期存在[43]。為了消解政府在智能技術應用過程中的負面價值,可從以下方面予以完善:
首先,培育主體的數據素養和技術責任,建立數據篩選機制。公共行政價值對技術彰顯的是素養和責任,通過優化算法研發和數據采集相關主體人員的培訓教育,提升主體人員的數據素養,以保證數據采集的準確性、客觀性和代表性,降低數據存有的偏差分布。在數據篩選方面,應注重數據的代表性和優化分布,要遵循盡可能全面的數據優于篩選過的 “好”數據, “好”數據優于分布不均、代表性欠缺的數據原則。
其次,堅持算法透明原則,保證智能過程的算法公正。算法透明原則實質上是對智能治理過程的設計提出要求,并對系統的運行進行監督,算法透明確保了民眾對智能治理過程的了解,有利于民眾發現智能算法治理中存在的不公平現象,旨在消除人與智能系統之間的 “數據鴻溝”,確保民眾在理解政府治理工作的基礎上實現公正。
最后,選擇可行的因果推斷和技術性糾偏方法,增強算法透明度和解釋度以規制算法權力的運行。因果推斷方法可避免多數由于算法簡單關聯性引致的公共決策領域的不公平,其在創建公平的算法決策上是必要的。為了彌合因果推理中精確建模傳統與機器學習中的算法黑箱之間的差距,有研究人員提出并開發了穩定學習作為共同點的來源,可有效提升算法的可解釋性和公平性[44]。同時,可使用修正度量或相似度計算來比較主觀性數據較為集中的算法輸出與期望的公平行為,執行嚴格的公平性約束,以減少算法不公正現象發生。
人工智能嵌入治理作為一種新型的治理形態,其最明顯的表象便是算法輔助或者替代決策者做出決定,朝著數字化和自主化決策模式轉變。然而,現實治理中僅僅靠算法理性無法使公共行政活動趨于務實與向善,這在于算法理性無法真正關注到人的全面發展和社會全面進步等內在價值目標,并對價值實現難題做出積極有效的回應。作為程序智能,人工智能治理體現為一種實現程序正義的剛性治理,要實現實質正義還需要彈性治理加以平衡,要求合力保證人類在治理實踐中的自主性[45]。由此,可從以下方面尋求改進:
首先,堅持人的主體性地位,明確算法決策的適用范圍。盡管人工智能在預測力上具有強大的優勢,但并不意味著政府治理過程中的大部分決策都應交由人工智能決定。一方面,要堅持構建以人民為中心的行政價值觀。 “公共行政始終是圍繞行政價值選擇進行的管理活動”[46],應充分認識到人在智能治理活動中的主體性地位,將滿足人民美好生活需要以及實現人的自由全面發展作為智能技術嵌入治理的價值準則,從而克服對智能技術依賴造成的自主性減損。另一方面,審慎決定人工智能應用場景,對于比較敏感的政治倫理領域,應盡量降低人工智能的主導性,在重復性、程序性等弱倫理屬性的行政領域,充分發揮人工智能的價值,提高行政效率與公共服務質量。
其次,樹立科學創新的智能治理理念,運用價值理性牽引人工智能技術的理性。一方面,不斷增強智能治理意識,形成對人工智能技術的正確認識和理解。由于主體自主性的減損在很大程度上是基于對人工智能技術的認知偏差,故而可通過強化認知教育、完善公開渠道和溝通機制、規范信息傳播渠道等方式來提高主體的認知水平。另一方面,將工具理性與價值理性統攝于政府治理的有限理性范疇之內,構建 “以價值的文化內應力和文化軟約束形塑技術”[47]的治理路徑,確立政府主導和算法輔助的政府治理格局。
最后,通過完善相關制度倫理來規制算法權力,繼而提升主體的自主能力。以法律、規則和制度的形式對行政活動做出道德設定,使得治理主體能從合法合理的制度系統中汲取符合公共行政要求的倫理精神,提升主體的道德判斷和自主選擇能力。
人工智能的嵌入促使公共治理過程愈加趨向一種算法化的智慧形態,推動公共行政范式向 “算法行政”轉變。相比較傳統公共行政范式,算法行政引發了人類主體角色轉換的危機,治理主體的權力支配者角色有被算法替代的危險,整個智能治理過程呈現出人類主導轉向算法決策、人類情感與理性轉向算法理性、輔助治理轉向算法支配的形態。政府在運用人工智能技術滿足公眾的需求、提升政府治理價值時,也存有數據共享的不安全性、治理責任的模糊化、算法公正減損化以及技術依賴的自主性損害等價值問題。
當然,我們并不能將由此產生的 “負效應”歸咎于智能技術,賦予其 “原罪”的性質,繼而主張廢止科技應用。治理本身與價值存在著天然的不可分割性,人工智能的嵌入治理既是人類智能的擴展,亦是人類價值系統的延伸,必然要包含對人類倫理價值的考量。因此,需要始終堅持把增進人類福祉作為公共行政終極價值,從保障政府數據安全、明晰算法問責、增強算法透明度以及提升主體自主性等方面尋求有效的回歸路徑,最大化地將人工智能優勢轉化為政府治理效能,更好地促進人和社會的全面發展。