當今世界,全球科技與產業變革深刻重塑人類社會的生產、生活與治理模式,以數字化、智能化、融合化為特征的技術演進構建一個由算法邏輯主導的數字空間。生成式人工智能的發展主要遵循經驗主義認識論路徑,通過大規模數據訓練使語言模型能夠模擬人類經驗,運用邏輯和數學工具來分析抽象概念[1]。在這一背景下,為推進數字政府3.0建設,生成式人工智能技術已廣泛應用于民主選舉、城市治理、公共服務等行政決策領域。但人工智能系統通過數據訓練獲得的“經驗\"難以形成對世界的完整認知,本質上受限于既有數據庫,無法真正理解人類社會經驗,其推理過程缺乏必然性保證,人類也只能單方面解讀人工智能的輸出,而非實現雙向理解。在面對行政決策中特有的高度復雜性和不確定性時,經驗主義的局限性日益顯現。這種認知局限使人工智能在參與行政決策過程中呈現多重復雜性風險:如可能削弱人類主體性、行政權力擴散等。因此,必須為技術應用設定明確邊界,防止陷入“技術擺置\"的困境。設定生成式人工智能參與行政決策的邊界,關鍵在于嚴格遵循人類預設的定義、條件與程序來發揮作用,以持續提高決策處理的效率[2]。在行政決策領域,生成式人工智能的根本價值在于服務人類發展,而非引領社會智慧升級,人類既不能完全賦權人工智能系統,也不應固守傳統模式,需秉持\"生命行政\"的人機共生理念,將“碳基人”(現實世界的人)和“硅基人”(數字空間的人)都視為擁有生命體驗的存在者,構建人機合作的混合決策機制?;诖耍疚膰L試躍出經驗主義和控制論的局限,從人機合作的倫理建構角度辨析生成式人工智能參與行政決策可能存在的風險,并針對這些風險相應提出以建構生命行政為目標的治理之道。
一、生成式人工智能參與行政決策的邏輯
現代國家治理邏輯是從君主制時期統治者壟斷生殺大權,逐漸轉向通過教育、司法、監獄等規訓系統塑造社會主體,并借助人口調控、公共衛生等生命政治技術優化社會機體。這種轉型揭示現代權力的核心特征——依托“知識一權力\"復合體對生命進行精密管理,使生命成為可量化、可調控的治理對象,治理技術呈現日益隱蔽化、精細化的趨勢。這使現代行政決策面臨信息過載和系統復雜性等多重挑戰,對決策的創新性與效率提出更高要求。生成式人工智能的出現為快速處理海量信息提供了新的技術路徑。但在經驗主義框架下發展起來的生成式人工智能,將知識狹隘地限定于可量化、可觀測與可計算的數據范疇之內。公共行政的目標被簡化為一個生成性標準,公共組織的所有發展都服務于這一標準的實現,并以目標標準所隱含的規范為價值基準[3]。這種取向不僅進一步鞏固了經驗主義自身的局限,也使決策生成陷入經驗主義的陷阱。值得警惕的是,數據驅動決策生成本質上是將豐富多元的思維模式簡化為單一的數理邏輯和機械思維,這種決策方式會將那些無法被量化的經驗,如情感體驗、道德及難以形式化的實踐智慧等,被系統性地排除在決策依據之外,從而可能引發人機決策沖突。因此,有必要深人理解人工智能介人行政決策的內在邏輯以便更好地使用技術工具:如何獲取和解讀用戶數據?如何基于既有信息生成所謂“創新\"方案?在數據驅動逐漸成為主導決策范式的背景下,如何重構原有的行政權力結構與責任機制?
(一)擺置
技術的本質,在海德格爾看來,應當是一種解蔽方式。但是,我們今天的技術在解明一些事物的同時,還通過算法的推送帶來了更多的遮蔽,讓人們集體陷人一種被技術擺置的社會中。其中,生成式人工智能已經將自身所具備的擺置潛力展現出來,令哲學、管理學家頗感擔憂。當前,生成式人工智能于社會各領域的廣泛應用,成為一種超越社會統計學的新治理術。這即是說,算法模型能夠借助技術的擺置能力,調動廣泛分布于社會中的終端設備,實現諸如評分、排名與推薦等功能,實現對人類的軟性引導。這種能力不僅能夠塑造個體偏好,甚至能夠影響整體社會的預期,進而實現從微觀到宏觀層面的現實世界重塑。從系譜學的角度劃分,我們可以將機器的演化分為三個階段:工業社會的經典機器可以被視為“他物反思”(reflexioninanderes),馮·諾伊曼機器則是自我反思(reflexion insich),“大腦機器\"是“大腦機器\"對自我與他者反思的自我反思(reflexion in sichderreflexion in sichund anderes)[4](P134)。這種系譜可以幫助我們識別出,目前的生成式人工智能就在第二階段與第三個階段的接縫處,算法借助其籠罩性和通過機器學習模擬出的混合反思性,獲得前所未有的擺置能力,使包裹在內的用戶無論是否出于自愿,都會不斷喪失對自身行動的決定權。即便一個人拒絕向算法提供任何有關自己的數據,也無法改變數字技術對自己的擺置,因為算法也可以通過該用戶周圍或相關的行動者網絡將那些“數據洞\"補上。可見,大型的互聯網平臺正在通過信用評分、興趣偏好和點擊行為對用戶進行建模、側寫、賦值,并以此決定能接觸到的信息范圍、產品價格和服務等級,這種深層編碼不再表現為外在的行政命令或法律制裁,而是一種隱含在算法邏輯下的身份轉移[5],使人類在無意識的狀況下接受算法安排,提供決策所需的用戶信息。
(二)堆疊機制
傳統算法進行決策的底層邏輯主要依賴的是統計,根據指定的計算將輸入的數據轉換為所需的輸出[6](P182),人工智能的出現使算法變得更強大,不僅能夠直接從數據中自主學習,還能根據其識別的模式自主選擇影響決策的因素[7],作出在經濟學意義上更優的決策。這種演進促使人工智能從被動的工具性存在逐漸轉變為具備共識與共作潛能的類主體[8]。人工智能的學習過程可被概念化為\"堆疊\"機制——即通過海量語料訓練和算法迭代,促使生成式人工智能形成具有邏輯連貫性的輸出能力,使人工智能在參與行政決策過程中能夠利用算法給出概率推理來支持決策。技術似乎首次從一種控制變量變成控制主體,而人類被籠罩在人工智能設計的“數托邦\"中,既無法洞穿算法黑箱,又難以擺脫自身對數字技術的依賴[9]。從本體論的角度看,這種堆疊是一種經驗主義的數據匯總,匯總人類決策行動所形成的多數結果。這使生成式人工智能可以融合多源數據、實時信息和多模態數據構建預測模型,模擬人類推理與語言表達的創造性輸出功能,為動態決策提供技術支持。在這個意義上,今天參與到行政領域之中的生成式人工智能,其形成決策建議的本質依然是以統計學為基礎的“治理術”,只不過它的決策速度在大數據的支撐下比20世紀的人力計算有了幾個數量級的提升。這種數據驅動的、本質上并不先進的決策方法,卻在今天數字技術的籠罩性之下,開始重塑公共部門形成決策的行政學范式。
(三)重塑權力結構
在數據驅動決策模式下,我們觀察到一個浮出水面的巨大變化趨勢,即權力結構正經歷從科層組織的層級機構向合作制組織的網絡結構轉型[10]。傳統科層制以等級分明的組織架構和規章制度為權力基礎,運行機制高度依賴對組織資源流和信息流的層級控制,而且這種層級控制是單向的、逐級的,越級或逆向的流動均是不被組織支持的。這種治理模式便于管理,但在數字時代表現出很大的局限性:一是決策所需數據必須通過漫長的行政鏈條傳遞,導致信息失真與滯后;二是科層體系對數據的收集與處理能力有限,難以真正掌握數據控制權。在“數字政府3.0\"的框架下,生成式人工智能在行政體系的深度應用正在彌補局限,重構權力格局,即數據資源和算法能力成為新型影響力來源,數據掌握者可直接參與決策過程;人工智能參與行政決策實質性降低了對傳統科層體系的依賴。這種轉變在地方實踐中已顯現成效,如杭州市數據管理局的人工智能工程師團隊憑借“政策建議直通車\"機制,技術解釋可直接進入市長辦公會決策議程;又如,深圳市發布《深圳經濟特區人工智能產業促進條例》,要求政府在使用人工智能決策系統時應公開數據來源與決策邏輯摘要,這種決策模式在優化資源配置的同時,顯著降低了決策中的主觀性和政治干預風險,為提升治理效能提供了新的技術路徑。
根據以上生成式人工智能的邏輯特點,如果使用封閉的專用數據庫訓練,那么它可以處理大部分基層政府的日常行政事務,尤其是在解放行政人員的日常工作壓力方面效果顯著。但是,在使用生成式人工智能參與行政決策的問題上,公共部門會遭遇一個兩難困境,即如果使用開放的數據庫去訓練它,生成式人工智能的大模型很容易遭到錯誤信息的“污染”,但若堅持使用封閉的數據庫訓練,生成式人工智能的決策邏輯只能是基于計算的功利主義邏輯,泛用性將大大下降。因此,想要脫困就必須進一步分析生成式人工智能參與行政決策可能引發何種風險,以及這些風險的本質究竟是什么。只有厘清了這些風險的類型,才能有針對性地開展治理。
必須看到,隨著生成式人工智能深度融人行政體系,要在數字時代保持生機和價值多樣性,就需建立一套新的治理話語,建立適應人機共生的倫理保護機制,為人類倫理演進保留根基。為了實現這一目標,建立一種“生命行政\"是必要的。生命行政這一概念主要參考的是??略?0世紀末提出的“生命政治\"思想,生命行政關注的是人(包括現實世界的“碳基人”,也包括數字空間的“硅基人\")的生命狀態、質量、健康、壽命、感受。生命行政理論范式是對傳統公共行政理念的超越性重構,強調實現人機社會的倫理轉向,關注“碳基人\"與“硅基人\"在數字時代的生命狀態、質量、健康、壽命、感受,通過生命行政的治理術實現對生命主體的賦能,核心理念在于行政實踐對“生命感受\"的形塑作用,這種感受既源于人與人工智能在認知維度上的層累,也源于情感意義上的不斷堆疊。生命行政旨在突破以數據統計為圭桌的算法治理桎梏,在數智時代它可以作為一種公共行政開啟范式轉型的路標性的概念。生命行政不只是一種理念,更是一種針對數字技術與傳統行政體系相互歸屬、相互嵌入后可能引發的諸種倫理風險的回應。因此,在討論生命行政這一最關注倫理和過程的行政學范式之前,需完成的前置工作是識別生成式人工智能深度參與行政決策可能引發的風險。
二、生成式人工智能隱含的決策風險
盡管當前的生成式人工智能在諸多領域展現出一定的創造能力,能夠針對同一問題給出多種解答,且不與數據庫中的條目重復[11]。但從經驗主義視角看,人工智能的創作成果本質上仍是對數據庫中現有參數的調整與重新排列組合,并未超出參數設置的范圍[11]。這意味著當生成式人工智能深度參與決策時,會在行政體系中引發諸多倫理風險。首當其沖的風險就是過度依賴算法可能削弱人類決策者的認知能力,導致喪失人類自身主體性;其次,人工智能的擬像會遮蔽真實,人類的技術崇拜會加劇行政系統的脆弱性;再次,生成式人工智能的廣泛應用可能導致行政人員最大限度地采納算法的建議,幫助本應被追責的人找到將責任推卸給機器的借口,從而加劇行政權力被算法稀釋的風險。人類必須意識到在經驗主義局限下,行政決策領域的技術效率提升與倫理風險累積都在加速,越來越多以數字形式呈現在公眾面前的政府行為和政府履責空前透明的情況發生[12]。這種高度可視的履責會給行政部門(尤其是基層行政部門)帶來前所未有的壓力,而這些壓力又會促使行政部門將更多的日常行政工作與生成式人工智能連接在一起,形成一種行政數字化建設快速推進的繁榮假象。
(一)主體性危機
過度依賴生成式人工智能可能帶來的最大危機,是人類認知與判斷能力遭到算法削弱的危機。人類的進步是基于對經驗的積累與反思,技能的進步依賴從長期記憶中對知識的檢索和實踐頻率,但生成式人工智能的技術路線和方法主要來源于經驗主義認識論,即算法基于數據堆疊,使機器學習無法像人類一樣通過與環境交互形成條件反射或操作性條件反射,導致人工智能受限于感官經驗和歷史路徑,無法從過往的決策經驗中生成普適的抽象概念供人類使用。一旦在行政決策中過于依賴生成式人工智能的使用,就意味著人類的認知會受到人工智能信息偏狹供給的影響,被束縛于刻意編制的信息繭房,并且繼續為下一步的決策提供數據原料[13]。同時,該行為又會通過回音壁效應進一步固化先前認知,依次循環逐漸弱化認知和判斷能力。人類因無法實時監控算法決策的每一個程序或者無從實施監控,開始假設系統是萬無一失的,也就不再主動監控正在發生的事情,這種面對風險的消極態度會導致風險的不斷積聚,還會進一步切斷人類獲得經驗和提升技術控制能力的渠道,弱化了人類的判斷力[14]。
在人類無法完全控制算法黑箱的背景下,將高效但不完美的人工智能引人行政決策意味著權力主體的轉移,人工智能逐漸接替了人類在傳統管理中的決策者角色。經驗主義的分支——行為主義強調人類的心理可以通過行為表現出來,但人工智能的決策過程保存在算法黑箱中,人類無從得知,這種不透明的本質是經驗主義的可觀測性的不適用和人類對技術的不完全控制,導致技術在“現實可能性”和“價值觀念”雙重維度上影響和重塑人類社會的權力結構。原本行政部門追求效率是為了盡可能地利用稀缺的資源以實現有價值的公共目標[15],但算法決策的效率成為數字時代人類追求的目標和實現價值的方式之一,從而使人工智能間接獲得行政決策的話語權,成為事實上的“決策參與者”。以司法領域為例,當法院使用人工智能進行量刑判斷時,法官不僅會喪失司法裁量權,還可能被迫機械地執行人工智能生成的結果,從而導致司法獨立性和專業判斷的弱化。隨著人的主體性不斷喪失,在某個時間節點將出現主客體關系被技術回退到主奴關系并倒置人與機器角色的情形,此時的人扮演了一種為機器正常運作提供必要保障的服務者角色。在可預見的未來,生成式人工智能技術的發展只會加速這種令人擔憂的發展趨勢。事實上,今天我們便可以觀察到這一趨勢初現端倪,許多現代人已經敏銳地感覺到,公司不是給每個員工配備了一臺電腦,而是給每臺電腦配備了一名操作員[15]。因此,在行政決策中引人人工智能技術時,必須強調人在技術應用中的核心作用和人的主體地位,防止技術精英壟斷決策權。
決策行為(尤其是決策失誤)的責任主體難以判斷。經驗主義認識論中的行動者通常是指具有自由意志、自主權力和責任能力的自然人或法人,核心假定是社會后果可追溯到明確的自然人或法人主體。但當人工智能能夠自主執行社會行動并產生實際影響時,公務員在政策理解、溝通協調、創造性執行等關鍵能力上的退化,會無可避免地出現責任歸屬模糊問題,這也為推諉避責等官僚主義頑疾的滋生提供了溫床[16]。同時,經驗主義預設的“行為一結果\"的因果鏈條,也會因生成式人工智能的全面介人而變成歸責盲區。例如,社會福利政策的制定、自然災害的預測等涉及公共利益的決策場景,如何界定產生影響生存權利的決策是算法決策的單一行為,還是界定為使用者或開發者的延伸行為。又如,在自動駕駛場景中,人工智能行使主駕駛的權力,人類承擔副駕駛的責任,雖然人機共享控制權,但在高風險或關鍵安全環境中,對不良后果責任劃分難以將責任完全劃分給機器智能、行為者或責任鏈條中的系統開發者。在復雜的責任鏈條中,人類的自滿不會將人工智能的判斷作為對自己判斷的檢查或咨詢自己的判斷,而是直接采納算法推薦的內容,進一步加劇責任主體的劃分難度。這些反映出,人無法僅享受人工智能輔助決策帶來的行政便利,而不去承擔這樣做帶來的諸多風險。
(二)行政脆弱
經驗主義認為,一切知識最終來源于感官經驗(如觀察與實驗),而理性僅是對經驗的加工與整理,因為僅憑個人感官是無法直接把握事物本質的;因此,同樣基于有限的數據進行感知的人工智能,也無法從局部的、歷史性的經驗中必然地推導出普遍規律或準確預測未來。在參與行政決策時,技術系統常以“最優效率\"為名壓制差異,算法推薦機制進一步加劇信息繭房效應,實質上構成一種新型的、系統性的支配暴力,加之盲目的技術崇拜,使行政系統變得愈發脆弱。
技術修補行為進一步強化對技術的盲目崇拜。當前社會對數字地球、數字經濟等的狂熱追求,實則反映出技術意識正在退化為一種新形態的技術無意識——技術被再度簡化為效率工具,使人類陷入更隱蔽的技術依賴與盲目性。人們傾向于認為任何社會問題皆可通過引入新技術得以解決,卻忽視了管理改革、制度建設等非技術手段的重要性。這種思維導致技術帶來的直接經濟效益僅能提供短期便利,而對諸如隱私泄露、安全漏洞等長期風險,則缺乏系統性評估與應對預案。人們寄望于通過持續的技術修補以釋放更大價值,卻未能建立審慎治理的思維框架。當人類將人工智能系統的可量化數據奉為價值判斷的唯一準繩時,這種技術理性主義實質上構成對多元價值的貶損——包括心理福祉的不可測量性、隱私權的非工具性價值,以及對弱勢群體的倫理關懷等本質性議題的系統性遮蔽。行政決策本質是價值權衡(如公平與效率的取舍),若由人工智能主導,會導致技術加速主義和唯效率主義大行其道。按照熵增定律,當前的技術文明猶如一場賭局:明知系統存在根本性漏洞,仍寄望于技術奇點以延遲危機,如過度依賴碳捕捉技術、星際殖民等未來構想來延遲當前的氣候危機[17](P99)。因此,每一次的技術補救都在持續加深對技術的系統性依賴,從而陷人“越修補,越依賴\"的惡性循環。
技術崇拜加劇行政系統的脆弱性。一是行政系統的反饋循環斷裂。行政決策采納公眾意見的本質是一種控制論意義上的“負反饋\"機制,通過多元反饋不斷糾正偏差、實現動態調適,并推動政策效果的持續評估。然而,生成式人工智能的決策基于歷史數據訓練,若訓練數據中存在結構性偏見(如種族、性別歧視),輸出結果會通過自我合法化進一步固化既有不公。當人工智能切斷決策者與公眾之間的真實反饋通道后,就會形成一種“閉門造車\"式的技術精英統治,從而動搖行政系統的合法性根基。以某些面向大眾的商業專用人工智能為例,其訓練數據往往難以全面覆蓋全人類及各社群,數據越豐富的地區往往分析結果更精準,而在數據稀缺地區更有可能出現預測失準,甚至難以有效支持諸如社會信用體系建設等行政目標,后者的智能化投入反而為整個治理系統引入了新的不確定性,使行政系統面對更復雜的風險。二是真實與擬像的混淆可能導致決策者忽視社會真實矛盾。生成式人工智能基于概率模型生成政策建議,內容本質是對歷史數據的模仿與重組,而非源于對現實的深刻洞察。若行政決策者過度依賴此類技術,則可能被海德格爾所揭示的技術“座架\"(Ge-stell)所限定,陷入單一計算性思維。人工智能生成的擬像逐漸遮蔽真實,混淆數據擬合與實際需求,不僅會模糊決策者對社會矛盾本質的認知,還會導致行政判斷力下降。與此同時,人工智能從輔助工具逐漸演變為實際決策主體,發生“功能蠕變\"(functioncreep),使人類在閉環決策循環中逐步喪失有效干預的能力,最終造成行政系統難以回調的困境。
(三)行政權威稀釋
數字社會的發展使公共權力多元化成為行政體系的一個重要特征,行政體系在追求效率的同時,國家公權力主體因技術賦權,權力影響繼續被實質性地強化,甚至產生新的“數字行政”;同時,就作為數據控制者的互聯網企業和平臺而言,它們因實際參與社會公共生活并進行社會治理,也在實操意義上將所具有的社會權力悄然轉化為“準公權力”,改變了公權力僅由國家機關享有的傳統格局[8]。數字時代的數據權力的產生類似于契約權力的產生,需要人們通過個體權利的出讓來形成強大的權力形式[18],這導致在生成式人工智能介入行政決策后行政權力從集中化向分散化、多中心化演變,即數字政府的建設不僅是權力主體的多樣化,更是權力的分散化,技術系統獲得事實上的規則制定權和行政裁量權,間接削弱了政府的行政裁量權,從而稀釋了公共部門的權威。科斯定理由于在數據資源和權屬分配上秉持絕對的“效率觀”,結果必然導致更嚴重的數字霸權、平臺壟斷和數字不平等。權力擴散的根本原因并非數據資源的分配失衡,而是潛在資源和技術背后的不同社會主體間權力關系的變化。但實際上,科技公司的投資及其承擔的風險均源于市場,這些市場原則使其合法地獲取財富、積累資本。與之相對的是,即便科技公司實際上掌握了權力,市場也無法成為這些權力合法性的來源。政治領域不同于市場,衡量政治權力合法性的原則與衡量商業成功的原則也不同。財富、名氣甚至地位都可以在市場上合法掙得,但不包括權力;權力的獲得必須參考政治原則,而不是經濟原則[19](P334)。數字技術改變了傳統的權力運作與分配機制,社會多元主體通過掌握一定的資源而獲得參與行政決策和更高層級的數據共享與行政資源整合的能力[20]。傳統行政決策權由政府掌握,而政府為提升決策效能借助算法的預測分析能力實現技術賦能行政決策,使技術公司、算法開發者、數據供應商等多元主體通過模型訓練、參數設置方式間接參與決策,形成“政府一技術主體一公眾\"三角權力結構。
更深層次的風險在于被其他主體抽走部分行政權的公共部門,誤以為權力的流失是源于自身數字化程度的不足,進而在更頻繁地使用生成式人工智能的過程中遭遇更嚴重的行政程序空心化。這一空心化的實質,是數據權力可以拓展權力的使用范圍與促進權力關系重組[21],導致技術參差賦權,引發數據控制者與被控制者之間出現權力結構的變動調整。數字技術本應賦予所有社會主體平等的政治參與機會,然而現實中的利益博弈和價值壟斷扭曲了這種理論上的機會平等,使數據控制者始終占據賦權鏈條的頂端[8]。人工智能技術的發展高度依賴科技巨頭的持續創新,而政府的技術采納又不得不受制于企業設定的技術標準,這實質上構成一種隱蔽的決策權讓渡,最終導致技術被政治化,甚至表現出特定的指向性。當人工智能生成合規的決策方案時,基層行政部門往往傾向于機械執行,忽視個案的特殊性與社會情境的復雜性。長此以往,行政體系將逐漸喪失實質性判斷能力,淪為算法的執行終端。當前算法決策缺乏結構性監管,即通過政治干預確保技術權力不會集中在少數公司或個人的手中,防止大型科技公司因過于強大而獲得集中權力的機會。若放任科技巨頭壟斷關鍵基礎設施,其權力膨脹將遠超社會可承受的限度,即如果某一平臺壟斷特定領域的感知控制設備,該平臺將獲得塑造人類行為的超常能力。毫無疑問,這種在信息時代出現的信息高度集中的平臺,無論它實際的控制者是誰,都將成為壟斷權力的專制者[19](P340)。
三、以“生命行政”為自標的參與
在本體論維度上,生命行政確立了人類作為倫理責任主體的核心地位,一切行政的最終目的都是為了盡可能地解放人,給人自由,而不是讓技術和算法去操縱人,或者去集置社會。雖然人工智能系統能夠快速生成道德判斷,但其倫理推理存在解釋性不足的根本缺陷;相比之下,人類在價值權衡與道德論證方面具有不可替代的認知優勢。算法開發者必須審慎地將人類社會的主流價值觀編碼人智能系統,而非任由機器基于純粹的計算邏輯進行決策[22]。這也是生命行政的創新之處,它構建了一種優勢互補的人機混合決策框架:人類審核者主導價值排序與決策歸類等規范性工作,算法系統則專注于數據處理與模式識別等計算性任務,由此形成包含事前倫理審查與事后責任追溯的完整治理閉環[23]。在認識論層面,生命行政理論將人工智能定位為人類在數字世界的延伸,主張技術發展應回歸工具性本質,以服務而非替代人類為根本目標,核心價值在于推動算法倫理的漸進式調適,使之與人類文明的價值體系動態協調,防止技術理性異化為脫離價值約束的支配性力量。因此,行政體系中的重大決策必須遵循“人類全程授權\"原則——所有關鍵決策節點均需保留人類參與和最終裁量權[15]。這種制度化的安全閥設計,既能有效防范算法決策的系統性風險與權利侵害,又可確保人類始終保有對智能系統的終極控制權。
(一)以倫理轉向保護人類主體性
通過新的啟蒙來建立一種適應數字時代的倫理體系,在人與機器的邊界愈發模糊的時代重新尋回人的主體性,是當代政治哲學和行政哲學學者的共同愿景。討論尋回主體性,就需要先明確人的主體性究竟是如何產生的?!澳X機”(或稱“大腦機器\")是對自我與他者反思的自我反思(第一反思),而人的第一反思,也就是人對于自我存在論的思考,產生了主體性。正因如此,我們才說生成式人工智能參與決策導致的是人的主體性的出走,而非機器或技物對人的主體性的替換,因為人工智能尚不具備反思的能力(雖然它具備根據數據反饋自我修正的能力,但這明顯有別于人在哲學意義上進行的反思)。明確了這一點之后,尋回人的主體性的倫理轉向只能來自人的道德努力,而這種努力首先應完成的是,構建以人機互補協作為邊界的行政決策模式,確保人類主體性與技術賦能之間的動態平衡。該范式并非簡單地人機功能疊加,而是基于認知分工理論構建的有機協作機制——在保障人類終極決策權的前提下,充分發揮人工智能的輔助性優勢,實現行政效能的質效提升。從認知科學視角,人類決策者在復雜情境下面臨固有的認知局限:當信息過載時,人類思維會從分析模式自動切換為判斷力和直覺模式,依賴概念化抽象來簡化決策環境[24]。
雖然這種高階抽象能力是人類智能的優勢,但在應對突發性、威脅性情境時,往往伴隨注意力分散與判斷力下降等風險。與之形成鮮明互補的是,人工智能系統具備持續穩定、高速精準的數據處理能力,能夠有效彌補人類在信息處理廣度與深度上的不足,二者共同構成最優的決策耦合機制。引入人機協同機制后,人類決策者可以對算法輸出進行價值校準與情境修正,顯著提升決策的魯棒性。在這個意義上,生命行政的本質在于重構人機倫理關系:一方面,堅持技術工具論的基本立場,確保人工智能始終處于輔助性地位;另一方面,承認人工智能作為平等認知主體的參與權,通過深度交互形成決策共同體。在該決策生態系統中,人類通過價值引導與風險管控維護決策的倫理安全性,人工智能則通過數據賦能提升決策的科學精確性,二者協同構成對社會治理的系統性保障。最終實現的不是技術對人的替代,而是人機智能的融合共生——既充分發揮技術效能,又始終捍衛人類在價值判斷與終極決策中的主體性地位。
(二)確立以服務于人為核心的算法倫理
將算法決策定義為政策導向算法,即數字平臺與算法規則需將法律條文及社會共識性價值觀編碼為可執行的運算邏輯[25],從而確保算法輸出符合人類倫理框架,有效防范數據型權力濫用。人工智能系統雖能獲取超越人類感知范圍的信息,并以獨特方式解析事物本質,但這種認知優勢同時伴隨算法污染的風險——數據偏差或模型缺陷可能導致決策偏離最優路徑,甚至導向系統性錯誤。不可否認,算法會揭示人們生活在“洞穴”之中這個事實,只有在它的引導下才能走出“洞穴”,然而算法沒有揭示的另一半事實就是,走出“洞穴\"后人們看到的并不是真實世界,而是算法生成的圖像世界。人工智能并沒有撒謊,但最高明的謊言往往都是由(不完整的)事實構成的,單獨看每一句都為真,但合在一起就構成最大的謊言。因此,將法律規范與社會倫理轉化為算法可識別的編碼標準成為規避技術倫理風險的關鍵路徑。這種倫理嵌人型算法設計使人類決策者能夠通過預設審查機制驗證算法輸出的價值觀一致性,建立不依賴算法透明性的程序問責制。具體而言,經過充分設計的算法系統可通過結構化測試(如公平性審計、偏見檢測等)確保決策質量[26],即便不完全破解“黑匣子”,也能實現目標的可驗證性與過程的可問責性。這種驗證優先的治理思路,既尊重算法的技術特性,又堅守了人類價值底線,為人機協同決策提供了可靠的制度保障[27]
確立以人為核心的算法倫理,意味著決策所依據的不再是那些可量化的數據能否提高,而是依據人能真切感受到的生命體驗和社會整體福祉的漲落。以人為核心的算法倫理,隱含著要揚棄以數目字為核心的算法倫理的根本要求——在無人干預的情況下,以數目字為核心的算法將是最容易獲得技術優勢的算法。因為,代表資本的技術企業最樂見其成的就是將鮮活的個體轉化為沒有性別、無分老幼的抽象數目字的治理模式,這樣資本就可以賦予這些個體“勞動力\"“消費者\"或“市民\"等去性別化的名字,再將他們打散并遣送入分工協作的社會生產體系中。在數字時代,社會分層將呈現工業化分層系統和數字化分層系統并存的復雜樣態,掌握著工業生產資料的部分群體依托舊社會制度中的資源,仍能擁有遠超均值的財富、權力和聲望,而掌握算法和信息資源的部分群體則快速地積累財富并獲得他們的權力和聲望,這兩部分群體為了維護各自的權利,將在社會內部頻發沖突。這就需要公共部門的積極干預,將以人為本的原則貫徹到算法倫理的生成之中,維護公共利益不會受損。
(三)混合決策中的人機關系重構
人機混合決策的前提是尋回人機合作中人失去的主體性,確立技術服務于人的生命行政原則,一切倫理和法律關系都是在此原則之上搭建的?;旌蠜Q策的實現首先需要賦予這種模式以充分的合法性,在行政倫理、決策效能和權力平衡之間建立動態的協調機制,防止行政權被算法的權力不斷蠶食。這種動態協調機制的設計要解決的一個根本性矛盾是,行政系統既需通過自動化提升決策效率,又必須保留人類自由裁量權以確保問責可能,而人機混合決策模式恰恰在這一張力中不斷趨近帕累托最優——在適度約束算法自主性的前提下,達成行政質量與效率的辯證統一。但混合決策環境提出了超出對純自動化傳統理解,不能僅從數據保護、問責制和透明度等角度討論混合決策,還應從生命行政角度將混合決策納入行政法律中,從更高層次的法律中規范算法決策運行的一般原則,從法律角度賦予算法法律人格。在新的治理范式下,通過硬性行政推出法規,建立標準化與規范化的法規對算法決策進行強制約束,明確人機權責,確保自由裁量權和保證人的決策權威。行政決策是針對公共利益而制定的,有必要讓利益相關方都參與到協商和治理過程,確保人機合作決策系統的公開透明。因此,明確責任應是決策過程中所有利益相關方的組合責任,從前端開發者到終端決策者形成責任鏈條,每個環節都有責任人對協作過程負責,建立責任追溯機制以明確不同責任者的責任范圍,從而確保決策的可靠性和有效性。通過軟性行政(如監督、技術標準制定等)對人工智能進行監管,根據公眾提供的數據進一步深化對機器智能的訓練,在未來的決策中不會因數據堆疊產生人工智能污染或作出誤判。這將是一種新型且更加強有力的民主形式,是協商民主、直接民主、維基民主、數據民主和人工智能民主等關鍵要素的集合,而不是令人厭煩的競爭性精英主義模式[19](P333)
人機共生的決策模式需要與全新的公共行政理論結合,而不是向修補過的傳統行政模式妥協。生成式人工智能參與行政決策標志著技術客體向決策主體的轉向,技術物第一次以主體的身份出現,這一轉向要求突破傳統監管思維,構建基于“準主體性\"認知的新型決策框架,實現主體性重構、制度創新與運行機制保障。生成式人工智能參與行政決策的邊界設定,本質上體現了“有限賦權”原則——在承認人工智能輔助決策價值的基礎上,通過制度性保障守住人類價值判斷的終極防線。人機合作決策模式包含三個核心機制。一是動態協同機制,在行政事務中賦予人工智能決策權的同時,設置“人類否決權\"等關鍵干預節點,確保人在重大決策中始終掌握核心決策權,實現人機權能的動態配置。二是分層責任認定體系,通過“技術一制度\"雙軌問責機制要求算法保持必要的透明度與可解釋性,制度層面明確人類對最終決策的法律責任,將人類社會與決策中的利益相關者的目的與倫理以標準化和流程化的方式寫人人工智能系統,確保決策從代碼到最終生成的決策都是透明的,能得到解釋的[28]。三是完善倫理校準機制,將行政倫理轉化為可計算的參數,確保算法輸出符合行政倫理要求。人類決策者能夠在決策過程中依據特定需求與目標對決策過程進行校正,確保最終結果是符合人類利益需求的。這樣在滿足高效行政決策的前提下,既可以符合人類社會的倫理標準,又能在技術不斷演進的過程中確保行政人員行政能力建設和政府行政能力的提升。
四、結語
生成式人工智能參與行政決策打破了傳統科層體系的決策模式,標志著人機混合決策時代的到來。這一變革不僅顯著提升了行政效率,使政府能夠對復雜問題作出快速響應并提供精準解決方案,更推動行政決策模式向智能化、可持續化方向演進。在這一新型決策范式中,人類通過價值引導和規則設定確保生成式人工智能的決策行為符合社會倫理與公共需求,而人工智能憑借強大的數據處理能力輔助人類進行科學決策,二者形成優勢互補的協同關系,共同構建人機共生的現代化治理體系。然而由算法主導的數字世界就本質而言,是一個拼裝的“樂高世界”,它通過世界的圖像化和視覺依賴集置所有人[26],生成式人工智能恰恰在這個拼裝的樂高世界中最能發揮其集置社會的能力。為中和算法提供的計算式治理產生的風險,一個簡單但可行的方式就是強調一種與算法倫理相反的新治理術。新的治理術應從技術作為集置的這一本質規定上重思人與智能機器的關系,打破“技術一制度的座架”,走向一種重視人的感受、生命質量、健康和預期壽命的生命行政,構建一種以行政倫理為根基的新型公共治理模式,以此應對從工業文明向數字文明轉型過程中涌現的復雜社會風險。生命行政不同于傳統的行政模式,它將行政的最終目標與一切生成性的標準剝離開來,轉而將其設置為一種盡可能地解放人、給人自由的,而非以技術操縱人或者集置社會的過程性目標[3]。生命行政這種對過程性的強調,從一種動態和發展的角度超越了經驗主義的局限,能為構建良性的人機共生關系,實現行政決策從經驗主義決定論到人機混合決策的倫理轉向創造更積極的外部環境。
在該理念下確立的生成式人工智能參與行政決策的邊界將是:人與人工智能之間不再是所屬的主客體關系,而是具有平等道德地位但有分工差異的共生有機體。這是一種對機械有機主義的揚棄。公共部門需要在決策過程中建立對人機合作系統的動態評估機制,持續監控人工智能的決策影響,通過數據全生命周期共治模式,確保數據在流轉過程中每個環節都能加強決策質量與安全管控[29]。通過混合決策機制,人工智能獲得與其技術特征相匹配的參與權限,人類憑借價值判斷與規則制定的主體性地位對算法決策實施全過程倫理監督,并通過技術設計的價值嵌人與機制約束,平衡效率追求與風險防控[30]。這既可以保障人工智能按照預設規則參與決策,又強化人類對技術應用的主導權。這種權責分配可以理解為在比例主義的治理中,治理者需要賦予被治理者成為分母的權利;同時,被治理者需要承擔成為分子的責任,并通過成為分子來證明自身的社會合法性。這不僅意味著任何智能系統都應定位于輔助性角色,終極控制權必須牢牢掌握在人類手中,也是在技術哲學層面實現價值回歸。人類需要主動摒棄對技術物的控制思維,轉而以主體間性的哲學視角重新審視算法倫理問題,探索一種與人以外的智能倫理體共存的方式。
參考文獻:
[1]趙汀陽.替人工智能著想[J].哲學動態,2023,(7).
[2]張乾友.事與人:現代行政建構的不同路徑[J].中國行政管理,2023,(7).
[3]柳亦博.“過程”與“生成”:公共行政的未來指向[J].中國行政管理,2023,(7).
[4]許煜.遞歸與偶然[M].上海:華東師范大學出版社,2020
[5]鄧怡,張會平.社會互動視角下的具身智能敏捷治理:形態類型、潛在風險與工具創新[J/OL].[2025-08-23].ht-tps://link.cnki.net/urlid/11.5181.TP.20250717.1211.006.
[6]Gilespie Tarleton,Pablo Boczkowski,Kirsten Foot.“The Relevance of Algorithms”,Media Technologies:EssaysonCommunication,Materiality,and SocietyM].TheMitPress,2014.
[7]Hasan Mahmud,Najmul Islam,Syed Ishtiaque Ahmed,Kari Smolander.What Influences Algorithmic DecisionMaking? A Systematic Literature Review on Algorithm Aversion[J].Technological Forecasting and Social Change,2022,(175).
[8]邱澤奇.人機社會的治理轉向[J].社會,2025,(3).
[9]柳亦博.重返“對人的治理”:數字時代治理性的回轉、異變及其矯正[J].行政論壇,2024,(2).
[10]張康之.數字社會技術進步與組織進化的關系[J].浙江學刊,2025,(4).
[11]毛郝浩,符征.人工智能如何學會創新——論經驗主義的局限和超越[J].長沙理工大學學報(社會科學版),2025,(3).
[12]張乾友.問責、透明化與當代政府的責任困境[J].公共行政評論,2022,(6).
[13]宋保振.“權力—權利\"視角下數字分配正義的法律實現[J].法學論壇,2025,(3).
[14]Joh Zerili,AlistairKnott,JamesMaclaurin,etal.Algorithmic Decision Makingand theControl Problem[J].Minds and Machines,2019,(29).
[15]柳亦博,李曉晗.逃離“樂高世界”:對萬物數字化的批判性反思[J].中國人民大學學報,2024,(6).
[16]陳鵬.“數字官僚主義”:表現形式、生成邏輯和治理路徑[J].寧夏黨校學報,2023,(1).
[17]許煜.在機器的邊界思考[M].桂林:廣西師范大學出版社,2025.
[18]趙萬里,謝榕.數字不平等與社會分層:信息溝通技術的社會不平等效應探析[J].科學與社會,2020,(1).
[19][英]杰米·薩斯坎德.算法的力量:人類如何共同生存[M].北京:北京日報出版社,2022.
[20]趙精武,何傲翾.“智能化錦標賽”下數字政府治理理論與治理模式創新——基于“DepSeek十政務”實踐的分析[J].電子政務,2025,(6).
[21]張明軍,楊雨杉.數智文明時代國家治理模式的迭代飛躍[J].天津社會科學,2025,(4).
[22]柳亦博.人工智能陰影下:政府大數據治理中的倫理困境[J].行政論壇,2018,(3).
[23]柳亦博.“湖心島”隱喻:人工智能時代的算法倫理入侵[J].行政論壇,2019,(6).
[24]Yash Raj Shrestha,Shiko Ben-Menahem,and Georg von Krogh.Organizational Decision-Making Structures in theAgeof Artificial Intelligence[J].California Management Review,2ol9,(61).
[25]Tene Omer,PolonetskyJules.Taming the Golem:Chalenges of Ethical Algorithmic Decision-Making[J].NorthCarolinaJournalofLawamp;.Technology,2o17,(19).
[26Joshua Kroll,Joanna Huey,Solon Barocas,etal.AccountableAlgorithms[J].UniversityofPennsylvania LawReview,2017,(165).
[27]Tobias Kraft,Katharina Zweig,Pascal Konig.How to RegulateAlgorithmic Decision-Making:AFramework ofRegulatory Requirements for Different Applications[J].Regulation amp; Governance,2O22,(16).
[28]Therese Enarsson,Lena Enqvist,Markus Naartijrvi.Approaching the Human in the Loop-Legal Perspectives onHybrid Human/Algorithmic Decision-Making in three Contexts[J]. Information amp; Communications TechnologyLaw,2022,(1).
[29]吳磊,劉子瑞.生成式人工智能驅動政務服務的界面風險及防范路徑——基于“技術—制度—關系”的分析框架[J].中共天津市委黨校學報,2025,(4).
[30張乾友.對人的治理:被治理者的治理敘事[J].理論探討,2025,(4).
責任編輯:王篆
Towards Bio-Administration: The Ethical Boundaries and Operational Principles of Generative AI in Administrative Decision-Making
Liu Yibo,Wang Yuxue
Abstract:Because of its stronger data processing and analysis capabilities,generative AI has shown a variety of possibilities for deep integration with grassroots public administration departments to improve decision-making efficiency and accuracy. However, due to the current application of AI technology ahead of system construction,the public sector has not yet formed a comprehensive regulatory system for the participation of generative AI in administration,and many applications are still in a vague gray area,lurking digital risks such as weakening human subjectivity. This puts forward new requirements for government governance,and the public sector needs to scientifically define the boundaries of generative AI in public administration,so as to establish and improve the risk prevention and control system based on intelligent governance in a targeted manner. This boundary is established based on a new logic bio-administration. The core proposition is to put human intelligence and AI in an equal and complementary position: humans are responsible for value judgment, ethical synthesis and full decision-making,and AI is responsible for data computing,risk early warning and program optimization.
Key words: generative AI,administrative decision-making,bio-administration,empiricism