基金項目:四川省哲學社會科學基金重大專項“數字經濟推動城鄉融合發展的機制與路徑研究”(SCJJ24ZD41);國家社會科學基金重大項目“數字政府建設成效測度與評價的理論、方法及應用研究”(23amp;ZD080)。
[中圖分類號]D63 [文獻標識碼]A
[文章編號]1673-0186(2025)006-0006-017
[DOI編碼]10.19631/j.cnki.css.2025.006.001
政務大模型技術的迅猛發展,正成為重塑現代社會運行范式的重要驅動力。這一技術范式的演進,本質上是算法架構革新、計算資源躍遷與數據要素積累三重動力共同作用的結果。深層神經網絡模型的突破性進展打破了傳統機器學習的技術瓶頸,分布式計算能力的指數級增長為復雜模型訓練提供了強大計算資源保障,而全球數字化進程中海量數據的沉淀則為模型優化提供了持續養料。在政府治理領域,面對日益復雜的公共事務管理需求和民眾對高效政務服務的期待,智能化轉型已成為提升現代治理能力的必然選擇。
在此背景下,以DeepSeek為代表的大語言模型展現出區別于傳統大模型的技術特質,其所具備的“高性能—低成本—開源化\"等技術優勢有效解決了政務場景中模型應用的核心痛點。相較于需要千億級參數支撐的通用大模型,該模型通過知識蒸餾和量化壓縮技術,在保持語義理解、邏輯推理等核心能力的同時,顯著降低了算力消耗和部署門檻。特別是在中文語境下的細粒度語義解析能力,使其能夠精準處理政策文本中的復雜表述。這種技術特性與政務部門在數據安全性、系統兼容性及運維經濟性等方面的剛性需求形成了高度適配,為地方政府和行業主管部門構建自主可控的政務大模型提供了強力支撐。
技術工具與治理需求的深度融合,既能通過智能決策支持系統提升公共服務供給效率,又可借助數據洞察能力優化政策制定的科學性。但是,技術賦能過程中伴生的雙重效應不容忽視:一方面,政務大模型的接入、應用以及結果的差異化可能加劇不同區域以及政府部門間的智能鴻溝,導致治理效能的分化;另一方面,算法黑箱、數據偏見等技術特性與政務場景中的權責明晰、程序正義等治理原則存在內在張力。技術邏輯與治理邏輯間的結構性矛盾,構成制約智能治理發展的關鍵命題,亟待從技術倫理和制度規范層面探尋解決方案。
隨著人工智能技術的縱深發展,“數字鴻溝\"的理論內涵正在經歷從基礎設施接入向智能技術賦權的動態演變。有學者認為數字鴻溝理論聚焦于物理接入(一級鴻溝)、技能使用(二級鴻溝)與價值獲取(三級鴻溝)的遞進分層[1],其核心邏輯是技術資源占有差異導致的社會分化。然而,人工智能技術驅動的智能治理時代催生了新型“智能鴻溝”(Intelligence Divide)[2],這種新型鴻溝是在傳統數字鴻溝的基礎上進一步演化升級的,但其與傳統數字鴻溝在生成機理、表現形式與影響維度上存在差異。現有研究表明,智能鴻溝源于算法偏見與技術資源分布不均衡的耦合效應,以及數據積累差異的共同作用[3]。具體表現為:技術層面,算法黑箱的復雜性與技術不透明性引發決策過程不可解釋[4],加深決策權分配的不公;主體層面,人機協同能力斷層引發行政效能分化[5];價值層面,算法歷史偏見加劇公共服務分配的非正義性[6]。相較于數字鴻溝的“技術工具屬性”,智能鴻溝更具“技術主體屬性”,人工智能技術不僅是治理工具,更是具備自主決策能力的“代理者”7],其引發的社會排斥具有隱蔽性、系統性與自我強化特征。
當前研究對智能鴻溝的學術界定仍存在三點局限:其一,概念泛化現象突出,多數文獻未明確區分智能鴻溝與傳統數字鴻溝的演化邊界,將智能鴻溝簡單歸類為數字鴻溝的延伸維度[8]。其二,分析視角單一,既有研究多從技術資源分配視角切入,忽視主體能力適配與公共利益轉化等復合機制[9]。其三,治理路徑碎片化,現有對策偏重基礎設施均衡配置,缺乏對技術倫理嵌入與制度韌性協同的體系化設計[10]。本研究基于政務大模型的技術代際特征,從接入鴻溝(技術資源)—應用鴻溝(主體能力)—結果鴻溝(公共價值)三維框架解構智能鴻溝的生成邏輯,揭示 AI技術自主性引發的權力重構效應與價值傳導偏差,突破傳統數字鴻溝研究的“技術決定論\"桎梏,為智能治理時代的鴻溝彌合提供更具動態性與系統性的理論解釋。
一、政務大模型與政務信息系統、政務大數據平臺的區別
在數字政府建設的技術代際演進過程中,政務信息系統、政務大數據平臺、政務大模型分別代表了流程數字化、數據整合與智能決策三個階段的技術范式,三者雖同屬數字政府的技術載體,但其在設計開發以及部署應用方面存在顯著差異。通過對比三者的設計邏輯與部署特征,一方面可以揭示政務大模型應用的革新性價值,另一方面還可以明晰其面臨的治理挑戰,為技術路徑選擇與制度適配提供理論依據。
(一)設計開發方面
1.功能定位
政務信息系統的功能定位以業務流程的數字化為核心,旨在通過模塊化設計實現行政管理流程的線上化與標準化。其核心功能聚焦于流程管理、信息錄人與基礎統計分析,本質是對傳統政務流程的映射。政務大數據平臺則進一步突破了部門數據壁壘,以跨源異構數據整合為核心目標,通過構建統一的數據倉庫與挖掘工具,支持多維度分析與宏觀決策。相較而言,政務大模型的功能定位實現了從“流程執行\"向“智能推理”的躍遷,其核心在于通過自然語言處理、知識圖譜構建與機器學習能力,完成復雜任務的自動化決策與動態優化。
2.數據需求與交互設計
在數據需求層面,政務信息系統依賴業務全流程生成的標準化結構化數據,數據維度單一且邊界清晰;政務大數據平臺需整合跨層級、跨系統的異構數據,強調數據清洗與關聯分析能力;而政務大模型則進一步要求如文本、語音、圖像等多模態數據的輸人來完成模型訓練,這一演進折射出數據治理從“標準化\"向“智能化\"的范式轉型。在用戶交互方面,政務信息系統通過圖形用戶界面實現流程驅動式操作,,強調操作的規范性與可追溯性[};政務大數據平臺借助商業智能工具提供可視化分析界面,支持用戶自主探索數據分析;政務大模型則采用對話式交互,通過自然語言指令直接觸發智能推理過程,這種交互技術方式的迭代體現的是從“人適應機器\"到“機器適應人\"的轉變。
3.技術架構
政務信息系統多采用分層架構設計,通過諸如表現層、業務邏輯層、數據層等的模塊化分層實現系統的高內聚與低耦合,其優勢在于可以維護系統的便捷性與功能擴展性。政務大數據平臺則基于分布式架構構建。由于政務大數據平臺的建設需要海量的數據作為支撐,同時還需要對這些數據進行分析和存儲,而政府各部門的業務需求不同,所產生的政務數據也不同,部門間會產生數據壁壘,這就需要采用數據技術對各部門的數據進行統一、標準、規范的整合。傳統關系型數據庫在海量數據場景下存在的處理效能制約問題,采用基于分布式架構的存儲方案(如 Hadoop和HBase)不僅能突破數據規模限制,而且通過冗余存儲機制實現了系統故障情況下的數據完整性保障[12]。政務大模型應用的技術架構則以大語言模型為核心,更強調智能化能力的構建。大語言模型是以深度學習框架為基礎,通過海量數據訓練而成的大規模神經網絡模型。在此類技術中,以 Transformer架構為基礎的預訓練語言建模方法(如 BERT及GPT系列模型)被視作該領域的代表性成果[13],此類架構對算力資源的高度依賴,使其技術門檻顯著高于前兩者,同時也帶來模型可解釋性與倫理風險的新挑戰。
(二)部署應用方面
1.基礎設施與部署策略
政務信息系統以普通服務器集群為核心,通過本地化部署實現系統與物理辦公場景的深度綁定,其優勢在于物理環境可控性極高。然而隨著政務數據規模呈指數級上漲,分布式存儲與計算節點的引入則成為必然走向。在建設政務大數據平臺過程中往往需要處理跨域異構數據,其部署多采用混合云部署模式,并結合本地存儲與政務云資源形成分布式計算節點來支持彈性擴展。政務大模型對基礎設施的要求進一步提升至以GPU/TPU集群為主的層次,其遵照政務云優先的部署安排,僅在關鍵場景留存為數不多的本地化節點。政務信息系統向政務大數據平臺繼而向政務大模型的轉變,體現出技術迭代與行政資源投入之間動態平衡邏輯—即系統越復雜,對基礎設施的要求就越高。因此在基礎設施升級倒逼之下,部署策略從“重硬件”向“重協同”的方向轉型。
2.部署成本與資源投入
部署成本與資源投入在技術復雜度及硬件需求上息息相關。政務信息系統的分層架構以模塊化設計為核心,技術復雜度較低,其硬件依托普通服務器集群即可滿足流程數字化需求,標準化硬件采購與成熟技術生態使得總體投入穩定可控。政務大數據平臺的技術復雜度顯著提升,分布式架構需應對跨源異構數據的實時清洗、存儲與計算,硬件層面依賴分布式節點集群與混合云資源協同,且需配套數據治理工具鏈,此類技術集成性需求導致硬件采購成本與系統運維費用同步攀升。至政務大模型階段,技術復雜度呈現質變:大語言模型架構依賴千億級參數訓練與動態推理能力[14],硬件配置需專用算力集群以支撐高密度并行計算;同時,多模態數據標注、模型迭代調優等環節進一步推高人力與技術投入。
3.組織結構與人員素質
技術形態差異驅動組織管理模式重構,政務信息系統借助信息中心實現集中化運維,其組織結構凸顯出垂直化的屬性,職責邊界清晰,并以實現系統穩定性作為優先事項。國家數據局的成立標志著政務大數據平臺治理的重心向“數據資產化\"轉移[15],由于政務大數據平臺需要聚焦于跨部門數據共享機制的設立,打破既存的信息孤島,并運用混合部署實現數據流橫向的暢聯,組織結構由此呈現扁平化趨向。政務大模型的應用使傳統管理模式被進一步顛覆,其技術特性要求系統需深度嵌入具體業務部門,在行政審批、輿情分析等場景通過實時推理來輔助決策,這種“嵌入式部署\"讓業務部門和技術團隊深度耦合,推動組織結構由獨立的技術支撐單元轉變為“業務—技術\"雙輪驅動模式[16]。在人員素質層面,政務信息系統要求操作者具備基礎計算機操作能力,技術門檻較低;政務大數據平臺需配備具備數據處理、統計分析能力的專業團隊;政務大模型的應用對技術人員提出兼具領域知識與人機協同能力的要求,技術人員需要利用自然語言交互來對模型輸出做優化,從而對傳統政務系統人才知識結構發起跨界挑戰。
綜上所述,三者差異的核心在于技術代際與功能定位的分野:政務信息系統是數字政務的“基礎骨架”,大數據平臺是“神經中樞”,而政務大模型則是“智能大腦”。未來,三者將呈現融合趨勢,例如通過“大數據 + AI\"實現精準施策,但需在頂層設計層面統籌技術互補性與治理風險,以推動智慧政務的可持續發展。
二、政務大模型應用的智能鴻溝
隨著政務大模型在政務領域的深度應用,其技術賦能的普惠愿景與治理實踐的復雜現實之間的矛盾將逐漸顯現。智能鴻溝的形成不僅源于技術資源分配的結構性失衡,而且涉及主體能力適配的認知斷層與公共利益分配的非對稱性。從基礎設施的區域割裂到人機協同的效能損耗,再到價值轉化的正義偏離,多重維度的鴻溝相互交織,折射出技術理性與行政倫理的深層沖突。
(一)本地化接入鴻溝:技術資源分配的結構性失衡
數字政府建設的縱深推進,使得政務大模型逐漸成為政務智能化轉型的核心驅動力。然而,技術資源的非均衡分布在實踐層面形成了顯著的接人鴻溝,這一鴻溝首先表現為基礎設施的區域性割裂。在行政層級體系中,算力中心、數據接口等核心資源的配置呈現鮮明的“中心一邊緣\"結構。高層政府憑借政策優先權與財政優勢,率先完成智能基礎設施的規模化部署,構建起覆蓋多層級的數據互通網絡,例如北京門頭溝區設立5000萬元創新基金推動“人工智能 + 政務服務\"的建設,提升基層人員技術應用能力①;而基層政府受限于財政能力薄弱與技術儲備不足,往往陷入“最后一公里\"的接入困境。
技術接入的失衡性進一步延伸至個體層面,形成行政人員與社會公眾的雙重分化。在政務系統數字化轉型進程中,行政人員群體呈現出顯著的“技術接人差異”,技術背景行政人員憑借專業認知優勢,可自主通過多重身份認證形成對智能決策系統的深度觸達;而傳統行政人員受制于技術認知壁壘與制度性訪問限制,往往停滯于基礎賬戶權限層級,甚至因使用復雜度產生技術畏難情緒主動降低使用頻次。這種“用與不用\"的接入分野,實質上暴露出技術采納過程中更深層的制度性區隔。公眾層面的接入差異則更為復雜,根據2024年《全民數字素養與技能發展水平調查報告》,我國50 歲以上老年人的高級數字素養以及技能水平僅占比 17.46[17] ,而公眾個人的受教育程度在很大程度上影響著其數字素養。因此,高知群體憑借數字素養優勢,可通過自然語言交互或智能終端便捷獲取個性化服務;而老年人、殘障人士等弱勢群體,因數字身份認證流程復雜、智能終端操作困難,被迫退回傳統線下窗口。
此外,區域間的技術差距會將接人鴻溝推向系統性層面。根據2023年《中國算力發展指數白皮書》中公布的中國算力20強市, 85% 的城市來自東部地區,而西部地區占比僅有 15%[18] ,這種區域算力差異就使得東部發達地區能夠通過構建智能政務中臺,實現算力資源的集約化調度與跨部門協同,保障政務大模型能夠無縫對接多業務場景,服務響應的實時性與功能完整性得以充分實現;而西部欠發達地區受制于硬件性能落后與網絡基礎設施薄弱,同款政務大模型常因算力分配不足出現功能缺位,或因數據同步延遲導致決策依據失真。例如杭州市民通過“浙里辦\"App可實時獲取個性化政策解讀,而甘肅省定西市仍依賴線下窗口人工受理,線上智能服務使用率較低。這種技術異化現象不僅會加劇區域間公共服務質量的分化,而且可能通過數據反饋機制形成“馬太效應”。
(二)智能化應用鴻溝:個人能力與知識壁壘的雙重制約
政務大模型效能的充分釋放不僅依賴于技術資源的可及性,更受制于應用主體的能力適配與知識儲備水平。當前政務機構在推進大模型政務應用時,普遍面臨“軟約束”與“硬制約”的雙重障礙,基層行政人員的人機協同能力不足構成主觀層面的“軟約束”,而政務知識圖譜的構建滯后則形成客觀層面的“硬制約”,二者的疊加效應導致政務大模型從“技術可用性”向“治理有效性\"的轉化鏈條出現斷裂,技術賦能的價值傳導機制難以貫通[19]。這一困境往往是由于技術工具與行政實踐之間未能實現深層次的認知耦合,當技術應用僅停留在操作層面而未能融入行政主體的決策邏輯時,其效能必然受限于工具屬性的單向度發揮。技術賦能的“效率優先”邏輯與行政體系的“程序正義\"傳統之間還存在張力,前者追求決策速度與模型輸出的精確性,后者強調決策透明性與責任追溯機制,這種張力的外化使得政務大模型的效能不僅受制技術本身,而且受限行政體系對技術理性的接納邊界。
行政人員群體的能力斷層是政務大模型應用鴻溝的核心表現。具備人工智能專長的行政人員能夠通過自然語言交互實現政策模擬與復雜決策推演,充分釋放政務大模型的預測與優化潛力;傳統行政人員因缺乏系統性的AI技能培訓而僅能使用預設的功能模塊進行事務性操作,這就導致同一款政務大模型在不同崗位產生差異化的行政效能。這種能力鴻溝實際上是技術工具理性與行政經驗理性之間的認知錯位,若技術應用超越工具屬性而介入決策核心,行政人員無法理解模型運行邏輯,便可能陷入“技術依賴\"或“機械執行偏差\"的雙重困境[20]。技術能力的差異可能重構行政體系內部的話語權分配而形成“技術精英主導\"的新型權力結構。在此過程中,具備人工智能專長的行政人員憑借對算法邏輯的掌握逐漸占據政策制定的主導地位,而傳統行政人員則淪為技術決策的執行者。這種權力重構可能引發對行政決策合法性的質疑,當模型輸出被視為“客觀真理\"時,行政主體的經驗判斷與社會價值的權衡空間被壓縮,公共利益可能被簡化為數據模型的最優解,最終導致技術理性對公共價值的侵蝕。
區域知識壁壘則從客觀層面加劇了應用鴻溝的復雜性。發達地區依托動態更新的政務知識庫與標準化的業務規則體系為政務大模型提供高質量的知識輸入,支撐其完成精準的政策解讀與決策輔助。例如,浙江省舟山市通過將知識庫與DeepSeek 大模型相結合,構建覆蓋全市的知識庫并且支持動態更新,使得社會救助的準確率達到 98.6% ,提高了社會救助的精準性與效率①。廣州市海珠區通過千萬級政務問答和百萬級政策指南預訓練,建立海珠政務知識語料庫,打造能夠思考、理解、分析、做出決策的智能政務體系②;而欠發達地區因歷史數據電子化率低、業務規則碎片化導致模型訓練數據質量參差不齊,常出現政策語義誤讀或決策建議偏差。此類知識供給的失衡使得政務大模型在欠發達地區的應用效能大打折扣,甚至可能因錯誤決策引發公共信任危機。政務知識的生產與維護需要持續的制度化投入,而財政與技術資源的區域差異會使知識管理能力的差距隨技術迭代不斷放大,最終形成知識儲備薄弱的地區越難以積累有效數據,進而越無法優化模型性能的“知識貧困陷阱”。
(三)差異化結果鴻溝:價值轉化與公共利益的非對稱分配
政務大模型應用的技術紅利分配,并未遵循理想中的普惠邏輯,反而在價值轉化過程中呈現顯著的非對稱特征。這種差異化結果鴻溝本質上是技術工具理性與公共行政價值理性之間的張力外化[21],當技術效率追求超越公共利益均衡時,數字化時代的行政正義將面臨嚴峻考驗,弱勢群體與欠發達地區在公共服務獲取、政策資源分配等環節會產生系統性價值流失。政務大模型對歷史數據的學習過程是對既有權力關系的數字化復刻,技術應用如果未過濾掉歷史數據中的結構性偏見,其輸出結果必然延續甚至放大現實中的不平等。這種技術異化的危險在于其以效率提升之名,將社會排斥機制嵌人智能決策流程,使得公共利益分配的不公獲得技術合法性的外衣[22]。
在個人權益層面,政務大模型的運行邏輯可能異化為新型排斥工具。高信用群體因數據畫像完整、行為軌跡可追溯享受“免審即享\"\"智能推送\"等便利服務;而邊緣群體因數據缺失或畫像偏差則往往面臨著服務申請駁回、優惠政策漏配等隱形排斥。政務大模型的風險防控機制可能會基于歷史數據將弱勢群體的結構性困境誤判為個體風險,進而加劇其公共服務獲取障礙。這種排斥是以技術中立為表象,實際內嵌既有社會權力關系的再生產邏輯使技術賦權異化為權利剝奪的合法化工具[23]。例如,針對低收人群體的公共服務需求,政務大模型會因歷史數據中該群體違約率較高自動提高準人門檻而忽視其違約行為背后諸如社會保障不足或就業機會匱乏等結構性因素。
區域發展失衡在宏觀層面凸顯結果鴻溝的累積效應。發達地區通過政務大模型實現政務資源的動態優化配置而形成“數據富集—模型優化—服務升級\"的正向循環,持續擴大其智能治理優勢。例如深圳市福田區通過引人DeepSeek 大模型上線的“AI數智員工\"能夠在數秒內對上級下達的任務指令進行響應,并且在公文處理上,準確率超過 95% ,審核時間縮短了 90% ,但錯誤率卻能控制在 5% 以內,實現了政務服務既快又準的躍升①。而欠發達地區因數據采集能力薄弱、模型訓練資源匱乏而陷入“數據貧困—模型失效—服務降級\"的惡性循環。這種分化不僅體現在公共服務質量層面,而且深刻影響區域發展的核心競爭力,發達地區借助智能決策搶占政策創新高地,而欠發達地區卻因技術滯后被迫跟隨,從而會使得區域間發展差距呈現指數級擴大趨勢。技術紅利的非均衡分配最終可能解構數字政府建設的整體性愿景,使技術賦能異化為區域發展失衡的加速器[24],發達地區因早期投人形成的數據資產與技術生態,為其持續獲取創新紅利提供結構性優勢;而欠發達地區因初始資源匱乏,難以突破技術應用的臨界規模而最終被鎖定在低水平應用層面上。
政務大模型引發的智能鴻溝,本質上是技術擴散過程中效率邏輯與公平價值的沖突顯化。本地化接人鴻溝暴露技術資源分配的等級化特征,政務大模型應用鴻溝揭示主體能力與知識供給的適配困境,差異化結果鴻溝則折射公共利益分配的正義危機,三者相互交織構成數字政府轉型的深層挑戰。破解此類鴻溝需超越單純的技術優化思維,構建包含資源均衡配置、能力系統性提升、制度倫理約束的協同治理框架,在技術創新與行政倫理間建立動態平衡機制才能實現智能政務從“技術賦能”向“價值共治\"的范式躍遷。
三、政務大模型應用的潛在風險
在政務智能化加速轉型推進國家治理現代化的戰略背景下,政務大模型作為政務智能化轉型的核心引擎,正深刻重構行政決策模式與公共服務體系。其技術賦能效應與風險衍生特性交織共生,對治理主權、制度韌性及社會信任等戰略維度形成多向度沖擊。面對技術迭代與治理需求間的動態博弈,亟須在頂層設計中統籌安全與發展,構建適配智能時代的風險防控體系,為數字中國建設筑牢戰略防線。
(一)責任界定風險
當下政務大模型在政務中的應用已經遠遠超出了傳統數字技術的應用范圍并深度嵌入政務場景之中,在運用政務大模型時所涉及的行政責任主體也越來越多元化,這就使得傳統行政責任體系的邊界逐漸模糊化[25]。當政務大模型從輔助工具演變為自主決策主體時,多元參與主體的責任歸屬問題開始顯現出系統性張力,政務大模型的開發者、部署部門與實際使用者相互交織形成了復雜的三維責任場域。開發者通過大模型框架設定決策邏輯的初始參數,部署部門根據行政需求調整模型應用范圍,而實際使用者在操作過程中又可能通過反饋機制影響模型迭代路徑。這種動態責任網絡導致傳統法律框架中的過錯認定原則面臨根本性挑戰,當應用政務大模型決策出現政策執行偏差時,究竟是技術缺陷、部署失當還是操作失誤引發的后果,難以通過現行歸責機制進行清晰界定。人工智能時代下的這種權責界定難題實際上反映了這樣一種境況,傳統行政法體系建立在“人類決策者”的行為可預測性基礎之上,而政務大模型的自主決策打破了行為與結果之間的線性對應關系,使得“過錯推定”原則失去適用前提。多個參與主體共同作用于系統演化會模糊個人責任邊界,產生的責任稀釋效應將導致問責機制失效。
政務大模型不同于傳統政務工具具有穩定的功能邊界,它是通過機器學習機制不斷更新知識結構,其決策邏輯呈現出非線性演化特征,這種持續進化特性加劇了責任追溯的復雜性,使得特定時間節點的政務大模型決策與最終行政結果之間的因果關系鏈變得模糊。例如,某次決策失誤可能源于模型早期訓練數據的隱性偏差,也可能由后期增量學習引入的參數異化所致,這種時變特性對過錯認定的時序性原則形成挑戰,傳統責任追溯機制由于難以適應動態演化的技術系統,導致問責實踐中出現“責任真空”。從法理的角度審視,這種困境折射出現行法律體系仍停留在“行為一結果\"的二元歸責范式,而政務大模型已形成“輸入一處理—輸出—反饋”的閉環演進機制,法律規范與技術發展之間存在著時滯效應。
(二)倫理沖突風險
政務大模型的應用本質上是對社會價值的數字化重構,這一過程不可避免地面臨傳統倫理框架的適配性挑戰,歷史偏見產生的機制既不是主觀惡意也非技術缺陷,而是源于社會系統與政務大模型之間的價值傳導偏差。當歷史數據中的非均衡發展軌跡被訓練為政務大模型的連接參數時,技術系統實際上將既有社會結構進行了數字化復刻,形成所謂的“數字鏡像歧視”[26]。以教育資源的配置優化為例,數字化教育的發展本意是為了實現教育資源的共享,促進教學質量的提高,縮小各地區的教育差距,但教育資源的傾斜往往與當地經濟發展的水平密切相關,這就導致一些欠發達地區教育水平發展落后。就比如上海地區早在2010 年就推出了“電子書包\"等數字化產品進行輔助教學,而我國的一些偏遠地區如百色市由于數字化發展水平滯后,網上教學無法取得好的效果。將場景具體到某個省市地區同樣適用,政務大模型的配置需要訓練大量數據,上層部門如果利用大模型制定校舍擴建計劃時,模型依據以往教育政策的執行區域以及歷史學生流動數據,建議大量擴建資金投向城區學校,而鄉村學校因數據表征不足(如學生人數少、硬件數據更新滯后)被系統判定為“低優先級”。此類決策雖符合數據驅動的效率邏輯,卻與教育公平的公共價值目標背道而馳。政務大模型輸出的非均衡決策結果被作為新的訓練數據反饋給系統,導致偏見在迭代中不斷加深。
技術黑箱與政務透明的制度要求之間存在本質性沖突。雖然當前政務大模型通過思維鏈生成等技術手段提升了解釋性,但其決策邏輯的底層架構仍具有不可完全解析的特性。以北京市老舊小區改造為例,模型建議“優先加裝電梯\"并附帶了相關的支撐數據(包括老年人口密度、樓棟結構參數等),但未說明為何未將“低樓層住戶反對率\"納入核心決策變量。決策者雖能獲取大量中間數據,卻難以判斷模型是否隱性忽略了關鍵利益相關者的訴求。運用政務大模型技術開發出來的全新系統,其不可知性與行政權力的強制性相結合時,可能會誘發社會公眾對“ AI+ 政務應用\"治理模式的信任危機,其合法性基礎也會面臨著被技術理性消解的風險。提升政務大模型的可解釋性往往是以犧牲模型性能為代價的,形成技術有效性與政治合法性之間的兩難選擇[27]。
(三)安全保障風險
政務大模型不同于傳統數據庫的離散存儲模式,而是通過參數化的方式將海量信息編碼到神經網絡結構中,這種分布式多源聚合特性方式使得敏感信息的提取與防護都面臨技術困境。政務大模型在持續學習過程中可能無意識地將隱私數據內化為決策特征,形成難以檢測的信息泄露通道。傳統數據安全策略建立在“數據最小化\"和“使用限定”原則之上,而政務大模型的訓練機制本質上是對數據價值的最大化挖掘,這種根本性矛盾使得現有隱私保護機制陷入系統性失靈,即使采用數據脫敏對一些隱私敏感信息進行技術處理,模型仍然可能通過特征關聯推理還原敏感信息[28],這就意味著單純依靠技術手段已無法應對新型隱私風險,必須構建融合技術規制、制度約束的綜合防護體系。
政務大模型部署應用的硬件與軟件的每個組件都存在著潛在風險節點,特別是基于特定架構的預訓練模型,其技術路徑依賴可能演變為系統性風險。當基礎模型存在設計缺陷或遭遇供應中斷時,整個政務AI體系都可能面臨功能性癱瘓。當前AI技術生態呈現顯著的中心化特征,核心資源集中在少數技術巨頭手中,這種不對稱的技術權力結構使得政務系統的自主可控性面臨嚴峻挑戰,爭奪技術標準的話語權已經超越了單純的技術競爭范疇。
(四)技術依賴風險
當行政人員群體過度依賴政務大模型的決策建議時,可能逐漸喪失對復雜行政問題的獨立研判能力[29]。這種分析能力“空心化\"表現為雙重困境:在操作層面,行政人員可能陷人政務大模型輸出的路徑依賴,將政務大模型的輸出建議等同于最優解;在認知層面,長期的技術輔助可能削弱行政人員的批判性思維,形成機械執行大模型指令的行為定式,這種異化過程最終將導致行政系統失去必要的彈性調節能力。技術依賴的深層危害在于其可能會潛移默化地改造行政人員的認知功能,行政人員運用政務大模型處理政務問題時,由于大模型是在大量數據訓練的基礎上部署應用的,其往往會根據訓練過程提供標準化的決策方案,行政人員的問題意識可能被既有框架所束縛而逐漸喪失發現非常規問題的敏感性[30]。這種認知窄化效應將導致行政系統應對新型治理挑戰的能力退化。
政府部門在享受政務大模型帶來的便捷時,也同樣面臨著因AI應用高度集成所形成的治理風險,當核心系統出現故障或遭受攻擊時,可能引發跨部門、跨層級的系統性癱瘓。而這種技術系統的故障模式往往超出傳統應急預案的處置范疇,它既可能源于政務大模型邏輯的隱性錯誤,又可能來自數據污染的蝴蝶效應。傳統應急管理范式建立在物理系統故障的經驗基礎之上,而政務大模型的風險傳導具有非線性、跨域性和不可逆性等特征,這對危機預警和應急處置提出全新挑戰,必須構建人機協同的彈性治理框架,在技術系統與人工系統之間建立功能冗余和快速切換機制,確保在技術失效時行政系統仍能維持基本運行能力。總之行政系統的智能化轉型不是技術對人類的替代,而應是人機能力互補的協同進化[31]。
四、政務大模型應用的智能鴻溝和風險的應對策略
作為國家數字化戰略的核心抓手,政務大模型的深度應用既是治理能力現代化的關鍵支撐,又是區域均衡發展與風險防控能力提升的重要命題。政務大模型的應用能夠提升治理效能,但也需要實現風險可控,需要從國家治理全局視角統籌智能資源配置、倫理價值對齊與制度韌性構建,破解區域智能化發展失衡與系統性風險交織的復合挑戰,為構建包容、安全、可持續的數字政府生態提供戰略指引。
(一)智能鴻溝的應對策略
1.階梯式算力資源均衡配置
在推進國家治理能力現代化進程中,政務大模型的應用正逐步形成技術普惠與區域均衡的發展范式。基于算力資源分布的非對稱性特征,構建階梯式資源配置體系成為優化區域智能化發展瓶頸的關鍵路徑,其核心在于建立與基礎設施水平動態適配的技術供給機制。政務云基礎設施的普惠化覆蓋是彌合區域智能鴻溝的基礎工程,針對這種跨區域算力協同網絡不僅能提升國家整體算力資源利用效率,更能形成支撐區域差異化發展需求的動態適配機制。政務云的標準化接入接口與彈性擴容能力,使得不同發展水平區域都能獲得與其政務需求相匹配的基礎設施支撐,為后續智能化應用奠定技術基座。
在基礎資源分層供給的基礎上,輕量化模型技術為區域差異化部署提供了精準適配方案。以DeepSeek模型體系為例,其全棧式技術架構包含從千億級參數模型到十億級微型模型的完整譜系,通過動態剪枝與知識蒸餾技術實現模型性能與算力消耗的精細調控[32]。梯度化部署策略既避免了算力資源的冗余配置,又確保了區域間政務服務智能化水平的基線對齊。模型版本的區域適配本質上構建了技術供給的動態均衡機制,通過建立模型性能參數與區域基礎設施指標的映射關系,形成模型版本自動推薦系統。當某區域完成政務云擴容升級后,系統可自動推送適配更高算力環境的模型版本,實現技術能力與基礎設施的同步躍遷。這種彈性擴展機制既保障了欠發達地區的政務智能化基本權利,又為發達地區預留了持續升級空間,在技術層面構建起區域協同發展的良性循環。該體系的有效運轉依賴于標準化技術接口與動態評估機制的雙重保障。政務大模型通用接口的全國統一,確保了不同版本模型在政務服務場景中的功能一致性;區域發展指數動態監測系統則為模型版本的迭代升級提供實時數據支撐。通過技術供給端的結構性創新,最終形成既能尊重區域差異又可實現整體協同的AI政務智能化發展格局,為推進國家治理體系現代化提供可持續的技術支撐路徑。
2.推動人員能力與知識壁壘突破
行政人員群體的能力斷層本質上是技術工具理性與行政經驗理性的認知沖突。分級培訓體系的設計需突破傳統技能傳授框架,轉而構建“認知重構—實踐嵌入一價值內化”的三維能力培養模型。在初級培訓階段,除基礎操作技能外,應著重培養行政人員對AI工具功能邊界的認知來明確模型輸出的建議屬性與決策責任的歸屬關系;中級培訓需引入復雜場景模擬,通過虛擬現實技術構建突發事件決策環境,訓練行政人員在AI輔助下的應急研判能力;高級培訓則應強化AI倫理的批判性思維,例如通過組織跨部門研討會對AI政務偏見案例進行解構分析來推動行政人員從被動使用者向主動監督者轉型。
跨區域知識共享平臺通過系統性機制設計破解知識貧困陷阱,其核心運行邏輯涵蓋知識生產、流通與應用的全鏈條協同。平臺以“規則 + 案例 + 經驗”三位一體的政務知識圖譜為基礎,通過自然語言處理技術解析政策文本形成結構化規則庫,關聯歷史案例構建可追溯的決策邏輯鏈,并整合基層創新經驗形成動態更新的非結構化知識池,依托區塊鏈技術實現知識版本的可信溯源與增量更新。在知識流通環節,基于區域發展指數與業務場景特征的智能推薦引擎實施分層推送策略,為欠發達地區優先適配基礎規則與標準化操作指南,同時結合可視化工具展示跨域最佳實踐案例,實現知識的精準適配與場景化賦能。針對技術能力薄弱地區,平臺提供低代碼知識管理界面與虛擬仿真培訓系統,結合駐點技術團隊支持完成知識遷移與模型優化,確保知識資源切實轉化為治理效能。
3.公共利益導向的價值轉化機制
響應速度、處理量級等傳統效率指標難以捕捉技術應用對弱勢群體的隱性排斥,因此可以引入“包容性指數\"等復合指標對服務觸達率、操作便利性與結果公正性等進行綜合評估。比如通過自然語言處理技術對民生訴求文本進行情感分析,量化弱勢群體的服務滿意度;或利用圖神經網絡建模政策資源的流動路徑,識別分配過程中的結構瓶頸。評估結果需要與模型優化形成雙向反饋,對存在顯著公平性偏差的AI模塊啟動強制再訓練程序,確保技術迭代始終以公共利益為錨點。
弱勢群體技術適配性優化的實現路徑需兼顧功能設計與制度保障。在技術層面,政務大模型中的方言語音交互系統的開發需融入語境理解能力,避免因語音識別誤差加劇操作障礙;圖文輔助解讀模塊則應嵌入動態解釋邏輯,根據用戶反饋實時調整信息呈現方式。在制度層面,可以建立弱勢群體需求采集的常態化機制,通過社區網格員定期收集智能化應用障礙群體的使用反饋,并將其納入模型優化優先級,通過技術與制度的雙重建設來有效防止政務大模型異化為新的排斥機制。
(二)潛在風險的應對策略
1.構建政務責任鏈動態追溯機制
政務大模型的責任界定困境源于其技術系統的自主性與法律主體的確定性之間的矛盾。多主體權責清單制度需突破傳統的靜態劃分邏輯,轉而構建“行為—影響—責任\"的動態映射框架。對于開發者的責任不應該僅僅局限于初始模型的合規性,還需要對模型迭代過程中引入的風險增量承擔連帶責任;對于部署部門的監控職責需要延伸至模型運行的全生命周期,包括對增量學習數據的合規審查與決策偏差的實時預警;而使用者的操作責任則應涵蓋對政務大模型輸出的合理性判斷與人工干預記錄。
在行政執法、社會保障等高風險場景可以引入區塊鏈存證技術,將模型輸入數據、決策邏輯節點與人工審核記錄分別存儲于司法鏈、政務鏈與審計鏈,通過跨鏈驗證技術確保存證信息的完整性與互操作性,從而超越傳統區塊鏈技術的數據固化功能,轉而構建跨鏈協同的追溯網絡[33]。同步探索政務大模型責任險,覆蓋模型迭代導致的政策偏差風險。政務大模型責任險的設計需要引入風險分級保費機制,根據政務大模型的應用場景的風險等級動態調整保險條款,并設立風險共擔基金池用于覆蓋系統性故障導致的群體性損失,從而為政務大模型應用過程中的責任追溯提供更靈活的制度保障。
2.政務倫理嵌入與透明性設計
在政務大模型應用中,公共價值觀對齊需轉化為可操作的技術標準,以政策咨詢生成模型為例,可通過“利益均衡指數\"量化模型對不同群體訴求的覆蓋度。例如在分析鄉村振興政策建議中對留守老人、返鄉創業者等群體的語義權重差異;在公共服務自動化模型中,設定“服務覆蓋完備率”,檢測模型對殘障人士多模態交互、少數民族語言變體等非標準訴求的響應能力。測評工具需集成對抗生成技術來模擬政策目標沖突或文化敏感場景,從而檢驗模型的倫理決策穩定性。對于那些未達標模型應啟動動態校準機制,例如在政策咨詢爭議中引入跨學科專家標注,將標注數據轉化為強化學習的基礎;對公共服務模型則實施“弱勢群體響應倍增器”,在再訓練時優先處理特殊群體服務失敗案例,通過定向數據增強實現倫理缺陷修復。
可解釋性工具的政務適配需避免陷入“解釋冗余”與“解釋不足”的兩極困境。比如在政策建議生成場景中,邏輯推理鏈的呈現需區分核心依據與輔助信息,通過層級化展示將法律條文、歷史案例與模型推斷進行視覺分離;在執法文書起草場景中則需嵌入法律論證框架,確保模型解釋符合司法文書的形式規范。同時,可解釋性輸出需與行政公開制度深度整合,建立模型解釋檔案庫供公眾查詢,并通過定期發布透明度報告披露模型決策的迭代過程。
3.數據安全與應急韌性強化
聯邦學習技術為有效實現數據的“可用不可見\"提供了技術通道[34],但在具體政務場景中的應用需解決跨部門數據異構性與隱私保護的平衡問題。為此可以通過自適應加密技術對不同敏感級別的數據進行差異化處理,在確保數據可用性的前提下實現最小化隱私暴露。差分隱私的實施則需與業務場景的風險等級動態適配,例如在醫療數據共享中采用嚴格的噪聲添加策略,而在輿情分析中則可適當放寬精度損失容忍度。通過明確不同數據類型的脫敏標準與使用邊界,確保多源數據聚合時滿足數據安全的法律要求。
分布式容災系統的設計可以將數據和應用系統分散部署在多個不同地理位置的節點或數據中心,通過特定的技術和策略使系統在面臨突發事件時也能保證業務的連續性,確保數據的安全性[35]。在關鍵系統中,冗余節點的部署不應簡單追求數量優勢,而是需要基于業務連續性需求構建最小必要冗余度。例如在應急指揮系統中可以采用“雙活一溫備\"混合架構,在保障實時響應的同時控制運維成本。人工接管預案的制定則需突破應急預案的程式化模板,針對模型邏輯錯誤、數據污染、硬件宕機等故障類型預設差異化的切換路徑與決策權限分配規則,從而在模型系統出現故障時實現人工介人無縫銜接,避免中心化系統崩潰引發的政府相關部門“休克”。
4.人機協同能力長效培育機制
為有效防范行政人員因過度依賴政務大模型而導致治理能力退化,亟須設計一套科學、具體且可操作的考核指標體系,以引導其在充分利用技術工具的同時,持續提升自主分析研判與創新思維能力。該指標體系應緊密圍繞“抑制技術依賴”與“激發創新思維”的雙重目標,轉化為可觀測、可衡量的具體行為表現。在評估人工干預的有效性方面,核心在于考察“人工復核的深度與效度”,這要求超越簡單的復核行為統計。具體而言,需明確規定涉及重大資源分配、行政執法裁量、高風險政策執行等關鍵決策場景必須強制進行實質性人工復核,并設定具體的最低復核比例閾值(例如不低于 95% ),以確保關鍵環節不失控。同時,重點評估復核意見的采納質量,即行政人員在復核過程中提出的具有實質內容的修改建議或合理異議被最終采納的比例,并需進一步分析這些采納意見對優化決策結果、規避潛在風險或提升政策效能所產生的實際貢獻度,以此杜絕流于形式的復核。在激發創新能動性方面,建立“創新提案的質量與實際影響力\"指標,清晰區分“增量優化型提案”(如對現有AI應用流程、操作界面或業務規則的小幅改進)與“突破框架型提案”(如針對模型固有局限提出替代性解決方案、識別出AI未覆蓋的新治理問題領域或設計新型人機協同機制)。對于前者,重點評估其帶來的易用性提升或效率增益;對于后者,則著重評價其系統性價值和潛在推廣意義。最終將這些細化的考核結果深度融入行政人員的績效評估體系,并作為職務晉升的重要加權因素,切實保障人機協同能力的培育落到實處、取得實效。
政務場景沙盒實驗機制的引入能夠為技術創新提供安全試錯空間,同時規避系統性風險的擴散,其有效性依賴于“風險可控\"與“創新自由\"的邊界把控[36]。在設置政務場景沙盒試驗區時需要關注業務關鍵度與技術成熟度,優先在文件歸檔、信訪分類等非核心領域開放高風險技術測試,并在實驗過程中建立“雙軌制\"監督體系,通過獨立技術委員會對模型輸出進行合規審查,同時引人公眾參與機制收集社會反饋。實驗成果在經過“本地驗證—區域試點一全域推廣”的三階段評估后加以推廣,確保技術應用的穩健性與普適性。
參考文獻
[1]劉成,馬洋.數字素養、社會支持與鄉村數字受益溝——來自內蒙古1694個農牧民樣本的經驗證據[J].電子政務,2025(4):43-57.
[2]方興東,鐘祥銘.生成式AI與智能鴻溝:智能時代數字不平等的趨勢、邏輯與對策[J].湖南師范大學社會科學學報,2024(6):121-131.
[3]馮彩玲,杜晚晴.類ChatGPT技術應用的公共價值解構與建構:基于戰略三角模型的分析[J].大連理工大學學報(社會科學版),2024(3):7-15.
[4]閆坤如.人工智能的算法偏差及其規避[J].江海學刊,2020(5):141-146.
[5]陳悅.人機協同裁量的建構原理、風險檢視與因應優化[J].浙江學刊,2024(5):197-205,240.
[6]賀東航.人工智能與中國式現代化研究——基于現狀、挑戰及對策的考察[J].社會科學輯刊,2025(2):67-80,2,244.
[7]梁正.新興技術視域下的人工智能善治——發展現狀、風險挑戰與治理思路[J].人民論壇·學術前沿,2024(14) :12-22.
[8]楊峰.生成式人工智能的智能鴻溝生成[J].圖書館建設,2023(4):22-24.
[9]刁俊文,石路.算法賦能基層治理的智能鴻溝及其彌合之道[J].領導科學,2025(2):106-112.
[10] 張艷國,陸嘉豪.智能化賦能社區治理的要素、原則與實現路徑[J].江西師范大學學報(哲學社會科學版),2025(2):74-86.
[11]陳婧.政府公共決策支持信息系統的構建[J].情報資料工作,2012(5):61-66.
[12]周劍濤,文劍,熊良,等.基于大數據平臺的政務數據治理體系構建探索[J].數字技術與應用,2024(11):112-114.
[13]VASWANI A,SHAZEER N,PARMAR N,et al.Atention is all You Need[C].Procedings of the 31stInternational Conference on Neural Information Processng Systems,2017:5998-6008.
[14]魏子舒,韓越,劉思浩,等.2021至2023年人工智能領域研究熱點分析述評與展望[J].計算機研究與發展,2024(5):1261-1275.
[15] 莊子銀.組建國家數據局帶來的新變化[J].人民論壇,2023(17):17-20.
[16] 張欣.論人工智能體的模塊化治理[J].東方法學,2024(3):129-142.
[17]國家網信辦信息化發展局.全民數字素養與技能發展水平調查研究組.全民數字素養與技能發展水平調查報告(2024)[R].北京:全民數字素養與技能發展水平調查研究組,2024:3-4.
[18]中國信息通信研究院.中國算力發展指數白皮書(2023)[R].北京:中國信息通信研究院,2023:43-44.
[19]蔡振華,許艾萍.數字技術何以實現基層智慧監督——基于“技術嵌入—組織調適\"的分析框架[J].中國行政管理,2024(12):118-128.
[20]段哲哲.控制算法官僚:困境與路徑[J].電子政務,2021(12):2-16.
[21]孫斐,游鴻賓.數字政府治理的公共價值失靈發生機制及其矯正——以C市智慧城市建設為例[J].中國行政管理,2024(4):107-119.
[22]王強強.算法推薦技術應用中的意識形態安全風險與防范策略[J].重慶社會科學,2024(7):86-98.
[23]王啟帆,劉雨.生成式人工智能意識形態風險的審視與破解[J].思想政治教育研究,2024(3):56-62.
[24]朱玲琳.數字政府建設中的數字鴻溝彌合[J].行政管理改革,2024(11):56-64.
[25]陳英達,王偉.由“急用先行”走向“逐步完善”:生成式人工智能治理體系的構建[J].電子政務,2024(4):113-124.
[26]李帥.人工智能的風險預測與行政法規制——一個功能論與本體論相結合的視角[J].行政管理改革,2019(10) :50-58.
[27]張成洪,陳剛,陸天,等.可解釋人工智能及其對管理的影響:研究現狀和展望[J].管理科學,2021(3):63-79.
[28]李欣姣,吳國偉,姚琳,等.機器學習安全攻擊與防御機制研究進展和未來挑戰[J].軟件學報,2021(2):406-423.
[29]張會平,曹景偉.算法行政對自由裁量權的影響:正向規制、負向限縮與動態平衡[J].信息技術與管理應用,2023(3):111-123.
[30]張文博,周馮琦.人工智能背景下的環境治理變革及應對策略分析[J].社會科學,2019(7):23-30.
[31]周偉.隱憂與防范:人工智能技術嵌入公共決策的價值審視[J].行政論壇,2025(1):151-160.
[32]劉歡,張智雄,王宇飛.BERT模型的主要優化改進方法研究綜述[J].數據分析與知識發現,2021(1):3-15.
[33]易蘭麗,趙麗麗,魏娜.機理與路徑:區塊鏈技術如何賦能政務服務“跨省通辦\"?[J].電子政務,2025(2):45-56.
[34]張會平,馬太平.數據要素市場流通的公共價值創造、失靈及其應對[J].公共管理與政策評論,2024(5):13-25.
[35]陳倩,劉曉潔,李濤,等.一種保證服務連續性的容災系統的設計和實現[J].計算機應用研究,2008(8):2444-2446.
[36]魏鈺明,賈開,曾潤喜,等.DeepSeek突破效應下的人工智能創新發展與治理變革[J].電子政務,2025(3):2-39.
Intelligent Divide and Risk Governance of the Application of Government Large Models
Zhang Huipingl,2 Ma Mingzhen' Zhong Yil,2
(1.School of Public Administration, University of Electronic Science and Technology of China, Chengdu,Sichuan ;2.Laboratory of Digital and Intelligent Public Governance, University of Electronic Science and Technology of China,Chengdu, Sichuan )
Abstract:The in-depth application of Large Language Models is reshaping the governance paradigm of digital government,and also gives rise to a structural contradiction between technological empowerment and public value.Based on the comparison of technologies among different generations,the study explores intelligent divides and governance risks triggered by the application of large language models in governmental scenarios.By comparing the technical characteristics of government information systems,government big data platforms,and government large models,the study reveals the innovative value of the government large models in terms of intelligent reasoning, multi-modal interaction,and dynamic evolution capabilities.The study systematically identifies three types of inteligent divide-an access divide stemming from the uneven regional allocation of computing resources,an application divide arising from skill gaps among civil servants,and an outcome divide resulting from the models' outputs inadvertently excluding disadvantaged groups. Further,the study identifies deep-seated challenges in deploying government large models: ambiguous responsibility attribution caused by technological autonomy; ethical conflicts driven by historical data biases;risks of privacy leakage;and the potential degradation of governance capacity due to technological dependence.To address the above issues,the study proposes comprehensive governance strategies including balancing allcation of stepped arithmetic power,construction of governmental knowledge sharing platform,and explainable AI design with embedded ethics. These strategies emphasizes the synergistic evolution of technological logic and administrative value through dynamic responsibility tracing,federated learning,and artificial synergy mechanisms. Overall, this research providesa theoretical foundation and practical pathways for bridging the intelligent divides and optimizing risk governance frameworks,ofering significant insights for promoting the sustainable application of Artificial Intelligence in digital government.
Key Words: Large Language Model; Artificial Intelligence Governance;Digital Government; Intelligence Divide;Risk Governance
(責任編輯:楊果)