中圖分類號(hào):D630 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1008-410X(2025)05-0076-09
人工智能是人類社會(huì)發(fā)展的新領(lǐng)域,是驅(qū)動(dòng)全球變革的決定性力量,也是造福全人類的公共產(chǎn)品。基層強(qiáng)則國(guó)家強(qiáng),基層安則天下安。隨著智能技術(shù)的飛速發(fā)展,人工智能已深度融入我國(guó)基層治理的運(yùn)作流程,內(nèi)化為推進(jìn)基層治理體系建設(shè)、提升治理能力現(xiàn)代化的重要組成部分[1][2]。人工智能驅(qū)動(dòng)基層治理存在明顯的雙刃劍效應(yīng),技術(shù)應(yīng)用在推動(dòng)基層治理變革的同時(shí),也引致治理安全問(wèn)題[3],應(yīng)基于安全監(jiān)管目標(biāo)、主體角色定位與職責(zé)、制度、體系等要素,針對(duì)技術(shù)普及驅(qū)動(dòng)的基層治理結(jié)構(gòu)性變化搭建多主體協(xié)同監(jiān)管框架,助力基層治理創(chuàng)新及推進(jìn)基層治理現(xiàn)代化。
一、人工智能驅(qū)動(dòng)基層治理的安全風(fēng)險(xiǎn)演化
人工智能技術(shù)在基層治理中的深度滲透,推動(dòng)治理模式從經(jīng)驗(yàn)驅(qū)動(dòng)向數(shù)據(jù)驅(qū)動(dòng)轉(zhuǎn)型,并引發(fā)內(nèi)生性風(fēng)險(xiǎn)和系統(tǒng)性風(fēng)險(xiǎn),二者相互助推共同構(gòu)成衍生性風(fēng)險(xiǎn)的基礎(chǔ)。
(一)人工智能驅(qū)動(dòng)基層治理產(chǎn)生內(nèi)生性風(fēng)險(xiǎn)
內(nèi)生性風(fēng)險(xiǎn)源于算法偏差、數(shù)據(jù)質(zhì)量低下和模型不可解釋性等技術(shù)本體缺陷,內(nèi)嵌于基層治理的運(yùn)作流程中,具有隱蔽性、專業(yè)性、快速迭代性等特征,是安全風(fēng)險(xiǎn)的起點(diǎn),對(duì)安全監(jiān)管形成“溯源難、穿透難、把控難\"的根源性制約。
第一,算法黑箱產(chǎn)生透明度風(fēng)險(xiǎn)。人工智能技術(shù)驅(qū)動(dòng)基層治理的過(guò)程也是算法深度融入基層決策服務(wù)的過(guò)程,但算法的運(yùn)行機(jī)制往往很難做到透明,特別是一些復(fù)雜的多模態(tài)大模型算法,即便是專業(yè)人員也需要投入較大精力才能更好理解。算法黑箱讓公眾難以理解決策背后的邏輯,易誘發(fā)信任危機(jī)[4]。從算法構(gòu)建的基礎(chǔ)邏輯看,任何程式都可能存在不確定性因素。算法的安全性和可靠性直接影響人工智能系統(tǒng)的安全。由于現(xiàn)行安全監(jiān)管工具難以穿透算法內(nèi)部邏輯,監(jiān)管部門(mén)也缺乏強(qiáng)制性算法備案審計(jì)標(biāo)準(zhǔn)。算法還可能存在漏洞,遭到外界的侵?jǐn)_和攻擊,導(dǎo)致偏見(jiàn)植入,輸出錯(cuò)誤結(jié)果。例如,隨著DeepSeek等人工智能大模型在媒體領(lǐng)域的運(yùn)用,內(nèi)容質(zhì)量提升與幻覺(jué)率攀升的新聞屢見(jiàn)報(bào)端。
第二,數(shù)據(jù)質(zhì)量引發(fā)管控缺位風(fēng)險(xiǎn)。數(shù)據(jù)質(zhì)量低劣引發(fā)系統(tǒng)性風(fēng)險(xiǎn),已成為人工智能治理領(lǐng)域一項(xiàng)嚴(yán)峻挑戰(zhàn)[5]。人工智能依賴科學(xué)的數(shù)據(jù),訓(xùn)練數(shù)據(jù)的質(zhì)量直接決定人工智能技術(shù)應(yīng)用的效能。在實(shí)際工作中,基層工作對(duì)象、內(nèi)容千頭萬(wàn)緒,公眾行為形成的海量數(shù)據(jù)需要被記錄、分析和應(yīng)用。基層治理數(shù)據(jù)具有多源異構(gòu)、質(zhì)量參差、歷史偏見(jiàn)嵌人等三重特性,導(dǎo)致基層治理的數(shù)據(jù)現(xiàn)實(shí)與數(shù)據(jù)驅(qū)動(dòng)的技術(shù)范式存在結(jié)構(gòu)性矛盾。訓(xùn)練數(shù)據(jù)還面臨攻擊者篡改、注入錯(cuò)誤、誤導(dǎo)數(shù)據(jù)的“投毒\"風(fēng)險(xiǎn),“污染\"模型的概率分布,進(jìn)而造成準(zhǔn)確性、可信度下降。目前,缺乏數(shù)據(jù)全生命周期監(jiān)控機(jī)制,從采集時(shí)的知情同意形式化、存儲(chǔ)時(shí)的加密等級(jí)不足、使用時(shí)的超范圍分析到銷毀時(shí)缺少自動(dòng)遺忘機(jī)制,數(shù)據(jù)處理利用的各環(huán)節(jié)均存在安全監(jiān)管漏洞。
第三,算力安全導(dǎo)致運(yùn)行韌性不足風(fēng)險(xiǎn)。算力是支撐技術(shù)平穩(wěn)運(yùn)行的關(guān)鍵,人工智能技術(shù)應(yīng)用必須以強(qiáng)大的算力作為支撐。基層治理主體由于缺乏足夠的算力資源,沒(méi)有能力進(jìn)行海量數(shù)據(jù)的并發(fā)處理,甚至儲(chǔ)存數(shù)據(jù)的介質(zhì)普遍不足,無(wú)法有效開(kāi)展記錄存檔,一旦出現(xiàn)具體事務(wù)的集中辦理,服務(wù)器設(shè)備輕則運(yùn)行不暢,重則直接宕機(jī),給基層工作造成負(fù)面影響。基層部門(mén)對(duì)因算力不足引發(fā)的區(qū)域性運(yùn)行風(fēng)險(xiǎn),尚未建立跨層級(jí)算力支援聯(lián)動(dòng)預(yù)案等風(fēng)險(xiǎn)機(jī)制。現(xiàn)行《關(guān)鍵信息基礎(chǔ)設(shè)施安全保護(hù)條例》未能覆蓋人工智能算力節(jié)點(diǎn),對(duì)云平臺(tái)、邊緣計(jì)算節(jié)點(diǎn)的服務(wù)連續(xù)性指標(biāo)、安全防護(hù)等級(jí)、災(zāi)備機(jī)制缺乏強(qiáng)制性要求。關(guān)于算力等基礎(chǔ)設(shè)施韌性標(biāo)準(zhǔn)體系缺位,后期的安全監(jiān)管工作缺少政策支撐,不同程度地加重了算力安全風(fēng)險(xiǎn)。
(二)人工智能驅(qū)動(dòng)基層治理產(chǎn)生系統(tǒng)性風(fēng)險(xiǎn)
系統(tǒng)性風(fēng)險(xiǎn)主要源于技術(shù)系統(tǒng)與既有科層體制、權(quán)責(zé)結(jié)構(gòu)及制度系統(tǒng)之間的適配矛盾6」,這種矛盾會(huì)引發(fā)協(xié)同失效與責(zé)任虛化,導(dǎo)致安全監(jiān)管面臨“跟不上、合不攏、管不全\"的結(jié)構(gòu)性滯后現(xiàn)狀。
第一,主體性缺失致使權(quán)責(zé)真空風(fēng)險(xiǎn)。當(dāng)人工智能系統(tǒng)成為基層治理的重要工具時(shí),人的治理主體地位可能被削弱,一定程度上會(huì)引發(fā)基層工作人員的“主體性喪失\"問(wèn)題,使治理過(guò)程異化為技術(shù)主導(dǎo)的\"非人格化決策”,導(dǎo)致“技術(shù)利維坦\"與\"數(shù)據(jù)暴政\"的雙重危機(jī)[7],基層工作人員面臨角色空心化風(fēng)險(xiǎn)。當(dāng)人工智能參與決策出現(xiàn)失誤時(shí),由于政府、企業(yè)與技術(shù)供應(yīng)商之間責(zé)任界定存在模糊區(qū)間,基層治理會(huì)出現(xiàn)“責(zé)任主體割裂風(fēng)險(xiǎn)”[8]。現(xiàn)有法律體系建設(shè)和管理體系設(shè)計(jì)在智能政務(wù)服務(wù)責(zé)任事故中難以明確劃分主體責(zé)任。基層治理過(guò)程中,民生保障與安全維護(hù)工作流程難以標(biāo)準(zhǔn)化,基層工作人員自由裁量權(quán)較大,進(jìn)一步加劇了責(zé)任主體缺位問(wèn)題,甚至造成責(zé)任向技術(shù)一推了之的情況。當(dāng)政府把本應(yīng)由人掌握的決策權(quán)交給算法后,算法直接行使公共權(quán)力,會(huì)對(duì)傳統(tǒng)權(quán)責(zé)關(guān)系提出挑戰(zhàn)。2025年9月,全國(guó)網(wǎng)絡(luò)安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)和國(guó)家計(jì)算機(jī)網(wǎng)絡(luò)應(yīng)急技術(shù)處理協(xié)調(diào)中心發(fā)布的《人工智能安全治理框架2.0》,提出“設(shè)計(jì)安全控制閾值、設(shè)置安全終止開(kāi)關(guān)、預(yù)留人工干預(yù)有效窗口等內(nèi)容”要求[6]。但是,由于缺乏系統(tǒng)化、可執(zhí)行的人工介入閾值與決策日志保存規(guī)范,導(dǎo)致責(zé)任認(rèn)定難以厘清技術(shù)缺陷與行政失察之間的界限。“一些基層干部為了展示其政績(jī),過(guò)分推廣多個(gè) App 和在線平臺(tái),并要求基層工作人員進(jìn)行日常打卡和報(bào)告\"[9]。這種“數(shù)字形式主義\"進(jìn)一步放大了技術(shù)濫用危害,傳統(tǒng)“誰(shuí)決策、誰(shuí)負(fù)責(zé)\"的權(quán)責(zé)鏈條面臨失效風(fēng)險(xiǎn)。
第二,制度供給碎片化誘發(fā)協(xié)同梗阻風(fēng)險(xiǎn)。人工智能是解決問(wèn)題的自動(dòng)化工具,具有扁平化管理要求,與現(xiàn)有行政管理層級(jí)設(shè)計(jì)不完全適配。當(dāng)人工智能技術(shù)與基層工作融合時(shí),自動(dòng)化處理的效率受到關(guān)注,進(jìn)而滋生數(shù)字效率本位傾向,削弱對(duì)少數(shù)公眾訴求的關(guān)注。科層制作為常規(guī)的基層政府體系的運(yùn)行基礎(chǔ),具有理性、專業(yè)化和高效率等優(yōu)勢(shì),但也存在結(jié)構(gòu)僵化、部門(mén)割裂等問(wèn)題。與傳統(tǒng)的基層治理模式相比,技術(shù)成為鏈接治理主體與治理對(duì)象的平臺(tái),數(shù)據(jù)成為基層工作處理的紐帶。政府部門(mén)之間條塊分割治理的現(xiàn)狀,在某種程度上加劇了“數(shù)據(jù)孤島\"的形成。目前,一些地方政府投入巨資建設(shè)智慧城市、城市大腦等智能中心,但各部門(mén)數(shù)據(jù)分割,不能完全投入運(yùn)營(yíng),僅作為參觀展示窗口,資源浪費(fèi)巨大。跨部門(mén)風(fēng)險(xiǎn)協(xié)同監(jiān)管機(jī)制不完善,使安全監(jiān)管有效性下降。
(三)人工智能驅(qū)動(dòng)基層治理產(chǎn)生衍生性風(fēng)險(xiǎn)
衍生性風(fēng)險(xiǎn)是風(fēng)險(xiǎn)的質(zhì)變,系統(tǒng)性風(fēng)險(xiǎn)失控后超越傳統(tǒng)治理范式的管控極限,導(dǎo)致公私邊界消解、虛實(shí)空間風(fēng)險(xiǎn)交織、數(shù)字鴻溝加劇等根本性的秩序挑戰(zhàn)。“人工智能技術(shù)具有顯著的高速迭代、通用性、顛覆性和重塑性等特性\"[10],其安全風(fēng)險(xiǎn)的生成機(jī)理迥異于傳統(tǒng)技術(shù)風(fēng)險(xiǎn),會(huì)導(dǎo)致\"范式性失靈”。
第一,私有空間消融導(dǎo)致隱私暴露風(fēng)險(xiǎn)。公眾生活涉及數(shù)據(jù)龐雜,數(shù)據(jù)聚合效應(yīng)在很大程度上瓦解了傳統(tǒng)隱私屏障。“人工智能技術(shù)進(jìn)一步縮短了數(shù)字空間與物理空間之間的距離,形成以‘虛實(shí)融合'為特征的新型社會(huì)空間格局”[11]。無(wú)論是瀏覽政務(wù)中心網(wǎng)頁(yè)還是辦理公共服務(wù)事項(xiàng),只要試圖在技術(shù)平臺(tái)上獲取相關(guān)服務(wù),個(gè)人信息就必須通過(guò)“注冊(cè)、面部識(shí)別、填表\"等形式與技術(shù)平臺(tái)共享。沒(méi)有明確的隱私保護(hù)政策和用戶協(xié)議,被采集對(duì)象在不知情的情況下,被動(dòng)接受隱私數(shù)據(jù)的采集、分析。大量用戶的個(gè)人信息脫敏難度大,一旦系統(tǒng)出現(xiàn)故障或者面臨外在威脅,個(gè)人信息隱私將面臨泄露風(fēng)險(xiǎn)。人工智能平臺(tái)匯集個(gè)人社保、就業(yè)、教育、家庭等信息,加上基層社區(qū)、農(nóng)村加裝的攝像頭等監(jiān)控設(shè)備,可生成失控的全息畫(huà)像。算法技術(shù)存在安全漏洞,個(gè)人數(shù)據(jù)可能被竊取用作他途,導(dǎo)致隱私風(fēng)險(xiǎn)從“單點(diǎn)泄露\"升級(jí)為“全景暴露”,使傳統(tǒng)風(fēng)險(xiǎn)防控工具效力下降,安全監(jiān)管難度不斷增加。
第二,虛擬與現(xiàn)實(shí)空間互嵌出現(xiàn)異化風(fēng)險(xiǎn)。基層治理中人工智能技術(shù)的應(yīng)用,依托物理空間構(gòu)建智能虛擬空間,但智能虛擬空間并不完全是物理空間的鏡像,數(shù)字與物理空間之間實(shí)現(xiàn)快速無(wú)縫切換,虛擬與現(xiàn)實(shí)的邊界愈發(fā)模糊\"[11]。由于技術(shù)的泛在性,虛擬空間會(huì)對(duì)現(xiàn)實(shí)世界構(gòu)成威脅,甚至成為風(fēng)險(xiǎn)策源地。物理空間的風(fēng)險(xiǎn)生成機(jī)理比較簡(jiǎn)單,傳播速度慢,遏制風(fēng)險(xiǎn)傳播的成本比較低。但在虛擬空間,風(fēng)險(xiǎn)以毫秒級(jí)別的指數(shù)速度裂變傳播,生成式人工智能偽造的視頻、圖像、文件更難以辨別真?zhèn)危糁骑L(fēng)險(xiǎn)擴(kuò)散的成本更高。對(duì)于虛擬空間的安全監(jiān)管技術(shù)短板更為明顯,生成式內(nèi)容水印、偽造視頻等溯源技術(shù)匱乏,虛假信息裂變速度遠(yuǎn)超網(wǎng)絡(luò)風(fēng)險(xiǎn)核查周期,造成虛假信息監(jiān)管成本激增。
第三,智能普惠過(guò)程存在數(shù)字鴻溝擴(kuò)大風(fēng)險(xiǎn)。老年人、行動(dòng)不便者等群體由于數(shù)字能力與素養(yǎng)較低等原因,逐漸被數(shù)字技術(shù)屏障阻隔,成為數(shù)字貧困群體。人工智能技術(shù)賦能不均引發(fā)社會(huì)分化,數(shù)字貧困群體不斷被邊緣化,甚至成為基層治理決策中的\"失語(yǔ)者”,引發(fā)該群體的社會(huì)疏離感,一定程度上導(dǎo)致了公共服務(wù)的可及性不充分、服務(wù)包容性不足等問(wèn)題。數(shù)字貧困群體對(duì)人工智能決策缺乏有效異議權(quán),安全監(jiān)管在效率提升與權(quán)利保障間存在價(jià)值抉擇的困難。同時(shí),地區(qū)間經(jīng)濟(jì)發(fā)展的不平衡導(dǎo)致人工智能投入不均,將擴(kuò)大民生保障、營(yíng)商環(huán)境等競(jìng)爭(zhēng)差距。當(dāng)技術(shù)成為公共服務(wù)獲取的門(mén)檻而非橋梁,便會(huì)從技術(shù)賦權(quán)演變成技術(shù)排斥,形成數(shù)字服務(wù)差異。
二、構(gòu)建人工智能驅(qū)動(dòng)基層治理的安全監(jiān)管體系
為應(yīng)對(duì)人工智能技術(shù)驅(qū)動(dòng)基層治理過(guò)程中引發(fā)的技術(shù)、管理和系統(tǒng)等多維風(fēng)險(xiǎn),基于應(yīng)對(duì)高度動(dòng)態(tài)性和不確定性的內(nèi)外部環(huán)境的要求,安全監(jiān)管必須廣泛吸納所有受安全風(fēng)險(xiǎn)影響主體的意見(jiàn),形成政府、市場(chǎng)、社會(huì)組織和公眾等四方互嵌的多主體監(jiān)管格局。通過(guò)安全監(jiān)管目標(biāo)設(shè)計(jì)、主體組織結(jié)構(gòu)、制度體系構(gòu)建及行為策略選擇的框架視角[12],構(gòu)建“目標(biāo)錨定、多元參與、制度重構(gòu)、機(jī)制互動(dòng)\"的安全監(jiān)管體系。
(一)錨定人工智能驅(qū)動(dòng)基層治理的安全監(jiān)管目標(biāo)
人工智能驅(qū)動(dòng)基層治理的安全監(jiān)管目標(biāo)在于實(shí)現(xiàn)工具理性與價(jià)值理性的有機(jī)統(tǒng)一,將抽象價(jià)值原則轉(zhuǎn)化為具體清晰的監(jiān)管要求。在操作層面,提高技術(shù)應(yīng)用的可靠性、透明性與可控性;在制度層面,保障權(quán)責(zé)配置的合理性、規(guī)則體系的適應(yīng)性與跨部門(mén)協(xié)同的有效性;在價(jià)值層面,維護(hù)公民基本權(quán)利、促進(jìn)社會(huì)公平包容、增強(qiáng)治理系統(tǒng)韌性。
第一,工具理性與價(jià)值理性的調(diào)適。工具理性強(qiáng)調(diào)通過(guò)技術(shù)手段提升工作效率,而價(jià)值理性著眼于保障公共利益、維護(hù)社會(huì)公平與公民權(quán)利[13]。人工智能技術(shù)的內(nèi)在運(yùn)作機(jī)理是基于工具理性的算法設(shè)計(jì),而基層治理要求堅(jiān)守價(jià)值理性。兩者之間的張力構(gòu)成安全監(jiān)管的核心命題,既要充分發(fā)揮人工智能在提升治理精度、降低行政成本方面的技術(shù)優(yōu)勢(shì),又需警惕\"技術(shù)至上\"導(dǎo)致的治理異化風(fēng)險(xiǎn)。通過(guò)梯度化部署、場(chǎng)景化適配與差異化施策,在具體治理情境中實(shí)現(xiàn)“善智”與“善治”的協(xié)同互構(gòu)[14],如在社會(huì)救助資格審核中,系統(tǒng)通過(guò)多源數(shù)據(jù)比對(duì)實(shí)現(xiàn)高效初審,同時(shí)設(shè)立“低置信度預(yù)警一人工介入復(fù)核\"機(jī)制,確保技術(shù)效率與個(gè)案公平的有機(jī)結(jié)合。
第二,技術(shù)賦能與治理價(jià)值的融合。人工智能驅(qū)動(dòng)基層治理需建立技術(shù)賦能與公共價(jià)值的制度化鏈接,警惕“技術(shù)錯(cuò)配\"風(fēng)險(xiǎn),將基層治理推向“技治主義”,“與社會(huì)治理強(qiáng)調(diào)的平等、民主、多元參與等主張相抵悟\"[15]。協(xié)同監(jiān)管主體需將“人民至上\"\"公平正義\"等核心價(jià)值嵌人算法設(shè)計(jì)準(zhǔn)則,作為系統(tǒng)評(píng)估標(biāo)準(zhǔn),使價(jià)值理性成為技術(shù)應(yīng)用的內(nèi)在約束。同時(shí),在人工智能決策的關(guān)鍵節(jié)點(diǎn)保留人文價(jià)值評(píng)判空間,防止技術(shù)賦能異化為對(duì)治理價(jià)值的侵蝕。
(二)再造人工智能驅(qū)動(dòng)基層治理的安全監(jiān)管制度
構(gòu)建人工智能驅(qū)動(dòng)基層治理安全監(jiān)管制度的核心在于,明確公共價(jià)值目標(biāo)與多元主體結(jié)構(gòu),創(chuàng)設(shè)促進(jìn)主體間持續(xù)、高效互動(dòng)的運(yùn)行規(guī)則,確立安全監(jiān)管工作程序的合法性與協(xié)作過(guò)程的規(guī)范有序。
第一,硬法約束與軟法引導(dǎo)協(xié)同配合。我國(guó)人工智能領(lǐng)域的法律規(guī)制主要是對(duì)生成式人工智能技術(shù)、算法推薦技術(shù)等進(jìn)行規(guī)范,監(jiān)管對(duì)象聚焦數(shù)據(jù)內(nèi)容,尤其是數(shù)據(jù)安全[16]。中國(guó)信息通信研究院連續(xù)多年發(fā)布《人工智能發(fā)展報(bào)告》,在全景式追蹤產(chǎn)業(yè)規(guī)模、技術(shù)賽道與場(chǎng)景落地的縱向演進(jìn)同時(shí),逐年增設(shè)“安全治理\"專章,對(duì)算法可解釋性、數(shù)據(jù)合規(guī)、深度偽造、模型攻防等議題展開(kāi)量化評(píng)估與案例剖析,為政策制定者提供了動(dòng)態(tài)風(fēng)險(xiǎn)地圖。然而,成文法固有的審議周期和程序剛性與人工智能技術(shù)的“摩爾式\"迭代速度不匹配,導(dǎo)致監(jiān)管制度供給滯后于人工智能技術(shù)進(jìn)步,需強(qiáng)化企業(yè)自律與社會(huì)監(jiān)督。在企業(yè)層面,建立算法倫理審計(jì)委員會(huì)、漏洞賞金計(jì)劃等措施,將安全指標(biāo)納入績(jī)效考核與可持續(xù)發(fā)展報(bào)告中,形成“合規(guī)即商譽(yù)\"的內(nèi)部約束。在社會(huì)組織層面,行業(yè)協(xié)會(huì)、第三方實(shí)驗(yàn)室定期發(fā)布技術(shù)白皮書(shū)、測(cè)評(píng)基準(zhǔn)可信認(rèn)證,為安全監(jiān)管部門(mén)提供執(zhí)法參考。
第二,縱向路徑與橫向路徑交叉設(shè)置。我國(guó)對(duì)通用人工智能應(yīng)用的安全監(jiān)管制度建設(shè)側(cè)重于“保障急用先行\(zhòng)",追求治理效率最優(yōu)[17],重點(diǎn)的監(jiān)管領(lǐng)域涵蓋自動(dòng)化決策、隱私安全、數(shù)據(jù)利用、深度合成等,重視對(duì)公眾安全訴求的回應(yīng)[18](P53-54)。我國(guó)對(duì)人工智能治理堅(jiān)持“技術(shù)主義\"路徑和場(chǎng)景化邏輯,對(duì)人工智能的安全監(jiān)管在治理架構(gòu)、治理對(duì)象和治理工具方面具有明顯的先發(fā)優(yōu)勢(shì)[16]。然而,縱向的、以場(chǎng)景為界的安全監(jiān)管模式難以完全適應(yīng)通用人工智能技術(shù)安全監(jiān)管需求。從各國(guó)人工智能安全監(jiān)管實(shí)踐看,橫向綜合性安全監(jiān)管制度對(duì)人工智能安全監(jiān)管同樣具有重要作用。2024年歐盟頒布《人工智能法案》采用“基于風(fēng)險(xiǎn)\"的橫向立法模式,依據(jù)安全風(fēng)險(xiǎn)等級(jí)對(duì)人工智能應(yīng)用進(jìn)行統(tǒng)一分類,并匹配差異化義務(wù),構(gòu)建分級(jí)監(jiān)管體系。我國(guó)需在完善現(xiàn)有縱向場(chǎng)景化安全監(jiān)管的同時(shí),積極探索適用于人工智能通用技術(shù)的橫向統(tǒng)一性安全監(jiān)管框架,最終編織一張縱橫交錯(cuò)的安全監(jiān)管網(wǎng)絡(luò)。
(三)協(xié)同人工智能驅(qū)動(dòng)基層治理中主體的角色邊界及權(quán)能配置
構(gòu)建人工智能驅(qū)動(dòng)基層治理安全監(jiān)管體系,首要任務(wù)是明確主體職責(zé)與權(quán)限。在協(xié)同監(jiān)管框架內(nèi),政府、企業(yè)、社會(huì)組織及公民等利益相關(guān)方,依據(jù)自身資源稟賦和能力優(yōu)勢(shì),共同構(gòu)成一個(gè)去中心化的安全監(jiān)管決策網(wǎng)絡(luò),協(xié)同應(yīng)對(duì)風(fēng)險(xiǎn),奠定安全監(jiān)管的組織基礎(chǔ)。
第一,政府在安全監(jiān)管體系中扮演“元治理者”與制度引導(dǎo)者角色,居于治理網(wǎng)絡(luò)的核心協(xié)調(diào)位置。面對(duì)人工智能技術(shù)在基層治理中的融合應(yīng)用,政府需構(gòu)建縱向貫通、橫向聯(lián)動(dòng)的主體協(xié)作機(jī)制,吸納企業(yè)、社會(huì)組織和公眾參與,充分發(fā)揮多元主體在安全監(jiān)管中的功能。政府應(yīng)建立明確的人工智能技術(shù)應(yīng)用安全標(biāo)準(zhǔn)體系,制定算法透明度、數(shù)據(jù)采集邊界與應(yīng)急響應(yīng)機(jī)制等強(qiáng)制性要求;負(fù)責(zé)制定人工智能應(yīng)用分級(jí)分類清單,明確高風(fēng)險(xiǎn)場(chǎng)景的強(qiáng)制性審計(jì)與人工介入要求;建立區(qū)域性人工智能監(jiān)管云平臺(tái),集成備案、測(cè)試與預(yù)警功能,并向基層提供標(biāo)準(zhǔn)化工具包;牽頭設(shè)立由技術(shù)專家、倫理學(xué)者與公眾代表組成的人工智能倫理評(píng)審委員會(huì),對(duì)重大人工智能治理項(xiàng)目進(jìn)行前置評(píng)估,并持續(xù)監(jiān)督。同時(shí),政府強(qiáng)化基層治理“人民至上\"的公共價(jià)值理念,增進(jìn)安全監(jiān)管的協(xié)同意識(shí),在全社會(huì)范圍內(nèi)營(yíng)造安全監(jiān)管的氛圍。
第二,企業(yè)不僅是人工智能技術(shù)的核心供給者,也是安全監(jiān)管的責(zé)任共擔(dān)者。企業(yè)在設(shè)計(jì)、研發(fā)、部署、維護(hù)人工智能治理系統(tǒng)過(guò)程中,盡可能消除模型算法存在的安全缺陷、歧視性傾向,提高系統(tǒng)魯棒性。企業(yè)必須保障人工智能技術(shù)的可靠性,履行全生命周期安全責(zé)任,包括每季度向監(jiān)管機(jī)構(gòu)提交算法安全自檢報(bào)告等資料,披露模型迭代、偏見(jiàn)檢測(cè)、攻防測(cè)試及漏洞修復(fù)記錄。對(duì)高風(fēng)險(xiǎn)應(yīng)用建立終身責(zé)任追溯機(jī)制,在系統(tǒng)設(shè)計(jì)中內(nèi)置可解釋性模塊及異議反饋通道,保證決策邏輯可回溯、爭(zhēng)議可復(fù)核。企業(yè)還需大力推進(jìn)數(shù)據(jù)倫理實(shí)踐,堅(jiān)持“數(shù)據(jù)最小化\"原則,采用聯(lián)邦學(xué)習(xí)、邊緣計(jì)算等技術(shù)減少集中式數(shù)據(jù)存儲(chǔ)風(fēng)險(xiǎn)。
第三,社會(huì)組織承擔(dān)獨(dú)立監(jiān)督與行業(yè)自律職能,是安全監(jiān)管體系中的關(guān)鍵制衡力量。作為獨(dú)立第三方,社會(huì)組織組建“人工智能算法安全審計(jì)協(xié)會(huì)”,制定人工智能倫理公約與行業(yè)標(biāo)準(zhǔn),定期發(fā)布“基層人工智能系統(tǒng)公平性評(píng)估報(bào)告”,對(duì)存在偏見(jiàn)、歧視或隱私侵權(quán)威脅的人工智能技術(shù)予以“紅榜\"披露并限期整改。公益性科技倫理組織面向數(shù)字貧困群體提供數(shù)字權(quán)利教育,開(kāi)展法律援助,面向數(shù)字貧困群體開(kāi)展數(shù)字幫扶,提供算法解釋、數(shù)據(jù)刪除、損害賠償?shù)纫徽臼椒稍粚?duì)數(shù)據(jù)濫用、算法歧視等行為開(kāi)展獨(dú)立調(diào)查,通過(guò)公益訴訟、媒體曝光等措施形成多元威懾。
第四,公眾在安全監(jiān)管中既是參與者,也是監(jiān)督者。在基層治理語(yǔ)境下,公眾不再是被動(dòng)“受眾”,而是參與公共事務(wù)決策、執(zhí)行與監(jiān)督的能動(dòng)主體,深度嵌入公共事務(wù)全鏈條。人工智能技術(shù)驅(qū)動(dòng)基層治理需通過(guò)搭建政府服務(wù)智能平臺(tái),拓寬公眾獲取信息的渠道,提高公眾表達(dá)訴求的能力,激勵(lì)公眾直接參與選舉、監(jiān)督、協(xié)商、意見(jiàn)表達(dá)等治理環(huán)節(jié),“體現(xiàn)以公民為本的理念,尊重群眾需求的差異性與復(fù)雜性\"[15]。公眾通過(guò)算法決策異議通道,對(duì)人工智能應(yīng)用的績(jī)效進(jìn)行評(píng)價(jià),促使政府、企業(yè)重視人工智能安全問(wèn)題,推動(dòng)相關(guān)法律法規(guī)的制定與完善。公眾通過(guò)監(jiān)督平臺(tái)及時(shí)報(bào)告系統(tǒng)異常等風(fēng)險(xiǎn)行為,形成廣泛的社會(huì)監(jiān)督網(wǎng)絡(luò)。
(四)健全人工智能驅(qū)動(dòng)基層治理安全監(jiān)管機(jī)制
人工智能驅(qū)動(dòng)基層治理安全監(jiān)管的協(xié)同運(yùn)行機(jī)制,旨在整合政府、企業(yè)、社會(huì)組織與公眾的分散化資源與差異化能力,圍繞基層服務(wù)事項(xiàng),以數(shù)據(jù)為紐帶,構(gòu)建運(yùn)轉(zhuǎn)高效、響應(yīng)靈敏的風(fēng)險(xiǎn)監(jiān)管網(wǎng)絡(luò)。
第一,多元協(xié)同驅(qū)動(dòng)人工智能安全監(jiān)管機(jī)制轉(zhuǎn)型。我國(guó)企業(yè)、社會(huì)組織和公眾的公共事務(wù)規(guī)劃依賴政府牽頭,公共活動(dòng)執(zhí)行依靠政府主導(dǎo)。在“大政府、小社會(huì)\"的治理模式下,容易產(chǎn)生“基層社會(huì)治理理念薄弱、治理主體的參與路徑缺失、多主體間協(xié)同性弱\"[19]。面向人工智能安全監(jiān)管的需求,應(yīng)建立由政府、企業(yè)、社會(huì)組織、公眾多主體參與的監(jiān)管機(jī)制,以權(quán)責(zé)分層、資源整合,強(qiáng)化協(xié)同意識(shí),形成風(fēng)險(xiǎn)識(shí)別、評(píng)估與處置的閉環(huán)機(jī)制,持續(xù)推進(jìn)機(jī)制創(chuàng)新,提升多元主體的協(xié)同程度,加快響應(yīng)速度,最終實(shí)現(xiàn)人工智能安全監(jiān)管由單點(diǎn)式滅火轉(zhuǎn)向系統(tǒng)性免疫的目標(biāo)。
第二,構(gòu)建以政務(wù)數(shù)據(jù)共享為基礎(chǔ)的主體互動(dòng)機(jī)制。政府主導(dǎo)的安全監(jiān)管模式,由政府安全監(jiān)管部門(mén)依據(jù)安全監(jiān)管法規(guī)履責(zé),強(qiáng)調(diào)對(duì)行業(yè)整體監(jiān)管,體現(xiàn)監(jiān)管職責(zé)的層級(jí)劃分,凸顯政府的權(quán)威性,對(duì)人工智能技術(shù)在基層治理中的應(yīng)用形成嚴(yán)格監(jiān)管。但是,政府主導(dǎo)的安全監(jiān)管模式手段單一、應(yīng)急反應(yīng)速度慢,無(wú)法有效應(yīng)對(duì)技術(shù)引發(fā)的系統(tǒng)安全風(fēng)險(xiǎn)。2025年8月實(shí)施的《政務(wù)數(shù)據(jù)共享?xiàng)l例》,要求建立健全政務(wù)數(shù)據(jù)共享安全管理制度。基層治理數(shù)據(jù)的獲取、溝通、整合是多主體識(shí)別和診斷潛在安全風(fēng)險(xiǎn)的必要前提,直接影響協(xié)同安全監(jiān)管機(jī)制的實(shí)施效果。政府需主導(dǎo)搭建協(xié)同主體的主動(dòng)交互機(jī)制,打造契合不同基層治理安全監(jiān)管場(chǎng)景的多主體政務(wù)數(shù)據(jù)共享網(wǎng)絡(luò),開(kāi)展對(duì)基于政務(wù)數(shù)據(jù)互動(dòng)的安全監(jiān)管,引導(dǎo)企業(yè)、社會(huì)組織、公眾自發(fā)參與監(jiān)管,實(shí)現(xiàn)制度約束、行業(yè)自律與社會(huì)監(jiān)督的有效結(jié)合,優(yōu)化安全監(jiān)管機(jī)制。
三、人工智能驅(qū)動(dòng)基層治理的安全監(jiān)管實(shí)施路徑
人工智能驅(qū)動(dòng)基層治理不僅是技術(shù)應(yīng)用過(guò)程,更是制度創(chuàng)新與公共價(jià)值深度融合的實(shí)踐,需多方協(xié)同參與,從主體協(xié)同、技術(shù)治理、制度適配與價(jià)值嵌入等多維度系統(tǒng)推進(jìn),建立安全性、有效性與規(guī)范性相統(tǒng)一的基層治理現(xiàn)代化路徑。
(一)重塑多元共治的安全監(jiān)管“協(xié)同網(wǎng)絡(luò)”
人工智能驅(qū)動(dòng)基層治理的本質(zhì)是融合“算法速度”與“科層慣性”,實(shí)現(xiàn)多元主體在同一治理時(shí)空中的“異質(zhì)同步”。從“結(jié)構(gòu)、流程、文化\"三個(gè)維度同步發(fā)力,提升主體間的協(xié)同效能,打造運(yùn)轉(zhuǎn)高效、權(quán)責(zé)明晰、價(jià)值共享的安全監(jiān)管組織結(jié)構(gòu)。
第一,人工智能驅(qū)動(dòng)基層治理的安全監(jiān)管場(chǎng)域,政府不再包攬所有監(jiān)管環(huán)節(jié),而是借助“技術(shù)賦能十制度激勵(lì)”雙重杠桿,把企業(yè)、社會(huì)組織與公眾由“被動(dòng)應(yīng)答者\(yùn)"轉(zhuǎn)化為“監(jiān)管責(zé)任共擔(dān)者”,構(gòu)建多元共治的安全監(jiān)管組織結(jié)構(gòu)。政府作為協(xié)同監(jiān)管體系的引導(dǎo)者,依托技術(shù)賦能和協(xié)同機(jī)制激勵(lì),激活企業(yè)、社會(huì)組織和公眾參與治理的內(nèi)生動(dòng)力。同時(shí),政府主動(dòng)引導(dǎo)企業(yè)、社會(huì)組織和公眾參與安全監(jiān)管,加強(qiáng)對(duì)公眾關(guān)切的社會(huì)訴求的制度性吸納。政府、企業(yè)、社會(huì)組織與公眾等多元主體共同聚焦數(shù)據(jù)過(guò)度采集、算法歧視及資源濫用等關(guān)乎群眾切身利益的安全風(fēng)險(xiǎn)點(diǎn),構(gòu)建數(shù)據(jù)互聯(lián)互通的聯(lián)合安全監(jiān)管機(jī)制,從根本上破解“數(shù)據(jù)孤島”和“系統(tǒng)冗余\"帶來(lái)的監(jiān)管盲區(qū)。例如,2025年7月樂(lè)清市承接浙江省“外賣食品安全\"微改革試點(diǎn),上線“明廚慧眼\"平臺(tái),依托多模態(tài)AI技術(shù)構(gòu)建基于圖像識(shí)別的餐飲風(fēng)險(xiǎn)四色分級(jí)評(píng)估體系,實(shí)現(xiàn)精準(zhǔn)化風(fēng)險(xiǎn)畫(huà)像與分類監(jiān)管,形成了“風(fēng)險(xiǎn)預(yù)警、政企聯(lián)動(dòng)、社會(huì)參與\"的多元主體智慧安全監(jiān)管新范式[20]。
第二,人機(jī)協(xié)同是讓“算法速度\"融入“治理溫度”,促進(jìn)人工智能技術(shù)為基層治理賦能、提質(zhì)和增效,也是防范“技治主義\"的關(guān)鍵機(jī)制。建立科學(xué)合理的人機(jī)分工體系,在低收入家庭資格認(rèn)定、社區(qū)矯正評(píng)估等涉及重大民生權(quán)益的行政決策環(huán)節(jié),設(shè)置“人工復(fù)核閥”,保留人類決策者的最終決定權(quán)。在日常數(shù)據(jù)采集、數(shù)據(jù)初篩等操作性任務(wù)中,充分發(fā)揮人工智能的效率優(yōu)勢(shì),形成“機(jī)器處理流程、人類把握決策\(yùn)"的良性分工。構(gòu)建靈活響應(yīng)的人機(jī)交互流程,能夠在算法置信度不足、輸出異常或遇到邊緣場(chǎng)景時(shí),自動(dòng)觸發(fā)人工介入程序,形成人機(jī)互補(bǔ)、相互校驗(yàn)的協(xié)同標(biāo)準(zhǔn)。
第三,以“智治\"推進(jìn)“善治”,構(gòu)建人本導(dǎo)向的安全監(jiān)管文化。智能技術(shù)具有效率至上的工具屬性,而良政善治需要錨定人文價(jià)值,人工智能技術(shù)治理與人文治理必須實(shí)現(xiàn)良性互動(dòng)[21]。“善智,即良善的人工智能,既是一種倫理價(jià)值標(biāo)準(zhǔn),又內(nèi)含技術(shù)開(kāi)發(fā)和應(yīng)用的準(zhǔn)則,為人工智能開(kāi)發(fā)和應(yīng)用描繪一種最佳狀態(tài)\"[22]。在基層治理搭載人工智能技術(shù)應(yīng)用的過(guò)程中,必須堅(jiān)持“以人民為中心\"的根本立場(chǎng),將“善智”作為技術(shù)應(yīng)用的基本倫理準(zhǔn)則。積極推進(jìn)安全監(jiān)管文化建設(shè),提升企業(yè)、社會(huì)組織和公眾安全監(jiān)管的自覺(jué)意識(shí),逐步沉淀風(fēng)險(xiǎn)共擔(dān)、錯(cuò)誤共修、成果共享的安全監(jiān)管文化。
(二)構(gòu)建“剛?cè)岵?jì)\"的安全監(jiān)管規(guī)則體系
健全的安全監(jiān)管制度是人工智能驅(qū)動(dòng)基層治理的基礎(chǔ)保障。通過(guò)剛性法規(guī)劃定底線,安全標(biāo)準(zhǔn)提供規(guī)范,倫理準(zhǔn)則注入向善價(jià)值,共同將技術(shù)不確定性與權(quán)力運(yùn)行轉(zhuǎn)化為可預(yù)期、可復(fù)議、可追責(zé)的穩(wěn)定秩序,使人工智能技術(shù)在基層治理中安全可控。
第一,實(shí)行兼具公正性、隱私性與可追溯性的剛性規(guī)范,將算法黑箱轉(zhuǎn)化為透明決策鏈。治理主體制定全面具體的人工智能倫理法規(guī),規(guī)范指導(dǎo)人工智能系統(tǒng)的設(shè)計(jì)、開(kāi)發(fā)和應(yīng)用。法規(guī)應(yīng)明確透明度、隱私保護(hù)、安全性等原則,防范算法偏見(jiàn)和數(shù)據(jù)不當(dāng)使用。考慮人工智能決策的可解釋性要求,保證決策過(guò)程能夠被理解和追溯。加強(qiáng)隱私保護(hù)法律框架,在數(shù)據(jù)收集,存儲(chǔ)和處理過(guò)程中切實(shí)保護(hù)個(gè)人隱私權(quán)。建立透明、可操作的數(shù)據(jù)流轉(zhuǎn)規(guī)定,關(guān)注跨部門(mén)、企業(yè)流轉(zhuǎn)數(shù)據(jù)的保護(hù),促使安全監(jiān)管多方主體在法規(guī)、倫理和技術(shù)標(biāo)準(zhǔn)方面達(dá)成共識(shí),降低由于政策法規(guī)不一致性帶來(lái)的風(fēng)險(xiǎn)。
第二,推進(jìn)國(guó)家標(biāo)準(zhǔn)、行業(yè)協(xié)議與韌性規(guī)范協(xié)同耦合,用標(biāo)準(zhǔn)規(guī)范筑牢安全監(jiān)管規(guī)制基礎(chǔ)。實(shí)現(xiàn)技術(shù)專業(yè)用語(yǔ)向監(jiān)管通約的轉(zhuǎn)譯,建立“基礎(chǔ)共性標(biāo)準(zhǔn)、行業(yè)應(yīng)用標(biāo)準(zhǔn)、安全保障標(biāo)準(zhǔn)\"三位一體的標(biāo)準(zhǔn)框架。基礎(chǔ)共性標(biāo)準(zhǔn)聚焦人工智能技術(shù)的通用要求,包括術(shù)語(yǔ)定義、體系架構(gòu)、機(jī)器學(xué)習(xí)模型質(zhì)量標(biāo)準(zhǔn)等;行業(yè)應(yīng)用標(biāo)準(zhǔn)針對(duì)基層治理的具體場(chǎng)景,制定社區(qū)管理、民生服務(wù)、公共安全等領(lǐng)域的人工智能技術(shù)應(yīng)用指南,明確性能指標(biāo)、接口規(guī)范和適配性要求;安全保障標(biāo)準(zhǔn)則涵蓋數(shù)據(jù)安全、算法可靠、系統(tǒng)韌性等方面,可制定推廣人工智能系統(tǒng)安全風(fēng)險(xiǎn)評(píng)估指南等規(guī)范流程文件。
第三,前置算法全生命周期中的倫理審查,形成“道德嵌入\"機(jī)制,使代碼中立讓位于智能向善的價(jià)值導(dǎo)向。推行“倫理融入研發(fā)\"安全監(jiān)管原則,要求在人工智能模型設(shè)計(jì)、訓(xùn)練與優(yōu)化階段實(shí)施強(qiáng)制性倫理審查。加強(qiáng)技術(shù)開(kāi)發(fā)人員的倫理意識(shí),在人工智能的設(shè)計(jì)、訓(xùn)練和部署中引入倫理審查機(jī)制,推動(dòng)\"道德算法\"與治理模型融合,要求相關(guān)應(yīng)用滿足社會(huì)預(yù)期、符合道德準(zhǔn)則。在基層治理關(guān)鍵系統(tǒng)招標(biāo)采購(gòu)中,明確將倫理審查合格作為技術(shù)供應(yīng)商的準(zhǔn)入前提。同時(shí),積極發(fā)揮“軟法\"的柔性規(guī)范作用,支持行業(yè)協(xié)會(huì)制定自律公約、企業(yè)發(fā)布社會(huì)責(zé)任報(bào)告、專業(yè)機(jī)構(gòu)推出倫理認(rèn)證,形成多層次、社會(huì)化的規(guī)范體系,引導(dǎo)技術(shù)開(kāi)發(fā)者、使用者踐行“智能向善”理念。
(三)培育“彈性監(jiān)管一社會(huì)共信一公眾參與\"的安全監(jiān)管環(huán)境
安全監(jiān)管環(huán)境是技術(shù)發(fā)展生態(tài)、社會(huì)接受程度與公眾參與能力等多維度的系統(tǒng)性培育,是一種“包容性基礎(chǔ)設(shè)施”,旨在形成一種支撐技術(shù)創(chuàng)新與安全監(jiān)管良性互動(dòng)生態(tài),促使社會(huì)接受度與技術(shù)進(jìn)步步調(diào)相對(duì)一致。
第一,探索彈性安全監(jiān)管措施容納技術(shù)創(chuàng)新,營(yíng)造穩(wěn)健包容的技術(shù)發(fā)展環(huán)境。監(jiān)管并非抑制創(chuàng)新,而是引導(dǎo)技術(shù)走向安全、可靠、可控的發(fā)展路徑。安全監(jiān)管主體探索建立包容審慎的監(jiān)管試點(diǎn)機(jī)制,在一定范圍內(nèi)引入“監(jiān)管沙盒”。在時(shí)空維度為技術(shù)與監(jiān)管同步演化提供“緩沖帶”,允許新技術(shù)在真實(shí)場(chǎng)景中測(cè)試運(yùn)行,同時(shí)為其劃定安全空間和風(fēng)險(xiǎn)閾值,在實(shí)踐中積累監(jiān)管經(jīng)驗(yàn),完善安全監(jiān)管規(guī)則[23]。北京市人工智能數(shù)據(jù)訓(xùn)練基地創(chuàng)新推行\(zhòng)"監(jiān)管沙盒\(zhòng)"機(jī)制,通過(guò)設(shè)立彈性準(zhǔn)入規(guī)則與動(dòng)態(tài)合規(guī)底線,在風(fēng)險(xiǎn)可控環(huán)境中支持新技術(shù)實(shí)驗(yàn),有效增強(qiáng)了監(jiān)管體系對(duì)創(chuàng)新風(fēng)險(xiǎn)的包容能力,提升了社會(huì)信任水平,為人工智能在基層治理中的合規(guī)落地提供了重要的實(shí)踐路徑[24」。
第二,建立算法透明機(jī)制消解“黑箱\"疑慮,營(yíng)造對(duì)人工智能技術(shù)應(yīng)用的社會(huì)信任環(huán)境。公眾對(duì)人工智能的信任是智能技術(shù)得以廣泛應(yīng)用的社會(huì)心理基礎(chǔ)。通過(guò)建立算法備案、信息披露和邏輯說(shuō)明制度,用“白話文 + 圖示\"方式生成公眾版說(shuō)明書(shū)向社會(huì)公開(kāi)算法機(jī)理,減少公眾對(duì)“黑箱”決策的疑慮。建立有效的風(fēng)險(xiǎn)溝通機(jī)制,針對(duì)人工智能應(yīng)用可能帶來(lái)的社會(huì)影響,及時(shí)開(kāi)展民意調(diào)查與社會(huì)對(duì)話,對(duì)涉及算法決策的投訴進(jìn)行“風(fēng)險(xiǎn)熱詞云\"分析,定期推送給技術(shù)研發(fā)方和監(jiān)管部門(mén),實(shí)現(xiàn)安全風(fēng)險(xiǎn)早發(fā)現(xiàn)、早預(yù)警,用安全監(jiān)管看得見(jiàn)的速度回應(yīng)公眾看不見(jiàn)的焦慮,防止公眾負(fù)面情緒在社交媒體上裂變式擴(kuò)散,在安全監(jiān)管對(duì)話中筑牢社會(huì)信任環(huán)境。
第三,激活多元主體責(zé)任與自覺(jué)意識(shí),營(yíng)造有序的公眾參與環(huán)境。拓寬制度化的參與渠道,在基層治理算法應(yīng)用評(píng)估中引人公眾代表評(píng)審環(huán)節(jié),確保公眾意見(jiàn)能夠被實(shí)質(zhì)性地采納。通過(guò)科普宣傳、專題培訓(xùn)和實(shí)踐操作等多種形式,增強(qiáng)公眾對(duì)人工智能基本原理、運(yùn)作邏輯和潛在風(fēng)險(xiǎn)的認(rèn)識(shí),促使公眾成為積極的參與者。鼓勵(lì)公眾通過(guò)便捷渠道報(bào)告發(fā)現(xiàn)的技術(shù)故障、算法歧視和數(shù)據(jù)濫用問(wèn)題,將分散的社會(huì)感知轉(zhuǎn)化為協(xié)同監(jiān)管信息源,彌補(bǔ)專業(yè)安全監(jiān)管力量的不足。
(四)打造技術(shù)“內(nèi)生安全\"的安全監(jiān)管屏障
人工智能驅(qū)動(dòng)基層治理,若缺乏同步的內(nèi)生技術(shù)安全監(jiān)管,極易演變?yōu)榧夹g(shù)權(quán)力放大器,需系統(tǒng)構(gòu)建覆蓋全流程的精細(xì)化安全監(jiān)管體系,以規(guī)范的工作流程防范內(nèi)生性風(fēng)險(xiǎn),真正為基層治理筑牢可驗(yàn)證、可度量、可演化的安全屏障。
第一,將“事后滅火\"轉(zhuǎn)化為“過(guò)程免疫”,構(gòu)建“注冊(cè)、評(píng)估、監(jiān)測(cè)、退場(chǎng)”全鏈安全監(jiān)管機(jī)制。所有高風(fēng)險(xiǎn)人工智能技術(shù)在上線前完成屬地安全監(jiān)管機(jī)構(gòu)備案,備案內(nèi)容包括核心算法功能、訓(xùn)練數(shù)據(jù)分布、性能基準(zhǔn)及風(fēng)險(xiǎn)處置預(yù)案。引人國(guó)家認(rèn)定的第三方算法審計(jì)機(jī)構(gòu),定期對(duì)基層治理場(chǎng)景中使用的算法開(kāi)展對(duì)抗性測(cè)試、偏見(jiàn)檢測(cè)和魯棒性評(píng)估,對(duì)民生服務(wù)、公共信用評(píng)價(jià)等高風(fēng)險(xiǎn)領(lǐng)域?qū)嵤┠甓葟?qiáng)制審計(jì)。人工智能技術(shù)進(jìn)入使用階段后,安全監(jiān)管端一旦監(jiān)測(cè)到系統(tǒng)偏移,立即啟動(dòng)熔斷機(jī)制,自動(dòng)切換為人工復(fù)核模式。建立算法失效追溯和漏洞修復(fù)限期整改制度,對(duì)發(fā)生重大錯(cuò)誤的模型強(qiáng)制開(kāi)展技術(shù)溯源,并在規(guī)定期限內(nèi)完成優(yōu)化迭代或整體下線,防止累積成系統(tǒng)性風(fēng)險(xiǎn)。
第二,用安全監(jiān)管強(qiáng)度精準(zhǔn)匹配風(fēng)險(xiǎn)量級(jí),實(shí)施基于風(fēng)險(xiǎn)等級(jí)的分級(jí)分類。借鑒歐盟《人工智能法案》提出的人工智能應(yīng)用風(fēng)險(xiǎn)分級(jí)監(jiān)管措施,根據(jù)應(yīng)用場(chǎng)景的社會(huì)敏感性將人工智能系統(tǒng)劃分為高、中、低三個(gè)風(fēng)險(xiǎn)等級(jí)[25]。在社會(huì)救助資格認(rèn)定、執(zhí)法評(píng)估等高風(fēng)險(xiǎn)場(chǎng)景強(qiáng)制采用可解釋的人工智能技術(shù)、實(shí)時(shí)運(yùn)行監(jiān)測(cè)及人工復(fù)核機(jī)制;公共服務(wù)推薦、輿情分析等中風(fēng)險(xiǎn)場(chǎng)景定期進(jìn)行合規(guī)性自查,并提交風(fēng)險(xiǎn)評(píng)估報(bào)告;低風(fēng)險(xiǎn)場(chǎng)景實(shí)行備案制管理,重點(diǎn)進(jìn)行事后監(jiān)督。同時(shí),建立跨部門(mén)人工智能風(fēng)險(xiǎn)評(píng)級(jí)委員會(huì),動(dòng)態(tài)調(diào)整風(fēng)險(xiǎn)分類標(biāo)準(zhǔn),避免“一刀切\(zhòng)"過(guò)度監(jiān)管。
第三,將技術(shù)專業(yè)能力植入安全監(jiān)管,構(gòu)建技術(shù)風(fēng)險(xiǎn)監(jiān)管工具鏈。推動(dòng)建設(shè)區(qū)域性人工智能安全監(jiān)管云平臺(tái),集成算法備案、測(cè)試評(píng)估、風(fēng)險(xiǎn)預(yù)警等功能,為基層監(jiān)管提供標(biāo)準(zhǔn)化工具鏈。鼓勵(lì)政府與技術(shù)企業(yè)共建人工智能安全實(shí)驗(yàn)室,開(kāi)展漏洞挖掘、風(fēng)險(xiǎn)模擬與攻防演練。研發(fā)適用基層治理場(chǎng)景的輕量化監(jiān)管技術(shù),包括數(shù)據(jù)加密驗(yàn)證工具、模型水印追蹤系統(tǒng)和決策日志分析平臺(tái),降低安全監(jiān)管技術(shù)門(mén)檻。建立人工智能事故報(bào)告共享數(shù)據(jù)庫(kù),要求各應(yīng)用主體定期上報(bào)系統(tǒng)異常與處置情況,形成行業(yè)級(jí)學(xué)習(xí)反饋機(jī)制。
參考文獻(xiàn):
[1]方陵生.中國(guó)智慧城市發(fā)展報(bào)告[J].世界科學(xué),2020,(9).
[2]袁建軍,陳錦.從“智”到“能”:生成式人工智能助推政務(wù)服務(wù)智能化的實(shí)踐理路[J].中共天津市委黨校學(xué)報(bào),2024,(6).
[3]張輝.人工智能對(duì)基層治理現(xiàn)代化的影響:機(jī)遇、困境與應(yīng)用策略[J].北京聯(lián)合大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版),2024,(5).
[4]許浩,胡曉藝.人工智能賦能城市安全風(fēng)險(xiǎn)治理的運(yùn)行機(jī)制與治理困境[J].城市問(wèn)題,2024,(4).
[5]秦書(shū)生,高琦珈.監(jiān)督監(jiān)察體系智能化的驅(qū)動(dòng)邏輯與困境紓解[J].中共天津市委黨校學(xué)報(bào),2025,(3).
[6]梅傲,陳子文.總體國(guó)家安全觀視域下我國(guó)數(shù)據(jù)安全監(jiān)管的制度構(gòu)建[J].電子政務(wù),2023,(1).
[7]王小芳,王磊.“技術(shù)利維坦”:人工智能嵌入社會(huì)治理的潛在風(fēng)險(xiǎn)與政府應(yīng)對(duì)[J].電子政務(wù),2019,(5).
[8]徐敏寧,羅鵬.人工智能嵌入基層治理的風(fēng)險(xiǎn)生成及規(guī)避[J].行政管理改革,2022,(7).
[9]唐任伍,史曉雯.人工智能賦能基層治理的運(yùn)行機(jī)制與風(fēng)險(xiǎn)規(guī)避[J].探索,2024,(1).
[10]容志,任晨宇.人工智能的社會(huì)安全風(fēng)險(xiǎn)及其治理路徑[J].廣州大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023,(6).
[11]董波.人工智能賦能社會(huì)治理:人機(jī)共生的全新圖景[EB/OL].[2025-09-16].https://www.ndrc.gov.cn/xxgk/jd/jd/202508/t20250826_1400071.html.
[12]劉鵬,郭戈英.走向適應(yīng)性監(jiān)管:理解中國(guó)金融監(jiān)管機(jī)構(gòu)改革的治理邏輯[J].學(xué)海,2023,(3).
[13]徐青.價(jià)值理性的本真與建構(gòu)[J].河南師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2017,(4).
[14]許 勇,黃福壽.人工智能賦能國(guó)家治理:定位、邏輯與實(shí)踐[J].哈爾濱工業(yè)大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2022,(3).
[15]翟云,吳旭紅,范梓騰,等.數(shù)字化轉(zhuǎn)型背景下“高效辦成一件事\"改革的系統(tǒng)性探索:理論邏輯、實(shí)踐創(chuàng)新與治理躍升[J].電子政務(wù),2025,(9).
[16]張璐.通用人工智能風(fēng)險(xiǎn)治理與監(jiān)管初探——ChatGPT引發(fā)的問(wèn)題與挑戰(zhàn)[J].電子政務(wù),2023,(9).
[17]張凌寒.深度合成治理的邏輯更新與體系迭代——ChatGPT等生成型人工智能治理的中國(guó)路徑[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2023,(3).
[18]朱欣遠(yuǎn),黎侃,張華榮,等.走向主動(dòng)監(jiān)管:政務(wù)數(shù)據(jù)監(jiān)管體系探索與實(shí)踐[M].北京:人民郵電出版社,2024.
[19]劉丹,張昱.中國(guó)社會(huì)的治理實(shí)踐及其優(yōu)化[J].領(lǐng)導(dǎo)科學(xué),2021,(18).
[20]樂(lè)清市人民政府.商家后廚怎樣?AI先來(lái)把關(guān)樂(lè)清創(chuàng)全國(guó)首個(gè)外賣餐飲智能評(píng)價(jià)處置系統(tǒng)[EB/OL].[2025-09-14].http://www.yueqing.gov.cn/art/2025/7/4/art_1322069_59291946.html.
[21]孫賓,章榮君.融合工具理性與價(jià)值理性:社會(huì)治理數(shù)字化的實(shí)踐省思[J].湖湘論壇,2024,(2).
[22]顏佳華,王張華.以“善智”實(shí)現(xiàn)善治:人工智能助推國(guó)家治理的邏輯進(jìn)路[J].探索,2019,(6).
[23]楊豐一.人工智能“監(jiān)管沙盒”:理論溯源、實(shí)踐考察與制度構(gòu)建[J].中國(guó)行政管理,2024,(12).
[24]北京數(shù)據(jù)基礎(chǔ)制度先行區(qū)建成全國(guó)首個(gè)人工智能數(shù)據(jù)訓(xùn)練基地[EB/OL].[2025-09-15].http://bj.people.com.cn/n2/2024/0705/c14540-40902939.html.
[25]黃海瑛,楊旭.基于《人工智能法案》的歐盟人工智能監(jiān)管制度解讀[J].圖書(shū)館建設(shè),2025,(3).
責(zé)任編輯:崔正賢
Risk Evolution and Systemic Response : A Study on Security Supervision Mechanisms for AI-Driven Grassroots Governance
Zhang Hui,Ji Hongmei
Abstract: In the digital leap driven by new quality productive forces,“Artificial Intelligence Plus” has become a national strategic pillar for modernizing grassroots governance. The application of AI in grassroots governance is accompanied by complex security supervision risks, posing new challenges to governance security regulation. Security supervision must achieve organic integration of instrumental rationality and value rationality, promoting the fusion of technological empowerment and governance values. To strengthen AI security supervision, it is essential to reshape a multistakeholder“collaborative network” for safety governance, establish a regulatory framework that “combines rigidity and flexibility”,develop mechanisms for stakeholder interaction based on government data sharing,cultivate a safety supervision environment characterized by “resilient regulation-social trust-public participation”,and build endogenous security technological barriers. These measures will enhance the modernization of grassroots governance systems and capabilities.
Key words: artificial intelligence, grassroots governance, digitally disadvantaged groups,institutional adaptation,system resilience