關鍵詞:生成式AI;數字政府;數據主權;技術理性;價值理性
一、問題的提出
隨著數字技術的不斷發展,我國已經逐步進入強人工智能時代。相比弱人工智能,強人工智能的自主學習能力、人機交互能力和數據處理能力大幅增強,技術賦能的效果也實現了質的提升。目前,生成式AI作為一種新技術,它具有GPT所要求的廣泛適用性、發展性和生成開創性等特征[1],從而被認為是強人工智能的初級形態。依靠其自身強大的技術邏輯和算力算法,生成式AI能夠為數字政府建設的輸入和輸出過程提供數字化、信息化和協同化等方面的工具助力,從而形成協同高效的數字政府智能形式。《中華人民共和國國民經濟和社會發展第十四個五年規劃和2035年遠景目標綱要》就目前如何進一步提升數字政府建設水平指出了三個重要方向,即推動政務信息化共建共用、提高數字化政務服務效能和加強公共數據開放共享。上述三個重要方向分別體現了數字政府建設的三個重要領域,即政府內部之間的決策支持、政府向公眾提供的政務服務和政府為增進公眾福祉進行的公共治理。因此,從生成式AI嵌入數字政府建設的應用場景、現實效能等角度展開,分析數字政府的強人工智能雛形及其可能產生的風險,是研究我國數字政府建設推進的必要命題。
從現有研究來看,我國學者在研究生成式AI嵌入數字政府建設時,相應的討論范式和研究進路較為單一,大多嘗試通過實踐、風險和規制的思路(或類似思路),從生成式AI在數字政府領域的探索應用出發,提出生成式AI對數字政府的內生性優化效能,分析存在的數據安全、虛假信息和隱私侵犯等風險,從而期望通過技術完善、數據監管和權利保障等形成全面的完善路徑[2-6]。一部分研究以生成式AI為基礎構建GovGPT,形成政府服務的無人化、自動化和虛擬化等特征[7];通過以“大數據分析+可視化展示”為特點的生成式AI技術,以交互式的可視化平臺展示成果,為政府決策提供科學依據[8];建議通過以人民為中心的基礎、以效率為優化的要點,建設聚焦自動決策與智慧決策的數字政府[9]。另一部分研究分析了生成式AI嵌入數字政府建設的利弊。就優勢而言,生成式AI不僅可以提升數字政府的內部性能,而且能夠優化外部行政行為,最終促成行政機關與公民的緊密互動。相關的風險包括數字政府建設存在的數據主權安全風險、技術資本異化風險和信息秩序失穩風險[10]。目前,鮮有研究從技術性質視角出發,結合數字政府建設的重點領域進行透視,或基于我國目前數字政府建設新時期的新需求展開分析和論證。
不同于現有研究,本文從數字政府建設的三個重要領域(即決策支持、政務服務和公共治理) 出發,首先,分析生成式AI嵌入數字政府建設后所形成的強人工智能雛形的具體形態,從而說明生成式AI嵌入數字政府建設的功能價值。其次,根據數字政府建設新時期的協同高效目標進行價值審思,分析生成式AI嵌入數字政府建設時,由于人文理性尚未完全融入而導致的“高效”已成但“協同”目標尚未達到的現狀所蘊含的風險。最后,基于價值審思分析得出的多角度技術限制問題,提出針對性的智能補強方案,從而真正實現強人工智能與數字政府的良性互動。
二、技術賦能:生成式AI 嵌入數字政府建設的功能價值
作為強人工智能的典型代表,生成式AI嵌入數字政府建設能夠大幅增強數字政府結構的協同性、提升數字政務服務的親民性、提高公共治理的科學性,在提升政府自身管理水平的同時,加強政府與公眾的良性互動,為優化數字政府建設生態提供契機。
(一) 增強數字政府結構的協同性
在信息技術嵌入某一系統的過程中,若追求其正向效用則一般需要經歷“技術聯結—信息驅動—結構再造”的流程[11],這一技術應用流程同時適用于信息技術嵌入政府治理的過程中,在政府的治理結構、治理方式和治理效能等方面推動政府的信息化和數字化轉型。
第一,生成式AI強化了數字政府的信息協同。在數字政府運行中,信息和數據是其中的樞紐,也是聯結政府各部門、實現各部門之間有效溝通協商的橋梁。在以往的政府運行中,由于科層體制和信息化建設的不足,政府各部門之間的溝通協商存在信息壁壘,導致各部門在諸多治理問題上無法達成一致。生成式AI的應用有助于打破繁復體制和信息壁壘的掣肘,促進信息和數據在智能系統之間的相互流動。此外,政府各部門還可以通過智能系統實時分享治理信息,向生成式AI輸入部門的訴求和意見,借助其深度交互系統的特點整合分散的治理資源,實現數字政府的信息協同。
第二,生成式AI重塑了數字政府的組織協同。在長期的政府治理實踐探索下,我國形成了政府治理的“條塊”模式,這種上下有序、部門分工的行政治理模式不僅有利于發揮各部門的專長,也有利于上下級之間的事權劃分。但是,“條塊”模式也逐漸暴露出各部門之間信息溝通不足、部門利益沖突嚴重等問題。在數字時代,政府治理事項的“非條塊”特性愈發明顯,僅靠單一部門的專業性治理已經無法滿足目前的社會治理需求,因而需要改變以往“專業化—部門化—利益化”的格局,提升政府治理效能。生成式AI在數據收集、處理和共享等方面將助力改進科層體制下高度分工的部門主義,增強政府各部門之間的協同性和聯動性。
第三,生成式AI增強了數字政府的技術協同。在技術應用與數字政府效能的關系中,技術成功賦能的關鍵在于組織結構自身對技術的吸收[5]。相較于目前運用于數字政府建設的人工智能系統,生成式AI更多地整合了云計算、大數據和物聯網等技術,依托“云+網+端”的基礎設施、互聯互通的數據資源和高效協同的業務應用[12],顯著增強了數字政府的技術聯結能力。此外,生成式AI強大的自主學習能力和自主生成能力,能夠將此種聯結以文字、視頻和圖片等多模態形式生動展現。以往的AI技術無法通過高度交互的場景給予行政相對人具身化的參與感受,其運行路徑相對固定、機械,行政相對人對于人工智能系統的數據、資源和知識整合能力整體體驗感不強。就生成式AI而言,從內部結構來看,其作為強人工智能的初級形態擁有強大的技術算法基礎;從外部表現來看,其擁有強大的交互式溝通對話能力,內外兩方面互相成就的技術系統能夠極大程度地匹配數字政府的運行邏輯。
(二) 提升數字政務服務的親民性
人機交互系統的建設和完善是強化行政機關與行政相對人之間交互性的重要保障,對政務服務協同高效的實現具有重要意義。在人機交互方式的完善過程中,便于公眾理解和感知是技術得以應用于數字政府建設的前提條件。盡管我國數字政府建設目前已經實現了從“對話智能體”(Conversational Intelligently Agent) 到“涉身對話智能”(Embodied Conversational Agent) 的技術轉型,但距離實現人機流暢對話的終極目標仍存在一定距離。從表面來看,物聯網、人工智能算法等新興技術的出現革新了社會公眾的生產方式和生活方式;但從實質來看,新興技術的應用效能是否完全符合社會公眾的實際需求有待商榷。根據《2020下半年中國地方政府數據開放報告》,數字政府的平臺親民性不足,只有22%的數字平臺具有無障礙瀏覽、語言翻譯和溝通對話等包容性功能。這尤其體現在政府向公眾提供公共服務的智能系統的應用上,當行政相對人尋求諸如戶籍、稅務等公共服務時,智能系統多數情況下采取由行政機關向行政相對人的單向信息傳輸方式,智能系統只能在接收到預設關鍵詞后才能作出相應反饋,人機交互的對話內容僅限于程式性語言,既有的智能系統無法有針對性地、具象化地解決行政相對人的全部實際需求,仍需要政府工作人員具體解決。
基于生成式AI的深度交互性和強大的自主學習能力,生成式AI能有效提升人機交互的親民性,具體體現為:首先,強化智能系統的溝通交流。生成式AI與傳統的AI設計體系相比,能夠基于預訓練數據庫,依據標注數據自動生成并處理包括語言翻譯、溝通對話和文本摘要等在內的任務類型,生成擬人化的文本數據并以對話形式呈現給用戶,并依托強大的上下文關聯能力,增強行政相對人的具身化體驗。生成式AI采用的模型使用了“人類反饋強化學習(ReinforcementLearning from Human Feedback,簡稱RLHF) ”的訓練方式,能夠通過預設的打分模型對原始模型進行反復訓練,根據提示詞內容生成標準模型,輸出符合用戶需求的智能化內容。其次,提高溝通語言的藝術性。相比于冰冷的信息傳達,生成式AI能夠充分考慮行政相對人的需要,模擬人類語言行為,與用戶進行自然交互,其語言組織能力、文本水平和邏輯能力可以讓人獲得極大的滿足感。生成式AI在算法生成和運行過程中可以結合情景學習方法,在保證數據的有用性、真實性和無害性的同時,最大程度地強調人類情感的擬合,促進生成式AI技術表現的“擬人化”。最后,加強溝通對話的對稱性。在傳統行政行為語境下,政府與公眾之間面對面的物理交互往往使得政府工作人員和行政相對人感到力不從心,尤其是對行政相對人而言,在尋求行政服務時難免需要面對責任推諉、程序繁雜和服務敷衍等問題。生成式AI作為智能對話系統,有助于打破僵硬的傳統行政模式,將政府與公眾保持在“安全社交距離”中從而進行平等對話,具體體現為信息的公開透明、對話的平等親和,以期實現行政信息的公開,并遵循公正、公平原則,提升政府的服務效能和治理水平。
(三) 提高公共治理的科學性
生成式AI嵌入數字政府建設不僅深刻改變了政府的治理結構和治理方式,還在具體的公共治理活動中對政府行為產生深遠影響。
第一,生成式AI有助于增強公共治理的公正性。無論是政府的具體行政行為還是抽象行政行為,在作出行政決策時都可能被相關利益主體所“俘獲”[3],從而影響公共治理的公正性。在行政治理中,這些不公平現象又有可能被各種表象掩蓋,從而阻礙公眾和利益相關方提出異議。生成式AI對于數據的收集和分析能力有助于增強公共治理的公正性,通過對數據的客觀分析,排除可能影響公共治理公正性的人情、關系和偏見等因素,最大程度規避行政決策的主觀性和隨意性。這種客觀性和數據驅動的決策過程,有助于確保政府在政策制定中盡量考慮到所有利益相關方的需求,從而增強公共治理的公正性。在各種行政決策中,與公共治理公正性密切相關的主要是與資源分配相關的行政決策。例如,在與資源分配相關的政策制定過程中,生成式AI可以通過分析大數據,提供客觀的建議和預測,減少人為因素的介入。通過保證分配的公正進一步保證公共治理的公正性和決策過程的透明性。
第二,生成式AI有助于提升公共治理的精準度。提升政府治理效能,讓公眾在每一個政府行政決策中都感受到公平正義是我國政府職能轉型的總體目標,以往由于信息收集的能力不足,導致政府行政決策往往只能顧及大多數人的利益,而這個大多數人又集中于城市和經濟發達地區,忽略了農村和經濟欠發達地區的公眾訴求。生成式AI嵌入數字政府建設有助于提升公共治理的精準度,可以通過信息的收集和分析,形成個性化的“用戶畫像”,這個“用戶畫像”的主體不僅包括公眾,還包括政府主體,通過預測相關主體的行為提升公共治理的精確度,提高相關主體對公共治理實用功能的期待。除此之外,生成式AI還可以在政府與公眾之間搭建起溝通的橋梁。例如,智能客服系統可以利用生成式AI技術處理公眾的咨詢和投訴,接收農村和經濟欠發達地區的公眾訴求,快速響應關于類型化的公眾意見,并及時記錄公眾反映的意見,由此為行政決策提供參考依據。在此過程中,生成式AI還可以通過自然語言處理和大數據分析,識別和分析社交媒體和其他在線平臺上的公眾輿論和反饋。這些分析結果可以幫助政府更好地理解公眾的期望和需求,確保政策和決策能夠更好地反映社會整體利益,重視農村和經濟欠發達地區的公眾訴求。
第三,生成式AI有助于提高政府治理效率。信息化建設程度深刻影響了政府治理效率,在政府行政決策中,往往在需要作出決策時才進行信息的收集行為,可能因為信息收集不及時、收集范圍過窄等對具體行政相對人的切實利益造成影響。生成式AI嵌入數字政府建設有助于提升政府治理效率,如稅務辦理、市場監管和環境治理等政府行為,能夠在持續不斷的收集和分析數據過程中提升治理效率。當存在作出新決策的需求時,生成式AI不僅可以基于歷史數據檢索分析相關主體的偏好、行為,還能夠基于數據分析預測其未來行為,為提升政府治理效率提供助力。除此之外,通過分析政府日常運行的人員需求和工作負載,生成式AI可以優化人員配置,進一步提高政府工作人員的工作效率和滿意度。通過生成式AI的應用,相應的人力資源管理更加智能化,這不僅能夠減少相關人力資源的浪費,還可以提升政府部門的整體執行能力和服務水平。
三、風險審思:生成式AI 嵌入數字政府建設的多維挑戰
從本質來看,生成式AI作為一項技術,在尚未通過規范的方式進行價值理性塑造的前提下,仍可能對數字政府建設造成諸多負外部性問題,如技術嵌入容易引發國家數據主權安全風險、技術依賴容易誘發個人信息安全風險、資本逐利易導致資本侵蝕風險和資本同化風險。
(一) 技術嵌入容易引發國家數據主權安全風險
伴隨著大數據與人工智能的快速發展,數據對于人類社會的重要性越來越大。不管是經濟層面、社會層面,還是人們的日常生活,數據的參與度越來越高。對數據的占有和利用也成為各國之間博弈的關鍵,數據主權的概念也基于國家安全而產生。從主動的角度來看,國家掌握數據主權就能在網絡秩序中掌握主動權,增強參與國際數據活動的活力,從而能夠創造更大的經濟價值、提供更加優質的網絡服務。從被動的角度來看,國家若不能維護數據主權,其受到網絡攻擊的風險就越大,重要數據極有可能被泄露或濫用從而對國家安全產生巨大危害,這集中表現為三個維度:首先,數據濫用。生成式AI具有獲取大量數據的能力,而這些數據可能被用于商業或其他目的,如果這些數據未經妥善保護而被濫用,數據主權將受到侵犯,數據主體對數據的控制權將被削弱,甚至威脅國家數據主權。其次,安全漏洞。生成式AI的敏感信息抓取特性可能導致安全漏洞的出現。如果安全措施不完善,黑客或惡意用戶可能利用這些漏洞獲取用戶的敏感信息,造成數據泄露。針對生成式AI的敏感信息抓取特性,有關部門必須借助一定的技術手段進行制約。目前,已有數據脫敏、數據加密和用戶自主性控制等技術機制,但面對生成式AI這一不斷自我更新與學習的智能技術而言,對應的機制也需要不斷強化才能夠有效應對安全漏洞。最后,技術壟斷。就技術壟斷而言,其本質上是對技術壁壘的描述,但技術壟斷上升為國家意志就會成為技術霸權[13]。如前所述,數據是重要的生產要素,美國等西方國家基于其掌握的先進計算機技術對相關領域實行了技術霸權。由于生成式AI的底層技術和訓練數據受到特定實體或公司的控制和壟斷,這些實體或公司在獲取大量數據的同時也掌握和控制著這些數據的使用和流動。這將導致數據集中于少數實體,從而削弱其他國家或組織的數據主權。在技術壟斷和技術霸權的壁壘下,不僅數據控制權會受到影響,對技術的依賴、競爭和創新的削弱也會限制數字政府建設的多樣性和進步性。因此,在生成式AI嵌入數字政府建設中,需要認識到技術壟斷和技術霸權的風險,通過自主掌握核心技術等強化自身的數據主權。
(二) 技術依賴容易誘發個人信息安全風險
⒈生成式AI過度收集數據
在數字政府建設中,生成式AI這一重大技術的嵌入對現代政府的治理具有重大意義,但生成式AI嵌入數字政府建設離不開對治理對象數據的收集。生成式AI作為大語言模型主要依靠對數據的學習提煉信息、預測趨勢[14],離開海量數據的支撐,生成式AI生成新內容的能力將會大打折扣。據報道,生成式AI與其他網絡平臺一樣,在收集用戶個人信息(包括個人隱私和敏感數據) 時并未獲得用戶的同意。此外,由于自身的先進性,生成式AI還可以不受時間限制跨平臺收集注冊用戶在其他網絡平臺的信息,依靠該公司收集的大量數據進行轉型、升級和創新。資源積聚到一定程度就是權力集聚[15],生成式AI嵌入數字政府建設將會輔助政府治理,導致政府掌握的治理對象數據的大幅增長。
⒉生成式AI過度整合數據
數據整合是指通過特定的數據轉換、數據推理和數據模擬技術,將收集到的零散海量數據資源轉換為具有一定內在規律和邏輯的數據的處理機制[16]。由此可見,數據整合是為后續的信息存儲和使用工作進行準備的處理機制。生成式AI內嵌的算法技術對數據整合的處理極其專業,這從生成式AI生成的內容就可以看出,具有針對性和邏輯性的文本內容體現了生成式AI能夠準確、高效地處理海量數據資源。因此,在近端策略優化(Proximal Policy Optimization,簡稱PPO)算法的強力支撐下,生成式AI的數據整合優勢能夠有效提升數字政府的智慧性[16]。與此同時,生成式AI無法避免的算法黑箱會導致在數字政府建設中,該模型背后的控制者為了經濟利益而違背數字政府建設的公共管理目標,在數字政府和治理對象缺乏相關算法知識的情況下,控制者將數據整合轉作他用——畢竟生成式AI是由資本控制,而資本的本質在于追逐利益最大化。算法黑箱的存在使得作為治理對象的個人和數字政府在表面上可以感知模型算法的客觀運行,但對其根本的運行機理和內部程序不甚了解[17]。在這種情況下,數字政府偏離了原本的建設初衷,而治理對象數據被過度加工、得不到有效保護。
⒊生成式AI過度存儲數據
經過對治理對象數據的生產和加工后,便進入了存儲治理對象數據的環節。在這一環節中,會產生兩個方面的數據持有或存儲風險。首先,未經治理對象知情同意存儲信息。目前,從生成式AI所屬公司和用戶簽署的使用政策或隱私保護政策來看,并未有政策條款明確用戶個人具備檢查其留存于模型上的個人信息,更不用說將生成式AI用來保存用戶個人信息的數據庫公開以供社會檢查。此外,為絕對保護生成式AI所存儲的治理對象數據,相關公司擬定了對自身具有優勢的信息使用條款——對用戶個人信息存儲保護和修復未作出任何說明。其次,治理對象數據無限期存儲風險。根據《中華人民共和國個人信息保護法》第19條,除法律、行政法規另有規定外,個人信息的保存期限應當為實現處理目的所必要的最短時間。因此,數據存儲行為存在著限制之說[18]。從生成式AI用戶使用條款來看,未有關于數據存儲的期限規定,這就表明開發公司可以借助政策的漏洞,即類似于“法無禁止即可為”,進而永久地保存用戶留存于模型上的信息,查看、保存用戶在其他網絡平臺上的信息。借助于技術優勢,生成式AI在信息存儲成本低廉的情況下,將會無限期地存儲用戶個人信息。生成式AI作為由外國資本控制的技術,我國數字政府建設借助其進行現代化治理時,必須對其無限期存儲治理對象數據的行為進行監管。政府數據的管理屬性和價值屬性與國家數據主權安全密切相關[19],因而必須警惕永久保存公民個人信息所引發的數據安全風險。
(三) 資本逐利容易導致資本侵蝕風險和資本同化風險
⒈生成式AI蘊含資本侵蝕風險
馬克思認為,資本不是一種物,而是一種以物為中介的人和人之間的社會關系[20]。生成式AI是人工智能技術(也屬于資本) 的產物,其所具有的“類人”化特征正是資本入侵技術所期望看到的現象[21]。科學技術的發展帶來了巨大的價值,但資本入駐技術所帶來的科技倫理風險是人類所不能承受的。生成式AI在促進科技創新、經濟增長的同時,也引發了技術異化帶來的倫理問題。例如,生成式AI在文本生成上的優勢吸引了大量的人群,這其中不乏學生群體。學生利用生成式AI最為準確的文本撰寫功能進行論文寫作,這顯然與教育的理念相悖,許多學校和機構因此禁止使用其進行文本創作。但是,資本面對巨大的流量和廣闊的發展前景必然會不斷地侵蝕這一技術以獲得更為巨大的利益。總之,生成式AI投入聊天時的低成本優勢和商業公司不斷追加的數十億美元投資直接將生成式AI推進國內外各類資本的視線中,各類生成式AI的廣闊商用前景不斷推高資本侵蝕技術的風險。在生成式AI嵌入數字政府建設中,資本入駐技術與數字政府公共治理的理念相悖,將政府治理效果引導至資本利益想要發展的方向上。
⒉生成式AI蘊含資本同化風險
生成式AI作為一項新技術,無論是企業、組織還是個人,都希望通過學習、引入、融合或創新等方式,將生成式AI這一外部技術資源轉化為自身內部的生產力和競爭優勢,由此產生了資本同化的現象。在資本同化的過程中,涉及知識產權保護,技術的轉讓、研發和應用等多方面。生成式AI作為大型聊天機器人可以提供多樣的產品和服務,其文本生成服務深受廣大用戶的青睞。生成式AI所撰寫的文本依托于海量數據資源,加之其特有的“類人”創造力,生成的文本內容富有文采且符合客觀邏輯,因而實踐中產生了生成式AI是否對其生成的文本內容具有所有權,是否受著作權保護等問題。有學者認為,生成式AI生成的內容具有獨創性,應受著作權保護[22]。這是生成式AI資本同化導致的知識產權風險:用戶應用生成式AI生成文本的本意是服務于自身的使用,但資本的介入使得知識產權的保護和合規性成為了難點,從而加大了資本同化的風險。
四、進路展望:生成式AI 嵌入數字政府建設的智能補強
如上所述,生成式AI嵌入數字政府建設能夠實現理論上的強人工智能雛形,但由于技術理性尚未附加價值理性,此種理論上的強人工智能雛形在實踐中受到各方面的掣肘。若將理論形態轉化成實踐效能,需要針對上述局限進行不同程度的智能補強。
(一) 加強技術合規建設以維護國家數據主權安全
⒈通過規范構建遏制霸權傾向
數字技術已經成為國家數據主權競爭秩序和數據安全維護效果的基本保障。在數字政府建設中,國家不僅是生成式AI的技術應用者,還是生成式AI的技術監管者,且后者往往直接決定了國家數據主權的安全性。鑒于生成式AI的應用前景和數字治理的發展進程,有必要完善生成式AI的應用體系從而為其規范發展制定合理的制度邊界。
其一,應保證既有規范的體系性、協調性。為規范生成式AI的開發應用,保護國家數據主權安全、個人信息安全,2022年11月25日,國家互聯網信息辦公室、工業和信息化部、公安部聯合發布了《互聯網信息服務深度合成管理規定》,從概括性規定、數據和技術管理規范、監督檢查與法律責任等維度對深度合成服務提供者的義務和責任進行了明確規定。2023年7月13日,國家互聯網信息辦公室等七部門聯合發布了《生成式人工智能服務管理暫行辦法》,從內涵界定、主體責任和應用程序等方面對生成式AI的應用體系進行了具體界定。同時,還應注意上述規范內容與已經公布實施的規范文件的銜接與貫通。在上述規范的具體落實過程中,對于規范漏洞和規范空白可以參考適用《中華人民共和國數據安全法》《中華人民共和國網絡安全法》《中華人民共和國個人信息保護法》《數據出境安全評估辦法》《互聯網信息服務算法推薦管理規定》等相關規定;對于規范沖突可以依照法的效力層級理論進行具體分析。
其二,應探索制定新的規范文件和條例細則。系統化的法律文件要求法律規范內容具有相對完備性和高度適用性。為保證既有的規范性文件得以完全貫徹落實,應完善《生成式人工智能服務管理暫行辦法》《互聯網信息服務深度合成管理規定》等規范文件適用的程序機制和內容解釋細則,從實體內容和程序方法等角度完善生成式AI的應用規則,以免上述規范性文件陷入難以落實的窘境。
⒉通過分類分級限制信息處理
在信息時代,數據既是數字技術作用的主要對象,又是數字政府建設的基礎資源,也是生成式AI嵌入數字政府建設要運用的關鍵要素。為了充分發揮生成式AI在數字政府建設中的積極作用,需要界定其發揮作用的空間或領域——數據對象的類型、多少、大小和內容范圍。數據的分類分級管理是對數據全流程、全過程進行保障的基礎[21]。在科學、合理、有效的分類分級管理基礎上,才能夠以最低的數據風險成本達到最高的數據建設成效。2022年12月出臺的《中共中央 國務院關于構建數據基礎制度更好發揮數據要素作用的意見》強調,探索建立數據產權制度,推進公共數據、企業數據和個人數據的分類分級確權授權使用,這不僅對于數據經濟效益發掘具有重要意義,也說明數據可運用于其他領域。當然,從數據本身來看,不同類型的數據,其權益主體、權益內容和權益保護等方面均呈現出特殊性[22]。只有對數據形成一種體系化的分類分級利用標準才能節約成本、提高效率。
作為頂層設計,對于生成式AI數據的分類分級應堅持一些基本原則。可參考基礎電信企業的數據分類分級原則,如安全性原則、穩定性原則、可執行原則和時效性原則等[22],還要結合數字政府政務運行的實際情況確定相應的原則。首先,安全性原則。并非所有數據都能利用生成式AI進行處理,涉及國家安全、重要行業和重點產業的敏感數據應被排除在外,并根據敏感程度、安全程度進行分級。相關的原則還有就高不就低原則,涉及多層級的數據應該歸為高敏感層級;關聯疊加效應原則,雖然剛開始層級較低,但處理之后層級變高的數據應重新歸類。其次,可執行原則。為保障可操作性,分類分級原則應貼近政府實際情況,不應過于復雜或過于粗獷。例如,可根據政府級別劃分數據管理權限,有技術、有條件的政府可處理多類別多層級的數據;還可根據行政機關主管業務劃分數據類別。最后,完整性原則。數據在數字政府的運行過程中呈現不同的狀態,可從輸入、處理和輸出這三個階段確定數據狀態,并進行不同的類別劃分。最關鍵的是,這些基本原則應體現在相關規范的內容之中,應體現在落實生成式AI嵌入數字政府建設的實踐之中。例如,各地區、各部門可以根據數據分類分級原則進行政策或法律、法規的制定,確定本地區、本部門和相關行業、領域的數據分類分級實施細則或具體目錄[23],方便進行實務操作。
(二) 多部門協同配合以增強個人信息安全
生成式AI嵌入數字政府建設的制度架構側重于從抽象性、方向性和原則性維度對生成式AI參與行政治理活動進行規制。在此基礎上,若要在“知情同意—類別劃分”的規范性框架內完善生成式AI處理數據的制度約束,在“他律—自律”的邏輯閉環內建構個人信息保障機制,則有必要在異質化的治理空間中通過明確不同主體的保障義務進行具體展開。如前所述,生成式AI嵌入數字政府建設時會對數據主權、數據安全和信息秩序產生負向影響,政府公共權力行使與公民個人信息權利保護之間的關系陷入失調狀態。從憲法基本權利的教義學角度來看,將個人信息受保護權視為基本權利的觀點,具有堅實的憲法規范基礎;從主觀權利和客觀法維度來看,國家對其具有消極和積極保護義務[24]。因此,需要立法機關、執法機關與司法機關協調配合,以完善生成式AI嵌入數字政府建設的保障機制。
⒈通過立法規制實現風險預防
在基本權利的功能體系中,主觀防御權以排除國家的不當限制、防御國家的侵害為內容,個人可以據此請求排除國家對其基本權利的不當侵害[25]。但是,隨著風險社會的到來,由此增加的人為風險不同于自然風險,其與人類的實踐活動和決策行為相伴而生,包含技術風險和制度風險[26]。在此視域下,基本權利的主觀防御權功能無法全方位地保障個人基本權利的充分實現,因而應引入國家保護義務理論,從而延伸基本權利作為“請求權體系”的內涵與外延,為國家以積極的方式保障個人基本權利的充分實現提供堅實的理論支撐。風險預防義務是對國家保護義務的拓展和延伸[27]。申言之,生成式AI自身的技術邏輯和算法構造加劇了數字政府建設的算法風險和制度風險,對數據主權、數據治理和數據安全造成極大挑戰。同時,國家保護義務的實現離不開完備的法律規范體系,需要立法機關從立法層面落實風險預防責任。
其一,立法機關要將風險預防義務予以具體化展開。在生成式AI嵌入數字政府建設中,要著重強調構建個人信息受保護權的國家保護義務體系。一方面,立法機關要注重對于法益侵害風險源的規范規制。在個人信息受保護權的功能體系建構過程中,立法機關要不斷完善以《中華人民共和國個人信息保護法》為中心,以《中華人民共和國數據安全法》《中華人民共和國網絡安全法》等法律規范為補充的法律法規體系,從源頭切斷生成式AI侵害個人數據權利的運行路徑。另一方面,立法機關要注重對于權利主體的規范保護。“知情—同意”原則是個人數據權利得以規范化利用的合法性基礎[28]。在告知程序上,要實現“知情—同意”原則的明示化,避免以默示方式或行為推定模糊個人信息收集使用的權限,有效防止該原則陷入僵尸條款的窘境;在告知內容上,要在前述數據分類分級保護的基礎上,對數據收集主體、數據收集方式和目的、信息內容、第三方參與等進行規范化、明確化設定,不得強制公民、個人對數據收集和使用等表達同意。
其二,立法機關要完善風險預防義務的合憲性論證。雖然風險預防義務是國家保護義務的概念性拓展,在其落實過程中,國家機關不得以任何方式增加公民的義務或減損公民的權利。在生成式AI嵌入數字政府建設中,對于數字政府基于法定職責和公共利益應對突發公共衛生事件等處理個人信息的行為,立法機關應嚴格論證其合憲性,對上述行為進行嚴格限制以保護個人數b50d9d6c4caceb68bdb6729d62c5abc873fd1191ac29dfd99b4d1a03eff384f0據權利的規范性使用。
⒉通過執法監督落實保護職責
在個人信息受保護權的基本權利體系中,國家防御權的功能體現為行政機關的排除侵害請求權功能。在生成式AI嵌入數字政府建設中,行政機關由于自身的技術弱勢地位,往往采取政企合作的方式構建算法行政治理體系。又由于行政機關的公權力屬性,其在數字政府建設中便兼具參與者和監管者的雙重角色。在排除侵害請求權功能實現的過程中,行政機關更多的是以監管者的角色對生成式AI的應用場域和運行路徑進行全方位動態監管。在生成式AI嵌入數字政府建設中,要從行政責任和合規監管對生成式AI衍生的算法風險和倫理風險進行規制。一方面,行政機關要科學化、規范化地啟用行政處罰機制,有效懲戒生成式AI嵌入數字政府建設中的侵犯行為。《中華人民共和國個人信息保護法》《中華人民共和國數據安全法》《互聯網信息服務算法推薦管理規定》等法律法規在法律責任章節規定,主管行政機關可以采取停業整頓、吊銷營業執照或許可證、沒收違法所得等行政處罰措施,保護國家數據主權和個人信息安全。另一方面,行政機關要加強對生成式AI的算法提供主體的合規管理體系的行政監管。行政機關應依據依法行政原則、比例原則和程序正當原則展開對算法服務提供主體的合規監管,以期有效排除對個人數據權利的不當侵害。同時,應探索建立相對完善的行政內部和外部救濟路徑,防止因行政權力的過度干預而制約算法服務提供主體發展的系統性風險[29]。
⒊通過司法供給兜底權利救濟
在數字社會中,自由、平等、民主,以及法律、秩序和正義都將被重新定義,數字正義將是更高的正義[30]。在數字時代,個人數據權利的實現和保障是司法機關的重要時代議題,司法救濟是保障個人數據權利的強有力機制和最后防線。因此,要從司法環節強化對個人數據權利的公力救濟。一方面,要強化保障個人數據權利的司法供給。在生成式AI侵害行政相對人數據權利的案件中,司法機關要適當向處于技術弱勢地位的公民傾斜。在生成式AI嵌入數字政府建設中,數字平臺技術服務提供者擁有強大的技術優勢和人才資源,行政機關基于其公權力屬性也屬于擁有便利數字技術資源的主體,部分公眾由于數字素養差異在個人數據權利被侵害的案件中時常處于弱勢地位。此時,司法機關應在立案、法庭調查和證據交換等環節強化對數字弱勢群體的保護,基于釋明權保障數字弱勢群體的訴訟權利,適用舉證責任倒置或嚴格責任原則等內容平衡訴訟主體的責任。另一方面,可以嘗試建立懲罰性賠償機制。在數據類別劃分的規范框架下,對于高度涉密的數據應采取更為嚴格的保護策略。在生成式AI嵌入數字政府建設中,對于嚴重侵害國家數據主權和個人信息安全的行為,可以適當采取懲罰性賠償機制加大對于相關侵害行為的懲戒力度,以發揮司法的警示性作用。
(三) 規制資本行為以提高公共治理福祉
⒈通過模型審查抵御資本侵蝕
要發揮生成式AI的積極作用,抑制其可能帶來的風險,關鍵還在于對生成式AI本身的審查和追責。首先,應完善對生成式AI應用的審查機制。尤其是要嚴格審查生成式AI的數據源頭,網絡中虛假、編造、偽造數據的存在影響著生成式AI的輸出結果,還可能被有心之人利用,通過將歪曲、偽造的虛假數據大規模地“喂給”生成式AI達到蠱惑人心的目的。為防止可能出現的侵害個人隱私、破壞社會倫理道德、制造政治偏見和種族主義混亂等現象,必須以嚴格的數據審查和清洗對數據源頭進行把關,防止資本推手的過度發力[29]。其次,應完善對生成式AI應用的追責機制。責任和權力同時存在,這不僅適用于政府,更適用于生成式AI。當政府與生成式AI結合在一起時,這其中的管理邊界和管理措施,尤其是責任邊界和追責機制就必須加以明確從而顯示政府對公眾的負責。關鍵在于要回答:政府部門及其工作人員在運用生成式AI的過程中是否能分清彼此的責任承擔。例如,因學習機制強化而放大既有偏見,從而導致歧視問題[30]。由于政府只是名義上的法律主體,生成式AI缺乏法律主體資格,因而最終責任可能還是要歸于個人——政府工作人員、企業負責人和其他相關人員。這就要求政府工作人員在運用生成式AI和企業人員在設計生成式AI的過程中應時刻注意履行自己的審查、糾錯職責,盡到應盡的注意義務。最后,生成式AI審查和追責機制的建立要求政府具有更高的管理水平。就數據源頭審查生成式AI應用和設計中的注意義務而言,不論是對生成式AI的算法審查,還是通過生成式AI的回答進行驗證和判斷,都要求政府工作人員需具備更高的專業知識和素養,以減少錯誤和偏差,降低簡單、機械性應用可能帶來的風險。企業的創新能力總會保持提升、生成式AI將會持續更新,政府工作人員的素養能力需要不斷地與時俱進[31]。此外,政府必須注意數字化人才的培養,提高數字化管理水平。
⒉通過主體責任防止資本同化
數字時代的到來、人工智能的興起,疊加著快速發展的算力,生成式AI嵌入數字政府建設更是面臨著嚴峻的科技倫理挑戰。生成式AI嵌入數字政府建設可能存在數據安全和隱私保護、消費者權益和公平保障、數據深度合成治理等問題,都會影響政府治理效率。上文提出的規范體系、分類分級原則、審查和追責機制均是為了解決這些問題,并且屬于政府應擔負的責任。同時,作為生成式AI的提供者,部分管理義務和責任也最終將落實到企業層面。首先,企業作為提供者,其主體責任也應貫穿于數字政府治理全過程,應采取技術措施對數據進行分類分級利用和保護。例如,通過物理隔離、病毒防護、加密脫敏、身份甄別和數據備份等技術手段,輔之相應的數據管理制度和業務操作規范,防止相關風險的發生。此外,針對不同類型、不同級別的數據,相關主體也可采用不同等級的安全防護措施[2]。其次,在對于生成式AI數據的商業化利用過程中,應做好國家利益、社會公共利益和用戶個人利益之間的平衡。在類別劃分數據管理制度之下,根據個人信息權益保護、數據追溯和共享機制、數據管轄標準的法律框架開展企業數據業務[32],達到數據合規要求。最后,促進算法責任分配標準的形成。由于以生成式AI為主導生成的內容和行為具有交互性,算法和源代碼可能來自并非營利的開源提供者,這些開源提供者往往利用大規模互聯網數據參與生成式AI運作,其運作結果便可能與多個設計者、多家企業發生牽連關系,一旦出現算法偏差或決策失誤,責任分擔就成為一個復雜的問題。對此,可通過區塊鏈的技術方法追蹤模型生成過程,也可通過市場化的運作方式讓各方自愿平等協商達成責任分擔的協議,以促進最終算法責任分配標準的形成。
五、結語
在新興技術極速發展的背景下,關于生產式AI如何積極介入社會治理的討論日益增多。目前,相關的論爭和嘗試多因傳統路徑的桎梏而成效不明。具體到生成式AI,其在介入社會發展的過程中,需要始終沿著嘗試與修正的循環而不斷地進行有益實踐。生成式AI相較于其他的人工智能技術來說,其可視化、交互性和可得性等方面均有所提升,對現實生活的影響超越了其他技術,也讓社會看到數字政府建設步入強人工智能時代的可能。但是,在重視工具理性從而將技術運用到數字政府建設的同時,應強調價值理性的注入,一方面,通過法律持續輸出安全優先的方案,將倫理原則落到實處,減少技術的無序發展和危險利用。另一方面,法律也應細化風險項,通過法律責任分配等措施將風險消解于各個主體的能力范圍之內,從而保證技術發展流程在可控的范圍內自由發展。通過上述途徑,方能同時將技術理性和價值理性注入運用生成式AI的數字政府建設之中,從而真正將數字政府的建設嵌入我國社會主義現代化建設的實踐之中。