當前,我國生成式人工智能正經歷著從初期爆發式增長向廣泛普及轉變的過程,所帶來的數據安全、算法黑箱、新型糾紛等風險挑戰層出不窮,統籌人工智能高質量發展和高水平安全是事關我國能否抓住新一輪變革機遇的戰略問題,應從技術、倫理、法律等多方面設置“安全閥”,系統性推進人工智能高質量安全發展
近兩年,生成式人工智能已迅速構筑起“基礎模型—專業模型—服務應用”的層級化產業格局。面對新業態的涌現,要求治理者跳出傳統數據、算法、平臺的框架,深入探討“基礎模型—專業模型—服務應用”鏈中的治理新邏輯。治理策略應注重靈活性和前瞻性,以適應生成式語言模型和應用工具的快速擴散。
近年來,新一輪科技革命和產業革命浪潮涌起,人工智能技術發展迅速,作為各領域新興技術背后的元技術被廣泛應用于諸多領域,涉及產業升級、人才培養和社會融合等多層面,不斷催生新產業、新業態、新商業模式,成為加快培育和發展新質生產力的重要引擎。當前,我國生成式人工智能正經歷著從初期爆發式增長向廣泛普及轉變的過程,所帶來的數據安全、算法黑箱、新型糾紛等風險挑戰層出不窮,統籌人工智能高質量發展和高水平安全是事關我國能否抓住新一輪變革機遇的戰略問題,應從技術、倫理、法律等多方面設置“安全閥”,系統性推進人工智能高質量安全發展。特別是黨的二十屆三中全會明確提出“完善推動新一代信息技術、人工智能……等戰略性產業發展和治理體系”“完善生成式人工智能發展和管理機制”“建立人工智能安全監管制度”,為人工智能技術的發展提供了明確的政策導向。
生成式人工智能技術演進引發治理變革與挑戰
生成式人工智能技術演進重塑治理焦點,加大治理難度。
首先,新業態的崛起成為不可忽視的現象。傳統的人工智能治理主要圍繞數據、算法和平臺展開。然而,近兩年生成式人工智能已迅速構筑起“基礎模型—專業模型—服務應用”的層級化產業格局。生成式語言模型嶄露頭角,跨部門采納率激增,同時生成式AI工具亦呈現出爆炸性增長。
其次,治理重心的轉移成為必然趨勢。隨著AI技術在內容創造方面的能力增強,平臺已不再是信息流通和內容生成的唯一樞紐,其對數據資源和要素運用的核心控制力有所削弱。因此,治理的焦點由單一的平臺治理模式,轉向更為分散化和多元化的治理路徑。關注點逐漸集中于AI模型本身,包括其設計理念、訓練過程和應用場景,而非僅僅局限于平臺層面的監管。
最后,治理對象和方法論的變遷亦成為治理面臨的挑戰。生成式人工智能技術的迅猛發展,及其應用前景和發展方向的不可預知性,使得治理的范疇不再局限于特定平臺或企業,而是擴展至整個AI生態系統,包括數據、算法、模型和應用等各個方面。與此同時,立法機構對于底層技術的迅猛發展理解不足,導致法律和監管措施的滯后,難以有效應對新興技術和應用帶來的諸多挑戰。
人工智能發展呈現跨界性和跨國性,面臨治理挑戰。
一方面,隨著我國“人工智能+”行動的全面推進,亟需圍繞研發、應用和產業賦能等全流程進行立法和監管。行業間的數據共享和流通需要打破壁壘,但同時也帶來數據安全和隱私保護的問題。不同行業對人工智能的應用需求和標準各異,面臨實現跨行業的統一標準和協調監管的挑戰,對立法的系統性和協調性提出了更高要求。
另一方面,不同國家對人工智能的法律規定和監管框架存在差異,跨國運營企業面臨合規挑戰。數據治理在跨國層面尤為復雜,涉及數據主權、跨境數據流動、數據存儲位置等問題。人工智能技術的國際標準尚未完全統一,影響了技術的互操作性和全球市場的整合。所以人工智能立法不僅體現本國的立法和監管智慧,還將被置于“放大鏡”下,受到其他各國的審視,是國家競爭力的重要組成部分。
人工智能技術創新,帶來倫理道德等新型安全風險。
一是人工智能技術創新引發的倫理道德風險。由于人工智能的決策過程依賴于復雜的算法和模型,其結果有可能與人類的倫理道德標準相悖,例如出現歧視性決策、無端侵犯個人隱私等行為。算法可能無意中嵌入偏見,導致在招聘、信貸、保險等領域的決策過程中出現歧視現象,加劇社會不平等。面對這一挑戰,生成式人工智能的治理必須精準把握技術創新與倫理道德之間的平衡點。
二是安全隱患對個人信息安全和社會秩序穩定的威脅。黑客攻擊、病毒感染等安全隱患,可能導致數據泄露、系統癱瘓,對個人信息安全、社會秩序穩定和國家安全構成威脅。特別是高度自主的人工智能系統,一旦因設計缺陷或外部干擾失控,執行非預期操作,后果將不堪設想。
三是責任主體界定困難。當人工智能系統發生錯誤或造成損害時,責任主體的界定成為一大難題,使得受害者尋求法律救助的道路變得異常曲折。
追求高質量發展與高水平安全的統籌兼顧
創新治理架構、優化治理手段,適應人工智能發展新業態。
治理生成式人工智能的關鍵在于實現治理理念的更新、治理架構的優化以及治理手段的創新。一是針對新業態的涌現,治理體系應實現從靜態監管向動態適應轉變。生成式人工智能構建的層級化產業格局,要求治理者跳出傳統數據、算法、平臺的框架,深入探討“基礎模型—專業模型—服務應用”鏈中的治理新邏輯。治理策略應注重靈活性和前瞻性,以適應生成式語言模型和應用工具的快速擴散。
二是鑒于治理重心的潛移,構建多元化的治理架構。在AI技術內容創造能力增強的背景下,治理焦點應從平臺中心主義轉向對AI模型本質的深入審視,包括其設計理念、訓練過程和應用情境的全方位治理。此轉變強調治理的深度與廣度,以實現對技術本質的精準把握。
三是面對治理對象和方法論的演變,采取系統性的治理視角。生成式人工智能的發展要求監管機構將治理范疇擴展至整個生態系統,實施跨領域、跨層級的綜合治理。同時,立法和監管機構需加強對技術發展趨勢的洞察,推動法律與監管體系的創新,以應對技術的不可預知性和復雜性。
構建跨界跨國綜合治理框架,促進人工智能治理共識形成。
生成式人工智能的治理需立足于理論與實踐相結合的高度,通過創新治理理念和手段,實現技術發展與倫理道德、安全保障的和諧統一。
首先,針對生成式人工智能的跨界特性,建議構建多層次、跨領域的綜合治理框架。應充分考慮我國“人工智能+”戰略的實施,圍繞研發、應用推廣至產業賦能的全鏈條,制定具有前瞻性的立法和監管措施。在此過程中,需特別關注行業間數據共享與流通的壁壘問題,探索建立既能促進信息自由流動,又能保障數據安全和隱私保護的新型治理模式。還應注意到,跨行業統一標準的制定與協調監管,是提升治理效率的關鍵。
其次,在國際法律環境差異的背景下,面對生成式人工智能的跨國性挑戰,推動形成全球治理共識。我國應積極參與國際規則的制定,推動建立跨國數據治理框架,以解決數據主權、跨境數據流動等復雜問題。同時,我國立法和監管實踐應致力于推動人工智能技術的國際標準化,促進全球技術生態的互操作性,從而在提升國家競爭力的同時,為全球治理貢獻中國智慧。
平衡技術理性與安全風險,實現人工智能決策治理創新。
人工智能的決策邏輯深植于復雜算法之中,治理策略應致力于探索技術理性與倫理價值之間的動態平衡。一是構建以倫理為先導的治理模式。通過精細化的倫理審查和算法透明度提升,消除招聘、信貸等領域的算法偏見,從而促進社會公平正義。
二是前瞻性地識別和評估人工智能系統的潛在威脅。針對黑客攻擊、病毒感染等安全漏洞,制定綜合性安全策略,確保個人信息安全與社會秩序穩定。對于高度自主的人工智能系統,治理重點應轉向預防性監管,通過設計原則的嵌入和外部監督機制的強化,防止系統失控所導致的不可預測后果。
三是針對生成式人工智能責任歸屬的模糊性,亟需在立法層面創新責任認定機制,確立適應人工智能特點的責任體系。打破傳統法律框架的局限,構建一套既能保障受害者權益,又能激發技術創新活力的法律救助路徑。
人工智能治理的深化,不僅是對技術發展的規范,更是對倫理道德原則的堅守,以及對未來社會秩序的前瞻性布局。人類與人工智能的共生將是未來的長期態勢,面對技術與風險的持續不確定性,必須兼顧高質量的發展與高水平的安全保障,來構建生成式人工智能的治理體系。
(作者系浙江省習近平新時代中國特色社會主義思想研究中心省委黨校基地研究員)