999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能風險治理:模式、工具與策略

2024-04-29 00:00:00鄧悅許弘楷王詩菲
改革 2024年1期

摘"" 要:人工智能技術在近二十年飛速迭代,由此產生的風險治理挑戰呼喚治理模式與治理工具的創新。規制型治理、創新型治理、自治型治理、市場導向型治理、集中式治理、敏捷治理是目前較為成熟的風險治理模式,法律規制、倫理規范、數據算法、社會場景等領域的新興風險催生更具體、更靈活的風險治理工具,以適應新涌現的風險治理需求。中國堅持人工智能技術創新與風險治理的協同改進和動態均衡,逐步向敏捷治理模式轉變,各具體領域的風險治理工具呈現全面性、及時性、精準性的特征。中國應從治理理念更新、多元主體協同、強度剛柔并濟、工具靈活有效、追求可信目標等方面提升風險應對能力,并將國家、政府、企業、公眾納入風險治理模式構建全過程,實現治理工具在各領域的多維組合性使用。

關鍵詞:強人工智能;風險治理;治理模式;治理工具;敏捷治理

中圖分類號:TP18"" 文獻標識碼:A"" 文章編號:1003-7543(2024)01-0144-15

作為工業社會向智能社會邁進的創新“催化劑”,人工智能不斷嵌入社會各領域,使人類生產方式與社會結構產生深遠變革。盡管人工智能技術在蓬勃發展期具有一定的先行優勢,但在其向社會縱深領域應用的過程中會出現多種未曾產生的社會影響,其演進的復雜性與不確定性正在挑戰現有社會制度和規則,使人類加速進入風險社會時代。例如,自動駕駛自產生以來就存在著失控致死的爭議;醫療人工智能的誤診、誤操作損害人身健康并產生歸責難題;數字平臺利用“大數據殺熟”損害消費者權益;等等。同時,人工智能技術在發展過程中深度嵌入各種應用場景,為法律漏洞、倫理爭議、技術安全、模型偏誤、就業替代等新興風險的涌現提供了溫床,對人工智能技術應用過程中產生的各類風險進行治理愈加必要且緊迫。

人工智能風險治理是新興的交叉研究領域,是指對人工智能技術特定應用場景的風險進行識別、研判與規制。但由于治理經驗相對分散化、對新興風險的回應度不足,人工智能風險治理難以跟上人工智能技術突破的步伐。近些年,我國更加關注并重視人工智能風險治理經驗與方法,力圖保持技術創新引導力度與風險規制力度的協同并重和動態均衡。風險治理、技術創新與社會發展之間達成一種相互塑造和影響的狀態,保持這一狀態的平衡和穩定需要治理模式的范式突破與治理工具的組合創新。梳理具有代表性的人工智能風險治理模式和工具,對提升我國人工智能風險治理水平大有裨益,可為構建符合中國國情的人工智能治理體系提供新思路。那么,何謂人工智能,人工智能新興潛在風險有哪些?人工智能風險治理已存在哪些成熟的、廣為認可的模式與工具?如何長久穩定提升中國人工智能風險治理能力?系統總結并更進一步提出中國在人工智能風險治理方面行之有效的治理模式與治理工具,可為未來人工智能的健康有序發展提供重要啟示。

一、人工智能概念界定及其潛在風險

人工智能的發展演進可劃分為如下階段:起源(1956年)—瓶頸與突破(20世紀60年代至90年代)—平穩發展(20世紀末至2010年)—繁榮(2010—2022年)—高潮(2022年至今)。1956年達特茅斯會議以“圖靈測試”為起點提出人工智能的概念,Samuel推出更具挑戰的機器學習方法后,經多年發展,21世紀初的深度學習推動了理論與實踐的“破界”,至2010年大幅跨越技術開發與實踐應用的技術鴻溝,造就新一代人工智能的廣泛應用,實現人類智能與機器智能的協同發展。如今,生成式人工智能將深度學習推向新的高潮,能力更為精進的ChatGPT4.0-plus將生成式人工智能推向現階段的技術頂峰。2023年成為生成式人工智能的突破之年,使科研范式、生產生活產生重大變革[1]。因此,有必要在動態演進過程中梳理出廣為接受的人工智能概念,并在當前發展階段研判人工智能的潛在風險。

(一)人工智能的概念界定

根據技術演進趨勢下的智能化程度,人工智能可分為弱人工智能、強人工智能和超級人工智能。弱人工智能利用現有統計數據處理單一領域特定、具體的任務,尚未實現自主探索新技術;強人工智能全面復現人類絕大部分的思維能力,為人類生產生活帶來了先進、即時、廣泛的應用價值[2];而超級人工智能的思維、創造力和創新沒有邊界,理論轉化為生產力的過程不受思維與環境約束[3]。

目前,廣泛投產于醫療、交通、居住等生活場景的弱人工智能仍處于模擬人類思維的階段,缺乏行為和環境的交互和自主創造能力,而超級人工智能的技術理論受人類思維的約束,尚無法由實踐佐證,缺乏客觀理性的認識和實事求是的判斷。在二者之間,新一代人工智能顯現出技術突破的革命性作用,但在其發展過程中引發的新興風險使治理過程受到更嚴峻的挑戰。因此,對現階段從弱人工智能環節向強人工智能環節過渡過程中的人工智能進行明確定義,可為風險研判與治理提供動態分析基礎。這里結合智能化程度,對人工智能定義如下:人工智能學習、延伸并擴展人類智能的理論與實踐,依托海量、高維的數據庫資源將人類思維抽象化,并在反復試驗過程中形成對人類活動的行為性模擬,不斷進行技術賦能與環境信息交互來提高認知,以期形成更強的探索能力、更準確的辨認能力和更高水平的思維能力,創造技術價值和社會價值。這一概念仍有調整空間, 但它突出了從弱人工智能向強人工智能過渡階段的技術發展特征,即“認知—模擬—自主決策”,便于在新技術環境下討論人工智能風險治理問題。

(二)人工智能的潛在風險

人工智能技術應用于廣泛的社會場景會引發全景化、整體性的變革,重構技術發展的理念、范式與過程,改變現代人的認知觀念、思維方式和行動準則。因此,有必要分析人工智能技術與非技術層面生成的潛在風險。

1.人工智能技術層面引發的系統性風險

第一,訓練數據無法保證高質量。一方面,人工智能所應用的數據集雖容量龐大,但也存在“樣本選擇偏差”問題,從源頭上加大了離群值與極端值混入的概率,易造成“數字鴻溝”。另一方面,數據質量風險可能誤導人工智能決策。其一,在訓練數據集中添加錯誤樣本、惡意樣本等污染數據,這種“數據投毒”降低了訓練模型決策的有效性、可用性[4];其二,對所模仿對象的數據深度偽造會造成誤導公共輿論、數據信任缺失等安全沖擊。

第二,算法技術難以保證“絕對客觀”。算法的呈現具有高度的專業性和復雜性,算法設計和開發者之外的人群大多難以理解其運行邏輯,對算法解釋權的獨占會導致應用過程出現技術排他和利益排他等問題[5]。另外,作為一種信息資源的個性化配置范式,算法理論上在智能化推薦過程中具有價值中立性,但在實踐過程中往往被證偽。

第三,算力應用與集中發展存在掣肘。一方面,算力基礎設施存在“重硬輕軟”的問題,軟件生態系統影響力弱,應用過程面臨體制機制障礙[6]。另一方面,算力“孤島式”發展問題凸顯。算力與技術應用場景結合程度低,理論價值與實踐價值之間存在鴻溝,導致應用創新突破能力不足;而數據共享平臺建設尚未完善導致各級算力網絡構建困難、算力產業難以推廣、研究成果效益難以協同,限制了算力資源配置的效率。

2.人工智能非技術層面引致新興的非系統性風險

第一,數據流動和共享引發泄露、濫用與壟斷風險。一方面,在大數據模型深刻挖掘數據的動態價值過程中,信息安全缺乏有效監管,造成各類數據平臺的數據信息泄露、濫用日益嚴重,如用戶畫像“數據化”將數據泄露、濫用問題轉化為用戶人身財產安全風險,公民個人數據、產業機密數據的泄露與跨境暴露甚至威脅到國家利益與安全[7];另一方面,作為一種技術要素或資本,具有市場利益價值的重要數據被頭部企業把控,會擾亂市場環境,造成數據壟斷、反壟斷的惡性競爭與資源浪費。

第二,算法“黑箱”和利益性矛盾難以調解。算法研發技術與應用過程的不透明造成信息不對稱,既加劇對算法“黑箱”的恐慌與不信任度,又使得全方位、更隱蔽的算法歧視更難以避免[8]。此外,算法開源后,相關技術會快速外溢,頭部企業在已投入大量資金對算法模型進行研發的情況下,技術優勢隨之喪失,成本回收與利益分配問題難以調和。

第三,法律制度缺乏動態調整能力。生成式人工智能的廣泛應用帶來法律主體模糊不清、智力成果難以進行官方認定、著作權界定困難、侵權后果認定復雜等問題。現階段,在法律責任方面還缺乏系統性的體系化邏輯考量,難以定義明確的責任主體并形成廣泛的義務約束,技術治理與法律規制的缺位帶來事后監管缺失的風險[9]。

第四,倫理標準嵌入技術開發和應用的全過程仍有較大阻力。其一,人工智能技術開發過程中對于倫理規范的建構不夠充分、技術標準的制定不夠全面,國家層面與社會公眾層面相應的倫理監管部門設置不夠完善,倫理機制不夠成熟,價值觀判斷與行為準則出現沖突,導致事前監管薄弱[10]。其二,人工智能存在自身決策違背人類價值觀的現象,其道德決策始終存在行為的模棱兩可性,產生的損害人身財產安全等負面后果難以有效消解。其三,現代人的感知體驗、自主行動、情感表達等個性化能力受到抑制,技術應用程度與人的主體性保障之間也需作出倫理權衡。

第五,人工智能深度融入各生產領域對社會創新力和穩定性造成挑戰。一方面,在信息基礎設施建設過程中,存在數據要素聚合不充分、軟硬件設施配置不完善、平臺安全保障不足等問題,這會阻礙人工智能核心技術能力提升,暗藏社會生產力逼近臨界值的風險[11]。同時,人工智能在思維層面仍與人腦存在客觀上的差距,社會重大創新成果的出現面臨技術突破過程趨近拐點的風險。另一方面,“機器換人”使勞動力市場短期內的就業替代效應大于創造效應,且對低技能勞動力的沖擊更大,易引發就業波動,而靈活就業的不穩定性會帶來新型職業風險[12]。

二、人工智能風險治理:模式與工具

人工智能風險治理具有時代特征。目前各人工智能大國和技術先發國相繼出臺應對人工智能風險的宏觀政策與具體細化措施,精準防范技術要素與社會屬性結合過程中的新興風險,重構風險治理生態。

(一)人工智能風險治理的概念界定

人工智能治理具有動態性,開發和應用層面所生成的復雜、多變、難知的風險是治理的難點與痛點,因此,在技術演進過程中采用“基于風險”的治理策略逐漸成為主流選擇。人工智能風險治理的演進過程可依據技術發展特征劃分為三個階段。一是本源性治理階段。本源性風險與技術使用者和使用過程無關,在人工智能形成時就決定了風險產生的必然性。算法、數據與算力等底層技術帶來的系統性風險會直接影響輸出內容的準確度和客觀性,消除技術中的白噪聲是這一階段風險治理的關鍵。二是客體性治理階段。人工智能技術的通用化發展對社會群體可能產生無差別負面影響,這些風險具有復雜、隱蔽、長期的特點,需要更為精準且全面的應對和治理。三是協同治理階段。生成式人工智能產生的風險處于變革性、模糊性和社會性的疊加狀態,技術邊界不斷被打破,人的主體性受到沖擊,社會形態進一步被顛覆和重塑,需要構建一體化的協同治理體系,合力實現良性發展。

我們可將人工智能風險治理的概念界定如下:圍繞人工智能技術開發和應用問題,形成包含法律規范、道德倫理、系統政策的風險管理模式,利用各種工具、解決方案和杠桿進行技術風險控制,縮小技術進步中責任與道德之間的差距,幫助人類在各領域安全、穩定且公平地掌握并充分使用人工智能,推動人類社會發展。結合人工智能技術的演進態勢,下文對人工智能風險治理模式與工具的分析會重點關注人工智能在技術迭代過程中產生的新風險、新問題,明晰暗含的風險與未知的隱患,以形成有效的治理模式與治理工具,降低人工智能應用中未知風險的危害度與威脅性。值得注意的是,“對人工智能風險的治理”應與“人工智能在風險治理中的應用”這一概念進行區分,后者的含義是社會風險治理核心任務由人工智能替代,在替代或超越人類治理行為的態勢下推動社會風險治理邁向新階段,通過人機協同的智能治理變革帶動一系列風險治理創新。而“對人工智能風險的治理”重點是在向強人工智能過渡的過程中,對產生的新風險、新問題、新隱患的有效治理,這也是下文內容的理論主線。人工智能技術不斷應用于更加豐富的場景,形成技術層面與非技術層面的各類風險,由此帶來的不確定性阻礙了技術的進一步發展,對社會穩定和人類安全造成沖擊與威脅。為此,只有加強對人工智能風險治理的理性分析,構建更靈活、更具針對性的風險治理模式和風險治理工具,才能精準防范人工智能帶來的新興風險,平衡技術與治理的關系,提升風險治理能力,構建起先進、完整且有效的風險治理體系。

(二)人工智能風險治理模式

人工智能風險治理在國際探索中仍處初級階段,主要集中于國家或次國家層面以及相應的具體學科或場景模塊,尚缺乏整體性的認知理念與治理框架;同時為應對治理挑戰,各國均致力于尋找適合本國技術路徑發展的風險治理模式,降低風險以打破技術瓶頸。根據現階段的經驗,人工智能的風險治理模式主要可分為以下六種:規制型治理模式、創新型治理模式、自治型治理模式、市場導向型治理模式、集中式治理模式、敏捷治理模式。不同的風險治理模式不是互斥的,一個國家、地區或機構可能存在多種治理模式[13]。

1.規制型治理模式

規制型治理模式是較為傳統的治理模式,即國家采取較為強硬的工具手段,例如設立監管機構或者構建全面的法律體系,對人工智能的風險進行直接干預治理,這種治理模式的主要目標是規避人工智能產生或者可能產生的風險,保護公共財產安全和公民安全。歐盟目前對人工智能風險的治理主要以數據保護為中心,高度重視監管政策的制定與布局,治理模式很大程度上體現了規制型治理的思想。《通用數據保護條例》是歐盟各成員國構建適用本國條例的藍本,且受歐盟委員會的監督,在用戶知情權、企業更正期限、問責制等多個方面均強調對公民權利的全面保護和數據的合法性。據此可見,歐盟重視法律的構建,對人工智能風險的各類問題采取較為嚴格統一的措施,即采用較為強硬的手段工具進行風險治理。

2.創新型治理模式

創新型治理模式是國家通過法律體系及人工智能倫理體系的完善,減少風險對人工智能技術發展的影響,主要目標是促進人工智能的創新及進一步發展。美國對人工智能風險治理的主要目的是減少人工智能創新與應用中的障礙。

3.自治型治理模式

在自治型治理模式框架中,國家不直接參與監管和治理,而是通過企業等相關利益主體的自我監管來達到風險預防和規避的目的,呈現較強的自下而上的治理特點。在這種模式下,國家主要通過行為準則、行業標準等軟監管措施間接進行治理,主要依靠企業自律,通過設立企業內部管理機構并制定相對應的風險治理準則,來贏得公眾信任,達到風險治理的目標。在人工智能倫理風險治理方面,美國的自治性治理模式更為突出,一方面美國信息科技企業建立人工智能倫理委員會,對倫理風險進行治理和預防,另一方面美國企業內部員工具有更強的倫理意識,通過自組織方式推動倫理風險的治理。

4.市場導向型治理模式

市場導向型治理模式依賴于最小的國家干預,國家除了在市場嚴重失靈的情況下進行干預外,還使用更為友好的治理工具促進市場的發展和人工智能的創新,這種模式主要采取引導性、規范性的軟治理措施,目的是保證有利于創新的環境。

5.集中式治理模式

集中式治理模式相較于市場導向型的治理模式來說,國家的干預程度加強,對行業的監管力度增加,出臺各項治理制度,且對于已經暴露出來的問題集中采取較為堅決的治理措施,而不是完全采取引導規范性的軟治理。

6.敏捷治理模式

敏捷治理模式是目前較新的人工智能治理模式,更為貼合人工智能風險的治理需求[14]。在軟件領域,“敏捷性”的概念在20世紀90年代已出現,而敏捷治理的概念2018年在世界經濟論壇上才被提出。敏捷治理強調通過系統性整合,構建一個人工智能各利益方一體化的人工智能治理生態,注重風險規避和創新的平衡以及加強治理的流動性、時效性和適應性。敏捷治理主要的特點是多元主體參與和靈活性[15]。人工智能的風險治理包含不同層次、機制和應用領域,只依賴政府的力量難以達成對人工智能風險的有效治理,需要與各利益方共同合作,快速適應技術變化,實現有效的監管。因此,敏捷治理不再完全由國家或政府主導,而是政府、企業、學者等多方利益主體共同參與,以適應技術的高速發展和快速變化,在治理工具層面需要采用法律法規等強監管措施和引導指南等軟監管措施相結合的治理工具。在這種模式下,政府不需要明確嚴格的風險治理規范,而是設計人工智能風險治理的原則框架和治理目標,通過有效的反饋引導市場與各主體配合,并建立動態評估機制評估相應的活動是否符合風險治理的原則和目標,便于進行政策的動態迭代。敏捷治理模式已在多國展開實踐,美國在2020年出臺了《美國人工智能計劃法案》(2020),在機制中首先明確了優先考慮研發、促進國際合作、重視國家安全等治理原則,以及整合人工智能系統、發展可信人工智能技術、維持領先地位等治理目標;其次,設置平級機構,多主體共同參與決策,體現敏捷治理多元主體共同參與的思想;最后,建立高效的審查機制,保證審查時效,體現敏捷治理的靈活性和時效性。此外,日本也建立了多元主體參與的監管架構,架構可以分為制定監管目標的原則層、明確目標實現路徑的規則層、引導企業規范的監督層和違規追責的執法層,在法律之外建立激勵機制。

綜上可見,風險治理模式的不同類型既存在共性,又體現著治理主體的目標差異。共性特點在于對人工智能發展過程中產生的風險挑戰持包容開放和積極應對的態度,最終目標均是縮小風險的波及范圍,減輕風險對社會沖擊的程度。差異性體現在重視創新性為主還是強調穩健性為主,抑或尋求二者的兼顧平衡。具體來說,強硬的規制型模式和集中式模式強調新方法、新技術和新產品只能在充分證明其無害的條件下才可被批準投入使用,在前端技術、中端制造、后端投產等各環節均作出明確的細致規定,并嚴格問責,整體上體現為事無巨細的事前控制[16];創新型、自治型和市場導向型模式體現國家對治理干預的逐步弱化,以容許風險存在為代價推進技術創新,新方法、新技術和新產品只要未產生嚴重事故危害均被默許,并依賴于合規性的事后監管,以此保持國家技術競爭力的優勢地位,風險治理不是這些模式的政策重心。無論是推動創新還是重視安全均有偏頗,只有拋開技術創新或穩健安全的二元選擇,改革傳統的風險治理方法,制定綜合性的風險治理框架,將技術、人、社會各主體納入進來,科學綜合應用制度、法律、規則、標準、保護等治理方式,在協同思維下打造敏捷治理框架,才能更好地應對技術革命下的治理挑戰。

(三)人工智能風險治理工具

不斷滋生的新興風險使規則、指令等傳統治理工具難以有效回應新涌現的治理需求。促進人工智能風險治理理論與治理實踐的對話與融合,需在當前風險治理模式選擇的基礎上依據技術邏輯總結客觀性的風險治理工具,使政策理論與治理實踐相匹配[17]。

根據各國人工智能治理的實踐經驗,人工智能“后發”國家試圖從宏觀層面找尋合適的人工智能治理模式與工具。如英國、土耳其相繼發布各自的國家人工智能戰略,前者意在推動自身成為人工智能領域的超級大國,后者依托自身的文化根基打造獨特的人工智能系統。人工智能“先發”國家則不局限于制定宏觀層面的指導戰略,而是細化至各個領域打造具體治理工具,對法律風險、倫理風險、數據與算法風險、社會風險等方面進行深度治理。

1.推動風險治理“有法可依”

一方面,通過“硬法”約束對人工智能風險進行直接規制,即根據人工智能技術發展中的不同構成要素和應用場景采取針對性治理策略,通常以出臺書面性、規范性的法律文件為標志,既有風險治理的事后追責,又有風險預防的事前監管。歐盟走在世界前列,《通用數據保護條例》是各國對數據安全、算法安全事后監管的范本與立法基礎,此外《數字服務法》從源頭上遏制數字權力擴張的負面效應,《人工智能法》則規定了生成式人工智能的版權規則,填補了智力成果認定的法規空白。不論是事后還是事前的風險治理,均豐富了治理方式,擴大了“有法可依”的范圍。

另一方面,通過“軟法約束”對人工智能風險進行間接規制,即采取審慎規制的原則,不提前介入人工智能風險規制以保護創新,但在監管過程中根據各方立法建議形成共識。例如,美國堅持“后果主義”立場,依照人工智能相關的法律案件的處理經驗對日常風險行為進行審慎研判,《美國人工智能監管原則》打通聯邦與各州之間的監管渠道,有利于達成共識標準,州一級的立法機構成立工作組或委員會,研究人工智能風險后果并提供報告和建議。

2.構建符合各方利益的倫理標準和指南

風險治理工具為倫理聲明和治理實踐之間搭建橋梁,涵蓋了技術本身、技術與社會屬性結合、事前事后評估等風險治理的各個方面,既突出“人”的主體地位,又保障技術發展的安全可靠性與可解釋性。

第一,倫理風險治理逐步達成國際共識,建立普適性的法治框架與共同的價值觀。聯合國教科文組織發布的《人工智能倫理問題建議書》致力于促進世界人工智能倫理治理的協同發展與合作,積極保護人類在社會活動中的自主性,促進人類福祉、安全和公共利益。

第二,依據實踐經驗形成符合國情的倫理治理方式。其一,統籌式監管下的倫理優先,全方位保障人工智能應用過程中的公民權利。這種強政府控制以歐盟為代表,統籌構建完善的倫理原則,治理戰略以人為中心,規定公民權利保障、數據和算法保護等倫理規范的邊界,并以此作為國際競爭的重要抓手[18]。其二,強調倫理可依靠多元社會主體進行分散式監管。美國在軍事、自動駕駛、醫療責任認定等領域逐步擴大倫理治理的應用范圍。美國生命未來研究所提出“保護人工智能應用中的公民自由、隱私和價值觀”等倡議,提供了必要的倫理指引,充分體現了民間對倫理治理的重視程度與基本要求。

3.打造安全可控的數據與算法風險治理工具

數據與算法治理需確保全過程的安全可控[19]。這其中,治理工具的選擇要依照人工智能技術發展階段性目標采用不同的風險治理邏輯。一方面,將創新確立為戰略核心,采取相對開放的監管策略。2021年以來,美國相繼出臺《人工智能問責框架》《算法問責法案》等文件,將數據隱私保護、算法非歧視性與決策透明性等方面的風險逐步量化,引領創建了一系列數據與算法的監管問責路徑,體現“行業自律為主、政府規制為綱”的思想。另一方面,將治理作為核心,采取謹慎策略優先防范風險。歐洲各國加大生成式人工智能新興風險的監管治理力度。法國數據監管機構積極受理ChatGPT相關投訴,懲治數據非法收集、泄露與濫用的行為;西班牙和意大利等國的數據保護中心不斷向歐盟反饋,加強對ChatGPT使用過程中的隱私風險評估,進行信息互通與聯合監管。

4.構建更為細化的社會風險治理工具

人工智能風險治理更加關注社會系統整合問題,將技術作為一種生態,整體融入社會治理,推動實現協同式發展,形成有人文溫度的社會風險治理方略[20]。第一,提高信息化智能治理能力。在大數據模型推進落地的過程中,提升公眾對技術應用的信賴度,降低信息不對稱風險。如美國始終堅持強化人工智能技術全球領導地位的核心基調,對高維數據庫建立使用標準,在保障數據質量的同時形成公眾認可的信息管理方法。第二,在人工智能技術和實體經濟的融合過程中完善行業自治規則,對經濟風險展開動態監管[21]。例如,美國不斷提升IT企業應對風險治理的能力,動態更新人工智能治理框架[22]。第三,在就業市場中保障就業安全,構建高素質人才培養體系和人才流動機制。在就業安全保障中,歐盟優先關注醫療、金融、交通等“高風險領域”,加強人工智能高風險技術的監測,保障勞動者就業權利與就業安全;美國平等就業機會委員會審查人工智能如何應用于就業決策,指導雇主合理獲取利益、公平使用技術并應對技術風險。在人才培養上,歐盟、美國、法國、日本等率先行動,借助知識管理水平的提升化解人工智能技術應用全過程的新興風險。

綜上可見,各領域風險治理已積累起一定的經驗,在實踐中逐步形成滿足新興風險治理需求的具體工具,具有如下特點:首先,應用領域較全面。法律規制、倫理人權、數據算法技術、經濟發展等領域均有相應實踐探索,基本涵蓋社會發展各個場景。其次,涉及的目標主體廣泛。如法律工具既有對數據、算法等技術安全的控制,又有對社會場景應用的規范,倫理治理工具將對“人”的保護置于技術變革與社會沖擊的現實中,數據與算法的治理兼顧行業發展、消費者保護和國家安全。最后,深刻體現國家治理二元邏輯。如歐盟整體上以強政府控制為主要手段,在法律規制上走在前列,優先保障公民權利,對數據、算法采取謹慎治理態度,打擊損害勞動者權益的行為;以美國為代表的創新主導國則更多使用軟性監管工具,用共識性標準代替部分法律,技術風險監管讓位于國家創新目標,將更多資源投入數據庫維護、高技能人才培養。結合已有風險治理模式,規制型、集中式模式有強規制性治理工具支持,軟性的治理工具則為創新型、自治型、市場導向型的模式創造了大力發展創新、提升國家競爭力和話語權的環境,而目前缺乏的是各領域治理工具的綜合性使用。只有吸收現有治理工具的實踐精髓,形成治理共識,在具體場景下打造更精準的協同式風險治理工具并靈活應用,才能做到事前與事后監管的聯動,達到敏捷治理模式的實踐要求,使人工智能風險治理躍上新臺階。

三、中國人工智能風險治理模式變遷與治理工具應用實踐

人工智能風險治理在治理模式和治理工具方面的發展與創新展現了該領域的整體圖景與全球實踐。相較于其他國家通過自我監管促進創新或嚴格監管控制風險的基本方案,中國致力于尋找監管與創新之間的平衡點,既能保持足夠的靈活性,激發技術創新活力,又有國家作為強力的監管機構保障各方利益。

(一)中國人工智能風險治理模式變遷

確保人工智能安全、可靠、可控,是推動人工智能健康發展的重要議題。中國主動應對、積極倡導、率先踐行,選擇適應人工智能發展階段的風險治理模式,根據技術創新力度與風險規制力度的組合特征,逐步構建起對人工智能風險治理模式的系統認知。

在人工智能發展初期,保障人工智能有序健康發展是重點。隨著“人工智能2.0”的核心要義被闡釋,大數據智能、互聯網群體智能、自助智能系統等智能化新需求驅動了新的治理需求[23]。風險治理以探索式為主要特征,重視技術突破與創新,適應信息環境變化的風險治理模式和工具尚未構建完善,風險治理力度偏弱,與上述創新型治理模式相呼應。而隨著人工智能技術創新、場景應用在短時期內迅速發展,數據泄露、算法“黑箱”、技術壟斷等社會性問題逐漸浮現,中國逐漸加強事前控制,構建前瞻預防機制,通過軟性規則、軟法約束等引導性措施化解風險。以軟規制為特征的回應式風險治理既可以提升風險治理的及時性和靈活性,以較小成本減輕社會風險,又給予較大的容錯空間鼓勵技術突破,體現自治型治理、市場導向型治理模式的內涵。現階段,人工智能的技術屬性深度賦能社會,不可避免帶來更為復雜的社會性風險事件,中國將硬性治理上升至主體地位,針對特定問題釋放高強度、硬約束的集中治理的信號,減輕風險不確定性的負面影響。以集中式為特征的風險治理催生了法律法規對人工智能應用的“紅線”劃定,加強了信息產業自律能力和社會多元主體自省能力,以此降低風險暴露度,有效維護國家安全和社會公共利益。

與此同時,眾多學者提出將“敏捷治理”的思想嵌入構建人工智能治理模式的進程[24-25],體現出治理的及時性、精準性、柔和性,對于降低中國在向強人工智能過渡過程中產生的技術風險、增強國家與各利益相關方的抗風險韌性具有重要作用,有助于促進技術創新和風險治理的協同改進與動態均衡。

(二)中國人工智能風險治理工具應用實踐

中國在制度建設、標準制定、數據與算法的安全保障、立法、倫理道德規范、社會風險應對等多個層面,努力構建治理范圍全面、治理應對及時、治理過程精準的人工智能風險治理工具。

1.國家層面的政策工具與標準制定

在政策構建上,中國對人工智能風險治理的政策工具選擇涵蓋“強制類、市場類、引導類、自愿類”,基本對應了人工智能治理模式演進的全過程[26]。當前的政策工具以強制類與市場類為主。2016—2021年,中國在自動駕駛、信息安全、智能診療、倫理規范等領域出臺39項規范性政策,為人工智能風險防控提供了豐富的政策引導[27]。在標準制定上,技術標準作為重要的“軟法”治理工具,有助于將倫理價值要求嵌入早期人工智能技術開發過程, 在安全可控的底線思維基礎上增強技術創新力度[28]。針對人工智能全領域,中國已形成10項國家標準、7項地方標準、11項行業標準、117項團體標準,為統籌人工智能技術創新與風險防控提供了重要基礎性參考,為網絡安全、意識形態方面的新興風險作出了重要的標準預研。

2.制度規范層面尋求技術創新與風險治理的平衡

中國對人工智能風險治理的法律規制已形成以法律約束為主體,與部門規章、地方性法規、行業自治標準等有機結合的多層次綜合治理體系[29]。多數有關人工智能與法律關系的探討還限于弱人工智能階段,較少以弱人工智能向強人工智能的過渡為前提進行法律探析。最具代表性的政策性文件是2023年7月發布的《生成式人工智能服務管理暫行辦法》,該辦法提出堅持包容審慎的風險治理態度,在微觀層面提供了更為細化的風險治理指引。在具體的風險治理領域,《中華人民共和國數據安全法》《中華人民共和國個人信息保護法》保護用戶個人數據隱私;《互聯網信息服務算法推薦管理規定》為保障各應用場景的用戶權益提供制度支持;自動駕駛領域出臺《汽車數據安全管理若干規定(征求意見稿)》,保護用戶出行隱私;醫療領域的《人工智能藍皮書:中國醫療人工智能發展報告(2020)》對醫療人工智能的基本原則、知識產權、數據保護等問題進行展望;此外,侵權主體法律認定、著作權認定、智力成果保護等方面的風險也逐步通過法律法規和政策“破題”。

3.利用倫理層面的規約機制進行前瞻性構建

在從弱人工智能向強人工智能的過渡過程中,中國在倫理層面的規則制定遵循鼓勵創新與風險治理并重的行動原則,把握高風險倫理綜合監管制度設計的基準與底線,具有一定前瞻性。《新一代人工智能治理原則——發展負責任的人工智能》《新一代人工智能倫理規范》《中共中央辦公廳" 國務院辦公廳關于加強科技倫理治理的意見》等文件不斷增強倫理風險治理共識,推進倫理風險治理工作的可操作化,回應社會各界對人工智能應用的高度倫理關切。在最新的理論探索中,中國倡導通過“人工智能社會實驗”踐行“先行先試”的人工智能創新發展路徑[30],研判新興應用風險,消解倫理困境,形成倫理治理共識,其核心目標在于使生成式人工智能的應用與人的發展目標、社會價值觀相契合。

4.對數據與算法的新興風險進行多元化全過程治理

中國在數據與算法風險治理探索過程中具有豐富經驗。在理論基礎方面,將全生命周期管理的概念嵌入開發過程,全面分析數據在各個階段所面臨的安全風險;在整體布局方面,建立普適性的,集管理、技術、評估和運營于一體的數據安全治理體系架構,預期形成以應急處置、隱患排查、預警通報和安全審計為核心的數據風險長效治理機制。在協調治理方面,中國形成包括全國人大、中央政府、地方政府及行業組織在內的多層級機構體系,明確權責,加強多主體間協同共治[31];在規制實踐中,形成“巡警機制、火警機制、片警機制”的外部治理結構,以及以“算法安全、算法公平、算法向善”為依歸,發掘中國算法風險治理的內部實質,全面落實“基于風險”的規制路徑[32]。

5.在技術與社會深度融合過程中對新興風險進行綜合研判與治理

新一代人工智能的技術軌跡具有多變性、不確定性和不可預見性,在技術屬性與社會屬性不斷融合的過程中需要對社會多個方面的風險進行分析和綜合治理。第一,在大模型構建過程中,中國利用以ChatGPT為代表的最具先進性的人工智能技術整合不同來源、不同結構和各個維度的數據,并加強算力、數據分析等信息技術基礎設施建設[33],降低數據使用過程中的風險。第二,在與實體經濟融合的過程中,加快發展數字經濟,通過“數智化變革”體現包容審慎的思想,統籌好發展和風險規制的關系,增強風險治理的預見性。第三,在勞動力市場的重塑過程中進行綜合治理。如運用稅收與轉移支付等再分配手段提升勞動者對社會風險的抵御能力;以失業保險穩崗返還、靈活就業人員基本養老保險等勞動保障手段消解生存問題與勞動權益風險;以強化就業優先政策、健全就業促進機制等積極的勞動力市場政策緩解人工智能技術替代造成的就業風險,減輕不平等與負外部性[34]。

四、提升中國人工智能風險治理能力的思路與建議

以歐盟為代表的規制型風險治理模式和以美國為代表的市場導向型治理模式均面臨二元邏輯下的治理限制。規制型治理的強風險約束會拖累技術創新步伐,不利于國際話語權的爭奪,且強約束存在程序復雜、時間冗長、規則執行難以完全一致等問題,增加了治理協調的成本,容易將治理資源投入煩瑣耗時的“政治化”過程。市場導向型治理的弱風險約束對企業更加友好,但過于碎片化的方案導致風險治理原則不一致、忽視公平性,并使政府、企業、用戶等各方利益難以協調。在構建中國人工智能風險治理模式、選擇相應治理工具時,應正確看待國情差異,立足自身傳統治理范式所累積的風險治理經驗,動態調整治理方案,構建符合自身實際的人工智能風險治理體系。

(一)中國人工智能風險治理能力的提升思路

從弱人工智能向強人工智能的演進需要尋求范式突破,中國目前走在“創造性破壞”的正確道路上。只有深入理解敏捷治理背后的演化特征、重新梳理并設計治理流程與治理模式,才能更好制定并選擇合適的治理工具,靈活有效應對風險帶來的不確定性。在模式構建與工具選擇上,需要著重突出協同共治的特征,帶動整體協調發展與利益動態平衡[35]。

1.治理理念:以傳統治理理念為前提,對現存理念與方法進行“揚棄”

一方面,在構建風險治理模式時,應堅持文化自信。敏捷治理理念在提出之時便與中國長久以來堅持的“以人為本”“包容審慎”等理念不謀而合,中國從集中式治理向敏捷治理轉變有充足的文化底蘊與歷史經驗借鑒,有利于構建獨有的整體治理圖景。另一方面,在參考風險治理經驗時要避免“拿來主義”。無論是創新優先的軟性約束還是控制風險的硬性規制均有路徑依賴,最終服務其國家的意識形態和戰略目標,因此要避免直接移植帶來的治理僵化,有選擇性地將先進方法融合進中國治理現代化體系。

2.治理主體:以廣泛參與為原則,追求目標平衡與協作共贏

中國在探索式、回應式、集中式治理階段均重視效益累加的最大化,而實現優化的治理效果和各主體的協同共贏,需要在重視國家規制力量的基礎上與各利益相關方共同協作,在追求創新效率與強調風險治理之間找到平衡。在目標構建上,國家與地方政府、行業、企業、公眾等各利益相關方共同參與風險治理全過程,國家確定風險治理的整體目標,各利益相關方反映各自的創新需求與治理需求,打通二者聯系溝通的渠道,維持雙方風險治理機制與創新能力的平衡,并保證可持續性。在具體實施過程中,國家依據技術發展需求與潛在風險之間博弈的實際情況制定治理原則,各利益相關方對治理過程中出現的各種風險特征與治理事件進行及時反饋,暢通向上反饋與向下治理的整體路徑,促進風險治理能力的升級。

3.治理強度:以剛柔并濟為邏輯,形成動態適應性機制

為改善傳統治理范式預測能力弱、統籌能力差、治理范圍擴展難等問題,提升風險治理的及時性、靈活性與全面性,可從過程入手:一方面,對既有典型風險進行重點防范、嚴加監管,通過事前防范全力化解;另一方面,對創新技術融入社會后的未知風險與新興風險進行軟約束,留足試錯空間,借助完備的事中、事后風險應對機制來消除。此外,治理強度的強與弱是一個相對性概念,在中國,國家層面的法律始終是任何治理與監管措施的起點,在風險治理中占主體地位,起主導作用,任何階段的分層、分階段治理措施不能脫離國家的控制;同時,強監管與軟約束不具有嚴格界限,敏捷治理的“包容審慎”理念需要二者靈活結合,并適時對治理強度進行動態調整。

4.治理工具:以靈活使用為方法,體現多維組合的思想

傳統治理范式下的風險治理工具,特別是法律依據、法律框架及部分法律原則,受到時效性不足的應用限制。未來人工智能技術向普適性的應用場景發展,更需要靈活有效的治理工具對未知風險與新興風險進行動態、及時的回應。據此,要充分發揮敏捷治理中綜合運用、揚長避短、靈活結合的思想,形成“下手快、力度輕”的治理策略[36]。在風險治理工具綜合使用過程中,國家把控人工智能技術的發展導向,對新興風險的治理作出原則性引導,各利益相關方需明確各領域未來風險治理的核心環節,結合具體應用場景實現治理工具的適配性組合,同時對風險治理效果進行及時反饋與互動。

5.治理方向:以提升“可信性”為目標,實現技術應用與風險治理的協同

可信人工智能是人工智能技術未來發展的重要趨勢,為信息、物理與人的融合交互過程中的風險治理提供了更加明確的發展方向[37]。“可信”延伸了傳統的安全、可靠等概念,認為人工智能整體系統在應用過程中,其目標、行為與結果具有一致性,符合人們預期,并在受到外部沖擊時能持續穩定提供服務[38]。自動駕駛失控爭議、醫療人工智能的誤診歸責、“大數據殺熟”侵犯用戶隱私、人工智能輔助司法程序產生偏見等問題和事故,均可劃定為“人工智能可信性問題”所帶來的風險。由此,如何避免并消除“不可信”因素,對“可信性”引發的風險進行治理,是下一步必須面對的核心問題與重要挑戰。可信人工智能一方面為各國廣泛接受,具有全球共識性與約束力[39],另一方面有利于通過技術與社會的深度融合,倒逼風險治理模式與工具加速成熟,并適時進行動態調整,在風險治理實踐中有效提升從人工智能走向可信人工智能的能力。

(二)中國人工智能風險治理能力的優化建議

敏捷治理需要將共建共治的思想融入人工智能風險治理模式中。中國也面臨政策、法律、標準、行業自治等規則制定的滯后性與人工智能技術飛速迭代之間的矛盾,新興風險層出不窮,傳統風險治理急需范式革新以契合強人工智能潛在治理需求[40]。目前,中國人工智能風險治理從傳統治理方式向敏捷治理轉變過程中存在理念與實踐條件上的局限,治理模式與治理工具仍需在技術與社會深度融合中動態調整。

1.風險治理模式優化建議

在宏觀政策上,整合相對分散化的治理方案,構建國家治理整體圖景。在人工智能與社會結合過程中,技術發展具有一體化、集中化趨勢,賦能各行各業,不斷向“通用化”發展。但社會應用場景不斷擴充,使技術性風險頻譜日益復雜、社會性風險事件頻發,在治理上仍采用“分而治之”理念不符合中國從弱人工智能向強人工智能演進的發展路徑,需要提升法律法規、倫理規范、行業規則等各規制手段的普適性,以此謀劃風險治理全局。

在政府治理中,應通過部門聯動提升治理實效和調整能力。中國目前的集中式治理以法律的硬性約束為主基調,固定科層治理結構形成自上而下的監管權威,容錯空間較小。從集中式治理走向敏捷治理是帕累托改進的過程,制約因素在于:一方面,現行法律缺失“人機協同”的相關設計與規定,社會監管與技術監管存在脫節,且相關法律調整的時間和資金投入不符合成本效益原則;另一方面,監管權威意味著風險治理模式易僵化,事前監管全覆蓋的模式與強人工智能開放性、溢出性、不確定性的特征不契合。據此,消除技術變革向應用落地的風險制約、提升技術發展現實需求和新興風險治理需求的響應速度、減少信息不對稱帶來的監管錯位等問題,需要政府部門提升行政效率和監管服務能力,找準創新和風險規制的平衡點。

在企業地位上,暢通反饋渠道,提升風險治理細化實施過程中的話語權和代表性。中國推動人工智能企業自主參與風險治理的邊界、機制缺乏明確的規定和制度保障,并且面臨企業參與意愿不強、能力不足等問題[41]。此外,中國人工智能布局于少數頭部科創公司與互聯網企業,其風險事件與治理需求缺乏普適性,中小企業風險治理的反饋渠道不暢導致治理方略代表性不足。敏捷治理模式需要多元主體的協同,而企業是技術的策源地,同時是聯結政府和群眾的橋梁。企業聽取群眾意見,對社會風險事件進行研判,既可以改進技術環節,提升人工智能產品和服務與各類場景的契合度,又可以通過座談會等形式向政府反映技術突破限制和新興社會風險危害,提升風險治理的影響力和聲譽度。

在公眾意識上,提升研發者與管理人員在前端的治理能力,并強化公眾對新興風險的社會認知。第一,中國人工智能技術研發者多集中于應用層,理論研究缺失、技術前沿認知不清晰等問題普遍存在,間接導致研發端與應用端的風險認知相脫節,且非技術人員的風險甄別能力欠缺,事前監管介入、過程風險控制與事后防控追責等存在職責缺位。第二,技術門檻與使用過程中的“黑箱”使社會公眾對人工智能技術概念、新興風險及基礎治理模式缺乏了解,對風險的識別度與防范能力不足。任何技術突破和有效的風險治理最終都要靠公眾的力量,只有提升公眾的識別和防范風險能力,才能獲得社會進步的內生動力。

2.風險治理工具優化建議

中國人工智能風險治理模式在不同階段具有不同特點:探索式治理指引風險規制方向;回應式治理以加強技術創新為主,風險規制力度較弱;集中式治理轉向硬性約束,針對特定領域特定問題加強風險規制力度。總體而言,中國對風險治理模式的系統性探索起步較晚,實踐經驗不足,而人工智能技術性風險趨漸復雜、新興風險事件頻發,多方因素匯聚將觸發向敏捷治理轉變的新一輪變革[42]。為此,需要找準中國在人工智能風險治理工具應用過程中存在的問題,進而加強治理工具的組合性使用。

第一,明確法律工具適用的監管范圍,降本增效,提升法理依據與現實的對接質量。首先,整合部門,明確風險監管范圍。中國人工智能多頭治理的模式容易導致繁雜事務存在推諉現象,明確各部門風險監管范圍可以消除治理的灰色地帶。其次,對風險傳播最廣、現存危害最大的方面應加大投入。例如,在數據和算法的風險規制過程中,各部門既無力也不需要細化審查每條生成內容,節省的運營成本可投入對技術研發、管理和問責機制的全面評估,將風險控制于人工智能產品“出廠”前。最后,加強法律實踐應用,提升法律體系的權威性和法理條例的可依性。在人工智能應用爭議的審判過程中,解決相關法律法規的引用不足、法理依據與現實治理對接不暢等問題是進一步完善人工智能風險治理法律體系的重點任務。

第二,提升倫理工具對新興風險的研判能力,并主動應用于實踐。我國邁向智能時代的過程極其迅速,“步子過大”使得在傳統的技術倫理秩序未建構完善的情況下,又迫切需要深入分析研究更為復雜、更具挑戰性的新興倫理風險。人工智能倫理風險治理目前僅依靠出臺相關標準與指南進行軟治理,與現實對接的實際操作案例不足,難以形成中國社會獨有的、具有針對性的、具體的倫理風險治理工具與治理之策。因此,要遵循“以人為本”的準則,從安全性、透明度、公平性和問責性等方面對風險案例進行研判,不斷豐富倫理風險的治理實踐經驗,并探索出可復制的治理路徑。

第三,整合數據和算法的風險治理資源與環節,消除監管灰色地帶。一方面,搭建技術平臺,引導監管內容互聯互通共享。目前,數據和算法的監管被納入以國家互聯網信息辦公室為核心主體,中央政府、地方政府、行業組織多方治理的格局中,力圖實現過程全覆蓋。搭建技術平臺可將分散的數據算法資源進行整合使用,降低風險治理的溝通成本。另一方面,暢通各利益相關方向治理主體反饋風險的機制渠道。數據和算法風險頻譜各異,多方治理存在重疊與真空的地帶,只有向治理主體完整反映風險發生的過程與產生的危害,才可避免治理范圍“極端”化導致的監管缺失問題。

第四,提高社會風險治理工具在技術領域和非技術領域融合過程中的應用靈活度。首先,將弱人工智能向強人工智能技術突破過程中的模型訓練置于更高維度。政策工具與人工智能風險治理的匹配需要更廣泛的數據實驗支撐,包羅萬象的數據訓練信息有助于有效回應靈活、復雜、不確定性強的社會風險。其次,人工智能技術和實體經濟的結合需要提升治理工具的風險研判聚焦度,如高新技術企業在技術領先的狀態下會追求風險管理的制度細則,傳統企業尋求變革發展過程中更重視企業活力與創新,風險治理工具在不同應用場景應保持足夠的引導性與靈活度。最后,加強勞動力市場意識形態的辨析與監管。人工智能技術應用于勞動者培養體系,需要考察人工智能的技術開發與應用人員本身是否具有社會普遍認同的價值觀,彌補意識形態方面的監管空白。■

參考文獻

[1]KUNG T H, CHEATHAM M, MEDENILLA A, et al. Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models[J]. PLOS Digit Health,2023,2(2): 198.

[2]許源源,陳智.新一代人工智能技術社會化應用的脆弱性風險及其韌性治理研究——以ChatGPT為例[J].電子政務,2023(9):39-49.

[3]SZOCIK K, TKACZ B, GULCZYNSKI P. The revelation of superintelligence[J]. AI amp; SOCIETY, 2020, 35: 755-758.

[4]林偉.人工智能數據安全風險及應對[J].情報雜志,2022(10):105-111.

[5]韓萬渠,韓一,柴琳琳.算法權力及其適應性協同規制:基于信息支配權的分析[J].中國行政管理,2022(1):33-39.

[6]李平,鄧洲,張艷芳.新科技革命和產業變革下全球算力競爭格局及中國對策[J].經濟縱橫,2021(4):33-42.

[7]陳兵.通用人工智能創新發展帶來的風險挑戰及其法治應對[J].知識產權,2023(8):53-73.

[8]張欣.生成式人工智能的算法治理挑戰與治理型監管[J].現代法學,2023(3):108-123.

[9]龍柯宇.生成式人工智能應用失范的法律規制研究——以ChatGPT和社交機器人為視角[J].東方法學,2023(4):44-55.

[10]" 宋應登,霍竹,鄧益志.中國科技倫理治理的問題挑戰及對策建議[J/OL].科學學研究, https://doi.org/10.16192/j.cnki.1003-2053.2

0230927.001.

[11]" 王德祥,王建波.新一代人工智能對數字經濟的影響——以ChatGPT為例[J].特區實踐與理論,2023(2):34-39.

[12]" 鄧悅,蔣琬儀.智能化轉型何以激發企業創新?——基于制造業勞動力多樣性的解釋[J].改革,2022(9):108-122.

[13]" DJEFFAL C, SIEWERT M B, WURSTER S. Role of the state and responsibility in governing artificial intelligence: A comparative analysis of AI strategies[J]. Journal of European Public Policy, 2022, 29(11): 1799-1821.

[14]" 魯傳穎,張璐瑤.人工智能的安全風險及治理模式探索[J].國家安全研究,2022(4):84-100.

[15]" 劉湘麗,肖紅軍.軟法范式的人工智能倫理監管:日本制度探析[J].現代日本經濟,2023(4):28-44.

[16]" 賈開,蔣余浩.人工智能治理的三個基本問題:技術邏輯、風險挑戰與公共政策選擇[J].中國行政管理,2017(10):40-45.

[17]" 陳升,劉子俊,張楠.數字時代生成式人工智能影響及治理政策導向[J].科學學研究,2024(1):10-20.

[18]" 肖紅軍,張麗麗,陽鎮.歐盟數字科技倫理監管:進展及啟示[J].改革,2023(7):73-89.

[19]" 蔡士林,楊磊. ChatGPT智能機器人應用的風險與協同治理研究[J].情報理論與實踐,2023(5):14-22.

[20]" 劉毅.中外智能社會治理研究的文獻計量學分析[J].理論與改革,2023(4):147-161.

[21]" 洪銀興,任保平.數字經濟與實體經濟深度融合的內涵和途徑[J].中國工業經濟,2023(2):5-16.

[22]" ABRAHAM R, SCHNEIDER J, VOM BRO-CKE J. Data governance: A conceptual frame-work, structured review, and research agenda[J]. International Journal of Information Man-agement, 2019, 49: 424-438.

[23]" PAN Y. Heading toward artificial intelligence 2.0[J]. Engineering, 2016, 2(4): 409-413.

[24]" 于文軒.ChatGPT與敏捷治理[J].學海,2023(2):52-57.

[25]" LI Y, FAN Y, NIE L. Making governance agile: Exploring the role of artificial intelligence in China's local governance[J]. Public Policy and Administration, 2023.

[26]" 曾堅朋,張雙志,張龍鵬.中美人工智能政策體系的比較研究——基于政策主體、工具與目標的分析框架[J].電子政務,2019(6):13-22.

[27]" 陳少威,吳劍霞.人工智能治理風險和工具的識別與匹配研究——基于政策文本的分析[J].中國行政管理,2022(9):23-30.

[28]" 周江偉,趙瑜.人工智能治理原則的實踐導向:可靠性、問責制與社會協同[J].治理研究,2023(5):111-127.

[29]" 畢文軒.生成式人工智能的風險規制困境及其化解:以ChatGPT的規制為視角[J].比較法研究,2023(3):155-172.

[30]" 俞鼎,李正風.生成式人工智能社會實驗的倫理問題及治理[J].科學學研究,2024(1):3-9.

[31]" 馬海群,李金玲,于同同,等.全生命周期視閾下公共數據倫理準則框架研究[J].農業圖書情報學報,2023(6):29-42.

[32]" 許可.算法規制體系的中國建構與理論反思[J].法律科學(西北政法大學學報),2022(1):124-132.

[33]" 洪永淼,汪壽陽.人工智能新近發展及其對經濟學研究范式的影響[J].中國科學院院刊,2023(3):353-357.

[34]" 鄧悅,蔣琬儀.工業機器人、管理能力與企業技術創新[J].中國軟科學,2022(11):129-141.

[35]" 趙志君,莊馨予.中國人工智能高質量發展:現狀、問題與方略[J].改革,2023(9):11-20.

[36]" 薛瀾,趙靜.走向敏捷治理:新興產業發展與監管模式探究[J].中國行政管理,2019(8):28-34.

[37]" 何積豐.安全可信人工智能[J].信息安全與通信保密,2019(10):5-8.

[38]" 何積豐,單志廣,王戟,等.“可信軟件基礎研究”重大研究計劃結題綜述[J].中國科學基金,2018(3):291-296.

[39]" 賈開.薛瀾.人工智能倫理問題與安全風險治理的全球比較與中國實踐[J].公共管理評論,2021(1):122-134.

[40]" 張凌寒.于琳.從傳統治理到敏捷治理:生成式人工智能的治理范式革新[J].電子政務,2023(9):2-13.

[41]" 陳銳,江奕輝.生成式AI的治理研究:以ChatGPT為例[J].科學學研究,2024(1):21-30.

[42]" 姜李丹,薛瀾.我國新一代人工智能治理的時代挑戰與范式變革[J].公共管理學報,2022(2):1-11.

主站蜘蛛池模板: 99精品视频在线观看免费播放| 欧美第二区| 国产乱人伦精品一区二区| 国产第三区| 国产精品3p视频| 国产男女免费视频| 欧美精品影院| 日韩在线播放中文字幕| 青草视频网站在线观看| 久爱午夜精品免费视频| 午夜精品一区二区蜜桃| 久久精品中文无码资源站| 欧美成人午夜在线全部免费| 91精品啪在线观看国产91| 色有码无码视频| 亚洲国产无码有码| 美女无遮挡免费视频网站| 国产精品浪潮Av| 97se综合| 国产黄色视频综合| 久久久受www免费人成| 狼友视频一区二区三区| 国产精品美乳| 国产在线啪| 久久一日本道色综合久久 | 亚洲成人网在线播放| 日韩欧美中文亚洲高清在线| 久久精品无码一区二区国产区| 久久婷婷色综合老司机| 欧美97欧美综合色伦图 | 久久青青草原亚洲av无码| 天堂成人av| 四虎永久免费地址| 成人av手机在线观看| 亚洲精品国偷自产在线91正片| 日本免费一区视频| 国产剧情无码视频在线观看| 免费毛片视频| 亚洲国产日韩视频观看| 久久男人视频| 91人妻在线视频| 成人在线观看不卡| a色毛片免费视频| 免费在线播放毛片| 欧美成人午夜影院| 亚洲无码视频一区二区三区| 成人精品区| 538国产视频| jizz国产视频| 国产丝袜无码精品| 东京热一区二区三区无码视频| 国产精品成人久久| 亚洲中文字幕日产无码2021| 夜夜操天天摸| 国产免费久久精品99re丫丫一| AV无码一区二区三区四区| 亚洲中文字幕97久久精品少妇| 欧洲精品视频在线观看| 毛片网站观看| 国产电话自拍伊人| 国产麻豆福利av在线播放| 国产欧美精品一区aⅴ影院| 亚洲精品成人片在线播放| 狠狠色综合网| 国产精品太粉嫩高中在线观看| 国产在线一二三区| 欧美午夜在线观看| 亚洲精品福利视频| 亚洲精品视频免费| 91福利免费视频| 91小视频在线观看| 久久这里只有精品23| 成人国产小视频| 欧美在线观看不卡| 亚洲国产精品日韩欧美一区| 国产国语一级毛片在线视频| 久久动漫精品| yjizz视频最新网站在线| 伊人久久大香线蕉aⅴ色| 高清免费毛片| 日韩精品一区二区三区免费| 国产99视频免费精品是看6|