摘 要:快速地技術(shù)迭代與廣泛應(yīng)用表明生成式人工智能在驅(qū)動經(jīng)濟社會發(fā)展方面具有巨大潛力,但同時它也可能帶來多種挑戰(zhàn)與風(fēng)險。在系統(tǒng)回顧相關(guān)學(xué)術(shù)文獻的基礎(chǔ)上,文章梳理了生成式人工智能的關(guān)鍵技術(shù)、技術(shù)發(fā)展歷程及應(yīng)用場景,分析了生成式人工智能在數(shù)據(jù)訓(xùn)練、算法模型、內(nèi)容利用等方面存在的風(fēng)險,總結(jié)了生成式人工智能風(fēng)險治理的策略,包括實施全生命周期的數(shù)據(jù)質(zhì)量控制,提高AI風(fēng)險治理的技術(shù)能力,對組織結(jié)構(gòu)進行適應(yīng)性優(yōu)化,強化問責(zé)機制和標(biāo)準(zhǔn)約束,同時提出未來生成式人工智能發(fā)展應(yīng)堅持發(fā)展創(chuàng)新與風(fēng)險治理并重的原則,完善政策法規(guī)與技術(shù)標(biāo)準(zhǔn)體系,建立多元包容的國際合作共治體系,充分激發(fā)企業(yè)活力。本文可以為生成式人工智能領(lǐng)域的學(xué)術(shù)研究、技術(shù)開發(fā)和政策制定提供參考借鑒。
關(guān)鍵詞:生成式人工智能;大語言模型;風(fēng)險治理;AIGC; AI幻覺;政策分析
中圖分類號:G354.5 文獻標(biāo)識碼:A DOI:10.11968/tsyqb.1003-6938.2024045
Progress in Generative Artificial Intelligence Research
Abstract The rapid iteration and wide application of generative artificial intelligence (GAI) technology have demonstrated its immense potential in driving economic and social development. At the same time, it also brings challenges and risks. Based on a comprehensive review of relevant literature, this paper identifies the key technologies, development history, and application scenarios of GAI, analyzes the risks in data training, model building, and content generation, summarizes the risk governance strategies for GAI, such as implementing data quality control throughout the entire lifecycle of GAI, enhancing technical capabilities to manage AI risks, optimizing organizational structures for adaptability, and strengthening the constraints by accountability mechanism and technical standards. Additionally, this paper proposes that the future development of generative artificial intelligence should adhere to the principle of balancing innovation with risk management, improve the system of policies, regulations, and technical standards, establish a diverse and inclusive framework for international cooperation and governance, and fully stimulate the vitality of enterprises. This study is expected to provide reference for GAI related research, technology development, and policy making.
Key words generative artificial intelligence; Large Language Model(LLM); risk governance; AIGC; AI hallucination; policy analysis
生成式人工智能正迅速應(yīng)用于教育、醫(yī)療、金融、法律、制造業(yè)、氣象預(yù)測、廣告創(chuàng)作、新媒體、游戲等經(jīng)濟社會的各個領(lǐng)域,對促進新質(zhì)生產(chǎn)力發(fā)展、完善現(xiàn)代產(chǎn)業(yè)體系、形成國際競爭新優(yōu)勢具有重要意義。伴隨著生成式人工智能的快速發(fā)展,其潛在的風(fēng)險與挑戰(zhàn)也引發(fā)了廣泛關(guān)注。生成內(nèi)容的真實性、原創(chuàng)性和倫理合規(guī)性成為公眾和學(xué)術(shù)界討論的焦點。同時,生成式人工智能的應(yīng)用可能造成隱私泄露、算法歧視、生成內(nèi)容幻覺和虛假信息泛濫等社會問題,有效規(guī)制的缺失又可能會使虛假信息在社會層面廣泛擴散,進而引發(fā)更大的社會風(fēng)險。因此,既要支持負(fù)責(zé)任、可信賴的AI創(chuàng)新,又要管理其潛在的風(fēng)險,成為中、美、歐等國家和地區(qū)共同關(guān)注的課題。學(xué)術(shù)界也在短時間內(nèi)發(fā)表了大量的研究成果,就相關(guān)問題展開探討。為了更加系統(tǒng)地理解當(dāng)前生成式人工智能領(lǐng)域的學(xué)術(shù)研究成果和各國政策關(guān)注的核心議題,本文將全面梳理生成式人工智能的關(guān)鍵技術(shù)、發(fā)展歷程和應(yīng)用場景,總結(jié)生成式人工智能存在應(yīng)用的倫理、法律與社會風(fēng)險,并在此基礎(chǔ)上分析生成式人工智能的風(fēng)險治理與創(chuàng)新發(fā)展策略,為促進我國生成式人工智能更好地賦能經(jīng)濟社會發(fā)展提供參考。
1 生成式人工智能的關(guān)鍵技術(shù)、發(fā)展歷程與應(yīng)用場景
1.1 生成式人工智能的關(guān)鍵技術(shù)
人工智能(Artificial Intelligence)根據(jù)用途可分為決策式人工智能(Discriminant AI)和生成式人工智能(Generative AI)[1]。決策式AI專注于數(shù)據(jù)洞察并做出決策,應(yīng)用于自動駕駛、智能推薦、人臉識別等自動化決策領(lǐng)域。生成式AI則能夠通過模型訓(xùn)練生成新穎、有意義的內(nèi)容,如文本、圖像代碼或視頻等[2]。這些由人工智能技術(shù)自動生成而非由人類創(chuàng)作的內(nèi)容被稱為人工智能生成內(nèi)容(Artificial Intelligence Generated Content,AIGC)[3],而之與相對應(yīng)的人類創(chuàng)作內(nèi)容則被稱為HGC(Human Generated Content)。
生成式AI的關(guān)鍵技術(shù)包括生成對抗網(wǎng)絡(luò)(Generative Adversarial Networks,GAN)[4]、變分自編碼器(Variational Autoencoder,VAE)[5]、擴散模型(Denoising Diffusion Probabilistic Models,DDPM)[6]、強化學(xué)習(xí)(Reinforcement Learning,RL)[7]和Transformer[8]等。GAN通過生成器和判別器的對抗訓(xùn)練生成接近真實的數(shù)據(jù),廣泛應(yīng)用于藝術(shù)創(chuàng)作和圖像生成;VAE通過編碼器將輸入數(shù)據(jù)映射到低維空間,再通過解碼器生成新的數(shù)據(jù);DDPM則通過逐步向數(shù)據(jù)中添加噪聲并學(xué)習(xí)逆向去噪過程生成高分辨率圖像,已在圖像生成任務(wù)中展現(xiàn)出優(yōu)異的性能;RL根據(jù)試錯學(xué)習(xí)和環(huán)境反饋信號來優(yōu)化生成策略,通過與環(huán)境的交互評估生成內(nèi)容的質(zhì)量,進而調(diào)整生成策略,提高生成結(jié)果的多樣性和適應(yīng)性;Transformer通過其自注意力機制,能夠高效捕捉和生成序列數(shù)據(jù)的上下文信息,為生成式人工智能在文本生成任務(wù)中的成功奠定基礎(chǔ)。此外,Transformer的并行計算能力可以大大提高訓(xùn)練效率,使得在大規(guī)模數(shù)據(jù)上預(yù)訓(xùn)練和微調(diào)這些模型成為可能,進而推動生成式人工智能在文本生成、問答系統(tǒng)、機器翻譯等多個領(lǐng)域的應(yīng)用和發(fā)展。
大語言預(yù)訓(xùn)練模型(Large Language Models,LLMs)是基于Transformer架構(gòu)的生成式人工智能模型的典型代表,如BERT和GPT系列模型。BERT作為基于雙向Transformer架構(gòu)的代表性模型,通過同時考慮上下文信息實現(xiàn)了更加準(zhǔn)確和全面的文本理解和生成能力[9]。經(jīng)過預(yù)訓(xùn)練和微調(diào)后,BERT在問答系統(tǒng)、文本分類等多種自然語言處理(NLP)任務(wù)上表現(xiàn)優(yōu)異。GPT系列模型采用Transformer的解碼器結(jié)構(gòu),運用自回歸方法進行語言建模。GPT-1開創(chuàng)了基于Transformer的大規(guī)模預(yù)訓(xùn)練方法,使用無監(jiān)督預(yù)訓(xùn)練加有監(jiān)督微調(diào)模式,能夠生成高質(zhì)量、連貫且上下文相關(guān)的文本[10]。GPT-2提出了“Zero-shot”學(xué)習(xí)的理念,即在沒有額外微調(diào)的情況下,僅憑預(yù)訓(xùn)練模型就能執(zhí)行特定任務(wù)[11]。GPT-3引入了上下文學(xué)習(xí)(In-context Learning)模式,使模型能夠通過分析提供的文本上下文進行學(xué)習(xí),從而在無需額外訓(xùn)練的情況下,靈活地適應(yīng)和執(zhí)行各種任務(wù)[12]。InstructGPT通過從人類反饋中進行強化學(xué)習(xí)(Reinforcement Learning from Human Feedback,RLHF),使模型生成的內(nèi)容更加符合用戶的具體指令和需求,從而提升了模型的實用性和可靠性[13]。而ChatGPT,作為InstructGPT的進一步優(yōu)化版本,通過更深入的強化學(xué)習(xí)和微調(diào)策略,不僅保持了強大的語言生成能力,還顯著提升了與用戶交互的自然度和流暢度。Sora是OpenAI推出的一項尖端的生成式AI技術(shù),結(jié)合了DDPM、Spacetime Patch和Transformer架構(gòu),能夠根據(jù)文本指令創(chuàng)造出逼真且富有想象力的視頻,代表了“文生視頻”領(lǐng)域的一大飛躍[14]。
1.2 生成式人工智能的技術(shù)發(fā)展歷程
生成式人工智能的技術(shù)發(fā)展共經(jīng)歷了三個階段。第一階段為二十世紀(jì)五六十年代的起源階段,主要基于規(guī)則驅(qū)動的方法,通過編寫一系列規(guī)則來生成新的內(nèi)容[15]。第二階段為早期探索階段,生成式技術(shù)以機器學(xué)習(xí)為基礎(chǔ)逐漸發(fā)展起來。這個時期的研究者們開始嘗試采用統(tǒng)計方法來生成新的數(shù)據(jù),如文本、圖像等。其代表技術(shù)包含隱馬爾可夫模型(Hidden
Markov Model,HMM)[16]、高斯混合模型(Gaussian Mixture Models,GMM)[17]等,但在文本與圖像的生成內(nèi)容中,缺乏連貫性與創(chuàng)造性。第三階段為成熟階段,隨著深度學(xué)習(xí)算法的快速發(fā)展,生成模型的性能得到了顯著提升。生成式對抗網(wǎng)絡(luò)(GAN)、變分自編碼器(VAE)、擴散模型(DDPM)等技術(shù)的出現(xiàn),極大地推動了生成式技術(shù)的發(fā)展。這三類技術(shù)被廣泛應(yīng)用于生成文本、圖像、音視頻等領(lǐng)域。同時,生成模型在各個領(lǐng)域的發(fā)展雖遵循了不同路徑,但最終出現(xiàn)了交集:Transformer架構(gòu)[8]。Transformer于2017年首次用于NLP任務(wù),隨后成為各領(lǐng)域許多生成模型的主要支柱。基于以上各項技術(shù)的提出,近年來,多模態(tài)生成模型DALL-E、CLIP與大語言模型ChatGPT更進一步推動了生成式人工智能的發(fā)展,顯著提升了生成內(nèi)容的質(zhì)量與用戶體驗。Sora結(jié)合ChatGPT系列的技術(shù)優(yōu)勢,能夠模擬現(xiàn)實世界中的物理交互與動態(tài)變化,生成復(fù)雜的視頻場景[18],成為生成式人工智能的重大突破。張亞勤提出,AI大模型的五個未來發(fā)展方向包括多模態(tài)智能、自主智能、邊緣智能、物理智能和生物智能[19]。李彥宏指出,在大模型基礎(chǔ)上衍生出的智能體,能夠通過自然語言處理技術(shù)理解和響應(yīng)用戶的自然語言指令,并通過不斷學(xué)習(xí)用戶交互數(shù)據(jù)提升自身的服務(wù)能力,通過動態(tài)交互對話、任務(wù)自動化和智能推薦滿足用戶的復(fù)雜需求[20]。
1.3 生成式人工智能在經(jīng)濟社會中的應(yīng)用場景
作為一項迅速發(fā)展的前沿技術(shù),生成式人工智能推動了經(jīng)濟社會諸多行業(yè)的創(chuàng)新,顯著提升了生產(chǎn)力[21]。人工智能生成內(nèi)容(AIGC)包括文本、圖像、視頻、語音、代碼和三維場景等,具有高效性、創(chuàng)造性、多樣性和廣泛適用性[22]。文本生成主要用于聊天機器人、內(nèi)容創(chuàng)作等[23];圖像生成用于創(chuàng)作藝術(shù)作品和視覺內(nèi)容[24];視頻生成廣泛應(yīng)用于娛樂和廣告領(lǐng)域[25];語音生成則利用WaveNet等工具生成人類語音,用于虛擬助手、有聲讀物和自動客服[26-27];三維場景生成技術(shù)則在游戲、虛擬現(xiàn)實和建筑可視化中得到應(yīng)用[28]。
在傳媒和出版領(lǐng)域,生成式人工智能被用于自動撰寫新聞和生成音視頻內(nèi)容[29-30]。如NVIDIA的PYoCo模型運用時間注意力機制、級聯(lián)生成架構(gòu)等技術(shù),通過文本描述生成高質(zhì)量的視頻,并確保視頻內(nèi)容的時間一致性和高分辨率,改變了內(nèi)容生產(chǎn)和傳播的方式[31-32]。
在產(chǎn)品設(shè)計和廣告創(chuàng)意領(lǐng)域,生成式人工智能正在重塑商業(yè)模式[33]。如Adobe Sensei利用機器學(xué)習(xí)和生成技術(shù)自動生成設(shè)計元素、編輯圖像和優(yōu)化廣告內(nèi)容,幫助設(shè)計師更快地對接客戶需求,生成個性化的廣告[34]。
在公共服務(wù)領(lǐng)域,生成式人工智能嵌入敏捷政府的治理過程[35-36],推動公共服務(wù)自動化,提升政府的服務(wù)能力[37-38]。如北京市昌平區(qū)政務(wù)服務(wù)管理局的智能問答機器人“平平”通過理解和生成人類語言,實現(xiàn)了全天候在線服務(wù)和智能問答[39];清華大學(xué)圖書館采用AI導(dǎo)航助手依托數(shù)據(jù)庫導(dǎo)航實現(xiàn)AI增強問答,采用AI閱讀助手依托水木搜索實現(xiàn)AI增強閱讀[40]。
在司法領(lǐng)域,生成式AI被用來提升審判效率和質(zhì)量。如深圳中院的人工智能輔助審判系統(tǒng)通過立案智審、智能閱卷、智能庭審和智能文書生成等功能模塊,在提升審判效率的同時保留了法官的自主決策權(quán)[41]。
在醫(yī)療領(lǐng)域,生成式人工智能被用于醫(yī)療影像分析[42]。如北京天壇醫(yī)院的“龍影”大模型結(jié)合深度學(xué)習(xí)和圖像處理技術(shù),通過生成對抗網(wǎng)絡(luò)(GANs)精確提取和分析醫(yī)學(xué)圖像特征,輔助醫(yī)生進行診斷[43]。
在教育領(lǐng)域,生成式人工智能應(yīng)用于教育實踐[44-45],輔助生成個性化的教育內(nèi)容[46]。如清華大學(xué)開發(fā)的AI助教系統(tǒng)運用生成式預(yù)訓(xùn)練模型(GPT)分析學(xué)生的學(xué)習(xí)數(shù)據(jù),生成個性化的教育內(nèi)容和反饋[47-48]。
在科學(xué)研究領(lǐng)域,生成式人工智能被用來加速新材料、新療法和新藥物的發(fā)現(xiàn)。如Insilico Medicine利用生成對抗網(wǎng)絡(luò)(GANs)和強化學(xué)習(xí)(RL)技術(shù),進行新靶點發(fā)現(xiàn)和藥物分子結(jié)構(gòu)的設(shè)計[49]。
在金融領(lǐng)域,生成式人工智能被用于市場預(yù)測、個性化營銷內(nèi)容生成[50-51]。如摩根大通的LOXM系統(tǒng)通過生成多樣化的投資場景,更準(zhǔn)確地預(yù)測市場動向并優(yōu)化投資策略[52]。
在制造業(yè)領(lǐng)域,生成式AI的應(yīng)用能夠推動產(chǎn)業(yè)轉(zhuǎn)型[53],有助于生產(chǎn)效率的提升和產(chǎn)品質(zhì)量控制。如Ford公司通過AI系統(tǒng)監(jiān)控車輛制造過程中的質(zhì)量問題,提前檢測到缺陷并進行修復(fù),從而減少廢品率,提升產(chǎn)品質(zhì)量[54]。
在網(wǎng)絡(luò)安全領(lǐng)域,人工智能大模型在風(fēng)險識別、數(shù)據(jù)安全、垃圾郵件和釣魚攻擊過濾等方面有巨大潛力,同時也存在誤報率、數(shù)據(jù)質(zhì)量、模型泛化能力、可解釋性問題和實時性能等方面的挑戰(zhàn)[55]。
2 生成式人工智能風(fēng)險研究
2.1 各技術(shù)環(huán)節(jié)存在的風(fēng)險
風(fēng)險是指事件發(fā)生概率和相應(yīng)事件后果程度的綜合衡量。生成式人工智能從準(zhǔn)備、運算到生成內(nèi)容[56],涉及數(shù)據(jù)、算法和算力三個基本要素[57],在數(shù)據(jù)訓(xùn)練[58]、模型運算、內(nèi)容輸出、內(nèi)容利用各個環(huán)節(jié)上存在風(fēng)險,需要進行識別和治理。
2.1.1 數(shù)據(jù)風(fēng)險
生成式AI需要依靠對大量訓(xùn)練數(shù)據(jù)的學(xué)習(xí)才能生成新內(nèi)容,如百度“文心一言”的訓(xùn)練數(shù)據(jù)包括萬億級網(wǎng)頁數(shù)據(jù)、數(shù)十億的搜索數(shù)據(jù)和圖片數(shù)據(jù)、百億級的語音日均調(diào)用數(shù)據(jù),以及5500億事實的知識圖譜等[59]。在生成式AI對海量數(shù)據(jù)進行采集、存儲、標(biāo)注、利用和銷毀過程中,可能發(fā)生如下風(fēng)險:
一是訓(xùn)練數(shù)據(jù)采集風(fēng)險。包括數(shù)據(jù)采集手段非法、采集范圍不當(dāng)、數(shù)據(jù)含有偏見或故意投毒、篡改,以及模型訓(xùn)練過多依賴生成數(shù)據(jù)等[60-61]。含有偏見、受到污染、篡改的數(shù)據(jù)將嚴(yán)重影響輸出內(nèi)容的質(zhì)量,產(chǎn)生AIGC的幻覺問題[62-63]。如美國訓(xùn)練數(shù)據(jù)中存在的偏見使語言模型對非裔美國人等群體的判斷存在偏見[64],而目前緩解這一偏見的人類偏好對齊做法,可能會在表面上掩蓋語言模型更深層次上的種族主義,從而加劇隱性和顯性刻板印象之間的差異[65]。Shumailov等指出使用AI生成的數(shù)據(jù)訓(xùn)練AI模型可能導(dǎo)致“模型崩潰”,即模型在多代迭代后出現(xiàn)性能退化和輸出質(zhì)量下降的現(xiàn)象[66]。
二是數(shù)據(jù)存儲風(fēng)險。主要包括大聚集數(shù)據(jù)的內(nèi)部泄露[67]、通過外部攻擊進行數(shù)據(jù)篡改、投毒、刪除等[68],基于有毒數(shù)據(jù)生成的模型可能輸出有害或錯誤的結(jié)果,進而侵犯個人隱私或商業(yè)秘密,甚至危害國家安全[69]。
三是數(shù)據(jù)標(biāo)注風(fēng)險。主要是由標(biāo)注者的能力水平、價值偏見以及監(jiān)管不力等造成的訓(xùn)練數(shù)據(jù)質(zhì)量低下問題。在面部識別技術(shù)的訓(xùn)練中,標(biāo)注不當(dāng)或數(shù)據(jù)集中某些種族群體的代表性不足,可能導(dǎo)致模型在識別少數(shù)群體時出現(xiàn)顯著誤差[70]。
四是數(shù)據(jù)選擇性利用風(fēng)險。主要包括有選擇地利用數(shù)據(jù)進行訓(xùn)練導(dǎo)致生成結(jié)果的偏見。如果開發(fā)者在訓(xùn)練過程中有意或無意地排除某類數(shù)據(jù),模型的輸出將難以反映現(xiàn)實情況。如在自動化招聘工具中,有模型因使用偏向男性的數(shù)據(jù)集,導(dǎo)致系統(tǒng)在篩選簡歷時對女性求職者產(chǎn)生偏見[71]。
五是數(shù)據(jù)刪除階段的風(fēng)險。包括刪除不徹底、數(shù)據(jù)進入大量生成內(nèi)容后難以完全刪除等,進而造成侵權(quán)問題。盡管法律或公司政策要求刪除數(shù)據(jù),但是許多企業(yè)發(fā)現(xiàn)難以完全刪除在多個系統(tǒng)中復(fù)制的用戶數(shù)據(jù),如果數(shù)據(jù)已經(jīng)被AI模型使用生成內(nèi)容,即便刪除原始數(shù)據(jù)也無法完全抹除其影響[72]。
2.1.2 算法與模型風(fēng)險
算法是生成式人工智能的核心技術(shù),隱含著技術(shù)開發(fā)人員的觀念與思維模式,在設(shè)計、開發(fā)和應(yīng)用過程中可能隱藏如下風(fēng)險:
一是算法歧視破壞社會公平。算法偏見是指由于初始算法、樣本數(shù)據(jù)或其他原因所形成的思維慣性而導(dǎo)致生成式人工智能系統(tǒng)在運行過程中出現(xiàn)有偏向性的舉措或選擇[73],如基于種族、性別、宗教等顯性特征,在輸出內(nèi)容中對條件相同的人實施差別待遇[74-75]。
二是算法的不可解釋性和追責(zé)難問題。生成式人工智能的內(nèi)部運行機制被稱為“算法黑箱”,即輸出內(nèi)容或做出決策的原理難以被解釋和監(jiān)控[76]。這導(dǎo)致對生成式人工智能參與的行為追責(zé)困難[77],阻礙了生成式人工智能參與重要決策。
2.1.3 內(nèi)容生成風(fēng)險
由大模型生成的內(nèi)容可能會偏離真實世界的事實或不能準(zhǔn)確反映用戶指令,由此產(chǎn)生幻覺(Hallucination)風(fēng)險。AI幻覺主要分為兩類:
一是事實性幻覺。AI生成的內(nèi)容有可能與現(xiàn)實世界的事實不一致,如捏造不存在的人物、事件或數(shù)據(jù)等。造成這種問題的原因通常是模型觸及知識邊界,數(shù)據(jù)利用不足,或者訓(xùn)練數(shù)據(jù)中特定領(lǐng)域知識不準(zhǔn)確、不充足[78]。
二是忠實性幻覺。AI生成的內(nèi)容有可能沒有忠實地反映用戶的指令或?qū)υ挶尘?。這通常是因為AI模型訓(xùn)練中能力不對齊和架構(gòu)缺陷[79]、解碼策略隨機性和表示能力不足[80]等問題導(dǎo)致AI模型在理解復(fù)雜指令和多層次上下文推理中表現(xiàn)欠佳。
2.2 利用不當(dāng)導(dǎo)致的風(fēng)險
生成式人工智能不僅在各個技術(shù)環(huán)節(jié)存在隱患,若應(yīng)用不當(dāng)且生成內(nèi)容傳播失控時,還可能會引發(fā)一系列交織的倫理、法律、政治、社會和經(jīng)濟風(fēng)險。
2.2.1 倫理風(fēng)險
倫理風(fēng)險主要指利用生成式人工智能技術(shù)從事違背社會道德的活動[81],從而對人與社會和自然之間的關(guān)系準(zhǔn)則產(chǎn)生影響[82],包括違背學(xué)術(shù)道德[83]、導(dǎo)致情感異化、人類主體性價值消解等。
首先,利用生成式人工智能實施學(xué)術(shù)不端的行為[84-85]有多種形式,如生成虛假學(xué)術(shù)文章[86]、編造不存在的引用[87]、通過重新措辭剽竊他人作品[88]以及生成虛假的數(shù)據(jù)和圖表[89]。AI編撰的內(nèi)容表面上符合學(xué)術(shù)標(biāo)準(zhǔn),但實際上缺乏實驗和證據(jù)支持,誤導(dǎo)讀者和評審,擾亂學(xué)術(shù)界的規(guī)范和誠信。
其次,長期使用生成式人工智能可能會使人產(chǎn)生技術(shù)依賴[90-91],并對個體的神經(jīng)系統(tǒng)產(chǎn)生實質(zhì)性影響,導(dǎo)致批判性思維受損和記憶保持能力改變[92]。與此同時,擬人化程度越來越高的生成式人工智能為人類創(chuàng)造能夠提供情感支持的數(shù)字空間,但人機交往的單向性可能會使人類陷入“群體性孤獨”,長期的單向人機交往可能導(dǎo)致人類情感異化[93]。
最后,由于生成式人工智能愈發(fā)具有自主道德行動能力[94],人的主體價值被削弱或消解[95-97],有學(xué)者認(rèn)為生成式人工智能有可能會顛覆傳統(tǒng)人本主義道德體系[98-99]。生成式人工智能也可能引導(dǎo)人類做出含有道德傾向的決策[100-101],所以AI是否擁有權(quán)利[102],人工智能權(quán)利的基礎(chǔ)和來源[103],人工智能的權(quán)利是否應(yīng)當(dāng)與人類權(quán)利保持一致[104-105]等問題將受到關(guān)注。
2.2.2 法律風(fēng)險
生成式人工智能在高效完成用戶指令的同時,其算法不透明,數(shù)據(jù)來源具有隱蔽性,輸出內(nèi)容具有匿名性[106],因此容易產(chǎn)生法律風(fēng)險。
首先,生成式AI的無約束使用可能侵犯知識產(chǎn)權(quán)[107-110]。2023年Stable Diffusion用戶李昀鍇狀告百家號不當(dāng)傳播自己利用AI生成的圖片,成為中國首例AI生成圖片侵犯知識產(chǎn)權(quán)案[111]。此外,訓(xùn)練數(shù)據(jù)集可能未經(jīng)所有者授權(quán),導(dǎo)致數(shù)據(jù)產(chǎn)權(quán)糾紛[112],如湯森路透曾指控羅斯智能公司“非法復(fù)制其法律數(shù)據(jù)庫內(nèi)容以訓(xùn)練人工智能系統(tǒng)”,導(dǎo)致羅斯智能公司在版權(quán)糾紛下被迫停業(yè)[113]。
其次,遠(yuǎn)程生物識別,如遠(yuǎn)程人臉識別、指紋收集可能會給個體的基本權(quán)利帶來風(fēng)險。生成式AI有可能侵犯隱私[114]和個人信息[115-116],被用于偽造他人信息實施詐騙或勒索[117]。如2024年韓國警方某加密軟件中存在大量社交群組利用Deepfake(深度偽造)技術(shù)換臉合成色情照片和視頻,參與用戶多達(dá)22萬人[118]。
最后,生成式AI還面臨算法失控、算法濫用、算法欺詐等風(fēng)險。McAfee調(diào)查發(fā)現(xiàn),生成式人工智能被犯罪分子用來克隆聲音,以實施詐騙,超過70%的受訪者難以辨別真實語音與克隆語音的差異,約10%的受訪者表示曾收到AI生成的語音詐騙消息,其中77%的受害者在收到此類消息后蒙受了財務(wù)損失[119]。
為應(yīng)對生成式AI的潛在法律風(fēng)險,美國加州議會擬定了《SB-1047前沿AI大模型安全創(chuàng)新法案》,旨在對高風(fēng)險AI模型建立安全標(biāo)準(zhǔn),防止濫用和災(zāi)難性后果,但遭到包括李飛飛在內(nèi)的科學(xué)家們的強烈反對,他們認(rèn)為這將損害AI生態(tài)系統(tǒng),不必要地懲罰開發(fā)者,扼殺開源社區(qū),并阻礙學(xué)術(shù)研究,且對模型風(fēng)險的評估方法不科學(xué)[120]。在應(yīng)對生成式AI的潛在法律風(fēng)險與促進技術(shù)創(chuàng)新之間,如何取得平衡仍然是一個巨大的挑戰(zhàn)。
2.2.3 政治風(fēng)險
生成式AI技術(shù)能夠在極短時間內(nèi)生成大量內(nèi)容,并通過社交媒體、搜索引擎優(yōu)化等渠道迅速擴散[121],傳播范圍遠(yuǎn)超傳統(tǒng)人類生成內(nèi)容(HGC)。同時,通過分析用戶的行為數(shù)據(jù)和興趣偏好,AI能夠生成高度定制化的內(nèi)容,并通過智能推薦系統(tǒng)精準(zhǔn)推送給特定用戶群體[122]。然而,盡管個性化的定向傳播方具有廣泛的應(yīng)用場景,但如果監(jiān)管不當(dāng)也可能會帶來諸多政治風(fēng)險。
首先,A生成內(nèi)容泛濫有可能污染網(wǎng)絡(luò)信息環(huán)境。生成式AI可能被用于大規(guī)模傳播虛假信息、謠言、煽動性言論等有害內(nèi)容[63],污染網(wǎng)絡(luò)信息環(huán)境[123],破壞社會公序良俗[124]。
其次,生成式AI可以自動產(chǎn)生虛假新聞,并通過偽造可信來源的方式迅速傳播。這種大規(guī)模傳播的虛假信息不僅會混淆公眾視聽,還可能導(dǎo)致社會信任體系的崩潰,引發(fā)公眾的普遍焦慮和不安[125]。
第三,生成式AI可能被用于輿情操縱,影響公眾認(rèn)知[126-127]。如在美國總統(tǒng)選舉中,生成式AI被用于生成大量宣傳內(nèi)容,通過社交媒體平臺影響選民的政治傾向和投票意圖[128],進而削弱公眾對政府和社會機構(gòu)的信任[129]。
最后,AI生成內(nèi)容可能帶有某種特定的意識形態(tài)偏向,故意曲解事實或隱瞞真相。借助于特定事件情境,這些意識形態(tài)材料可能被用于國家間的輿論戰(zhàn)或信息戰(zhàn),嚴(yán)重威脅國家意識形態(tài)安全[130]。通過有偏內(nèi)容的輸出來影響公眾觀點,甚至成為境外勢力干預(yù)內(nèi)政的手段[131]。
2.2.4 社會風(fēng)險
生成式人工智能技術(shù)應(yīng)用的社會風(fēng)險主要涉及勞動力替代與就業(yè)難題、社會不公加劇、新型智能鴻溝的出現(xiàn)等。
首先,自動化程度的提高使低技能和重復(fù)性的工作需求減少[132]。生成式人工智能強大的知識生產(chǎn)與應(yīng)用能力使其能夠承擔(dān)的工作類型越來越多,人類腦力勞動領(lǐng)域的咨詢、分析、教育以及媒體制作等過去“專屬于人的崗位”將被機器取代[133]。雖然生成式人工智能催生的新興職業(yè)在一定程度上增加了就業(yè)機會,但高技能職位要求技術(shù)教育與技能提升[134],而就業(yè)壓力的持續(xù)增大可能帶來社會穩(wěn)定方面的風(fēng)險[135]。
其次,人工智能生成的歧視與偏見性信息[136]的廣泛傳播可能會加劇社會不公[137]。計算資源分配不均以及數(shù)據(jù)和算法歧視等技術(shù)鴻溝、訪問限制等政策變量、人機協(xié)同能力等用戶差距均會導(dǎo)致不同個體在與生成式人工智能交互的各個環(huán)節(jié)上拉開差距,尤其會放大數(shù)字弱勢群體的脆弱性,使之在人工智能技術(shù)發(fā)展的浪潮中被進一步邊緣化[138],從而出現(xiàn)新型智能鴻溝。
最后,過度依賴與AI的交互可能會改變傳統(tǒng)的人際交互模式,導(dǎo)致個體認(rèn)知與情感能力削減、自我身份認(rèn)同困難和自我存在意義消解等風(fēng)險[69,139]。
2.2.5 經(jīng)濟風(fēng)險
當(dāng)前,由于數(shù)據(jù)、算力以及專業(yè)壁壘,生成式人工智能的基礎(chǔ)模型和微調(diào)模型的市場高度集中并主要被極少數(shù)大型科技企業(yè)所壟斷[140]。自從2020年GPT-3的突破以來,只有11個大型基礎(chǔ)模型得以建立,其中有8個基礎(chǔ)模型由大型平臺直接開發(fā),如谷歌/DeepMind、Meta、微軟和百度等,其他模型也離不開大型平臺的間接投資和控制[141]。為了應(yīng)對生成式人工智能市場競爭可能帶來的風(fēng)險,美歐英的競爭管理機構(gòu)聯(lián)合發(fā)表聲明,提出保護人工智能生態(tài)系統(tǒng)中的競爭原則,內(nèi)容包括公平交易、互操作性、自由選擇和消費者保護等[142]。
3 生成式人工智能風(fēng)險治理與創(chuàng)新發(fā)展對策研究
3.1 生成式人工智能風(fēng)險治理對策
負(fù)責(zé)任的人工智能強調(diào)以人為本、社會責(zé)任和可持續(xù)性,有效解決、記錄和管理人工智能風(fēng)險和潛在的負(fù)面影響,從而帶來更值得信賴的人工智能系統(tǒng)[143]。針對生成式人工智能應(yīng)用可能帶來的種種風(fēng)險,現(xiàn)有研究從生態(tài)體系建設(shè)、數(shù)據(jù)質(zhì)量管理、治理技術(shù)、組織結(jié)構(gòu)優(yōu)化、問責(zé)機制建設(shè)等方面提出了治理對策。
(1)構(gòu)建可信賴人工智能生態(tài)體系,實施政府主導(dǎo)下的AI風(fēng)險協(xié)同治理
生成式人工智能生產(chǎn)、應(yīng)用的產(chǎn)業(yè)鏈?zhǔn)謴?fù)雜,使得算法檢視性工具、算法風(fēng)險評估性工具和算法主體責(zé)任制存在局限[144],單一的政府治理難以實現(xiàn)生成式人工智能風(fēng)險的有效治理,因此需要實施政府主導(dǎo)下的企業(yè)、社會多元主體協(xié)同治理[145]。如建立虛假信息等級評估制度,以政府主導(dǎo)強化多元主體間的協(xié)同,強化效能管理和快捷響應(yīng)[146]。商湯科技指出,人工智能治理應(yīng)當(dāng)是一個價值牽引、技術(shù)先行、 多方參與、分層推進的動態(tài)進程[147]。歐盟《人工智能白皮書》(2020)提出構(gòu)建可信賴人工智能生態(tài)系統(tǒng),包括與會員國合作、支持建立世界領(lǐng)先的測試中心、通過吸引頂尖教授和科學(xué)家來提升歐洲人工智能研究中心的能力、關(guān)注中小企業(yè)、與私營部門合作、推動公共領(lǐng)域應(yīng)用人工智能、加強安全訪問數(shù)據(jù)和計算基礎(chǔ)設(shè)施的建設(shè)、引入非歐盟組織和政府觀察員[148]。阿里巴巴《生成式人工智能治理與實踐白皮書》提出,政府在生成式 AI 治理中應(yīng)完善頂層設(shè)計、健全治理體系、推動國際合作;產(chǎn)業(yè)界應(yīng)通過標(biāo)準(zhǔn)化形成行業(yè)自律、建設(shè)分類分級治理制度、持續(xù)發(fā)展治理技術(shù)、合理分配主體責(zé)任、吸收多方意見;社會應(yīng)普及新技術(shù),彌合公眾認(rèn)知鴻溝,校企聯(lián)合助力人才培養(yǎng)[149]。
(2)實施人工智能風(fēng)險評估,進行風(fēng)險分級分類管理
對人工智能的風(fēng)險進行評估,有助于明確治理范圍,實施精準(zhǔn)治理。歐盟《人工智能法案》[150](2024)將人工智能風(fēng)險劃分為不可接受的風(fēng)險(需要禁止,如社會評分系統(tǒng)和操縱性人工智能);大部分涉及文本的高風(fēng)險人工智能系統(tǒng)(需要管制);風(fēng)險有限的人工智能系統(tǒng)(透明度義務(wù)較輕),但開發(fā)人員和部署人員必須確保終端用戶知道他們正在與人工智能(聊天機器人和深度冒充者(Deepfakes)進行交互;極小風(fēng)險(不受監(jiān)管),包括目前歐盟單一市場上可用的大多數(shù)人工智能應(yīng)用程序,如支持人工智能的視頻游戲和垃圾郵件過濾器等。美國商務(wù)部國家標(biāo)準(zhǔn)與技術(shù)研究所(NIST)發(fā)布的《人工智能風(fēng)險管理框1.0》提出,與不直接與人類交互的AI系統(tǒng)相比,設(shè)計或部署用于直接與人類互動的AI系統(tǒng),如由個人身份信息等敏感或受保護數(shù)據(jù)組成的大型數(shù)據(jù)集上進行模型訓(xùn)練,或者輸出內(nèi)容對人類有直接或間接影響,應(yīng)設(shè)定更高的風(fēng)險初始優(yōu)先級[143]。中國信息通信研究院建議聚焦人工智能應(yīng)用場景,以監(jiān)管沙箱試點摸清場景應(yīng)用風(fēng)險特點,針對典型風(fēng)險細(xì)化治理規(guī)則和方案[151]。商湯科技將人工智能治理的實現(xiàn)分為可用、可靠、可控、可信四個層次,并依據(jù)AI對最終產(chǎn)品安全、個人權(quán)益、市場公平、公共安全和生態(tài)安全的影響程度,將倫理風(fēng)險由低至高劃分為E0至E4四個等級[147]。
(3)強化AI項目管理,實施項目全周期風(fēng)險管理
生成式人工智能被用于改造傳統(tǒng)產(chǎn)業(yè),具有顯著的項目屬性。因此,需要強化AI項目管理,將風(fēng)險管理貫穿于項目生命周期的各個階段,包括規(guī)劃階段、商業(yè)和技術(shù)規(guī)范階段、測試階段和部署階段[152]。在規(guī)劃階段設(shè)定AI的安全、倫理和法律標(biāo)準(zhǔn),明確監(jiān)管范圍;在商業(yè)和技術(shù)規(guī)范階段制定生成式AI技術(shù)和商業(yè)規(guī)范,利用自動化工具監(jiān)控數(shù)據(jù)質(zhì)量、隱私保護和算法合規(guī)性;在測試階段通過自動化模擬測試和算法優(yōu)化,確保AI在不同場景下安全運行,并根據(jù)測試結(jié)果進行調(diào)整;在部署階段則需要AI系統(tǒng)運行中進行實時監(jiān)控,檢測問題后自動調(diào)整,確保系統(tǒng)穩(wěn)定、安全。阿里巴巴提出,在AI模型訓(xùn)練階段,對訓(xùn)練數(shù)據(jù)進行篩選和過濾以剔除含有風(fēng)險的數(shù)據(jù),對模型實施全面的安全評測,通過模型對齊與內(nèi)生安全增強確保模型遵循人類的價值觀;在服務(wù)上線階段,服務(wù)提供者需要選擇安全有效的模型,并進行模型核驗,確保服務(wù)使用的工具集(如插件)的合理性和必要性,并執(zhí)行合規(guī)動作,如算法安全自評估和算法備案;在內(nèi)容生成階段,需要對賬號進行管理,保護個人信息,建立內(nèi)容審核與處置機制,包括建立審核制度、專職團隊,對生成內(nèi)容進行分類分級,并采用技術(shù)手段進行內(nèi)容審核;在內(nèi)容傳播階段,需要添加標(biāo)識以提示內(nèi)容是由人工智能生成,并建立風(fēng)險監(jiān)測和應(yīng)急處置機制,以快速響應(yīng)和控制虛假信息的傳播[149]。
(4)嚴(yán)格控制數(shù)據(jù)質(zhì)量,實施AI全生命周期數(shù)據(jù)治理
生成式人工智能的風(fēng)險與數(shù)據(jù)質(zhì)量密切相關(guān),數(shù)據(jù)質(zhì)量管理應(yīng)當(dāng)貫穿生成式人工智能的全生命周期[153]。在預(yù)訓(xùn)練階段應(yīng)對數(shù)據(jù)收集、標(biāo)注、準(zhǔn)備、降維、增強和版本控制環(huán)節(jié)進行治理,尤其是對數(shù)據(jù)進行嚴(yán)格過濾,避免使用AI生成數(shù)據(jù)訓(xùn)練模型,減少模型崩潰風(fēng)險[66];在評估階段應(yīng)開展同分布評測、異分布評測及相關(guān)評測數(shù)據(jù)集的治理, 引入嚴(yán)格的標(biāo)準(zhǔn)數(shù)據(jù)審查機制,減少數(shù)據(jù)中的隱性或顯性偏見,減少算法輸出的歧視性結(jié)果[154];在部署推理階段需要對部署數(shù)據(jù)、指令數(shù)據(jù)集、偏好數(shù)據(jù)集、強化學(xué)習(xí)數(shù)據(jù)集、提示工程數(shù)據(jù)、運維監(jiān)控數(shù)據(jù)等進行治理;運維監(jiān)控階段的數(shù)據(jù)治理包括運維數(shù)據(jù)的治理、數(shù)據(jù)的安全治理、數(shù)據(jù)的理解呈現(xiàn)、數(shù)據(jù)的質(zhì)量保證、數(shù)據(jù)存儲檢索的治理等,更新存儲知識庫資源以擴展模型的知識邊界,避免錯誤信息引入,確保生成結(jié)果的時效性與正確性;在退役(迭代)階段則需要合規(guī)處置數(shù)據(jù)、對模型知識數(shù)據(jù)進行遷移復(fù)用、對大模型全生命周期的技術(shù)與經(jīng)驗數(shù)據(jù)進行繼承[155]。中國信息通信研究院指出,大模型發(fā)展需要重視個人隱私保護問題,包括確保訓(xùn)練數(shù)據(jù)來源的合法性,堅持?jǐn)?shù)據(jù)使用透明和可問責(zé)原則,保障用對戶交互信息的刪除權(quán)[155]。信息系統(tǒng)審計與控制協(xié)會(Information Systems Audit and Control Association,ISACA)強調(diào)確保人工智能系統(tǒng)決策過程和數(shù)據(jù)來源的透明度和可追蹤性,企業(yè)需要增強審計功能來監(jiān)控AI系統(tǒng)的決策,保證決策過程的透明度,追蹤數(shù)據(jù)來源以確保數(shù)據(jù)的可靠性,實施記錄和監(jiān)控操作以快速響應(yīng)問題,確保符合數(shù)據(jù)保護和隱私法規(guī),從而提高用戶對AI系統(tǒng)的信任度[156]。
(5)以AI治理AI,開發(fā)智能化的技術(shù)工具應(yīng)對算法風(fēng)險
當(dāng)前,人工智能的性能提升遠(yuǎn)超安全技術(shù)的發(fā)展,這種不平衡導(dǎo)致“Crippled AI”,即高性能但安全性不足的AI系統(tǒng)[157]。為了跟隨高速迭代的AI系統(tǒng),“以技術(shù)治理技術(shù),以AI治理AI”是一種新型算法治理方向?!癆I治理AI”通過智能算法自我監(jiān)管,提高效率并解決傳統(tǒng)人工監(jiān)管迭代慢的局限性[158]。2022年6月,Meta與美國司法部達(dá)成法律和解,同意刪除廣告商用來間接分析和定位某些受眾群體的特殊廣告工具,并同意部署一個新的“方差減少系統(tǒng)”(VRS)以消除其廣告定位和投放系統(tǒng)中機器學(xué)習(xí)算法的偏見[159],通過開發(fā)治理技術(shù)減少了住房廣告中的性別和種族偏見風(fēng)險。人民日報社傳播內(nèi)容認(rèn)知全國重點實驗室基于“AI治理AI”的理念,打造AIGC-X平臺,實現(xiàn)對人工智能生成內(nèi)容的精準(zhǔn)識別,在文本識別方面,基于人工智能生成模型傾向于采用高頻詞的特點,構(gòu)建語義與風(fēng)格特征融合的語言模型評價方法;在圖像識別方面,研發(fā)基于視覺上下文、子塊信號特征的人工智能生成圖像檢測模型,實現(xiàn)對人工智能生成圖像的精確識別;在視頻識別方面,通過提取真實視頻中人物的視覺、音頻特征,建立人物關(guān)聯(lián)特異性模型,檢測出合成人物在全局一致性、幾何特性等方面與真實人物存在的偏差[160]。商湯科技建立了模型體檢平臺,對模型進行推理攻擊和逆向攻擊測試,檢測算法模型對數(shù)字世界白盒對抗、數(shù)字世界黑盒查詢對抗魯棒準(zhǔn)確率、數(shù)字世界遷移攻擊對抗魯棒準(zhǔn)確率、物理世界對抗樣本攻擊成功率、模型后門攻擊成功率,以判定算法模型是否符合設(shè)計要求[147]。阿里巴巴則建議提升模型的魯棒性、可解釋性、公平性,并構(gòu)建有效的防濫用機制,以提高模型的可靠性和用戶的信任,具體措施包括:開發(fā)評估工具來測試和強化模型抵御攻擊的能力,提高模型韌性;使用模型可視化和解釋性工具來揭示模型的決策邏輯;通過在訓(xùn)練過程中引入公平性約束并平衡數(shù)據(jù)來減少偏見;建立內(nèi)容審核和版權(quán)監(jiān)測系統(tǒng)來防止模型濫用[149]。
(6)強化生成內(nèi)容檢測,提高AI生成內(nèi)容的準(zhǔn)確性與可靠性
生成式人工智能容易生成虛假信息,帶來幻覺問題,對社會和個人造成誤導(dǎo),緩解AIGC的幻覺風(fēng)險需要強化內(nèi)容治理,措施包括數(shù)據(jù)質(zhì)量控制、優(yōu)化訓(xùn)練過程、改進解碼推理算法和強化后處理機制。在數(shù)據(jù)層面,減少幻覺的關(guān)鍵在于嚴(yán)格篩選和驗證數(shù)據(jù)來源,避免錯誤信息和偏見的引入,同時加強對數(shù)據(jù)利用的優(yōu)化,定期更新數(shù)據(jù)集以擴展模型的知識邊界[161]。在模型訓(xùn)練層面,可以利用技術(shù)手段優(yōu)化預(yù)訓(xùn)練模型的架構(gòu)。如借助Self-Alignment機制,根據(jù)檢測出來的事實性幻覺對模型進行微調(diào)[162];通過人類反饋強化學(xué)習(xí)減少毒害內(nèi)容的產(chǎn)生,讓模型與指令需求保持一致[13]。在推理層面,可以通過降低解碼過程中的隨機性實現(xiàn)算法優(yōu)化,如調(diào)整采樣溫度(Temperature)或采用束搜索等確定性策略,減少生成錯誤的概率[163]。在生成內(nèi)容后,可以引入外部知識庫進行事實驗證或使用語言模型檢測邏輯錯誤,進一步提高生成內(nèi)容的準(zhǔn)確性和可靠性[164]。
(7)進行組織結(jié)構(gòu)的適應(yīng)性優(yōu)化,實施敏捷治理與自我規(guī)制
為了應(yīng)對潛在、復(fù)雜、瞬時的AI風(fēng)險,還需要對組織結(jié)構(gòu)進行優(yōu)化,提高AI環(huán)境下的組織韌性?,F(xiàn)有研究提出兩種優(yōu)化方向:敏捷與適應(yīng)性治理,自我規(guī)制調(diào)整。
首先,敏捷治理被視為應(yīng)對生成式人工智能技術(shù)快速變革的關(guān)鍵策略,強調(diào)通過動態(tài)調(diào)整和靈活應(yīng)變[165],提高組織應(yīng)對復(fù)雜性和不確定性的能力[166]。阿里巴巴提出,生成式人工智能的發(fā)展還存在著較大的不確定性,采用過重、不科學(xué)的治理方式會抑制產(chǎn)業(yè)的發(fā)展,而敏捷治理作為更加順應(yīng)科技研發(fā)應(yīng)用的治理模式,通過小步快走、迭代試錯、動態(tài)更新,可以解決技術(shù)高速演進的不確定性問題[149]。中國信息通信研究院則建議堅持敏捷治理理念,強化跨部門協(xié)同和多元敏捷互動機制,平衡創(chuàng)新發(fā)展和風(fēng)險治理[151]。
其次,為了進一步提升AI系統(tǒng)的安全性與合規(guī)性,組織內(nèi)部自我管理型規(guī)制的引入成為必要。通過強化平臺自律和合規(guī)建設(shè),平臺企業(yè)能夠主動識別和排除潛在的安全隱患,從源頭減少AI系統(tǒng)帶來的風(fēng)險[167]。德勤報告發(fā)現(xiàn)僅23%的企業(yè)認(rèn)為自己為生成式AI的風(fēng)險管理和法規(guī)合規(guī)做好準(zhǔn)備,41%的企業(yè)難以精確衡量生成式AI的影響,并建議企業(yè)管理層應(yīng)持續(xù)關(guān)注生成式AI戰(zhàn)略,加強數(shù)據(jù)管理、風(fēng)險控制和價值衡量,推動生成式AI深入嵌入業(yè)務(wù)流程,并通過跨部門合作和強有力的監(jiān)管框架確保技術(shù)的長期成功和合規(guī)性[168]。ISACA指出組織需要構(gòu)建AI倫理準(zhǔn)則,以確保AI技術(shù)的發(fā)展與應(yīng)用遵循倫理原則、透明度、公正性,涵蓋利益相關(guān)者的權(quán)益,確立責(zé)任與問責(zé)機制,并進行持續(xù)的倫理審視與教育培訓(xùn),促進AI技術(shù)負(fù)責(zé)任的演進[158]。
(8)采用“軟硬法”結(jié)合治理方式,強化問責(zé)機制與標(biāo)準(zhǔn)約束
應(yīng)對AI對技術(shù)發(fā)展帶來的法律爭議,還需要加強政策法規(guī)和技術(shù)標(biāo)準(zhǔn)建設(shè)。在大模型治理過程中,可以使用強制性法律(硬法)和非強制性的指導(dǎo)性文件、標(biāo)準(zhǔn)、倫理原則(軟法)的“軟硬法”結(jié)合的治理方式[151]。現(xiàn)有研究從生成式人工智能的法律責(zé)任、法律準(zhǔn)則、安全體系、技術(shù)標(biāo)準(zhǔn)等視角提出具體建議。
首先,人工智能系統(tǒng)的不可預(yù)測性和自主性可能導(dǎo)致責(zé)任漏洞,包括證明過錯、因果關(guān)系以及界定生產(chǎn)者與使用者的責(zé)任,因此需要調(diào)整現(xiàn)有的責(zé)任規(guī)則[169],包括明確顯性隱性披露體系,確定內(nèi)容責(zé)任主體,完善投訴機制[170]。
其次,監(jiān)管機構(gòu)應(yīng)制定和完善相關(guān)法律法規(guī),明確數(shù)據(jù)使用、隱私保護、算法偏見等方面的規(guī)范[171]。如中國在算法備案與評估方面提出了一系列措施[172];歐盟出臺了AI法案,建立了歐盟通用的AI法律規(guī)制框架,并于2024年8月1日正式生效[173]。
第三,研究AI安全可信指南,統(tǒng)籌規(guī)劃AI安全標(biāo)準(zhǔn)體系,并加快建設(shè)AI安全檢測能力[174],可以從確定績效、設(shè)計和內(nèi)部管理三類標(biāo)準(zhǔn)方向以保障人工智能生成內(nèi)容的安全[175]。
最后,完善生成式人工智能技術(shù)專利標(biāo)準(zhǔn)。如引入人工智能作為技術(shù)“發(fā)明人”的制度設(shè)計,創(chuàng)立人工智能生成技術(shù)方案的專利性標(biāo)準(zhǔn)[176]。
3.2 生成式人工智能創(chuàng)新發(fā)展對策
生成式人工智能是一項新興的顛覆性技術(shù),對于未來經(jīng)濟社會發(fā)展的影響十分深遠(yuǎn)。為進一步推動生成式人工智能產(chǎn)業(yè)高質(zhì)量發(fā)展和創(chuàng)新應(yīng)用,政策制定部門和學(xué)術(shù)界提出了一系列發(fā)展對策。
(1)堅持發(fā)展創(chuàng)新與風(fēng)險治理并重的原則
1982年,大衛(wèi)·科林格里奇在其《技術(shù)的社會控制》一書中提出了科林格里奇困境(Collingridge's Dilemma):一項技術(shù)如果因為擔(dān)心不良后果而過早實施控制,那么技術(shù)很可能就難以發(fā)展。反之,如果控制過晚,已經(jīng)成為整個經(jīng)濟和社會結(jié)構(gòu)的一部分,就可能走向失控,再來解決不良問題就會變得昂貴、困難和耗時間,甚至難以或不能改變[177]。生成式人工智能的發(fā)展也面臨這種技術(shù)控制的兩難困境[178]。在生成式人工智能技術(shù)的創(chuàng)新發(fā)展過程中,如何平衡技術(shù)進步與潛在風(fēng)險是各國政策制定的重要議題。現(xiàn)有研究對主要經(jīng)濟體在生成式人工智能的發(fā)展[179]、監(jiān)管[180]、教育[181]等方面的政策進行了比較研究,明確了各國對生成式人工智能技術(shù)的社會功能、潛在影響與戰(zhàn)略定位。這些政策法規(guī)基本上秉持發(fā)展與治理并重的政策原則,旨在通過設(shè)定法律框架和治理機制,促進技術(shù)的負(fù)責(zé)任發(fā)展[182],不斷尋求創(chuàng)新和規(guī)制的平衡點[183]。
在AI發(fā)展方面,美國將人工智能界定為戰(zhàn)略競爭的前沿領(lǐng)域,堅持絕對安全理念,依賴技術(shù)優(yōu)勢推行單邊主導(dǎo)型治理,嘗試構(gòu)建以美國為中心的非對稱單向度的數(shù)據(jù)流動秩序[184]。此外,美國政府重視AI基礎(chǔ)設(shè)施長期投資和人工智能研究,以增強美國在制造領(lǐng)域的競爭力[185]。美國白宮發(fā)布的報告認(rèn)為,AI有潛力徹底改變科學(xué)研究的方式,通過快速運行數(shù)百萬次基于計算機的模擬實驗,為現(xiàn)實世界中重要的科學(xué)實驗提供指導(dǎo);同時AI的發(fā)展需要解決數(shù)據(jù)偏見、計算能源、錯誤生成以及濫用等問題,建議采用負(fù)責(zé)任和可信賴的AI使用原則以及鼓勵創(chuàng)新的AI集成方法[186]。
中國的生成式人工智能政策體現(xiàn)出強烈的國家主導(dǎo)特征,重點在于通過政府規(guī)劃和投資推動技術(shù)在國家安全和經(jīng)濟競爭力方面的應(yīng)用[187]。在技術(shù)和應(yīng)用監(jiān)管方面,具有風(fēng)險分析中性、深入技術(shù)管理、技術(shù)應(yīng)用范圍廣、新興市場應(yīng)用潛力強等特點[188]。在借鑒其他國家的生成式人工智能監(jiān)管經(jīng)驗的基礎(chǔ)上,我國生成式人工智能管理制度的設(shè)計應(yīng)該堅持發(fā)展與安全并重[189]、促進創(chuàng)新與依法治理相結(jié)合的監(jiān)管原則[190]。為了進一步促進生成式AI的健康發(fā)展,需要堅持發(fā)展創(chuàng)新與風(fēng)險治理并重的原則,確保技術(shù)進步與安全、合規(guī)和倫理責(zé)任相協(xié)調(diào),使生成式AI在促進經(jīng)濟社會進步的同時,符合公共利益和人權(quán)保障的要求[191]。
(2)加速AI產(chǎn)業(yè)布局,充分激發(fā)企業(yè)活力
AI產(chǎn)業(yè)規(guī)模發(fā)展迅猛,成為世界各國關(guān)注的焦點。2023年,全球AI市場價值超過1300億歐元,預(yù)計到2030年將增長至近1.9萬億歐元。美國在AI私人投資方面以625億歐元領(lǐng)先,中國以73億歐元位居次席,而歐盟和英國合計吸引了90億歐元的私人投資[192]。2024年我國政府工作報告提出深化人工智能研發(fā)應(yīng)用,打造具有國際競爭力的數(shù)字產(chǎn)業(yè)集群[193]。美韓等國也在加速AI制造產(chǎn)業(yè)布局,以激發(fā)AI在促進生產(chǎn)力提升和產(chǎn)業(yè)升級方面的巨大潛能[194]。
企業(yè)是技術(shù)創(chuàng)新的主體,生成式人工智能發(fā)展離不開企業(yè)創(chuàng)新賦能。得益于麥肯錫、埃森哲和AIport等機構(gòu)報告,企業(yè)高管已經(jīng)認(rèn)識到生成式AI的變革潛力,并計劃加大對人工智能領(lǐng)域的投資力度[195-196]。歐盟報告指出,在全球AI競爭中,中美處于領(lǐng)先地位,歐盟相對落后,建議通過Horizon Europe、Digital Europe、EIC Accelerator和InvestEU計劃為歐洲的初創(chuàng)企業(yè)和中小企業(yè)提供資金,幫助企業(yè)開發(fā)可信賴的AI技術(shù),并修改歐洲高性能計算聯(lián)合企業(yè)(EuroHPC Regulation)的相關(guān)限制,以便歐盟公司可以使用AI超級計算機來訓(xùn)練大型語言模型[192]。歐盟審計部門則發(fā)現(xiàn)由于缺乏協(xié)調(diào)和明確的投資目標(biāo),歐盟在AI投資方面沒有跟上全球領(lǐng)導(dǎo)者的步伐;中小企業(yè)采用AI技術(shù)的基礎(chǔ)設(shè)施和資本支持的實施進展緩慢,到審計時尚未產(chǎn)生顯著結(jié)果;盡管委員會設(shè)法從歐盟預(yù)算中增加了對AI研究項目的資金投入,但并未監(jiān)控這些投資對發(fā)展歐盟AI生態(tài)系統(tǒng)的貢獻[197]。
研究表明,中國企業(yè)領(lǐng)導(dǎo)層對生成式 AI 的認(rèn)知度正在提升,試點和推廣活動增多,企業(yè)內(nèi)部的知識管理和答疑成為 AI 應(yīng)用的關(guān)鍵場景,但預(yù)算投入有限,轉(zhuǎn)化率有待提高[198-199]。美國則更多地依賴市場驅(qū)動的創(chuàng)新模式,注重通過法規(guī)和市場力量推動AI技術(shù)的發(fā)展,同時重視保護個人隱私和數(shù)據(jù)安全[200]。美國智庫ITIF的報告《中國在人工智能領(lǐng)域的創(chuàng)新能力如何?》指出,中國在AI研究和應(yīng)用方面取得顯著進展,同時私人部門參與不足抑制了技術(shù)商業(yè)化轉(zhuǎn)化率[177]。為了進一步促進我國生成式人工智能的發(fā)展和應(yīng)用,政府應(yīng)加速AI產(chǎn)業(yè)布局,充分激發(fā)企業(yè)活力,將企業(yè)的變革計劃轉(zhuǎn)化為創(chuàng)新實踐,使其成為生成式人工智能創(chuàng)新發(fā)展的主體。
(3)構(gòu)建多領(lǐng)域、分層次法律架構(gòu),在合規(guī)的基礎(chǔ)上兼顧敏捷治理
生成式人工智能廣泛應(yīng)用于許多行業(yè),但是各行業(yè)相關(guān)法律詞義模糊,制度供給體系雜亂[201],目前實踐只能參照通用性法律法規(guī)而少有專門規(guī)定可循。立法供給不足和司法裁判機制的缺失[202],監(jiān)管工具不完善[203],導(dǎo)致司法機關(guān)在處理生成式人工智能相關(guān)案件時面臨困難。為了應(yīng)對生成式人工智能帶來的復(fù)雜政策和法律挑戰(zhàn),需要進一步建立和完善法律框架體系[204],針對生成式人工智能的不同應(yīng)用領(lǐng)域構(gòu)建多領(lǐng)域、分層次的法律架構(gòu),以實現(xiàn)生成式人工智能的分層精準(zhǔn)治理。
歐洲在生成式人工智能政策制定方面展現(xiàn)出引領(lǐng)者的姿態(tài),制定了嚴(yán)格的合規(guī)框架并推動跨大西洋合作,以確保AI技術(shù)的發(fā)展既符合社會公共利益,又能夠保障基本人權(quán)[205]。歐盟在2020年發(fā)布的《人工智能白皮書》中提出構(gòu)建可信賴人工智能生態(tài)系統(tǒng),并確定了七項關(guān)鍵要求:人事代理機構(gòu)和監(jiān)管,技術(shù)魯棒性和安全性,隱私和數(shù)據(jù)治理,透明性,多樣性、非歧視性公平,社會和環(huán)境福祉,問責(zé)制[148]。歐盟的政策優(yōu)先級在于建立信任與維護社會公正[206],其監(jiān)管模式主要依托法律、法規(guī)和指令等實施全面的強監(jiān)管策略[207]。
為確保生成式人工智能技術(shù)在合規(guī)框架內(nèi)具備必要的創(chuàng)新發(fā)展靈活性與有效性,可以考慮在法律架構(gòu)的基礎(chǔ)上引入安全港機制,為技術(shù)開發(fā)者和企業(yè)提供法律保護,減少創(chuàng)新過程中的阻力,從而使人工智能在發(fā)展合規(guī)的基礎(chǔ)上保持足夠的彈性[208]。
(4)加強國際合作,建立多元包容的共治體系
人工智能的發(fā)展和應(yīng)用具有全球性質(zhì),需要各國政府和區(qū)域組織共同努力。通過國際合作和制度創(chuàng)新,構(gòu)建多元協(xié)同、包容、敏捷、高效的共治體系,促進生成式人工智能合規(guī)、安全的使用[60]。聯(lián)合國發(fā)布的《以人為本的人工智能治理》報告建議實施問責(zé)機制,加強國際合作,以應(yīng)對人工智能帶來的挑戰(zhàn)和機遇,具體包括建立國際人工智能科學(xué)小組、開展政策對話、促進可互操作的治理方法、利用《2030年可持續(xù)發(fā)展議程》指導(dǎo)人工智能的發(fā)展、建立能力發(fā)展網(wǎng)絡(luò)、創(chuàng)建全球人工智能基金、制定全球人工智能數(shù)據(jù)框架,并在聯(lián)合國秘書處內(nèi)設(shè)立人工智能辦公室等舉措[209]。美國國家科學(xué)技術(shù)委員會發(fā)布的《2020-2024年人工智能研發(fā)進展報告》則強調(diào)需要國際合作、公私部門合作等方式推動AI進步[186]。2024年,美國、歐盟、英國等10個國家和組織簽署了多邊條約《歐洲委員會人工智能與人權(quán)、民主和法治框架公約》,其中包含程序保障、公眾咨詢、數(shù)字素養(yǎng)努力和人權(quán)侵犯補救等相關(guān)規(guī)定,通過責(zé)任、非歧視、隱私和可靠性等原則確立國際法中關(guān)于尊重人權(quán)的AI活動的基線[210]。該公約要求簽署國對AI產(chǎn)生的危害和歧視性結(jié)果負(fù)責(zé),要求評估、管理、監(jiān)督AI系統(tǒng)全周期內(nèi)可能產(chǎn)生的影響,并確保透明度和公眾參與,同時AI侵權(quán)的受害者應(yīng)擁有法律追索權(quán)。關(guān)于AI的發(fā)展,中國堅持多邊主義,以總體國家安全觀為指引,朝著構(gòu)建網(wǎng)絡(luò)空間命運共同體的方向,推動人工智能的全球治理朝著普惠、包容、彈性、靈活的方向發(fā)展[182]。
(5)推進AI知識普及,提升AI素養(yǎng)和培育AI人才
生成式AI的創(chuàng)新發(fā)展不能僅依賴專家和技術(shù)開發(fā)者,公眾的參與和理解至關(guān)重要。政府可以制定政策,促進AI教育,提升公眾對AI技術(shù)的認(rèn)知與理解[44-46]。通過普及AI基礎(chǔ)知識、開展技能培訓(xùn)和加強信息公開,使更多人了解生成式AI的潛力與風(fēng)險[211]。同時,將AI理論和實踐納入中小學(xué)教育體系,從早期培養(yǎng)公眾的AI素養(yǎng),為未來的技術(shù)應(yīng)用和社會變革奠定基礎(chǔ)[45]。美國智庫ITIF建議,美國應(yīng)該加強研發(fā)投入和勞動力培訓(xùn)以保持全球領(lǐng)導(dǎo)地位[212]。ISACA指出,AI可能造成就業(yè)替代和技術(shù)濫用風(fēng)險,教育系統(tǒng)需要更新課程和教學(xué)方法,政策制定者需要關(guān)注弱勢就業(yè)群體利益,以確保社會的整體福祉[156]。北京大學(xué)提出了一套“通識、通智、通用”人工智能復(fù)合型頂尖人才培養(yǎng)框架,旨在為未來打造一支兼具人文素養(yǎng)和專業(yè)深度的科技王牌軍[213]。
4 結(jié)語
現(xiàn)有研究針對生成式人工智能的核心技術(shù)、行業(yè)應(yīng)用、存在風(fēng)險、政策法規(guī)、發(fā)展對策展開了大量有益的探索,提出了很多有價值的觀點與思路,但仍存在一些局限,如缺少關(guān)于技術(shù)的經(jīng)濟社會影響的定量研究;政策法規(guī)對于生成式人工智能技術(shù)的促進作用與制約機理研究不足;對AIGC風(fēng)險的識別與應(yīng)對研究仍需要深化。未來研究需要在深化技術(shù)原理與應(yīng)用研究的同時,系統(tǒng)評估生成式人工智能技術(shù)與經(jīng)濟社會的交織作用關(guān)系,發(fā)展適應(yīng)數(shù)據(jù)訓(xùn)練、算法構(gòu)造、內(nèi)容生成三階段的風(fēng)險動態(tài)識別與應(yīng)急管理策略,以促進生成式人工智能合規(guī)、負(fù)責(zé)任、可持續(xù)的發(fā)展和應(yīng)用。
參考文獻:
[1] Lv Z.Generative artificial intelligence in the metaverse era[J].Cognitive Robotics,2023,3(2):208-217.
[2] Feuerriegel S,Hartmann J,Janiesch C,et al.Generative ai[J].Business & Information Systems Engineering,2024,66(1):111-126.
[3] Cao Y,Li S,Liu Y,et al.A comprehensive survey of ai-generated content(aigc):A history of generative ai from gan to chatgpt[J].arXiv preprint arXiv:2303.04226,2023.
[4] Goodfellow I,Pouget-Abadie J,Mirza M,et al.Generative adversarial networks[J].Communications of the ACM,2020,63(11):139-144.
[5] Kingma D P.Auto-encoding variational bayes[J].arXiv preprint arXiv:1312.6114,2013.
[6] Ho J,Jain A,Abbeel P.Denoising diffusion probabilistic models[J].Advances in neural information processing systems,2020,33(1):6840-6851.
[7] Mnih V.Playing atari with deep reinforcement learning[J].arXiv preprint arXiv:1312.5602,2013.
[8] Vaswani A,Shazeer N,Parmar N,et al.Attention is all you need.Advances in neural information processing systems[J].Advances in neural information processing systems,2017.
[9] Devlin J.Bert:Pre-training of deep bidirectional transformers for language understanding[J].arXiv preprint arXiv:1810.04805,
2018.
[10] Radford A.Improving language understanding by generative pre-training[J].2018,1(5):1-10.
[11] Radford A,Wu J,Child R,et al.Language models are unsupervised multitask learners[J].OpenAI blog,2019,1(8):9-10.
[12] Brown T B.Language models are few-shot learners[J].arXiv preprint arXiv:2005.14165,2020.
[13] Ouyang L,Wu J,Jiang X,et al.Training language models to follow instructions with human feedback[J].Advances in neural information processing systems,2022,35(1):27730-27744.
[14] OpenAI.Video generation models as world simulators[EB/OL].[2024-08-01].https://openai.com/index/video-generation-models-as-world-simulators/.
[15] Bobrow D.Natural language input for a computer problem solving system[J].1964,1(1):1-5.
[16] Brown P F,Cocke J,Della Pietra S A,et al.A statistical approach to machine translation[J].Computational linguistics,1990,16(2):79-85.
[17] Rabiner L R.A tutorial on hidden Markov models and selected applications in speech recognition[J].Proceedings of the IEEE,1989,77(2):257-286.
[18] Liu Y,Zhang K,Li Y,et al.Sora:A review on background,technology,limitations,and opportunities of large vision models[J].arXiv preprint arXiv:2402.17177,2024.
[19] 清華大學(xué)人工智能國際治理研究院.張亞勤:人工智能發(fā)展的一些觀點[EB/OL].[2024-07-22].https://mp.weixin.qq.com/s/-EFYd98t6TU7j_uRTJJgVQ.
[20] 李彥宏.李彥宏WAIC圓桌訪談:開源模型是智商稅,智能體正在爆發(fā)[EB/OL].[2024-07-22].https://mp.weixin.qq.com/s/CUoM87LRvlw53M_NxOaiDA.
[21] 梁正.新興技術(shù)視域下的人工智能善治——發(fā)展現(xiàn)狀、風(fēng)險挑戰(zhàn)與治理思路[J].人民論壇·學(xué)術(shù)前沿,2024(14):12-22.
[22] Chen C,Wu Z,Lai Y,et al.Challenges and remedies to privacy and security in aigc:Exploring the potential of privacy computing,blockchain,and beyond[J].ArXiv preprint arXiv:2306.00419,2023.
[23] 陳永偉.超越ChatGPT:生成式AI的機遇、風(fēng)險與挑戰(zhàn)[J].山東大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023(3):127-143.
[24] Karras T,Laine S,Aila T.A style-based generator architecture for generative adversarial networks[A].Proceedings of the IEEE/CVF conference on computer vision and pattern recognition[C].Long Beach,CA,USA,2019,4401-4410.
[25] Castrejon L,Ballas N,Courville A.Hierarchical video generation for complex data[J].ArXiv preprint arXiv:2106.02719,2021.
[26] Oord A,Dieleman S,Zen H,et al.Wavenet:A generative model for raw audio[J].ArXiv preprint arXiv:1609.03499,2016.
[27] Wu J,Gan W,Chen Z,et al.Ai-generated content (Aigc):A survey[J].arXiv preprint arXiv:2304.06632,2023.
[28] Mildenhall B,Srinivasan P P,Tancik M,et al.Nerf:Representing scenes as neural radiance fields for view synthesis[J].Communications of the ACM,2021,65(1):99-106.
[29] 匡文波,姜澤瑋.智能媒體新質(zhì)生產(chǎn)力:理論內(nèi)涵、運作邏輯與實現(xiàn)路徑[J].中國編輯,2024,2(7):29-35.
[30] 漆亞林.新質(zhì)生產(chǎn)力全域賦能:智能媒體高質(zhì)量發(fā)展新路向[J].編輯之友,2024,4(6):74-83.
[31] 胡翼青,黃悠然.生成式人工智能背景下的媒體融合——基于產(chǎn)能的視角[J].中國編輯,2024,1(5):28-34.
[32] Theodore M.NVIDIA unveils PYoCo,a new text-to-video diffusion model[EB/OL].[2024-08-12].https://80.lv/articles/nvidia-unveils-pyoco-a-new-text-to-video-diffusion-model/.
[33] 火山引擎,RollingAI,InfoQ研究中心.生成式AI商業(yè)落地白皮書——給CXO的AI轉(zhuǎn)型戰(zhàn)術(shù)指南[EB/OL].[2024-08-12].https://www.infoq.cn/minibook/E2hbDbQTdoffVOGc9PSN.
[34] Adobe.引領(lǐng)變革,Adobe發(fā)布全新生成式人工智能Sensei GenAI服務(wù)[EB/OL].[2024-07-26].https://www.adobeacp.com/content/news?id=1680873211777063.
[35] 王春英,姚亞,滕白瑩.生成式人工智能嵌入敏捷政府建設(shè):影響、風(fēng)險與應(yīng)對[J].北京行政學(xué)院學(xué)報,2024,11(3):73-83.
[36] Straub V J,Morgan D,Bright J,et al.Artificial intelligence in government:Concepts,standards,and a unified framework[J].Government Information Quarterly,2023,40(4):101881.
[37] 汪波,牛朝文.從ChatGPT到GovGPT:生成式人工智能驅(qū)動的政務(wù)服務(wù)生態(tài)系統(tǒng)構(gòu)建[J].電子政務(wù),2023,1(9):25-38.
[38] 張洪雷.生成式人工智能參與數(shù)字政府建設(shè)的技術(shù)躍遷、目標(biāo)導(dǎo)向與可行路徑[J].南昌大學(xué)學(xué)報(人文社會科學(xué)版),2023,54(4):100-109.
[39] 北京日報網(wǎng).昌平政務(wù)服務(wù)機器人入選“互聯(lián)網(wǎng)助力經(jīng)濟社會數(shù)字化轉(zhuǎn)型”特色案例[EB/OL].[2024-08-01].https://news.bjd.com.cn/2022/12/09/10258790.shtml.
[40] 清華大學(xué)圖書館AI服務(wù)新體驗[EB/OL].[2024-08-01].https://lib.tsinghua.edu.cn/info/1073/6869.htm.
[41] 深圳市人民政府門戶網(wǎng)站.深圳法院人工智能輔助審判系統(tǒng)打造司法智能化轉(zhuǎn)型的“深圳樣本”[EB/OL].[2024-08-01].https://www.sz.gov.cn/cn/xxgk/zfxxgj/zwdt/content/post_11399256.html.
[42] 陳雋柏,吳國平,張童,等.語言學(xué)視角下人工智能生成內(nèi)容與用戶生成內(nèi)容的對比研究——以在線醫(yī)療服務(wù)場景為例[J/OL].情報理論與實踐,1-13[2024-08-01].http://kns.cnki.net/kcms/detail/11.1762.G3.20240325.1844.004.html.
[43] 北京天壇醫(yī)院.北京天壇醫(yī)院和北京理工大學(xué)團隊合作創(chuàng)建醫(yī)學(xué)影像大模型首位中文數(shù)字放射科醫(yī)生誕生[EB/OL].[2024-08-01].https://bifns.bjtth.org/Html/News/Articles/211808.html.
[44] 王帥杰,湯倩雯,楊啟光.生成式人工智能在教育應(yīng)用中的國際觀察:挑戰(zhàn)、應(yīng)對與鏡鑒[J].電化教育研究,2024,45(5):106-112.
[45] 齊彥磊,周洪宇.技術(shù)、制度與思想:生成式人工智能在教育領(lǐng)域中應(yīng)用的演進邏輯[J].電化教育研究,2024,45(8):28-34.
[46] 黃榮懷.人工智能大模型融入教育:觀念轉(zhuǎn)變、形態(tài)重塑與關(guān)鍵舉措[J].人民論壇·學(xué)術(shù)前沿,2024(14):23-30.
[47] 清華大學(xué).從“工具”到“伙伴”,當(dāng)大學(xué)課堂多了AI助教[EB/OL].[2024-08-01].https://www.tsinghua.edu.cn/info/1182/110370.htm.
[48] 趙麗,劉寅生.教育對話的技術(shù)轉(zhuǎn)向:嬗遞路徑、應(yīng)用困頓與范式重構(gòu)——兼論對ChatGPT的邏輯審視及展望[J].華東師范大學(xué)學(xué)報(教育科學(xué)版),2024,42(8):76-84.
[49] WIRED Middle East.The world’s first fully AI-generated drug aims to treat a deadly lung disease[EB/OL].[2024-07-26].https://wired.me/science/insilico-ai-drug/.
[50] 劉志雄.生成式人工智能賦能普惠金融:現(xiàn)實基礎(chǔ)、關(guān)鍵風(fēng)險挑戰(zhàn)與應(yīng)對策略[J].人民論壇·學(xué)術(shù)前沿,2024,5(6):86-93.
[51] 申么,申明浩,丁子家,等.生成式人工智能與銀行業(yè)變革:典型事實、實踐問題與破局之策——以ChatGPT為例[J].南方金融,2023,5(11):64-76.
[52] 金評媒.“逼死”交易員:摩根大通的AI機器人都可以執(zhí)行高頻交易[EB/OL].[2024-08-01].http://www.jpm.cn/article-37348-1.html.
[53] 鄭世林,陶然,楊文博.ChatGPT等生成式人工智能技術(shù)對產(chǎn)業(yè)轉(zhuǎn)型升級的影響[J].產(chǎn)業(yè)經(jīng)濟評論,2024,2(1):5-20.
[54] Digital Defynd.20 Generative AI case studies[EB/OL].[2024-07-27].https://www.digitaldefynd.com/generative-ai-case-studies.
[55] 譚曉生.AI如何重塑網(wǎng)絡(luò)安全的未來?[EB/OL].[2024-07-22].https://mp.weixin.qq.com/s/M99SYg2jGSOv-BiLr9i9Mw.
[56] 劉艷紅.生成式人工智能的三大安全風(fēng)險及法律規(guī)制——以ChatGPT為例[J].東方法學(xué),2023,11(4):29-43.
[57] 支振鋒,劉佳琨.倫理先行:生成式人工智能的治理策略[J].云南社會科學(xué),2024,1(4):60-71.
[58] 丁道勤.生成式人工智能訓(xùn)練階段的數(shù)據(jù)法律問題及其立法建議[J].行政法學(xué)研究,2024(6):16-28.
[59] 康驍.行政法如何應(yīng)對生成式人工智能——基于算法、訓(xùn)練數(shù)據(jù)和內(nèi)容的考察[J].云南社會科學(xué),2024,6(4):80-88.
[60] 徐偉,何野.生成式人工智能數(shù)據(jù)安全風(fēng)險的治理體系及優(yōu)化路徑——基于38份政策文本的扎根分析[J/OL].電子政務(wù),1-17[2024-07-29].http://kns.cnki.net/kcms/detail/11.5181.TP.20240516.1831.010.html.
[61] 吳靜.生成式人工智能的數(shù)據(jù)風(fēng)險及其法律規(guī)制——以ChatGPT為例[J].科技管理研究,2024,44(5):192-198.
[62] Fountain J E.The moon,the ghetto and artificial intelligence:Reducing systemic racism in computational algorithms[J].Government Information Quarterly,2022,39(2):1-17.
[63] Bruno A,Mazzeo P L,Chetouani A,et al.Insights into classifying and mitigating LLMs' hallucinations[J].ArXiv preprint arXiv:2311.08117,2023.
[64] Nangia N,Vania C,Bhalerao R,et al.CrowS-pairs:A challenge dataset for measuring social biases in masked language models[J].ArXiv preprint arXiv:2010.00133,2020.
[65] Hofmann V,Kalluri P R,Jurafsky D,et al.AI generates covertly racist decisions about people based on their dialect[J].Nature,2024,633(8028):147-154.
[66] Shumailov I,Shumaylov Z,Zhao Y,et al.AI models collapse when trained on recursively generated data[J].Nature,2024,631(8022):755-759.
[67] 王良順,李想.生成式人工智能服務(wù)提供者的數(shù)據(jù)安全保護義務(wù)研究[J].南昌大學(xué)學(xué)報(人文社會科學(xué)版),2023,54(6):72-83.
[68] 姚璐,武政堯.挑戰(zhàn)與應(yīng)對:人工智能與國家政治安全[J].中國信息安全,2023,2(7):79-82.
[69] 江輝.論生成式人工智能應(yīng)用的國家安全審查[J].云南社會科學(xué),2024(4):72-79.
[70] Wang M,Deng W,Hu J,et al.Racial faces in the wild:Reducing racial bias by information maximization adaptation network[A].Proceedings of the ieee/cvf international conference on computer vision[C].2019:692-702.
[71] Hunkenschroer A L,Luetge C.Ethics of AI-enabled recruiting and selection:A review and research agenda[J].Journal of Business Ethics,2022,178(4):977-1007.
[72] Mohammad Amini M,Jesus M,F(xiàn)anaei Sheikholeslami D,et al.Artificial intelligence ethics and challenges in healthcare applications:a comprehensive review in the context of the European GDPR mandate[J].Machine Learning and Knowledge Extraction,2023,5(3):1023-1035.
[73] 劉友華.算法偏見及其規(guī)制路徑研究[J].法學(xué)雜志,2019,40(6):55-66.
[74] 楊成越,羅先覺.算法歧視的綜合治理初探[J].科學(xué)與社會,2018,8(4):1-12.
[75] 馬海群,張濤.國內(nèi)外算法風(fēng)險研究:框架、特征及展望[J/OL].情報理論與實踐,1-11[2024-08-02].http://kns.cnki.net/kcms/detail/11.1762.G3.20240807.1551.004.html.
[76] 曾雄,梁正,張輝.人工智能軟法治理的優(yōu)化進路:由軟法先行到軟法與硬法協(xié)同[J].電子政務(wù),2024,43(6):96-107.
[77] 孫那,鮑一鳴.生成式人工智能的科技安全風(fēng)險與防范[J].陜西師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2024,53(1):108-121.
[78] Chowdhery A,Narang S,Devlin J,et al.Palm:Scaling language modeling with pathways[J].Journal of Machine Learning Research,2023,24(240):1-113.
[79] Perez E,Ringer S,Luko?觢iūtK,et al.Discovering language model behaviors with model-written evaluations[J].ArXiv preprint arXiv:2212.09251,2022.
[80] Chern I,Chern S,Chen S,et al.FacTool:Factuality detection in generative AI--A tool augmented framework for multi-task and multi-domain scenarios[J].ArXiv preprint arXiv:2307.13528,2023.
[81] Schiff D,Borenstein J,Biddle J,et al.AI ethics in the public,private,and NGO sectors:A review of a global document collection[J].IEEE Transactions on Technology and Society,2021,2(1):31-42.
[82] Wach K,Duong C D,Ejdys J,et al.The dark side of generative artificial intelligence:A critical analysis of controversies and risks of ChatGPT[J].Entrepreneurial Business and Economics Review,2023,11(2):7-30.
[83] Guleria A,Krishan K,Sharma V,et al.ChatGPT:ethical concerns and challenges in academics and research[J].The Journal of Infection in Developing Countries,2023,17(9):1292-1299.
[84] 韓婧,石磊.AIGC背景下的知識產(chǎn)權(quán)保護與制度創(chuàng)新[J].科技與出版,2024,23(7):5-6.
[85] 陳曉峰,沈錫賓.生成式人工智能重塑科技期刊產(chǎn)業(yè)的影響、挑戰(zhàn)及應(yīng)對策略研究[J].中國科技期刊研究,2024,35(7):890-898.
[86] Elkins K,Chun J.Can GPT-3 pass a writer’s Turing test?[J].Journal of Cultural Analytics,2020,5(2):1-10.
[87] Walters W H,Wilder E I.Fabrication and errors in the bibliographic citations generated by ChatGPT[J].Scientific Reports,2023,13(1):14045.
[88] Dehouche N.Plagiarism in the age of massive Generative Pre-trained Transformers(GPT-3)[J].Ethics in Science and Environmental Politics,2021,21(1):17-23.
[89] Khalifa M,Albadawy M.Using artificial intelligence in academic writing and research:An essential productivity tool[J].Computer Methods and Programs in Biomedicine Update,2024,21(12):1-18.
[90] 楊彥軍,張佳慧,童慧.數(shù)字媒介技術(shù)依賴的多學(xué)科析因及整合性闡釋[J].電化教育研究,2020,41(8):26-32.
[91] 童慧,楊彥軍.基于“技術(shù)道德化”理論的生成式人工智能教育應(yīng)用潛能與風(fēng)險研究[J].電化教育研究,2024,45(7):12-18.
[92] Bai L,Liu X,Su J.ChatGPT:The cognitive effects on learning and memory[J].Brain-X,2023,1(3):30-39.
[93] [美]雪莉.特克爾.群體性孤獨:為什么我們對科技期待更多,對彼此卻不能更親密?[M].周逵,劉菁荊,譯.杭州:浙江人民出版社,2014.
[94] 馮子軒.生成式人工智能應(yīng)用的倫理立場與治理之道:以ChatGPT為例[J].華東政法大學(xué)學(xué)報,2024,27(1):61-71.
[95] Ca?觡as J J.AI and ethics when human beings collaborate with AI agents[J].Frontiers in psychology,2022,13(1):1-13.
[96] 李韜,周瑞春.生成式人工智能的社會倫理風(fēng)險及其治理——基于行動者網(wǎng)絡(luò)理論的探討[J].中國特色社會主義研究,2023,5(6):58-66.
[97] 何煒.生成式人工智能技術(shù)的倫理風(fēng)險及負(fù)責(zé)任創(chuàng)新治理研究[J].世界科技研究與發(fā)展,2024,46 (4):548-559.
[98] 盧家銀.美德與規(guī)范的內(nèi)在主義協(xié)同:生成式人工智能的傳播倫理進路[J].新聞界,2024(8):15-23.
[99] 汝緒華,汪懷君.數(shù)字資本主義的話語邏輯、意識形態(tài)及反思糾偏[J].深圳大學(xué)學(xué)報(人文社會科學(xué)版),2021,38(2):149-160.
[100] Weidinger L,Uesato J,Rauh M,et al.Taxonomy of risks posed by language models[A].Proceedings of the 2022 ACM Conference on Fairness,Accountability,and Transparency[C].2022:214-229.
[101] 李偉,林彥虎.協(xié)助自殺人工智能潛在倫理問題及其有效防治[J].科學(xué)技術(shù)哲學(xué)研究,2023,40(3):122-128.
[102] 封錫盛.機器人不是人,是機器,但須當(dāng)人看[J].科學(xué)與社會,2015,5(2):1-9.
[103] 張玉潔.論人工智能時代的機器人權(quán)利及其風(fēng)險規(guī)制[J].東方法學(xué),2017,23(6):56-66.
[104] Putman H,Putnam H.Robots:Machines or artificially created life?[J].The Journal of Philosophy,1964,61(21):668-691.
[105] Hauer T.Machine ethics,allostery and philosophical anti-dualism:will ai ever make ethically autonomous decisions?[J].Society,2020,57(4):425-433.
[106] 張詩濠,李赟,李韜.ChatGPT類生成式人工智能的風(fēng)險及其治理[J].貴州社會科學(xué),2023,12(11):138-143.
[107] 刁佳星.生成式人工智能服務(wù)提供者版權(quán)侵權(quán)注意義務(wù)研究[J].中國出版,2024,8(1):25-30.
[108] 張平.人工智能生成內(nèi)容著作權(quán)合法性的制度難題及其解決路徑[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2024,42(3):18-31.
[109] Gregor S.Responsible artificial intelligence and journal publishing[J].Journal of the Association for Information Systems,2024,25(1):48-60.
[110] 劉倩,王京山,詹洪春.關(guān)于生成式人工智能的應(yīng)用規(guī)范研究與啟示——基于國際學(xué)術(shù)出版界的相關(guān)規(guī)范政策視角[J].科技與出版,2024(8):27-33.
[111] 澎湃新聞.首例AI生成圖片侵權(quán)案始末:原告勝訴放棄賠償,有律師質(zhì)疑判決[EB/OL].[2024-08-02].https://www.thepaper.cn/newsDetail_forward_25963744.
[112] 張濤.生成式人工智能訓(xùn)練數(shù)據(jù)集的法律風(fēng)險與包容審慎規(guī)制[J].比較法研究,2024,16(4):86-103.
[113] 清華大學(xué)智能法治研究院.AI訓(xùn)練數(shù)據(jù)的合法性邊界:Westlaw訴Ross Intelligence案解讀[EB/OL].[2024-08-02].https://www.secrss.com/articles/65016?app=1.
[114] 新浪財經(jīng).韓國出現(xiàn)“深度偽造”技術(shù)下的新“N號房”案件,受害者多為未成年人[EB/OL].[2024-08-01].https://finance.sina.com.cn/jjxw/2024-08-29/doc-incmihkh2825937.shtml.
[115] 張濤.生成式人工智能中個人信息保護風(fēng)險的類型化與合作規(guī)制[J].行政法學(xué)研究,2024(6):47-59.
[116] 朱榮榮.類ChatGPT生成式人工智能對個人信息保護的挑戰(zhàn)及應(yīng)對[J/OL].重慶大學(xué)學(xué)報(社會科學(xué)版),1-14[2024-08-01].http://kns.cnki.net/kcms/detail/50.1023.C.20230921.1151.002.html.
[117] 劉霜,祁敏.生成式人工智能的刑事法律風(fēng)險及其合規(guī)治理[J].河南社會科學(xué),2024,32(8):47-58.
[118] 新京報.韓國女性陷入深度偽造AI換臉,人工智能技術(shù)生成逼真虛假內(nèi)容[EB/OL].[2024-08-02].http://epaper.bjnews.com.cn/html/2024-09/02/content_847965.htm.
[119] McAfee.Beware the Artificial Impostor Report[R/OL].[2024-07-27].https://www.mcafee.com/content/dam/consumer/en-us/resources/cybersecurity/artificial-intelligence/rp-beware-the-artificial-impostor-report.pdf.
[120] 機器之心.李飛飛親自撰文,數(shù)十名科學(xué)家簽署聯(lián)名信,反對加州AI限制法案[EB/OL].[2024-08-12].https://mp.weixin.qq.com/s/EkxZ-r4-Swaj5l8ioJyQ7Q.
[121] Bontridder N,Poullet Y.The role of artificial intelligence in disinformation[J].Data & Policy,2021,32(3):1-14.
[122] Benzie A,Montasari R.Artificial intelligence and the spread of mis-and disinformation[M].Artificial intelligence and national security.Cham:Springer International Publishing,2022:1-18.
[123] 向征.“黑鏡”中的對壘:生成式人工智能背景下網(wǎng)絡(luò)意識形態(tài)風(fēng)險與防范[J].社會科學(xué)戰(zhàn)線,2024,23(4):18-24.
[124] 張愛軍,王芳.人工智能視域下的深度偽造與政治輿論變異[J].河海大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2021,23(4):29-36,106.
[125] Trandab?D,Gifu D.Discriminating AI-generated fake news[J].Procedia Computer Science,2023,225(1):3822-3831.
[126] 魏俊斌.網(wǎng)絡(luò)輿情智能生成風(fēng)險防控的PDRR體系構(gòu)建[J].南京社會科學(xué),2024(6):76-87.
[127] 黃日涵,姚浩龍.“再塑造”與“高風(fēng)險”:生成式人工智能對輿論安全的影響[J].情報雜志,2024,43(4):121-127.
[128] 孫成昊,譚燕楠.生成式人工智能對美國選舉宣傳的介入:路徑、場景與風(fēng)險[J].世界經(jīng)濟與政治論壇,2024,12(4):1-22.
[129] 周文培.論人工智能大模型在國際傳播中的實踐與應(yīng)用[J].傳播與版權(quán),2023,7(24):52-55.
[130] 何茂昌.ChatGPT的意識形態(tài)風(fēng)險:樣態(tài)、肇因及防范[J].西南民族大學(xué)學(xué)報(人文社會科學(xué)版),2023,44(12):188-197.
[131] 張楚凡,張佳琳.數(shù)字政府建設(shè)與ChatGPT模型的互動研究——基于問題、法治與規(guī)制視角分析[J/OL].重慶大學(xué)學(xué)報(社會科學(xué)版),1-17[2024-08-02].http://kns.cnki.net/kcms/detail/50.1023.C.20240118.1741.004.html.
[132] 鄭世林,姚守宇,王春峰.ChatGPT新一代人工智能技術(shù)發(fā)展的經(jīng)濟和社會影響[J].產(chǎn)業(yè)經(jīng)濟評論,2023,6(3):5-21.
[133] 孫偉平,劉航宇.生成式人工智能與知識生產(chǎn)方式的革命——從Sora的沖擊波談起[J].思想理論教育,2024,21(5):12-18.
[134] 徐國慶,蔡金芳,姜蓓佳,等.ChatGPT/生成式人工智能與未來職業(yè)教育[J].華東師范大學(xué)學(xué)報(教育科學(xué)版),2023,41(7):64-77.
[135] 吳冰藍(lán),周麗萍,岳昌君.ChatGPT/生成式人工智能與就業(yè)替代:基于高校大學(xué)生能力供求的視角[J].教育發(fā)展研究,2023,43(19):40-48.
[136] 丁國峰,壽曉明.生成式人工智能算法的法律風(fēng)險及其規(guī)范化防控[J].云南大學(xué)學(xué)報(社會科學(xué)版),2024,23(3):107-119.
[137] 楊亞紅,孫巖,余黨會.學(xué)術(shù)出版行業(yè)生成式人工智能作品相關(guān)責(zé)任與風(fēng)險分析研究綜述[J].中國科技期刊研究,2023,34(12):1601-1607.
[138] 孫榕,李白楊.生成式人工智能(GAI)背景下的新型數(shù)字鴻溝識別框架研究[J/OL].圖書情報知識,1-12[2024-08-02].http://kns.cnki.net/kcms/detail/42.1085.G2.20240321.1548.002.html.
[139] 崔中良.生成式人工智能作為敘事主體的社會風(fēng)險及治理[J].云南社會科學(xué),2024,12(2):47-58.
[140] 李希梁,張欽昱.生成式人工智能的反壟斷規(guī)制[J].電子政務(wù),2024,2(5):53-63.
[141] H?觟ppner T,Streatfeild L.ChatGPT,Bard & Co.:An introduction to AI for competition and regulatory lawyers[EB/OL].[2024-07-12].https://ssrn.com/abstract=4371681.
[142] 新華網(wǎng).美歐英關(guān)于生成性人工智能基礎(chǔ)模型和人工智能產(chǎn)品競爭的聯(lián)合聲明[EB/OL].[2024-08-12].http://www.news.cn/world/20240724/d1124218f501455d8dd63140db54f31c/c.html.
[143] NIST.AI 100-1:Artificial Intelligence Risk Management Framework(AI RMF 1.0)[EB/OL].[2024-08-12].https://doi.org/10.6028/NIST.AI.100-1.
[144] 張旭芳.生成式人工智能的算法安全風(fēng)險及治理路徑[J].江西社會科學(xué),2024(8):90-100.
[145] 王芳.論政府主導(dǎo)下的網(wǎng)絡(luò)社會治理[J].人民論壇.學(xué)術(shù)前沿,2017(7):42-53,95.
[146] 何宇華,李霞.生成式人工智能虛假信息治理的新挑戰(zhàn)及應(yīng)對策略——基于敏捷治理的視角[J].治理研究,2024,40 (4):142-156.
[147] 商湯人工智能倫理與治理委員會.“平衡發(fā)展”的人工智能治理白皮書——商湯人工智能倫理治理年度報告(2022年)[R/OL].[2024-08-02].https://www.sohu.com/a/791841367_121823480.
[148] European Commission.White Paper:On Artificial Intelligence-A European approach to excellence and trust(2020)[EB/OL].[2024-08-12].https://commission.europa.eu/document/download/d2ec4039-c5be-423a-81ef-b9e44e79825b_en?filename=commission-white-paper-artificial-intelligence-feb2020_en.pdf.
[149] 阿里巴巴人工智能治理與可持續(xù)發(fā)展研究中心.生成式人工智能治理與實踐白皮書[R/OL].[2024-07-23].https://hub.baai.ac.cn/view/33508.
[150] European Commission.High-level summary of the AI Act(2024)[EB/OL].[2024-08-12].https://artificialintelligenceact.eu/high-level-summary/.
[151] 中國信息通信研究院政策與經(jīng)濟研究所.大模型治理藍(lán)皮報告——從規(guī)則走向?qū)嵺`[R/OL].[2024-08-02].http://www.caict.ac.cn/kxyj/qwfb/ztbg/202311/P020231124526622371194.pdf.
[152] 張欣.生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管[J].現(xiàn)代法學(xué),2023,45 (3):108-123.
[153] 劉鑫,畢超.人工智能大模型的數(shù)據(jù)治理[J].信息安全與通信保密,2024,3(6):45-55.
[154] 陳銳,江奕輝.生成式AI的治理研究:以ChatGPT為例[J].科學(xué)學(xué)研究,2024,42 (1):21-30.
[155] 經(jīng)濟合作與發(fā)展組織.OECD 人工智能原則概覽[EB/OL].[2024-08-02].https://oecd.ai/en/ai-principles.
[156] ISACA.The promise and peril of the AI revolution:managing risk[R/OL].[2024-08-02].https://www.isaca.org/resources/white-papers/2023/the-promise-and-peril-of-the-ai-revolution.
[157] 上海人工智能實驗室.周伯文:探索人工智能45°平衡律[EB/OL].[2024-07-22].https://mp.weixin.qq.com/s/US5vXn1FJ
Tu-9iMO_bJ48w.
[158] 高志宏.回應(yīng)與超越:生成式人工智能法律規(guī)制——以《生成式人工智能服務(wù)管理暫行辦法》為視角[J].社會科學(xué)輯刊,2024,3(5):121-130.
[159] Albert J.Not a solution:Meta’s new AI system to contain discriminatory ads[EB/OL].[2024-07-23].https://algorithmwatch.org/en/meta-discriminatory-ads/.
[160] 葉蓁蓁.開創(chuàng)研發(fā)應(yīng)用新范式探索“用AI治理AI”——探討智能互聯(lián)網(wǎng)時代AI應(yīng)用和治理之道[J].傳媒,2023(11):12-13.
[161] Huang L,Yu W,Ma W,et al.A survey on hallucination in large language models:Principles,taxonomy,challenges,and open questions[J].ArXiv preprint arxiv:2311.05232,2023.
[162] Zhang X,Peng B,Tian Y,et al.Self-alignment for factuality:Mitigating hallucinations in LLMs via self-evaluation[J].ArXiv preprint arXiv:2402.09267,2024.
[163] Yehuda Y,Malkiel I,Barkan O,et al.InterrogateLLM:Zero-resource hallucination detection in LLM-generated Answers[A].Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics,Bangkok,Thailand[C].2024:9333-9347.
[164] Dhuliawala S,Komeili M,Xu J,et al.Chain-of-verification reduces hallucination in large language models[J].ArXiv preprint arXiv:2309.11495,2023.
[165] Reuel A,Undheim T A.Generative AI needs adaptive governance[J].arXiv preprint arXiv:2406.04554,2024.
[166] Policy practice and digital science:Integrating complex systems,social simulation and public administration in policy research[M].Springer,2015.
[167] 童云峰.生成式人工智能技術(shù)風(fēng)險的內(nèi)部管理型規(guī)制[J/OL].科學(xué)學(xué)研究,1-13[2024-07-29].https://doi.org/10.16192/j.cnki.1003-2053.20240304.001.
[168] Deloitte.State of Generative AI in the Enterprise:Q3 Report[R/OL].[2024-08-02].https://www2.deloitte.com/us/en/pages/consulting/articles/state-of-generative-ai-in-enterprise.html.
[169] Buiten M,De Streel A,Peitz M.The law and economics of AI liability[J].Computer Law & Security Review,2023,48(1):1-23.
[170] 姚志偉,李卓霖.生成式人工智能內(nèi)容風(fēng)險的法律規(guī)制[J].西安交通大學(xué)學(xué)報(社會科學(xué)版),2023,43(5):147-160.
[171] Song H.Legal Risks and Governance Path of Generative Artificial Intelligence[J].Journal of Beijing Institute of Technology (Social Sciences Edition),2024,26(3):134-143.
[172] Zhu S,Ma G.The Chinese path to generative AI governance[J].Available at:SSRN 4551316.
[173] European Commission.AI Act enters into force[EB/OL].[2024-08-02].https://commission.europa.eu/news/ai-act-enters-force-2024-08-01_en.
[174] 朱倩倩,張振乾,高云龍.我國人工智能安全檢測能力現(xiàn)狀及治理建議[J].信息安全與通信保密,2024(5):62-68.
[175] 張學(xué)府.生成式人工智能服務(wù)信息內(nèi)容安全的三類標(biāo)準(zhǔn)——基于《生成式人工智能服務(wù)管理暫行辦法》的分析[J].中國行政管理,2024(4):120-128.
[176] 劉鑫.人工智能生成技術(shù)方案的專利法規(guī)制——理論爭議、實踐難題與法律對策[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2019,37(5):82-92.
[177] Genus A,Stirling A.Collingridge and the dilemma of control:Towards responsible and accountable innovation[J].Research policy,2018,47(1):61-69.
[178] 沈芳君.生成式人工智能的風(fēng)險與治理——兼論如何打破“科林格里奇困境”[J].浙江大學(xué)學(xué)報(人文社會科學(xué)版),2024,54(6):73-91.
[179] 顧男飛.生成式人工智能發(fā)展的產(chǎn)業(yè)促進與風(fēng)險規(guī)制——以Sora為例[J/OL].圖書館論壇,1-9[2024-08-01].http://kns.cnki.net/kcms/detail/44.1306.G2.20240508.1109.004.html.
[180] 朱旭峰,樓聞佳.發(fā)展還是監(jiān)管?人工智能政策的國際比較研究[J].學(xué)海,2024(4):76-85.
[181] 胡小勇,朱敏捷,陳孝然,等.生成式人工智能教育應(yīng)用政策比較:共識、差異與實施進路[J].中國教育信息化,2024,30(6):3-11.
[182] Li J,Cai X,Cheng L.Legal regulation of generative AI:a multidimensional construction[J].International Journal of Legal Discourse,2023,8(2):365-388.
[183] Ferrari F,van Dijck J,van den Bosch A.Observe,inspect,modify:Three conditions for generative AI governance[J].New Media & Society,2023:14614448231214811.
[184] 沈逸,高瑜.大國競爭背景下的人工智能安全治理與戰(zhàn)略穩(wěn)定[J].國際展望,2024(3):50.
[185] The White House.National Artificial Intelligence research and development strategic plan:2023 Update[EB/OL].[2024-07-21].https://www.whitehouse.gov/wp-content/uploads/2023/05/National-Artificial-Intelligence-Research-and-Development-Strategic-Plan-2023-Update.pdf.
[186] National Science and Technology Council.Artificial Intelligence research and development interagency working Group.2020-2024 Progress Report:Advancing Trustworthy Artificial-Intelligence Research and Development[R/OL].[2024-07-22].https://www.nitrd.gov/pubs/AI-Research-and-Development-Progress-Report-2020-2024.pdf.
[187] Roberts H,Cowls J,Hine E,et al.Governing artificial intelligence in China and the European Union:Comparing aims and promoting ethical outcomes[J].The Information Society,2023,39(2):79-97.
[188] 洪延青.我國生成式AI新規(guī)的認(rèn)識和理解之十三:立法的中美歐比較[EB/OL].[2024-07-19].https://mp.weixin.qq.com/s/RwSt8b7L5Ceznr1Vaht1Xw.
[189] 徐磊.發(fā)展與安全并重:生成式人工智能風(fēng)險的包容審慎監(jiān)管[J].理論與改革,2024,12(4):67-83.
[190] 和軍,楊慧.ChatGPT類生成式人工智能監(jiān)管的國際比較與借鑒[J].湖南科技大學(xué)學(xué)報(社會科學(xué)版),2023,26(6):119-128.
[191] 中國日報網(wǎng).AI治理:平衡發(fā)展與風(fēng)險,邁向全球共治[EB/OL].[2023-07-18].https://column.chinadaily.com.cn/a/202407/18/WS6698a9c1a3107cd55d26b9a3.html.
[192] Madiega T,Ilnicki R.AI investment:EU and global indicators.European Parliamentary Research Service[R/OL].[2024-08-02].https://www.europarl.europa.eu/thinktank/en/document/EPRS_ATA(2024)760392_EN.
[193] 國務(wù)院.深化大數(shù)據(jù)、人工智能與實體經(jīng)濟融合發(fā)展指導(dǎo)意見[EB/OL].[2024-07-22].https://www.gov.cn/gongbao/202
4/issue_11246/202403/content_6941846.html.
[194] 韓國產(chǎn)業(yè)通商資源部.韓政府成立“AI自主制造聯(lián)盟”加速AI與制造業(yè)融合[EB/OL].[2024-07-19].http://kr.mofcom.gov.cn/article/jmxw/202407/20240703524978.shtml.
[195] AIport.Global GenAI Landscape 2024:Roughly Half of Nations That Invest in AI Develop Generative Models[R/OL].[2024-08-02].https://hackernoon.com/global-genai-landscape-2024-roughly-half-of-nations-that-invest-in-ai-develop-generative-models.
[196] Chui M,Hazan E,Yee L,et al.生成式AI的突破之年[R/OL].[2024-07-30].https://www.mckinsey.com.cn/wp-content/uploads/2023/09/%E7%94%9F%E6%88%90%E5%BC%8FAI%E7%9A%84%E7%AA%81%E7%A0%B4%E4%B9%8B%E5%B9%B4_2023-%E9%87%91%E8%9E%8D%E5%AD%A3%E5%88%8AGenAI0908.pdf.
[197] European Court of Auditors.Special report 08/2024:EU Artificial intelligence ambition[R/OL].[2024-08-02].https://www.eca.europa.eu/en/publications?ref=SR-2024-08.
[198] 王小林,謝妮蕓.未來產(chǎn)業(yè):內(nèi)涵特征、組織變革與生態(tài)建構(gòu)[J].社會科學(xué)輯刊,2023,13(6):173-182.
[199] 董華,張皓越,高愛宇.生成式人工智能大模型賦能傳統(tǒng)出版企業(yè)轉(zhuǎn)型升級路徑研究——基于扎根理論的質(zhì)性研究[J].出版科學(xué),2024,32(4):37-46.
[200] Hine E,F(xiàn)loridi L.Artificial intelligence with American values and Chinese characteristics:a comparative analysis of American and Chinese governmental AI policies[J].AI & SOCIETY,2024,39(1):257-278.
[201] 胡玲,馬忠法.論我國企業(yè)數(shù)據(jù)合規(guī)體系的構(gòu)建及其法律障礙[J].科技與法律,2023,1(2):42-51.
[202] Tourki Y,Keisler J,Linkov I.Scenario analysis:a review of methods and applications for engineering and environmental systems[J].Environment Systems & Decisions,2013,33(1):3-20.
[203] 宋華健.論生成式人工智能的法律風(fēng)險與治理路徑[J].北京理工大學(xué)學(xué)報(社會科學(xué)版),2024,26(3):134-143.
[204] Migliorini S.China's Interim Measures on generative AI:Origin,content and significance[J].Computer Law & Security Review,2024,53(1):1-10.
[205] 丁曉東.人工智能風(fēng)險的法律規(guī)制——以歐盟《人工智能法》為例[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2024,42(5):3-18.
[206] Hu S,Li Y.Policy Interventions and Regulations on Generative Artificial Intelligence:Key Gaps and Core Challenges[A].Proceedings of the 25th Annual International Conference on Digital Government Research[C].2024:1034-1036.
[207] 陳鳳仙,連雨璐,王娜.歐美人工智能監(jiān)管模式及政策啟示[J].中國行政管理,2024(1):77-88.
[208] 汪慶華,胡臨天.生成式人工智能責(zé)任機制的技術(shù)與法律建構(gòu)[J].中國法律評論,2024(4):114-130.
[209] UN.Advisory Body on Artificial Intelligence.Governing AI for humanity:Final report[R/OL].[2024-07-22].https://digitallibrary.un.org/record/4042280?v=pdf.
[210] United States Department of State.The council of Europe’s framework convention on Artificial Intelligence and human rights,democracy,and the rule of law[EB/OL].[2024-08-11].https://www.state.gov/the-council-of-europes-framework-convention-on-artificial-intelligence-and-human-rights-democracy-and-the-rule-of-law/.
[211] Casal-Otero L,Catala A,F(xiàn)ernández-Morante C,et al.AI literacy in K-12:a systematic literature review[J].International Journal of STEM Education,2023,10(1):29-31.
[212] Omaar,Hodan.How innovative is China in AI?Information Technology and Innovation Foundation[R/OL].[2024-08-02].https://www2.itif.org/2024-chinese-ai-innovation.pdf.
[213] 人民資訊.北京大學(xué)發(fā)布《人工智能人才培養(yǎng)方案》[EB/OL].[2024-08-15].https://sai.pku.edu.cn/info/1082/2018.htm.
作者簡介:王芳,女,南開大學(xué)商學(xué)院、南開大學(xué)網(wǎng)絡(luò)社會治理研究中心教授,博士生導(dǎo)師;朱學(xué)坤,男,南開大學(xué)商學(xué)院信息資源管理系博士研究生;劉清民,男,南開大學(xué)商學(xué)院信息資源管理系博士研究生;岳之楠,男,南開大學(xué)商學(xué)院信息資源管理系博士研究生;王美權(quán),女,南開大學(xué)商學(xué)院信息資源管理系博士研究生;張馨月,女,南開大學(xué)商學(xué)院信息資源管理系博士研究生;楊天德,男,南開大學(xué)商學(xué)院信息資源管理系博士研究生;馬鑫,男,南開大學(xué)商學(xué)院信息資源管理系博士研究生;張超,男,南開大學(xué)商學(xué)院信息資源管理系博士研究生。