鈄曉東
關(guān)鍵詞:生成式人工智能 ChatGPT? 數(shù)據(jù)安全 風(fēng)險(xiǎn)管控 數(shù)據(jù)治理 國(guó)家安全
一、問題的提出
近期,作為人工智能重大發(fā)展成果的ChatGPT橫空出世,再一次引發(fā)了學(xué)界對(duì)數(shù)據(jù)安全乃至國(guó)家安全的憂慮。ChatGPT是美國(guó)人工智能研究實(shí)驗(yàn)室OpenAI推出的一種全新生成式人工智能模型,本質(zhì)上是一種“生成型預(yù)訓(xùn)練語(yǔ)言轉(zhuǎn)換器”。它基于大量數(shù)據(jù)訓(xùn)練,可以學(xué)習(xí)和理解人類的語(yǔ)言,并進(jìn)行交流對(duì)話,甚至能完成撰寫郵件、制作視頻腳本、創(chuàng)作文案、翻譯、編寫代碼等任務(wù),具有極強(qiáng)的“內(nèi)容創(chuàng)作”和“思考”能力,并呈現(xiàn)出由日常生活向?qū)I(yè)領(lǐng)域過渡的趨勢(shì)。ChatGPT已在智能辦公、智慧科研、智慧教育、智慧醫(yī)療及游戲、新聞等多個(gè)領(lǐng)域投入應(yīng)用,域外亦有法官借助ChatGPT作出法庭裁決。總之,這一技術(shù)引發(fā)了未來科技發(fā)展和社會(huì)生產(chǎn)生活的本質(zhì)性變革,但也蘊(yùn)涵著極大的安全風(fēng)險(xiǎn)。目前,ChatGPT不支持我國(guó)用戶注冊(cè)賬號(hào),據(jù)報(bào)道,其原因可能涉及OpenAI和微軟的法務(wù)人員對(duì)于美國(guó)外貿(mào)管制法規(guī)或“國(guó)家安全”事務(wù)的解釋。換言之,OpenAI可通過限制ChatGPT應(yīng)用范圍的方式對(duì)其本國(guó)的語(yǔ)言模型類技術(shù)和國(guó)家秘密加以保護(hù)。但ChatGPT研發(fā)及應(yīng)用中其他主權(quán)國(guó)家的安全利益何以得到保障? 從ChatGPT運(yùn)行原理來看,其通過連接大量的語(yǔ)料庫(kù)來訓(xùn)練模型,這一過程中語(yǔ)料庫(kù)數(shù)據(jù)的獲取、語(yǔ)言模型訓(xùn)練、語(yǔ)料庫(kù)數(shù)據(jù)存儲(chǔ)等各個(gè)環(huán)節(jié)都涉及體量龐大的數(shù)據(jù)處理,ChatGPT的設(shè)計(jì)者可以惡意操控上述任意一個(gè)環(huán)節(jié),損害其他主權(quán)國(guó)家的數(shù)據(jù)安全利益。可以預(yù)見的是,生成式人工智能應(yīng)用將迎來大規(guī)模普及。這也意味著,其帶來的潛在數(shù)據(jù)安全風(fēng)險(xiǎn)可能伴隨著大數(shù)據(jù)技術(shù)的發(fā)展而持續(xù)發(fā)酵,給國(guó)家安全帶來巨大的威脅和隱患。因此,作為新一輪技術(shù)革命成果的生成式人工智能,值得我們認(rèn)真對(duì)待,在考慮擴(kuò)充其使用范圍以便利生產(chǎn)生活的同時(shí),也應(yīng)認(rèn)真審視其背后的國(guó)家安全問題,并對(duì)其中的數(shù)據(jù)安全風(fēng)險(xiǎn)及時(shí)進(jìn)行治理。
為此,學(xué)界針對(duì)生成式人工智能中的數(shù)據(jù)安全問題進(jìn)行了一定的研究,并提出了構(gòu)建生成式人工智能數(shù)據(jù)安全風(fēng)險(xiǎn)治理的元規(guī)則,從回應(yīng)型治理轉(zhuǎn)向數(shù)據(jù)安全的敏捷型應(yīng)對(duì),從制度和技術(shù)層面協(xié)同推進(jìn)AIGC領(lǐng)域數(shù)據(jù)可信治理等一系列應(yīng)對(duì)措施。然而,目前大部分學(xué)者只是在討論生成式人工智能技術(shù)風(fēng)險(xiǎn)時(shí)附帶提及數(shù)據(jù)安全問題,尚未有詳盡、專門的研究來深入闡述生成式人工智能數(shù)據(jù)安全問題的特殊性以及可能引致的其他國(guó)家安全層面的嚴(yán)重后果。這導(dǎo)致對(duì)該問題的研究顯得過于籠統(tǒng),甚至脫離了生成式人工智能這一應(yīng)用場(chǎng)景。還有一部分學(xué)者針對(duì)生成式人工智能的信息內(nèi)容風(fēng)險(xiǎn)及治理展開了大量研究,但從其治理措施來看卻忽視了信息內(nèi)容風(fēng)險(xiǎn)始終源于數(shù)據(jù)安全這一本質(zhì)性問題。鑒于此,本文擬在生成式人工智能應(yīng)用各個(gè)環(huán)節(jié)中,對(duì)其數(shù)據(jù)安全風(fēng)險(xiǎn)進(jìn)行詳細(xì)剖析,同時(shí)結(jié)合當(dāng)下數(shù)字時(shí)代背景和生成式人工智能技術(shù)本身的特點(diǎn),探討生成式人工智能數(shù)據(jù)安全風(fēng)險(xiǎn)治理的范式轉(zhuǎn)型,最后提出生成式人工智能應(yīng)用中數(shù)據(jù)安全風(fēng)險(xiǎn)的回應(yīng)型治理路徑,以期對(duì)該領(lǐng)域的數(shù)據(jù)安全問題作出更為深入的研究與分析。
二、生成式人工智能應(yīng)用中的數(shù)據(jù)安全風(fēng)險(xiǎn)
生成式人工智能強(qiáng)大的學(xué)習(xí)能力離不開海量數(shù)據(jù)匯聚形成的語(yǔ)料庫(kù),語(yǔ)料庫(kù)數(shù)據(jù)的輸入、運(yùn)算、存儲(chǔ)與輸出均可能引致不同程度的數(shù)據(jù)安全風(fēng)險(xiǎn),這些數(shù)據(jù)安全風(fēng)險(xiǎn)貫穿應(yīng)用的全過程,兼具瞬時(shí)性和破壞性,直接或間接地挑戰(zhàn)著我國(guó)數(shù)據(jù)主權(quán),成為影響國(guó)家安全的新型隱患。厘清生成式人工智能應(yīng)用中的數(shù)據(jù)安全風(fēng)險(xiǎn),是明確風(fēng)險(xiǎn)治理需求的基本前提。
(一)數(shù)據(jù)輸入端:語(yǔ)料庫(kù)非法獲取風(fēng)險(xiǎn)
生成式人工智能需要利用大量數(shù)據(jù)輸入訓(xùn)練自然語(yǔ)言模型,這有助于模型獲取知識(shí)并構(gòu)建語(yǔ)料庫(kù),從而能夠準(zhǔn)確理解自然語(yǔ)言并生成標(biāo)準(zhǔn)答案文本。顯然,生成式人工智能的存在基于海量數(shù)據(jù)信息形成的語(yǔ)料庫(kù)。在構(gòu)建和更新語(yǔ)料庫(kù)的形式方面,可以將其分為被動(dòng)和主動(dòng)兩種類型。被動(dòng)構(gòu)建與更新的語(yǔ)料庫(kù)是大量用戶通過對(duì)話框自行輸入信息、系統(tǒng)自動(dòng)將該類信息保存并納入的語(yǔ)料庫(kù)。主動(dòng)的語(yǔ)料庫(kù)構(gòu)建與更新則以數(shù)據(jù)爬蟲技術(shù)為典型,數(shù)據(jù)爬蟲技術(shù)可以通過程序自動(dòng)收集互聯(lián)網(wǎng)上的大量數(shù)據(jù),這種數(shù)據(jù)收集方式的優(yōu)點(diǎn)在于其能夠快速、高效地獲取大量的數(shù)據(jù),使得模型的訓(xùn)練和表現(xiàn)更加準(zhǔn)確和可靠。
無論是被動(dòng)的數(shù)據(jù)“輸入—收錄”還是主動(dòng)的數(shù)據(jù)爬取,均可能引致語(yǔ)料庫(kù)的非法獲取。對(duì)于用戶自行輸入的數(shù)據(jù)信息,根據(jù)OpenAI用戶協(xié)議,盡管用戶在賬號(hào)注冊(cè)時(shí)作出了同意數(shù)據(jù)收集的意思表示, 但有關(guān)用戶個(gè)人身份信息的這部分內(nèi)容,OpenAI不得收集, 其仍負(fù)有從記錄中予以刪除的義務(wù)。問題在于,OpenAI用戶協(xié)議并未明確刪除方法及其具體行使,此類信息在實(shí)踐中仍可能被保留并用于模型訓(xùn)練,會(huì)構(gòu)成對(duì)個(gè)人知情同意權(quán)和刪除權(quán)等個(gè)人信息權(quán)益的侵害。對(duì)于數(shù)據(jù)爬蟲而言,鑒于數(shù)據(jù)自由流通在數(shù)字社會(huì)具有重要價(jià)值,國(guó)際規(guī)則和各國(guó)法律對(duì)正當(dāng)?shù)臄?shù)據(jù)爬取予以認(rèn)可。但數(shù)據(jù)爬取并非不受限制,數(shù)據(jù)爬取亦存在正當(dāng)性邊界。根據(jù)我國(guó)數(shù)據(jù)安全法第32條規(guī)定,ChatGPT等生成式人工智能系統(tǒng)爬取我國(guó)境內(nèi)數(shù)據(jù)應(yīng)嚴(yán)格遵守我國(guó)數(shù)據(jù)保護(hù)相關(guān)規(guī)定, 若爬取我國(guó)未公開數(shù)據(jù)、出于非法目的爬取我國(guó)數(shù)據(jù)或采取其他惡意手段爬取我國(guó)數(shù)據(jù),則明顯超出正當(dāng)性邊界,構(gòu)成語(yǔ)料庫(kù)的非法獲取。意大利個(gè)人數(shù)據(jù)保護(hù)局(DPA)就曾因?yàn)镺penAI涉嫌非法爬取大量意大利用戶信息數(shù)據(jù),宣布從2023年3月31日起禁止使用ChatGPT,同時(shí)對(duì)其隱私安全問題立案調(diào)查。可見,生成式人工智能中的數(shù)據(jù)爬蟲問題應(yīng)當(dāng)引起高度重視。同時(shí),從其結(jié)果來看,由于非法爬取獲得的數(shù)據(jù)常常具有機(jī)密性、高密度性和保護(hù)性等特征,非法行為不僅侵害了個(gè)人的信息權(quán)益,而且也涉及國(guó)家的數(shù)據(jù)安全和數(shù)據(jù)主權(quán)問題。當(dāng)生成式人工智能開發(fā)機(jī)構(gòu)利用非法數(shù)據(jù)爬取技術(shù)成功爬取我國(guó)境內(nèi)數(shù)據(jù)并將其傳輸出境時(shí),我國(guó)已失去對(duì)該部分?jǐn)?shù)據(jù)出境的管理利益和對(duì)境外數(shù)據(jù)的自主控制利益,這意味著我國(guó)數(shù)據(jù)主權(quán)受到了挑戰(zhàn)。當(dāng)前,生成式人工智能需要不斷擴(kuò)充數(shù)據(jù)庫(kù)來提高回復(fù)文本的準(zhǔn)確性,非法數(shù)據(jù)爬取作為數(shù)據(jù)獲取的霸權(quán)行為之一,日益成為威脅國(guó)家安全的重要隱患。
(二)數(shù)據(jù)運(yùn)算端:訓(xùn)練數(shù)據(jù)偏見風(fēng)險(xiǎn)
生成式人工智能文本生成由其自然語(yǔ)言模型所決定,而自然語(yǔ)言模型在本質(zhì)上取決于算法選擇以及用于模型訓(xùn)練的龐大數(shù)據(jù)庫(kù),這使得模型開發(fā)者能夠通過裁剪數(shù)據(jù)庫(kù)或操控算法的方式,將自己的偏好植入訓(xùn)練數(shù)據(jù),從而使輸出的文本呈現(xiàn)某種價(jià)值觀。
與其他語(yǔ)言模型一樣,ChatGPT并不是一個(gè)沒有偏見的工具。它對(duì)世界的“認(rèn)識(shí)”取決于算法,或者說設(shè)計(jì)者所作的決定。例如,使用哪類數(shù)據(jù)進(jìn)行文本訓(xùn)練或使用何種生成方式進(jìn)行內(nèi)容回復(fù)。這也可從ChatGPT運(yùn)行原理中得到印證。為了確保ChatGPT9輸出信息的高度準(zhǔn)確性,OpenAI9實(shí)施了一種“人類反饋強(qiáng)化學(xué)習(xí)”訓(xùn)練方法:開發(fā)主體從GPT中選取樣本,對(duì)其進(jìn)行人工標(biāo)注,并利用評(píng)分結(jié)果來訓(xùn)練反饋模型。通過對(duì)反饋模型和原模型進(jìn)行對(duì)抗強(qiáng)化訓(xùn)練,可以持續(xù)優(yōu)化原模型的輸出結(jié)果,最終得到一個(gè)符合人類語(yǔ)言習(xí)慣、偏好和價(jià)值觀的語(yǔ)言生成模型。此類模型生成機(jī)制可能造成以下隱患:生成式人工智能開發(fā)機(jī)構(gòu)可能出于特定的政治目標(biāo)或其他利益考量,使用帶有偏見的數(shù)據(jù)樣本進(jìn)行語(yǔ)言模型訓(xùn)練,使生成的回復(fù)文本完全符合其意識(shí)形態(tài)標(biāo)準(zhǔn),從而“潛移默化”地影響用戶,使用戶思想或行為偏好向著有利于自身方向發(fā)展。因此,生成式人工智能中的數(shù)據(jù)偏見風(fēng)險(xiǎn)將可能帶來極為嚴(yán)重的安全后果。
在當(dāng)今全球各種思潮、文化和價(jià)值觀念相互碰撞的背景下,人工智能技術(shù)面臨著被政治操縱、用作意識(shí)形態(tài)宣傳的風(fēng)險(xiǎn),應(yīng)當(dāng)對(duì)此始終持謹(jǐn)慎態(tài)度。西方發(fā)達(dá)國(guó)家掌握大數(shù)據(jù)和人工智能核心技術(shù),按照其自身價(jià)值觀制定全球政治秩序和規(guī)則,裁剪符合自身意識(shí)形態(tài)標(biāo)準(zhǔn)的數(shù)據(jù)庫(kù),加劇了全球信息體系和政治秩序中的不平等和壟斷現(xiàn)象。在這種背景下,生成式人工智能的開發(fā)者可以通過操縱算法或裁剪數(shù)據(jù)庫(kù)的方式,在模型中植入某些價(jià)值觀。如果開發(fā)者持有歷史錯(cuò)解、文化偏見或種族歧視的價(jià)值觀,這些觀念可能會(huì)通過模型與用戶的互動(dòng)產(chǎn)生潛在的不利意識(shí)形態(tài)影響。在當(dāng)今高度互聯(lián)的社會(huì)中,意識(shí)形態(tài)安全已經(jīng)不再是單純的意識(shí)形態(tài)問題,而是關(guān)系國(guó)家安全和穩(wěn)定的核心議題。近年來針對(duì)意識(shí)形態(tài)的滲透和干擾事件不斷發(fā)生,再一次給我們敲響了警鐘。
(三)數(shù)據(jù)存儲(chǔ)端:數(shù)據(jù)泄露風(fēng)險(xiǎn)
生成式人工智能需要從大量數(shù)據(jù)中學(xué)習(xí)和生成模型, 海量數(shù)據(jù)的處理無疑將擴(kuò)大其攻擊面,相應(yīng)地,數(shù)據(jù)泄露風(fēng)險(xiǎn)的發(fā)生概率和影響范圍也隨之增大。ChatGPT開發(fā)者OpenAI的首席技術(shù)官米拉·穆拉蒂率先表示,必須謹(jǐn)慎使用ChatGPT,切勿在其上上傳敏感信息或核心數(shù)據(jù),以免信息泄露,導(dǎo)致?lián)p失。為此,微軟基于預(yù)防商業(yè)機(jī)密泄露的考慮,已宣布禁止公司員工向ChatGPT分享公司敏感數(shù)據(jù)。同樣地,亞馬遜的公司也警告員工“不要與ChatGPT分享任何亞馬遜的機(jī)密信息,因?yàn)樗麄冇锌赡軐⑵溆糜谟?xùn)練未來的模型”。事實(shí)證明,這種擔(dān)心并非多余。就在GPT-4最新發(fā)布之際,ChatGPT出現(xiàn)了嚴(yán)重技術(shù)漏洞, 用戶在社交媒體上表示看到了其他人的歷史搜索記錄標(biāo)題。OpenAI隨即立刻關(guān)閉了ChatGPT,當(dāng)用戶再次打開該系統(tǒng)時(shí),歷史聊天記錄側(cè)邊欄已被替換為“歷史記錄暫不可用,我們正在努力盡快恢復(fù)這一功能”。針對(duì)這一事件,OpenAI首席執(zhí)行官Sam#Altman在社交媒體發(fā)文,宣布修復(fù)程序已驗(yàn)證完成,并對(duì)此“感覺十分糟糕”。
ChatGPT使用大規(guī)模的語(yǔ)言數(shù)據(jù)集進(jìn)行訓(xùn)練, 這些數(shù)據(jù)集都被處理成了標(biāo)準(zhǔn)的文本格式并存儲(chǔ)在高效的數(shù)據(jù)存儲(chǔ)系統(tǒng)中,泄露可能存在以下三方面原因:其一,主動(dòng)泄漏,即ChatGPT開發(fā)機(jī)構(gòu)直接向外界透露語(yǔ)料庫(kù)存儲(chǔ)系統(tǒng)中的數(shù)據(jù)。但根據(jù)ChatGPT自身的說法,作為一個(gè)語(yǔ)言模型,ChatGPT使用的是無人工干預(yù)的自動(dòng)化訓(xùn)練過程,主要依賴于大量公開的數(shù)據(jù)集進(jìn)行學(xué)習(xí),因此很難存在直接的數(shù)據(jù)泄露問題。此外,OpenAI表示將根據(jù)用戶隱私協(xié)議極力保障用戶數(shù)據(jù)安全,并采用了多層保護(hù)措施嚴(yán)格控制數(shù)據(jù)存儲(chǔ)系統(tǒng)的訪問。如此看來,語(yǔ)料庫(kù)數(shù)據(jù)直接泄露的可能性似乎較小。其二,隱含泄露,即將用作ChatGPT進(jìn)一步迭代的訓(xùn)練數(shù)據(jù),在未來的版本作為輸出內(nèi)容。例如,在ChatGPT中輸入的文本可能包含用戶的個(gè)人信息、信用卡信息、密碼等敏感信息,而模型推斷輸出的結(jié)果可能會(huì)間接泄露這些信息。另外,如果模型訓(xùn)練數(shù)據(jù)中包含了具有隱私敏感性的文本數(shù)據(jù),例如醫(yī)療記錄、司法文書、個(gè)人通信記錄等,那么模型可能會(huì)學(xué)習(xí)這些信息并在未來版本中將其泄露出來。相較于直接泄露,語(yǔ)料庫(kù)數(shù)據(jù)間接泄露風(fēng)險(xiǎn)具有高頻性、漸進(jìn)性的特點(diǎn)。其三,系統(tǒng)漏洞泄露,這也是語(yǔ)料庫(kù)數(shù)據(jù)泄露最大的風(fēng)險(xiǎn)源。生成式人工智能模型本身可能存在未知的安全漏洞,攻擊者可能通過這些漏洞進(jìn)行攻擊,例如修改模型的輸出、篡改模型的訓(xùn)練數(shù)據(jù)、竊取模型的參數(shù)等,這些攻擊可能會(huì)導(dǎo)致模型輸出的泄露。
在生成式人工智能中,由于訓(xùn)練數(shù)據(jù)的規(guī)模直接影響模型的表現(xiàn)和性能,生成式人工智能通常具有相對(duì)較大的的數(shù)據(jù)體量。以ChatGPT為例,其擁有超過1750億的參數(shù),龐大的數(shù)據(jù)體量決定了一旦發(fā)生數(shù)據(jù)泄露事件,將造成難以挽回的損害后果。具體而言,在生成式人工智能語(yǔ)料庫(kù)中,個(gè)人數(shù)據(jù)泄露可能導(dǎo)致大范圍的隱私和著作權(quán)侵權(quán),企業(yè)數(shù)據(jù)泄露可能導(dǎo)致不正當(dāng)競(jìng)爭(zhēng)或商業(yè)秘密泄露,政府?dāng)?shù)據(jù)泄露則將帶來更為嚴(yán)重的損害后果,包括侵害“重要數(shù)據(jù)”安全和“國(guó)家秘密”安全等特別利益。
(四)數(shù)據(jù)輸出端:惡意內(nèi)容生成風(fēng)險(xiǎn)
生成式人工智能具有極高的泛化和生成能力,但從技術(shù)本質(zhì)看,其生成的內(nèi)容是基于對(duì)語(yǔ)料庫(kù)的學(xué)習(xí)和預(yù)測(cè),是一種經(jīng)驗(yàn)的再現(xiàn),并非從語(yǔ)義和邏輯角度進(jìn)行推理和判斷的產(chǎn)物。換言之,生成式人工智能為用戶提供的最終信息只是在海量信息篩選后給出的單一化且標(biāo)準(zhǔn)化的內(nèi)容。因此,對(duì)于生成內(nèi)容本身的真實(shí)性和準(zhǔn)確性,生成式人工智能無法進(jìn)行判斷。這一特點(diǎn)可能導(dǎo)致生成式人工智能產(chǎn)生大量虛假信息,甚至被利用生成惡意內(nèi)容,從而對(duì)人們的思維和行為產(chǎn)生誤導(dǎo)和負(fù)面影響。美國(guó)新聞可信度評(píng)估與研究機(jī)構(gòu)NewsGurd對(duì)ChatGPT進(jìn)行測(cè)試發(fā)現(xiàn),ChatGPT能在幾秒鐘內(nèi)改變信息并產(chǎn)生大量令人信服卻無信源的內(nèi)容。這些內(nèi)容將對(duì)自身判斷能力不足的用戶產(chǎn)生極大的誤導(dǎo)性。如果惡意行為者或團(tuán)體獲得了ChatGPT的訪問權(quán)限,他們可能會(huì)利用該技術(shù)生成虛假、不端或仇視性的信息,甚至從事創(chuàng)造暗網(wǎng)市場(chǎng)腳本,生成釣魚電子郵件,編寫惡意軟件等非法活動(dòng)。這些活動(dòng)將嚴(yán)重影響國(guó)家安全。當(dāng)前,已經(jīng)出現(xiàn)了利用生成式人工智能實(shí)施犯罪的案例。2021年,一個(gè)黑客團(tuán)伙使用了生成式人工智能技術(shù),創(chuàng)建了一個(gè)名為“Deepfake:Wire”(深度偽造電線)的詐騙平臺(tái)。他們使用ChatGPT技術(shù)制作了一個(gè)虛假的客服機(jī)器人,并將其封裝為“虛擬角色”,利用該機(jī)器人進(jìn)行詐騙活動(dòng)。可以預(yù)料的是,隨著生成式人工智能技術(shù)的日益成熟,這種類型的犯罪案例將越來越普遍。生成式人工智能技術(shù)可能被惡意利用來制造虛假的政治信息,破壞選舉、操縱政治輿論,以此干擾國(guó)家的政治穩(wěn)定。還可能被用于攻擊重要基礎(chǔ)設(shè)施,如金融、能源和交通系統(tǒng),會(huì)對(duì)國(guó)家經(jīng)濟(jì)和社會(huì)發(fā)展造成巨大損失。最為危險(xiǎn)的是,生成式人工智能可能被用于進(jìn)行間諜活動(dòng)或竊取關(guān)鍵機(jī)密信息,從而給國(guó)家安全帶來巨大的威脅。
三、生成式人工智能數(shù)據(jù)安全治理的范式轉(zhuǎn)型
從社會(huì)發(fā)展的歷程來看,生成式人工智能帶來的數(shù)據(jù)安全風(fēng)險(xiǎn)經(jīng)歷了從無到有、由輕及重的過程。與此同時(shí),安全觀念也在不斷演變和發(fā)展,從最初關(guān)注傳統(tǒng)安全、網(wǎng)絡(luò)主權(quán)以及強(qiáng)調(diào)絕對(duì)安全,逐漸發(fā)展到關(guān)注總體安全、數(shù)據(jù)主權(quán),并提倡相對(duì)安全。這種安全觀念演變直接影響了生成式人工智能數(shù)據(jù)安全風(fēng)險(xiǎn)治理模式的轉(zhuǎn)變。
(一)從單一安全轉(zhuǎn)向總體安全
大數(shù)據(jù)時(shí)代悄然而至,伴隨著數(shù)字技術(shù)帶來的各種機(jī)遇和挑戰(zhàn),數(shù)據(jù)安全問題逐漸走進(jìn)大眾視野,并日漸彰顯出對(duì)國(guó)家安全和社會(huì)公共利益的重大影響。2021年,全國(guó)人大常委會(huì)正式頒布數(shù)據(jù)安全法,明確提出“維護(hù)數(shù)據(jù)安全,應(yīng)當(dāng)堅(jiān)持總體國(guó)家安全觀”,對(duì)數(shù)據(jù)安全進(jìn)行了全方位、系統(tǒng)化的規(guī)定。
正是在數(shù)據(jù)安全備受矚目的時(shí)代背景下,生成式人工智能的出現(xiàn)進(jìn)一步促進(jìn)了大規(guī)模的數(shù)據(jù)交換和存儲(chǔ),再一次將數(shù)據(jù)安全問題推向風(fēng)口浪尖。生成式人工智能應(yīng)用中的數(shù)據(jù)安全風(fēng)險(xiǎn),尤其危及國(guó)家數(shù)據(jù)主權(quán)、國(guó)家意識(shí)形態(tài)安全、國(guó)家信息安全及網(wǎng)絡(luò)空間安全等問題。若說非傳統(tǒng)安全的興起促進(jìn)了我國(guó)關(guān)于“國(guó)家安全”的思維轉(zhuǎn)變,則生成式人工智能的出現(xiàn)將對(duì)“國(guó)家安全”帶來更深一層的變革與重構(gòu),迫使“國(guó)家安全”理念基于現(xiàn)代科技的發(fā)展變得更為全面綜合。
(二)從網(wǎng)絡(luò)主權(quán)轉(zhuǎn)向數(shù)據(jù)主權(quán)
生成式人工智能數(shù)據(jù)安全治理的根本指針在于堅(jiān)持?jǐn)?shù)據(jù)主權(quán),而要理解數(shù)據(jù)主權(quán),則須從更為廣闊的范疇———“網(wǎng)絡(luò)主權(quán)”著手。 自美國(guó)棱鏡計(jì)劃曝光,各個(gè)主權(quán)國(guó)家的網(wǎng)絡(luò)主權(quán)意識(shí)被喚醒,開始就網(wǎng)絡(luò)主權(quán)斗爭(zhēng)達(dá)成共識(shí)。對(duì)中國(guó)而言,網(wǎng)絡(luò)主權(quán)更被提到空前高度。2015年我國(guó)國(guó)家安全法第25條首次以法律形式明確“網(wǎng)絡(luò)空間主權(quán)”。2016年網(wǎng)絡(luò)安全法第1條開宗明義申明了“維護(hù)網(wǎng)絡(luò)空間主權(quán)”的立法主旨。2017年我國(guó)發(fā)布《網(wǎng)絡(luò)空間國(guó)際合作戰(zhàn)略》,全面闡述網(wǎng)絡(luò)空間主權(quán)原則的基本涵義,同時(shí)呼吁國(guó)際社會(huì)共同維護(hù)和平、安全、開放、合作的網(wǎng)絡(luò)空間,共同推進(jìn)網(wǎng)絡(luò)空間治理國(guó)際規(guī)則的制定。
根據(jù)網(wǎng)絡(luò)空間主權(quán)架構(gòu),網(wǎng)絡(luò)空間主權(quán)涉及網(wǎng)絡(luò)空間物理層、網(wǎng)絡(luò)空間邏輯層和網(wǎng)絡(luò)空間內(nèi)容層三個(gè)層次。區(qū)別于物理層(光纜、衛(wèi)星通信、能源、交通等基礎(chǔ)設(shè)施)和邏輯層(互聯(lián)網(wǎng)尋址、域名系統(tǒng)、路由協(xié)議等技術(shù)規(guī)則和標(biāo)準(zhǔn))更多涉及技術(shù)問題,內(nèi)容層主要涉及信息管理和數(shù)據(jù)流動(dòng)規(guī)制,是各國(guó)論戰(zhàn)的主要領(lǐng)域。隨著互聯(lián)網(wǎng)迅速發(fā)展和普及,信息技術(shù)在政治、經(jīng)濟(jì)和文化等領(lǐng)域應(yīng)用逐漸成為國(guó)際安全格局發(fā)生重大變化的關(guān)鍵因素之一。在這一時(shí)期,信息攻擊、操縱和破壞以軟暴力的形式不斷威脅著社會(huì)穩(wěn)定和安全,成為全球面臨的共同挑戰(zhàn)之一。為此,各國(guó)政府開始采取行動(dòng),將信息安全作為一項(xiàng)緊急任務(wù),與計(jì)算機(jī)和網(wǎng)絡(luò)緊密結(jié)合在一起,作為法律治理重點(diǎn)。
直到網(wǎng)絡(luò)發(fā)展進(jìn)入大數(shù)據(jù)時(shí)代,數(shù)據(jù)作為基礎(chǔ)性戰(zhàn)略資源之一,逐漸被賦予更高的價(jià)值。信息安全問題也由此轉(zhuǎn)化為數(shù)據(jù)安全問題,并在國(guó)家層面引起越來越多關(guān)注。隨著各國(guó)開始爭(zhēng)奪數(shù)據(jù)主權(quán),數(shù)據(jù)主權(quán)作為一種新興概念應(yīng)運(yùn)而生,其核心思想是國(guó)家對(duì)境內(nèi)數(shù)據(jù)擁有控制權(quán)和管理權(quán),并且必須加強(qiáng)對(duì)數(shù)據(jù)的監(jiān)管和保護(hù)。在這種背景下,生成式人工智能作為一種新型的數(shù)據(jù)生成和分析技術(shù),面臨著打破國(guó)家控制權(quán)和管理權(quán)的風(fēng)險(xiǎn),似乎成為爭(zhēng)奪數(shù)據(jù)主權(quán)的一個(gè)關(guān)鍵武器。因此,生成式人工智能治理的重點(diǎn)不再是信息內(nèi)容,而是數(shù)據(jù)這一信息載體。唯有充分認(rèn)識(shí)數(shù)據(jù)的價(jià)值和作用,才能精準(zhǔn)把控生成式人工智能的風(fēng)險(xiǎn)要害,從而有針對(duì)性地進(jìn)行治理。
(三)從絕對(duì)安全轉(zhuǎn)向相對(duì)安全
傳統(tǒng)的絕對(duì)安全觀念源于對(duì)安全問題的一種理想化思考,即安全風(fēng)險(xiǎn)可以通過完全預(yù)測(cè)、計(jì)算和控制,達(dá)到確定的安全狀態(tài)。這種思想在面對(duì)傳統(tǒng)安全風(fēng)險(xiǎn)如自然災(zāi)害、恐怖襲擊等具有一定效果。但是,隨著社會(huì)的快速發(fā)展和安全環(huán)境的變化,風(fēng)險(xiǎn)呈現(xiàn)出越來越復(fù)雜、多樣化和不確定的趨勢(shì),同時(shí)治理措施的成本也隨之增高。在這種情況下,絕對(duì)安全觀已不再合適。根據(jù)社會(huì)學(xué)家烏爾里希·貝克的觀點(diǎn),現(xiàn)代化進(jìn)程中科技和經(jīng)濟(jì)全球化的發(fā)展所帶來的各種風(fēng)險(xiǎn)難以預(yù)測(cè)和計(jì)算。這些風(fēng)險(xiǎn)不受時(shí)間、空間和社會(huì)界限的限制,無法完全消除,其絕對(duì)性不可避免。此外,現(xiàn)代社會(huì)的復(fù)雜性決定了風(fēng)險(xiǎn)之間必將相互滲透、相互影響,這是現(xiàn)代社會(huì)不可避免的趨勢(shì)。一旦人們對(duì)此形成了正確認(rèn)識(shí),“相對(duì)安全”便取代“絕對(duì)安全”,成為生成式人工智能風(fēng)險(xiǎn)治理的理性目標(biāo)。作為一種新興的人工智能技術(shù),生成式人工智能的出現(xiàn)雖然帶來了巨大的變革和創(chuàng)新,但也催生了多形態(tài)的社會(huì)風(fēng)險(xiǎn)。除網(wǎng)絡(luò)攻擊、黑客攻擊、數(shù)據(jù)泄露等典型的信息安全風(fēng)險(xiǎn)外,深度偽造、人類主體化等倫理和社會(huì)風(fēng)險(xiǎn),以及傳統(tǒng)工作崗位消失帶來的社會(huì)和經(jīng)濟(jì)不平等、不穩(wěn)定問題也成為生成式人工智能應(yīng)用的重大隱憂。這些風(fēng)險(xiǎn)本質(zhì)上是由技術(shù)本身的特點(diǎn)和應(yīng)用環(huán)境等多方面因素綜合造成的,雖然可以通過加強(qiáng)技術(shù)開發(fā)以及制定相應(yīng)的法規(guī)和政策來降低風(fēng)險(xiǎn),但卻不能完全消除。
此外,總體國(guó)家安全觀辯證地認(rèn)識(shí)了安全與發(fā)展的關(guān)系,強(qiáng)調(diào)“發(fā)展是安全的基礎(chǔ),安全是發(fā)展的條件”,從而放棄追求絕對(duì)安全,保障相對(duì)安全。在數(shù)字化浪潮中,數(shù)據(jù)成為經(jīng)濟(jì)和社會(huì)發(fā)展的重要基石和創(chuàng)新驅(qū)動(dòng)力。數(shù)據(jù)創(chuàng)新融合了人工智能、物聯(lián)網(wǎng)、區(qū)塊鏈等前沿技術(shù),正在重構(gòu)人類社會(huì)和產(chǎn)業(yè)形態(tài)。我國(guó)的網(wǎng)絡(luò)安全法和數(shù)據(jù)安全法均明確規(guī)定了數(shù)據(jù)開放和利用的政策支持,特別強(qiáng)調(diào)了匿名化數(shù)據(jù)的自由利用。這為企業(yè)拓展數(shù)字化業(yè)務(wù)和推動(dòng)技術(shù)創(chuàng)新提供了重要機(jī)遇。生成式人工智能以數(shù)據(jù)為燃料,為人類提供了前所未有的創(chuàng)造力和生產(chǎn)力。因此,我們需要辯證看待其中的數(shù)據(jù)安全與發(fā)展問題,采取相應(yīng)的安全措施,保障數(shù)據(jù)的隱私和安全,并利用好數(shù)據(jù)這一寶貴資源,推動(dòng)社會(huì)和經(jīng)濟(jì)的可持續(xù)發(fā)展。
四、生成式人工智能數(shù)據(jù)安全風(fēng)險(xiǎn)的回應(yīng)型治理
面對(duì)生成式人工智能正逐步呈現(xiàn)的彌散性擴(kuò)張數(shù)據(jù)安全風(fēng)險(xiǎn),構(gòu)建全方面、多層次、重實(shí)效的生成式人工智能數(shù)據(jù)安全法治體系已刻不容緩。而這無疑也是當(dāng)前國(guó)家高水平安全時(shí)勢(shì)訴求的內(nèi)在應(yīng)有之義。
(一)輸入端:以風(fēng)險(xiǎn)管控為核心,強(qiáng)化數(shù)據(jù)安全風(fēng)險(xiǎn)應(yīng)對(duì)機(jī)制
數(shù)據(jù)安全范式的核心要素是“可控性”,強(qiáng)調(diào)將數(shù)據(jù)的大規(guī)模流動(dòng)、聚合和分析納入風(fēng)險(xiǎn)管控過程中的必要性。根據(jù)國(guó)際標(biāo)準(zhǔn)化組織(ISO)頒布的風(fēng)險(xiǎn)管理標(biāo)準(zhǔn),一般認(rèn)為存在以下四種風(fēng)險(xiǎn)管控策略:避免風(fēng)險(xiǎn)、接受風(fēng)險(xiǎn)、轉(zhuǎn)移風(fēng)險(xiǎn)、控制風(fēng)險(xiǎn)。鑒于絕對(duì)安全不可能存在,對(duì)待生成式人工智能帶來的數(shù)據(jù)安全風(fēng)險(xiǎn),無需做到完全消除。適當(dāng)接受殘留風(fēng)險(xiǎn)的存在,同時(shí)最大限度地進(jìn)行風(fēng)險(xiǎn)控制,既能實(shí)現(xiàn)成本最小化,也有利于維持安全與發(fā)展的平衡,應(yīng)當(dāng)是最優(yōu)策略。
從風(fēng)險(xiǎn)產(chǎn)生的角度看,只有通過對(duì)高度敏感的“重要數(shù)據(jù)”進(jìn)行關(guān)聯(lián)和分析,才可能挖掘出危害安全的重要情報(bào)。因此,實(shí)現(xiàn)對(duì)重要數(shù)據(jù)流動(dòng)和聚合的有效控制,避免生成式人工智能對(duì)這些數(shù)據(jù)進(jìn)行惡意整合和分析,可以大大減少數(shù)據(jù)惡意利用帶來的危害。從實(shí)現(xiàn)風(fēng)險(xiǎn)源頭的有效控制角度看,有以下兩點(diǎn)思路:一是在數(shù)據(jù)分類分級(jí)基礎(chǔ)上,加強(qiáng)數(shù)據(jù)的被動(dòng)出境治理,避免重要數(shù)據(jù)被非法納入生成式人工智能語(yǔ)料庫(kù),進(jìn)而被不當(dāng)披露和聚合分析;二是完善生成式人工智能的市場(chǎng)準(zhǔn)入制度,從源頭降低該類應(yīng)用的安全風(fēng)險(xiǎn)。
1.加強(qiáng)數(shù)據(jù)被動(dòng)出境治理
針對(duì)以非法數(shù)據(jù)爬取為主的攻擊風(fēng)險(xiǎn),我們需要采取主動(dòng)防御措施,以預(yù)測(cè)、發(fā)現(xiàn)和防范潛在的安全威脅,實(shí)現(xiàn)數(shù)據(jù)被動(dòng)出境的主動(dòng)管理,從而有效降低生成式人工智能技術(shù)給我國(guó)帶來的安全威脅。具體來看,需要采取以下措施:
建立境外網(wǎng)絡(luò)攻擊監(jiān)控和調(diào)度平臺(tái)是實(shí)現(xiàn)主動(dòng)防御的關(guān)鍵一步。平臺(tái)的建設(shè)可發(fā)揮以下三點(diǎn)作用:一是將不同領(lǐng)域的重要數(shù)據(jù)進(jìn)行統(tǒng)一管理和監(jiān)測(cè),從而最大限度地發(fā)揮大數(shù)據(jù)的優(yōu)勢(shì),實(shí)現(xiàn)數(shù)據(jù)協(xié)同合作和安全防范的統(tǒng)一;二是可以結(jié)合信息技術(shù)實(shí)現(xiàn)數(shù)據(jù)動(dòng)態(tài)的實(shí)時(shí)在線監(jiān)控,從而準(zhǔn)確快速判斷網(wǎng)絡(luò)爬蟲、撞庫(kù)等網(wǎng)絡(luò)攻擊風(fēng)險(xiǎn),為數(shù)據(jù)安全預(yù)警和應(yīng)急處置提供信息;三是及時(shí)發(fā)布預(yù)警信息并輔助數(shù)據(jù)安全主管部門作出更為科學(xué)、準(zhǔn)確的防御決策。總的來說,通過建立境外網(wǎng)絡(luò)攻擊監(jiān)控和調(diào)度平臺(tái),可以在非法數(shù)據(jù)爬取等攻擊行為造成嚴(yán)重后果前,提前預(yù)警,以避免或降低生成式人工智能語(yǔ)料庫(kù)非法獲取帶來的不利影響。此外,由于私營(yíng)部門作為數(shù)據(jù)業(yè)務(wù)直接參與者更能夠及時(shí)察覺和發(fā)現(xiàn)實(shí)踐層面的數(shù)據(jù)安全風(fēng)險(xiǎn),為加強(qiáng)數(shù)據(jù)被動(dòng)出境治理,還應(yīng)建立政府和私營(yíng)機(jī)構(gòu)的共同防御體系。具體來說,可以從以下兩方面落實(shí):一是適當(dāng)借鑒美國(guó)“受控非密信息”的數(shù)據(jù)標(biāo)識(shí)制度,采用電子標(biāo)記的方式來實(shí)現(xiàn)數(shù)據(jù)泄露后的可追溯性。通過責(zé)任可溯,可以確保私營(yíng)部門在對(duì)接境外生成式人工智能開發(fā)機(jī)構(gòu)的過程中,不會(huì)對(duì)國(guó)家安全造成威脅。二是需要鼓勵(lì)私營(yíng)部門參與數(shù)據(jù)安全威脅信息的共享。目前我國(guó)的數(shù)據(jù)安全監(jiān)測(cè)仍然處于單一主體監(jiān)控的階段,這限制了我們及時(shí)發(fā)現(xiàn)和應(yīng)對(duì)數(shù)據(jù)安全威脅的能力。為此, 我們可以借鑒美國(guó)網(wǎng)絡(luò)安全信息共享法案的相關(guān)規(guī)定,對(duì)那些自愿共享網(wǎng)絡(luò)安全威脅信息的企業(yè)給予法律豁免,以激勵(lì)其積極參與數(shù)據(jù)出境安全的共建共享。
2.強(qiáng)化生成式人工智能市場(chǎng)準(zhǔn)入規(guī)則
除了作好數(shù)據(jù)被動(dòng)出境的預(yù)防,對(duì)待ChatGPT等國(guó)外開發(fā)的生成式人工智能主動(dòng)進(jìn)入我國(guó)市場(chǎng),也應(yīng)當(dāng)持謹(jǐn)慎態(tài)度,可從安全評(píng)估、數(shù)據(jù)獲取、合規(guī)審查等方面進(jìn)行制度強(qiáng)化,將可能存在的非法數(shù)據(jù)獲取行為阻擋在市場(chǎng)準(zhǔn)入這一步。首先,生成式人工智能安全評(píng)估規(guī)則是關(guān)鍵之一。在歐盟最新通過的人工智能法案中,人工智能被劃分為最低風(fēng)險(xiǎn)、低風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、不可接受的風(fēng)險(xiǎn)四個(gè)等級(jí)。根據(jù)該法案,對(duì)于被劃入高風(fēng)險(xiǎn)等級(jí)的生成式人工智能系統(tǒng),開發(fā)機(jī)構(gòu)必須提交符合規(guī)定的評(píng)估報(bào)告,并需要在系統(tǒng)投放市場(chǎng)前接受相關(guān)機(jī)構(gòu)的審查和批準(zhǔn)。這一基于風(fēng)險(xiǎn)程度的人工智能系統(tǒng)準(zhǔn)入機(jī)制,強(qiáng)調(diào)不同等級(jí)的風(fēng)險(xiǎn)監(jiān)管要求,突出了風(fēng)險(xiǎn)管理的重要性,對(duì)未來我國(guó)完善生成式人工智能應(yīng)用準(zhǔn)入規(guī)范應(yīng)有啟發(fā)。其次,生成式人工智能語(yǔ)料庫(kù)數(shù)據(jù)獲取規(guī)則應(yīng)當(dāng)明確。ChatGPT既未公開其數(shù)據(jù)獲取方式,也未標(biāo)明語(yǔ)料庫(kù)數(shù)據(jù)獲取來源,致使中文數(shù)據(jù)庫(kù)來源的合法性和數(shù)據(jù)爬取的合理性無從判別。為確保個(gè)人隱私和國(guó)家安全得到保障,生成式人工智能應(yīng)用準(zhǔn)入的另一關(guān)鍵是披露其語(yǔ)料庫(kù)數(shù)據(jù)獲取方式和數(shù)據(jù)來源。再次,生成式人工智能開發(fā)機(jī)構(gòu)應(yīng)當(dāng)主動(dòng)采取數(shù)據(jù)清洗和數(shù)據(jù)去標(biāo)識(shí)化等技術(shù)。通過對(duì)采集的數(shù)據(jù)進(jìn)行篩選、去噪、去重、標(biāo)注等處理,保障數(shù)據(jù)的完整性和真實(shí)性,防止數(shù)據(jù)被篡改、刪除或者損毀,確保模型訓(xùn)練的數(shù)據(jù)準(zhǔn)確可靠。最后,生成式人工智能開發(fā)機(jī)構(gòu)應(yīng)當(dāng)定期對(duì)其產(chǎn)品進(jìn)行合規(guī)審查,幫助開發(fā)主體識(shí)別和解決潛在的法律和道德風(fēng)險(xiǎn),以保障數(shù)據(jù)來源的合法性和避免潛在的風(fēng)險(xiǎn)。
此外, 用戶提高生成式人工智能數(shù)據(jù)安全風(fēng)險(xiǎn)防范意識(shí)亦有助于從數(shù)據(jù)輸入源頭降低風(fēng)險(xiǎn),促進(jìn)安全風(fēng)險(xiǎn)得到有效管控。首先,用戶應(yīng)充分關(guān)注生成式人工智能《用戶使用協(xié)議》,對(duì)生成式人工智能應(yīng)用中其個(gè)人數(shù)據(jù)的處理目的、處理方式、保存期限、可能面臨的風(fēng)險(xiǎn)、享有的權(quán)力等形成充分認(rèn)識(shí)。例如,根據(jù)OpenAI0的《用戶使用協(xié)議》,用戶享有拒絕OpenAI將其自行輸入和輸出數(shù)據(jù)用于模型的訓(xùn)練和改進(jìn)的權(quán)利,并且可以在ChatGPT使用的任何時(shí)間段更改此選項(xiàng);其次,用戶應(yīng)避免在生成式人工智能上上傳敏感個(gè)人信息。對(duì)于民族、政治、宗教信仰、健康狀況等敏感個(gè)人信息,一經(jīng)泄露可能造成重大財(cái)產(chǎn)或精神損害,用戶應(yīng)避免在生成式人工智能上上傳此類信息,以防被用于后續(xù)模型訓(xùn)練或遭致數(shù)據(jù)泄露。
(二)運(yùn)算端:以算法解釋為關(guān)鍵,完善算法運(yùn)算透明原則
算法難以理解和非直覺性的特點(diǎn)為生成式人工智能輸出文本背后的價(jià)值判斷蒙上一層面紗,帶來了意識(shí)形態(tài)安全風(fēng)險(xiǎn),而算法透明原則正是要揭下這層面紗,使算法露出真實(shí)面貌。算法透明原則是指通過公開和披露算法的設(shè)計(jì)原理、數(shù)據(jù)輸入輸出等要素,增強(qiáng)算法的可解釋性和可問責(zé)性,以達(dá)到保障算法公正性和可信性的目的。我國(guó)相關(guān)立法規(guī)定不同程度地強(qiáng)調(diào)了算法透明的重要性,但原則性規(guī)定終究較為抽象,其具體落實(shí)仍需具體規(guī)則的構(gòu)建。
算法解釋權(quán)是算法透明原則最為關(guān)鍵的內(nèi)容。算法解釋權(quán)賦予相對(duì)人獲取算法解釋的權(quán)利,使其了解算法決策的依據(jù)和過程,并在必要時(shí)采取救濟(jì)措施,以消除算法開發(fā)者或使用者與相對(duì)人之間的地位差異,進(jìn)而使形式化的用戶協(xié)議轉(zhuǎn)化為實(shí)質(zhì)上的平等。在《生成式人工智能服務(wù)管理暫行辦法》生效之前,我國(guó)并未規(guī)定算法解釋權(quán)或者類似規(guī)定,僅在人工智能相關(guān)規(guī)范和標(biāo)準(zhǔn)中提到“算法應(yīng)當(dāng)具有可解釋性”。直到《生成式人工智能服務(wù)管理暫行辦法》第19條首次作出了規(guī)定:“有關(guān)主管部門依據(jù)職責(zé)對(duì)生成式人工智能服務(wù)開展監(jiān)督檢查,提供者應(yīng)當(dāng)依法予以配合,按要求對(duì)訓(xùn)練數(shù)據(jù)來源、規(guī)模、類型、標(biāo)注規(guī)則、算法機(jī)制機(jī)理等予以說明,并提供必要的技術(shù)、數(shù)據(jù)等支持和協(xié)助。”該項(xiàng)規(guī)定在人工智能算法安全風(fēng)險(xiǎn)應(yīng)對(duì)方面無疑是巨大進(jìn)步,但其中的局限性也十分明顯。首先,有權(quán)要求人工智能服務(wù)提供者就算法進(jìn)行解釋說明的主體僅涉及監(jiān)管機(jī)構(gòu), 而未明確涵蓋其他相關(guān)方,這可能導(dǎo)致在實(shí)際執(zhí)行過程中,其他重要利益相關(guān)者,尤其是個(gè)人信息主體的權(quán)益無法得到保障。其次,該項(xiàng)規(guī)定在描述算法機(jī)制機(jī)理時(shí)過于籠統(tǒng),缺乏明確指向,可能導(dǎo)致執(zhí)行上的困難,甚至使該規(guī)定難以實(shí)際落實(shí)。
歐盟地區(qū)和美國(guó)已經(jīng)較早踐行了算法透明原則并將算法解釋權(quán)法定化。其啟示意義在于生成式人工智能中算法透明原則的落實(shí)不能完全依賴于可解釋權(quán),還應(yīng)輔之以算法影響性評(píng)估等事后規(guī)制措施。此外,除了以算法透明原則的落實(shí)來回應(yīng)惡意內(nèi)容生成風(fēng)險(xiǎn),還應(yīng)當(dāng)作好事后應(yīng)對(duì)與懲處,尤其是要求平臺(tái)建立辟謠和舉報(bào)機(jī)制,并對(duì)違法傳播虛假有害信息者采取停止傳輸?shù)认拗拼胧?/p>
(三)存儲(chǔ)端:以重要數(shù)據(jù)安全為中心,夯實(shí)數(shù)據(jù)管理保障機(jī)制
針對(duì)生成式人工智能數(shù)據(jù)存儲(chǔ)端的重要數(shù)據(jù)泄露風(fēng)險(xiǎn),可從事前的數(shù)據(jù)保護(hù)與事后的應(yīng)急處理兩方面入手,對(duì)生成式人工智能系統(tǒng)開發(fā)機(jī)構(gòu)科以數(shù)據(jù)處理環(huán)境安全保障義務(wù)和數(shù)據(jù)安全突發(fā)事件應(yīng)急義務(wù),夯實(shí)生成式人工智能數(shù)據(jù)管理保障機(jī)制。
1.數(shù)據(jù)處理環(huán)境安全保護(hù)義務(wù)
生成式人工智能開發(fā)機(jī)構(gòu)應(yīng)構(gòu)建起全面的數(shù)據(jù)處理環(huán)境安全防護(hù)體系,使其語(yǔ)料庫(kù)數(shù)據(jù)始終存儲(chǔ)于安全的環(huán)境中。由此展開的數(shù)據(jù)處理環(huán)境安全保護(hù)義務(wù)的構(gòu)成包括以下三個(gè)方面:其一,數(shù)據(jù)分級(jí)保護(hù)義務(wù)。數(shù)據(jù)分類分級(jí)是生成式人工智能語(yǔ)料庫(kù)數(shù)據(jù)安全管理的前提,我國(guó)數(shù)據(jù)安全法已明確將數(shù)據(jù)分類為國(guó)家核心數(shù)據(jù)、重要數(shù)據(jù)、一般數(shù)據(jù),進(jìn)行輕重有別的差異化保護(hù)。《網(wǎng)絡(luò)數(shù)據(jù)安全管理?xiàng)l例(征求意見稿)》第9條亦規(guī)定“處理重要數(shù)據(jù)的系統(tǒng)原則上應(yīng)當(dāng)滿足三級(jí)以上網(wǎng)絡(luò)安全等級(jí)保護(hù)和關(guān)鍵信息基礎(chǔ)設(shè)施安全保護(hù)要求,處理核心數(shù)據(jù)的系統(tǒng)依照有關(guān)規(guī)定從嚴(yán)保護(hù)”。為此,生成式人工智能開發(fā)機(jī)構(gòu)應(yīng)依據(jù)數(shù)據(jù)的來源、價(jià)值、敏感程度和影響程度等對(duì)語(yǔ)料庫(kù)數(shù)據(jù)進(jìn)行分類分級(jí),制定等級(jí)化的數(shù)據(jù)保護(hù)規(guī)范制度,對(duì)語(yǔ)料庫(kù)中重要數(shù)據(jù)、核心數(shù)據(jù)采取更高等級(jí)的保護(hù)措施。同時(shí),還應(yīng)細(xì)化內(nèi)部規(guī)則對(duì)語(yǔ)料庫(kù)數(shù)據(jù)的分類、標(biāo)記、評(píng)估等諸多方面進(jìn)行規(guī)制;其二,數(shù)據(jù)風(fēng)險(xiǎn)監(jiān)測(cè)和評(píng)估義務(wù)。根據(jù)數(shù)據(jù)安全法第29、30條規(guī)定,生成式人工智能開發(fā)機(jī)構(gòu)在我國(guó)境內(nèi)開展數(shù)據(jù)處理活動(dòng)應(yīng)當(dāng)加強(qiáng)風(fēng)險(xiǎn)監(jiān)測(cè),發(fā)現(xiàn)數(shù)據(jù)安全漏洞等風(fēng)險(xiǎn)時(shí),應(yīng)當(dāng)立即采取補(bǔ)救措施;生成式人工智能開發(fā)機(jī)構(gòu)還應(yīng)當(dāng)對(duì)其數(shù)據(jù)處理活動(dòng)定期開展風(fēng)險(xiǎn)評(píng)估,并向有關(guān)主管部門報(bào)送風(fēng)險(xiǎn)評(píng)估報(bào)告;其三,設(shè)置數(shù)據(jù)安全負(fù)責(zé)人和管理機(jī)構(gòu)的義務(wù)。歐盟通用數(shù)據(jù)保護(hù)條例第37條規(guī)定所有數(shù)據(jù)處理者都應(yīng)當(dāng)設(shè)立“數(shù)據(jù)保護(hù)官員”,負(fù)責(zé)數(shù)據(jù)保護(hù)相關(guān)工作。我國(guó)數(shù)據(jù)安全法也有類似規(guī)定,根據(jù)數(shù)據(jù)安全法第27條第2款,生成式人工智能開發(fā)機(jī)構(gòu)處理重要數(shù)據(jù)應(yīng)當(dāng)明確數(shù)據(jù)安全負(fù)責(zé)人和管理機(jī)構(gòu), 落實(shí)數(shù)據(jù)安全保護(hù)責(zé)任。至于數(shù)據(jù)安全負(fù)責(zé)人和管理機(jī)構(gòu)的具體職責(zé),《網(wǎng)絡(luò)數(shù)據(jù)安全管理?xiàng)l例(征求意見稿)》第28條作出的具體規(guī)定可予以參照,其中包括數(shù)據(jù)安全重大決策提議、開展數(shù)據(jù)安全風(fēng)險(xiǎn)監(jiān)測(cè)、開展數(shù)據(jù)安全宣傳教育培訓(xùn)等內(nèi)容。
2.數(shù)據(jù)安全突發(fā)事件應(yīng)急義務(wù)
確立生成式人工智能開發(fā)機(jī)構(gòu)數(shù)據(jù)處理環(huán)境安全保護(hù)義務(wù)可以提高其數(shù)據(jù)安全保護(hù)能力,并有助于建立全方位、多層次的語(yǔ)料庫(kù)數(shù)據(jù)管理體系。然而,即使如此,仍然不能完全避免數(shù)據(jù)泄露等安全事件的風(fēng)險(xiǎn)。因此,生成式人工智能開發(fā)機(jī)構(gòu)需要建立健全應(yīng)急預(yù)案,以及時(shí)響應(yīng)、處置和報(bào)告數(shù)據(jù)安全突發(fā)事件,最大程度保障用戶數(shù)據(jù)的安全。應(yīng)急預(yù)案的制定應(yīng)當(dāng)遵循數(shù)據(jù)安全法等法律法規(guī)要求,包括但不限于以下內(nèi)容:
其一, 生成式人工智能開發(fā)機(jī)構(gòu)應(yīng)當(dāng)明確數(shù)據(jù)安全責(zé)任人和應(yīng)急響應(yīng)團(tuán)隊(duì)成員的職責(zé)和任務(wù)。數(shù)據(jù)安全責(zé)任人應(yīng)當(dāng)具備足夠的技術(shù)和管理能力,負(fù)責(zé)組織制定、實(shí)施和維護(hù)應(yīng)急預(yù)案,負(fù)責(zé)協(xié)調(diào)各部門的應(yīng)急響應(yīng)工作。應(yīng)急響應(yīng)團(tuán)隊(duì)成員應(yīng)當(dāng)根據(jù)預(yù)案的要求履行職責(zé),及時(shí)采取措施防止和應(yīng)對(duì)數(shù)據(jù)安全事件。其二,應(yīng)急預(yù)案還應(yīng)當(dāng)包括數(shù)據(jù)安全事件的分類和等級(jí)劃分標(biāo)準(zhǔn)。生成式人工智能開發(fā)機(jī)構(gòu)應(yīng)當(dāng)將數(shù)據(jù)安全事件分為不同的等級(jí),以便進(jìn)行及時(shí)、準(zhǔn)確的處理。例如,一級(jí)數(shù)據(jù)安全事件可能是由于黑客攻擊或自然災(zāi)害造成的系統(tǒng)故障,而二級(jí)數(shù)據(jù)安全事件則可能是由于員工失誤或技術(shù)問題導(dǎo)致的數(shù)據(jù)泄露事件。生成式人工智能開發(fā)機(jī)構(gòu)應(yīng)當(dāng)針對(duì)不同等級(jí)的數(shù)據(jù)安全事件制定相應(yīng)的應(yīng)急預(yù)案,并根據(jù)情況采取相應(yīng)的措施。其三,生成式人工智能開發(fā)機(jī)構(gòu)應(yīng)當(dāng)明確應(yīng)急響應(yīng)措施和流程。應(yīng)急響應(yīng)措施包括但不限于采取緊急措施、停止對(duì)外服務(wù)、隔離受影響的系統(tǒng)或網(wǎng)絡(luò)等。應(yīng)急響應(yīng)流程應(yīng)當(dāng)包括但不限于事件的報(bào)告、確認(rèn)、處理、跟蹤、總結(jié)等環(huán)節(jié)。生成式人工智能開發(fā)機(jī)構(gòu)應(yīng)當(dāng)在應(yīng)急響應(yīng)流程中規(guī)定各個(gè)環(huán)節(jié)的時(shí)限和責(zé)任人,以確保應(yīng)急響應(yīng)工作的及時(shí)性和有效性。其四,生成式人工智能開發(fā)機(jī)構(gòu)應(yīng)當(dāng)定期組織應(yīng)急演練,檢驗(yàn)和完善應(yīng)急預(yù)案。應(yīng)急演練可以幫助生成式人工智能開發(fā)機(jī)構(gòu)發(fā)現(xiàn)預(yù)案中存在的問題和不足,進(jìn)一步完善和優(yōu)化應(yīng)急預(yù)案。在應(yīng)急演練中,生成式人工智能開發(fā)機(jī)構(gòu)應(yīng)當(dāng)充分考慮不同類型的數(shù)據(jù)安全事件,針對(duì)性地進(jìn)行演練。其五,應(yīng)急預(yù)案的制定應(yīng)當(dāng)以實(shí)際情況為基礎(chǔ),對(duì)不同類型的數(shù)據(jù)安全突發(fā)事件進(jìn)行分類,制定不同的預(yù)案。例如,在面對(duì)數(shù)據(jù)泄露事件時(shí),應(yīng)急預(yù)案應(yīng)當(dāng)包括對(duì)受影響的數(shù)據(jù)進(jìn)行封鎖、追溯、還原等應(yīng)對(duì)措施;而在面對(duì)數(shù)據(jù)丟失事件時(shí),應(yīng)急預(yù)案則應(yīng)當(dāng)包括及時(shí)恢復(fù)備份數(shù)據(jù)、提升系統(tǒng)容錯(cuò)能力等應(yīng)對(duì)措施。其六,應(yīng)急預(yù)案還應(yīng)當(dāng)明確責(zé)任人的職責(zé)和權(quán)限,以及應(yīng)急處置流程和應(yīng)急資源的調(diào)配方案。其七,在應(yīng)急預(yù)案的制定和執(zhí)行中,生成式人工智能開發(fā)機(jī)構(gòu)還應(yīng)當(dāng)遵守相關(guān)的法律法規(guī)要求,如網(wǎng)絡(luò)安全法、數(shù)據(jù)安全法等,確保應(yīng)急處置的合法性和合規(guī)性。此外,還需要將應(yīng)急預(yù)案不斷完善和優(yōu)化,通過定期演練和測(cè)試,提高應(yīng)急響應(yīng)的效率和能力,以應(yīng)對(duì)不斷變化的數(shù)據(jù)安全威脅。
(四)輸出端:從技術(shù)、標(biāo)準(zhǔn)、法律三元層面,優(yōu)化生成內(nèi)容治理體系
惡意內(nèi)容生成風(fēng)險(xiǎn)廣泛存在于生成式人工智能數(shù)據(jù)輸出端,如同一種漸進(jìn)式的毒瘤,對(duì)人工智能技術(shù)發(fā)展和社會(huì)穩(wěn)定、國(guó)家安全造成威脅。為此,需要從技術(shù)、標(biāo)準(zhǔn)和法律三元層面,優(yōu)化生成內(nèi)容治理體系。
其一,在技術(shù)層面,應(yīng)當(dāng)加強(qiáng)對(duì)生成式人工智能算法的研究,改進(jìn)其生成機(jī)制,以確保其生成的數(shù)據(jù)符合道德和法律標(biāo)準(zhǔn)。生成式人工智能開發(fā)機(jī)構(gòu)可以通過訓(xùn)練和調(diào)整生成式人工智能模型,提高其識(shí)別和過濾惡意內(nèi)容的能力,從而降低惡意內(nèi)容生成的風(fēng)險(xiǎn)。具體而言,可以利用自然語(yǔ)言處理和機(jī)器學(xué)習(xí)等技術(shù)手段,通過對(duì)惡意內(nèi)容的檢測(cè)和屏蔽來防止其出現(xiàn)在生成的數(shù)據(jù)中。此外,建立黑名單機(jī)制,對(duì)已知的惡意內(nèi)容進(jìn)行記錄和管理,從而可以更加有效地屏蔽其出現(xiàn)在生成的數(shù)據(jù)中。
其二,在標(biāo)準(zhǔn)層面,制定規(guī)范化的技術(shù)標(biāo)準(zhǔn)可以規(guī)范生成式人工智能的研究、開發(fā)、應(yīng)用等環(huán)節(jié),提高生成式人工智能技術(shù)的安全性和可靠性,從而確保輸出內(nèi)容符合公序良俗、法律法規(guī)的要求。目前,國(guó)際上已經(jīng)開始制定一些標(biāo)準(zhǔn)來規(guī)范人工智能技術(shù)的倫理和道德問題,其中部分內(nèi)容涉及惡意內(nèi)容的生成和傳播。如電氣和電子工程師協(xié)會(huì)(IEEE)制定的關(guān)于預(yù)防算法偏差的標(biāo)準(zhǔn)IEEE#P7003,該標(biāo)準(zhǔn)提供了惡意內(nèi)容生成的風(fēng)險(xiǎn)評(píng)估框架和流程,以及相應(yīng)的預(yù)防和應(yīng)對(duì)策略。然而,由于人工智能技術(shù)的快速發(fā)展和廣泛應(yīng)用,標(biāo)準(zhǔn)制定一定程度上滯后于技術(shù)發(fā)展和應(yīng)用,無法及時(shí)跟上技術(shù)和需求的變化,也影響了標(biāo)準(zhǔn)的實(shí)施和應(yīng)用效果,標(biāo)準(zhǔn)完善的問題仍然需要進(jìn)一步關(guān)注。一方面,由于惡意內(nèi)容生成風(fēng)險(xiǎn)是一個(gè)全球性的問題,因此需要制定統(tǒng)一的標(biāo)準(zhǔn)和規(guī)范,以便不同國(guó)家和地區(qū)之間進(jìn)行協(xié)調(diào)和合作。國(guó)際標(biāo)準(zhǔn)化組織可以在這方面發(fā)揮重要作用,制定全球性的標(biāo)準(zhǔn)和規(guī)范,以確保生成式人工智能技術(shù)的安全和合法性;另一方面,標(biāo)準(zhǔn)和規(guī)范應(yīng)當(dāng)具有可操作性和可實(shí)施性,能夠?yàn)檠芯咳藛T和從業(yè)者提供具體的指導(dǎo)和幫助。
其三,除了在技術(shù)和標(biāo)準(zhǔn)層面進(jìn)行治理外,應(yīng)針對(duì)惡意內(nèi)容生成風(fēng)險(xiǎn)加強(qiáng)相應(yīng)的立法和監(jiān)管。例如,歐盟在2021年發(fā)布了《歐洲人工智能法規(guī)框架》,其中就對(duì)人工智能技術(shù)內(nèi)容生成進(jìn)行了規(guī)范。該法規(guī)要求開發(fā)者和提供者對(duì)其技術(shù)的應(yīng)用進(jìn)行評(píng)估和風(fēng)險(xiǎn)管理, 確保其生成的內(nèi)容不包含任何具有欺騙性、誤導(dǎo)性、令人厭惡、令人不安等信息。我國(guó)《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》也為加強(qiáng)對(duì)惡意內(nèi)容生成風(fēng)險(xiǎn)的管理和治理提供了詳細(xì)和具體的法律依據(jù)。《生成式人工智能服務(wù)管理暫行辦法》更是通過多條規(guī)則對(duì)生成內(nèi)容的準(zhǔn)確性、合法性、正當(dāng)性以及違反規(guī)定應(yīng)承擔(dān)的責(zé)任進(jìn)行規(guī)定。這些規(guī)范將使開發(fā)者和提供者更加負(fù)責(zé)任地使用人工智能技術(shù),避免生成有害或欺騙性內(nèi)容。未來,我們需要進(jìn)一步加強(qiáng)對(duì)上述規(guī)定的執(zhí)行和監(jiān)督,推進(jìn)以“‘風(fēng)險(xiǎn)預(yù)防規(guī)則和協(xié)同治理模式為核心的”“全過程治理”,以便促進(jìn)生成式人工智能技術(shù)的健康發(fā)展。
雖然我國(guó)已經(jīng)出臺(tái)了一系列法律法規(guī)對(duì)人工智能技術(shù)進(jìn)行規(guī)范, 但是對(duì)于生成式人工智能惡意內(nèi)容生成風(fēng)險(xiǎn)的規(guī)范還存在不足。一方面,由于人工智能技術(shù)的復(fù)雜性和隱蔽性,監(jiān)管部門和執(zhí)法機(jī)構(gòu)在檢測(cè)和防范惡意內(nèi)容生成風(fēng)險(xiǎn)方面存在一定的難度,也存在一定的滯后性,很難實(shí)現(xiàn)對(duì)生成式人工智能技術(shù)的全面監(jiān)管和有效打擊;另一方面,對(duì)于人工智能技術(shù)惡意內(nèi)容生成風(fēng)險(xiǎn)的處罰措施較為單一,主要集中在罰款和停業(yè)整頓等行政處罰上,對(duì)于一些嚴(yán)重違法行為,如惡意傳播虛假信息、侵犯他人隱私等,缺乏更具震懾力的刑事處罰。針對(duì)上述問題,建議我國(guó)進(jìn)一步完善相關(guān)法律法規(guī),加強(qiáng)對(duì)生成式人工智能技術(shù)的監(jiān)管和執(zhí)法,同時(shí)加強(qiáng)對(duì)相關(guān)違法行為的懲罰力度,確保對(duì)惡意內(nèi)容生成風(fēng)險(xiǎn)的及時(shí)發(fā)現(xiàn)和有效打擊。此外,還需要加強(qiáng)與國(guó)際社會(huì)的合作,借鑒國(guó)際先進(jìn)經(jīng)驗(yàn),共同推進(jìn)生成式人工智能技術(shù)的安全發(fā)展和管理。