999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

論虛擬數字人應用的數據安全法律保障

2024-12-31 00:00:00瞿昊暉?李雋姝
電子知識產權 2024年7期

摘要:作為生成式人工智能的典型代表之一,虛擬數字人基于大數據模型訓練進行文本、圖片、影音算法生成,并應用于文化旅游、新聞娛樂、電商游戲等場景。新型數據安全風險也隨之產生,如非法獲取與利用數據風險、數據偏見與數據存儲風險、虛假生成內容與不正當競爭風險、刑事風險等。由此,面對數據安全與數據利用原則之間的現實張力,堅持并實施數據安全的統籌安全與發展原則數據利用的分類分級原則,秉持“人身—財產”差異性數據分類模式,實現虛擬數字人數據“識別—溯源—監管”的合規路徑,從而明確數據采集的范圍、方式,厘清企業與政府之間對數據安全風險的監管界限。

關鍵詞:虛擬數字人;數據安全;數據利用;差異性數據分類

一、問題的提出:“深度學習”的進步與“深度偽造”的濫用

虛擬數字人產業在近兩年迅速發展,成為人工智能技術應用的前沿陣地。當前,人工智能產品邁入通用型、工程化的“深度學習”階段。在類GPT模型的融合下,虛擬數字人的應用呈現出由日常生活向專業領域擴大的趨勢。其可作為“生成型預訓練語言轉換器”,在大量數據訓練的基礎上完成對話交互、樂曲撰寫、文本生成、視頻腳本制作、代碼編寫、檢索報告生成、AI繪畫等具有類“創作”性質的內容生成任務。例如,騰訊AI LAB的數字人歌手AI艾靈基于DurIAN個性化歌聲合成和歌詞創作模型SongNet的支持,實現歌詞創作與歌曲演唱。

在生成式人工智能技術廣泛應用于虛擬數字人之際,諸如“深度偽造”等數據安全事故頻發,引發了社會對數據安全的憂慮。一方面,生成式人工智能、云環境的發展加劇了數據跨境流通的頻繁性和復雜性,極易造成對數據的篡改、偽造、泄露甚至濫用。根據美國IBM公司發布的2023年度報告,單個數據泄露事件給來自全球的受訪組織造成了平均高達445萬美元的損失;另一方面,數據資源商業價值和戰略價值日益顯現,致使數據攻擊、數據竊取、數據倒賣、數據劫持等現象層出不窮,并逐漸呈現出跨國性、高科技、產業化等特點。2023年12月,AI視頻生成平臺HeyGen在國內獲得大量用戶肖像及聲音數據后,將國內母公司詩云科技通過決議解散程序擬注銷,并將所有國內用戶數據轉移至美國,導致大量中國公民數據外流。該公司正是通過HeyGen平臺的用戶自建數字人模塊獲取大量中國公民數據。根據算法驅動過程,在數字人研發階段預訓練數據采集時可能對在先數據權益造成侵害,并在應用階段存在虛假數據生成、不正當競爭與刑事風險。虛擬數字人應用的進一步普及將致使潛在數據安全風險增大,帶來個人隱私、企業經營、政府運作等諸多領域的數據安全隱患。

基于虛擬數字人應用帶來的數據安全風險治理,面臨著法律趕不上技術與應用指數級發展的困局,如何破局成為當務之急。盡管國家基于“總體安全觀”的戰略定位,對數據安全與數據利用價值問題進行了政策指引,學界亦關于生成式AI的數據安全問題有所討論,但目前只是在探討生成式人工智能技術風險時附帶提及數據安全問題,尚未從虛擬數字人應用視角闡述數據安全風險的特殊性及其可能引起的其他安全問題,脫離了生成式人工智能應用端的具體化場景。有鑒于此,本文擬在總體國家安全觀的指引下,探尋一條平衡數據安全與數據利用價值沖突、實現發展與安全圓融統一的規范進路。此外,基于虛擬數字人應用的各個環節,對其數據安全風險進行識別,探討數字人數據安全風險治理的范式轉型,提出具體應用中數據安全風險治理的可能路徑。

二、從研發到部署:虛擬數字人應用全流程風險識別

虛擬數字人的內容生成離不開海量數據的支撐。AI模型的性能與模型參數規模、數據集大小等兩個數據變量呈“對數線性關系”,因此可以通過增大模型的規模不斷提高模型的性能。由此,參照歐盟《人工智能法》對人工智能研發與應用的界定,著眼于虛擬數字人研發、部署等各方面各階段,分析現實存在的數據安全風險。

(一)研發階段:非法獲取與利用數據風險

在語料數據庫構建方面,虛擬數字人需要大量數據支撐。當前技術下可分為被動式構建和主動式構建兩種類型:第一種類型在傳統數字人階段就已經出現,即通過用戶端對話框的數據輸入,在技術層面收集存儲,并構建語料數據庫;第二種類型是生成式人工智能階段的主要形式,通過數據爬蟲等技術,自動爬取網絡端的大量數據,在數據輸入階段進行數量、效率層面的極大突破,為后期數據訓練和機器學習提供基礎。

無論是被動式構建還是主動式構建,數字人研發均可能引致數據資源的非法獲取與利用。具體而言,數字人開發中主要依據CG建模及人工智能建模兩種技術,產生對權利人在先數據權利的侵害。

其一,非法獲取或利用行為可能侵犯數據在先人身權益。在研發階段,如原始數據來源于特定自然人肖像或其他數字人形象,需取得自然人或數字人所屬公司的在先授權;如數字人命名對其他自然人的身份混淆,或造成對其他法人、非法人組織名稱歸屬上的混淆,亦可能侵犯民事主體的姓名權或名稱權。司法實踐中已經出現此類糾紛,在“AI陪伴”軟件侵害人格權案中,法院便認定被告擅自使用原告(著名主持人何某)形象創設虛擬數字人,未經同意使用原告姓名、肖像,設定涉及原告人格自由和人格尊嚴的系統功能,構成對原告姓名權、肖像權、一般人格權的侵害。

其二,非法獲取或利用行為侵犯數據在先知識產權權益。在研發階段,相當多的原始數據來源于第三人作品,由此生成的數字人形象構成對原作品的復制、改編,需取得作為在先著作權人的第三人授權。以Midjourney等生成式AI繪畫軟件為例,用戶與服務提供者均需輸入大量數字化繪畫作品與圖像,以訓練算法。然而,相當多數據庫本身存在數字作品著作權侵權與個人隱私數據濫用風險,即便權利人采取各種措施,要求服務提供者在數據庫中刪除侵權數據,但此類數據已經被用于模型訓練,成為算法內容。實踐中曾有此類糾紛,B站旗下數字人“柒柒Ranoca”便被指控涉嫌抄襲另一數字人“格蕾緹婭Gretia”的面部形象。由于非法爬取的數據一般具有私密性或保護性,數據爬取階段的不當獲取與利用可能侵害他人的在先數據權益,存在非法獲取與利用數據風險。

(二)訓練階段:數據偏見與數據存儲風險

1.數據偏見風險

訓練階段存在數據偏見風險。虛擬數字人的內容生成由其自然語言模型所決定,而自然語言模型在本質上取決于研發者對于算法的選擇,這使得數字人的研發者能夠通過修改數據庫或操控算法的方式,將具有偏見的個人偏好在數據訓練中植入,并通過數字人生成內容對社會大眾進行輸出,以數據輸出實現價值觀對人的異化。

基于數據偏見的數字人應用,則可能衍生文化安全危機。鑒于數字人在文娛直播、旅游電商、休閑娛樂等領域的廣泛應用,虛擬數字人中的數據偏見風險可能帶來極為嚴重的文化安全后果。虛擬數字人機構可能出于特定的政治目標或其他利益考量,使用帶有偏見的數據樣本進行語言模型訓練,使數字人的生成內容具有導向性,例如柳夜熙等具有一定IP影響力的KOL型、歌舞型、品牌型數字人,數據偏見風險可能導致其生成內容對粉絲群體的思想和偏好產生“潛移默化”的影響。

2.數據存儲風險

訓練階段尚存在計算機及軟件保障層面的數據存儲風險。數字人并非限于藝術形象或角色,其依賴于計算機軟件和相關算法,對捕捉到的語音、圖像、動作進行識別,并在分析的基礎上進行回應決策。以上過程中所涉及的代碼可作為計算機軟件,需要數據存儲層面的保護,相關算法亦需要通過商業秘密的形式進行數據保護,因此存在數據泄露、版權侵權、商業秘密侵權等數據存儲風險。例如,涉及開源軟件使用時,研發方需進一步考量是否使用相關開源軟件及具體使用方式,以免自研代碼需要承擔強制開源的義務。

此外,當前公民個人隱私信息的采集和存儲數量迎來爆發式增長,生產、生活的任一環節都被轉化成相應的數據存儲,社會關系呈現出數據化的形態。生成式人工智能的訓練需要使用大量的數據,ChatGPT賬戶的注銷聲明中明確提到“用戶可以注銷且刪除賬戶信息,但會話中的敏感信息是無法刪除的,會被后續訓練使用”,敏感數據也會被分享和第三方存儲,因此數據存儲中存在隱私泄露風險。

(三)部署階段:虛假生成內容、不正當競爭與刑事風險

1.虛假生成內容風險

生成式AI模型使用本身即會生產、傳播虛假信息數據。即便在GPT模型的介入下,虛擬數字人也非人類意義上思維判斷的產物,無法直接判斷算法生成內容本身的真實性和準確性。這可能導致虛假信息的算法自動生成,在研發人員的介入下甚至生成惡意虛假內容。鑒于AI大模型的開源化發展,虛假信息的生產和傳播呈現高效而低成本的特點,可以被批量地、大規模地生成。在可見的未來,隨著生成式AI的持續改進,區別AI生成內容和人類創造內容的難度愈發增大,目前已經出現諸如深度偽造(Deepfake)等危害安全的案件,對識別、打擊數字人領域的虛假信息提出了新的挑戰。在“深度偽造”案中,黑客集團通過Deepfake Wire平臺利用ChatGPT制作生成式數字人,并在包裝后進行詐騙活動,嚴重危害社會安全。對此,2023年10月美國參議員向國會提交立法草案“No Fakes Act”,該法案旨在禁止未經授權將個人的聲音和肖像作為生成式人工智能的投喂素材,以此創作與權利主體類似的虛擬數字人形象。此外,TikTok在更新的平臺社區準則中也明確規定,“禁止針對個人形象的Deepfake視頻”。

2.不正當競爭風險

“數字人”運營需要付出較高的人力、物力及技術成本,通過提供定制化產品服務滿足多樣化市場需求,并進行具體的場景應用,以此取得交易機會和實現創新。因此,“數字人”一方面享有經營利益和競爭優勢,另一方面則成為不正當競爭的直接目標。在首例涉“虛擬數字人”侵權案中,杭州互聯網法院便認定杭州某網絡公司以引流營銷為目的,通過視頻形式將虛擬數字人Ada作為實例展示在其抖音賬號,其在視頻中對涉及魔琺公司有關標識的信息內容進行刪減并替換為課程營銷信息或自身商標,還在一段視頻標題中標注其他虛擬數字人名稱,可能影響消費者理性決策,獲得更多商業機會,擾亂市場競爭秩序,直接損害魔琺公司的商業利益,構成虛假宣傳的不正當競爭行為。

3.刑事風險

除虛假信息傳播等風險外,虛擬數字人生成中個人形象特征的依附性,還可能引發現實的人身侵害犯罪風險?,F階段,數字人游戲中,每個玩家都可以基于自身形象生成自己的虛擬數字人,在游戲過程中與他人進行沉浸體感的互動。一名女性玩家在Meta公司游戲《地平線世界》(Horizon Worlds)中的虛擬數字人被性侵。受害人進入游戲內的房間后,持續遭到另一名男性虛擬角色性侵,并引起旁觀者起哄,由于虛擬人物的接觸能令玩家手中的控制器產生震動,受害人感到極度不適。此事件發生后,Meta公司在《地平線世界》中著重建設了“個人邊界”功能,使每個用戶角色間存在1米左右的虛擬距離,避免他人未經同意侵入玩家的個人空間。

虛擬數字人游戲中的性侵行為具有構成我國《刑法》第237條強制猥褻、侮辱罪的可能性。在我國司法實踐中,違背被害人意志、非真實身體接觸的“隔空猥褻”行為可構成犯罪既遂。如在最高人民檢察院發布的指導案例中,被告人在網絡聊天中對13歲女童威脅恐嚇,迫使被害人自拍裸體照片發送給自己觀看。法院認為,通過網絡通訊工具,實施非直接身體接觸的猥褻行為與實際接觸兒童身體的猥褻行為具有相同的社會危害性,可認定構成猥褻兒童罪(既遂)。這就要求虛擬數字人游戲的開發者和運營者采取必要的技術手段避免用戶的身體法益受到侵害,否則就存在構成猥褻、侮辱犯罪的幫助犯或幫助信息網絡犯罪活動罪的風險。

前述風險分析,是基于大規模數據使用,所產生的虛擬數字人應用侵權、犯罪的可能情形。盡管所涉知識產權侵權、虛假信息等情形并非直接的數據侵權,但將其一并分析有如下考量:第一,當前虛擬數字人應用所仰賴的生成式人工智能技術涉及大規模數據。目前最前沿的大模型GPT-4參數量已經達到了萬億到十萬億量級,風險治理必須直面大規模的數據使用。第二,我國法律的明確規定。依照現行《數據安全法》的規定,“數據,是指任何以電子或者其他方式對信息的記錄”。圍繞數據的公法保障與私權設置已經成為當前除知識產權客體以外的信息保護的核心議題。因此,基于前述風險、模型需求與立法導向,數據安全已成為生成式人工智能技術發展與應用風險治理的核心價值。

三、價值調和:數據利用與數據安全的法治實現

對于虛擬數字人應用而言,前述各種風險,實質上是數據安全和數據利用兩種價值取向之間緊張關系的體現。近兩年來,數據合規成為數字經濟發展中需迫切關注的問題,“數據二十條”的出臺進一步推動了公共數據、企業數據、個人數據的合規高效流通使用。虛擬數字人在交互應用過程中需依賴AIGC等技術,既是數據安全風險高發場域,也是數據合規的重點監控對象。

(一)價值沖突:數據安全與數據利用的現實張力

基于前述虛擬數字人應用的現實場景與相關爭議,可以發現數據安全與數據利用的現實張力體現為多元法律關系與風險表達,呈現出“跨越性”的特點。

第一,主權國家公法權力與跨國家技術競爭風險。當前,人工智能技術出口管制已經成為國家間經貿往來的重要話題。我國將“語音合成技術、人工智能交互界面技術、語音評測技術、智能閱卷技術、基于數據分析的個性化信息推送服務技術”等人工智能相關技術納入技術出口管制名單。美國近年來則通過《2022年保護美國知識產權法案》《芯片與科學法案》等相關法案,構建了以人工智能技術為核心的全面技術出口管制與制裁體系,妨礙相關國家獲取人工智能相關硬件與技術。此外,公共數據安全風險也成為各國監管重點,即以大數據形態表現的個人信息、公共信息等,如某一地區內的遺傳資源信息、醫療病歷信息、地理信息等。我國、歐盟、美國等國家與地區之間的數據采集、處理、流動的安全合規,已是當前人工智能技術發展所需語料的應用前提。

第二,網絡巨頭私法治權與跨人格私法權益風險。人工智能處理內容過程中會產生技術缺陷與濫用風險。技術濫用問題主要指在利用人工智能技術進行分析、決策的過程中,由于算法的設計與應用的目標等與社會倫理、法律規范的精神不符,導致不良社會效果,尤其是算法設計者本身的偏見、局限與算法所使用數據的偏差、不準確等造成的人工智能輸出結果的歧視與侵權問題。當前互聯網平臺在用戶數據的基礎上,通過算法應用給用戶評分、分級。在某外賣軟件的樂跑計劃之下,騎手所使用的電動車改裝必須超越國標規定,且需要走小路,兼有對逆行、闖紅燈等情況的要求。

第三,大眾個人使用權益與跨空間私權侵害風險。由于以生成式人工智能為代表的技術需要使用大量數據建立語料庫,在網絡空間之下,前述數據的在先權利風險呈現出全球范圍內的侵權與維權的跨空間特點。以生成式人工智能的繪畫與創作軟件為例,一方面,是生成內容的侵權風險,已有藝術家提起訴訟,指責Stable Diffusion和Midjourney等智能繪畫軟件存儲受著作權保護的作品,并拼接成新作品;另一方面,數據內容未經授權的違法風險。已有暢銷書作者發現,ChatGPT在介紹某作品時,使用了大量作品細節,鑒于OpenAI使用的BookCorpus等語料數據庫存在著作權爭議,對其作品使用也存在未經許可的情況,由此,主張OpenAI侵犯其著作權。

由此可知,如何治理這種具有“跨越性”特點的數據安全風險,是法律研究者所應回答的重要問題。當前生成式人工智能風險,涉及網絡空間的背景下國家、社會、科技巨頭、個體等多方主體跨越網絡、物理兩種空間,跨越公私兩個領域,利用技術、數據信息所產生的權力/權利的沖突。借用科林里奇困境(Collingridge Dilemma)的理論框架,人工智能風險并非如核武器研發的曼哈頓工程,新技術的后果明確可知;而如農業綠色革命,技術實施與風險控制是社會工程。由此,以虛擬數字人為代表的生成式人工智能技術風險治理,必然是以數據安全為核心的多元價值的實現與多重治理方式的實施。

(二)價值保障:數據安全實現的規范要求

數據安全是總體國家安全觀“總體性”的集中體現。數據與信息作為載體與內容之關系,數據被信息化呈現是大數據時代的典型特征,也決定了數據安全治理必然圍繞不同的信息內容展開。如個人數據中的肖像、姓名等,與自然人的人格利益密切相關,而非個人數據如企業數據、文化數據等可能涉及經濟安全、文化安全甚至政治安全等層面的國家安全利益。與數據在不同場景、模式中的運用相伴而生,數據安全體現的是不同的安全利益需求。

當前,國家嘗試在規范層面構建數據保護的多級規范體系,通過了《中華人民共和國數據安全法》(以下簡稱《數據安全法》)《北京市促進數字人產業創新發展行動計劃(2022—2025年)》《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》)《網絡數據安全管理條例(征求意見稿)》等政策和法律規范。從《數據安全法》第一條的立法意旨看,“保障數據安全”價值次序優先于“促進數據開發利用”價值。同時,該法第七條、第十三條、第十四條均對數據利用價值做了補強規定,數據利用價值實則處于核心位置。對此,立法通過多種方式保障數據安全與數據利用的價值實現,調和兩者之間的可能沖突。

第一,《數據安全法》確立了統籌安全與發展原則?!稊祿踩ā返谄邨l和第十三條是數據安全領域統籌安全與發展原則的具體依據:

其一,保護個人、組織與數據有關權益。當前學界對于數據權利的設定存在諸多爭議。一方面,個人、組織與數據有關的權益是不爭的社會現象,如個人信息隱私、企業商業秘密、政務數據、數字化作品等,都以數據形態存在于網絡空間、電子設備之中,便于相關主體從事處理、流轉、利用等各種活動,并且形成了相應的數據產品或服務市場;另一方面,國家立法也對數據權益進行了肯定,如《民法典》對數據權利的設定,《個人信息保護法》對隱私數據的保障等。由此,相關個人、組織的數據權益,無論是私法主體信息隱私的人格權益或商業秘密的財產權益,抑或公法主體的政務數據、交通數據、醫療數據的公共利益,都屬于《數據安全法》的保障范圍。

其二,鼓勵數據依法合理利用。這要求數據持有者、利用者的相關開發利用行為必須遵循依法保護與合理利用的原則。其一,設立了數據分級管理制度,實現對不同類型數據的差序保護,要求相關部門組織制定并適時修訂有關數據開發利用技術、產品和數據安全相關標準;其二,指出合理利用方向。國家鼓勵支持數據在各行業、各領域的創新應用。例如,2022年,我國數據出境相關的實施細則更加明確,制度框架已初步搭建成形。2022年7月7日《數據出境安全評估辦法》的發布明確了數據出境安全評估制度的各項規范。2022年6月30日,國家網信辦發布《個人信息出境標準合同規定(征求意見稿)》。

第二,《數據安全法》確立了數據分類分級原則。數據分類分級是數據安全治理的前提,只有對數據進行有效分類分級,才能避免一刀切的控制方式,在數據安全管理上采用更加精細的措施,使數據在共享使用和安全使用之間獲得平衡。

其一,規范來源方面。2016年11月,《網絡安全法》明確將“數據分類”作為網絡安全保護的法定義務之一。2021年9月,《數據安全法》第二十一條再次具體確立了“數據分類分級保護制度”及其基本原則。該兩項條款是分類分級原則的直接體現。

其二,概念內涵方面,數據分類是指按照數據的來源、內容和用戶對數據進行分類。而數據分級是指按照數據的價值、內容的敏感程度、影響和分發范圍不同對數據進行敏感級別劃分。數據分級是在數據分類的基礎上,采用規范、明確的方法區分數據的重要性和敏感度差異,按照一定的分級原則對其進行定級,從而為組織數據的開放和共享安全策略制定提供支撐的過程。

其三,法律法規方面,數據分類分級原則已經滲透到各類規范體系中,特別是在信息安全保障領域。《網絡安全法》和《數據安全法》等法律文件已經明確提出了數據分類分級制度,將其上升到國家層面,同時提出了重要數據目錄的制定。

(三)價值實現:基于總體國家安全觀的監管思路

《數據安全法》第四條規定:“維護數據安全,應當堅持總體國家安全觀,建立健全數據安全治理體系?!眱r值沖突平衡之路徑需從數據安全范疇入手,回歸“總體國家安全觀之組成部分”,從“統籌發展和安全”的全局視角出發探討虛擬數字人數據安全中的平衡之法。在具體實踐中,數據安全的不同領域之間存在較大的發展水平差異。相較于網絡數據安全等較為成熟的發展領域,生成式人工智能數據安全問題仍然處于初生階段,在數據合法性的界定、數據多層次處理手段以及數據良好業態形成等方面存在較大的不穩定性。在某一風險初始階段制定風險治理政策存在較低的機會成本,現階段虛擬數字人相關企業仍需要主導資源配置和研發競爭過程,而市場端和政府端的監管控制對權利配置影響較大,應在合理限度內實行寬松規制,在總體國家安全觀的基本性價值指引的底線上,對數據利用價值適當傾斜。由此,監管思路如下:

第一,根據不同應用領域之發展維度分層制定標準。在具體實踐中,現階段各地政府正在加快推出以元宇宙為框架的數字人相關政策和地方性法規。近年來,地方標準逐漸呈現出百花齊放之勢,以明確分類分級方法、分類維度、分級層次為主要內容。不過,在下位法規定方面,雖然制定主體多樣,但文件體系性尚不明晰,導致分類分級依據較為混亂。

地方立法應當在《數據安全法》等上位法規范框架內,盡可能減少對數字人產業和技術發展的限制,待數字人產業進一步發展至成熟形態時,回歸數據安全與數據利用價值之平衡,結合數字人技術、AIGC技術、虛擬現實技術的發展態勢,分層、分階段制定行業標準。特別是針對不同類型的數據主體,應在規范構造中以相應的數據級別分級處理,對于人臉識別信息等重要個人數據比照公共層面的數據安全問題實施更為嚴苛的保護措施。在具體實踐中,需要對個人數據的“橫向關系”加強規制,在規范層面作出針對性地補強,在考慮數據共享高風險和高收益特性的同時,抓住不同層級、不同領域價值沖突的重點。

第二,保障數據依法有序自由流動。數據安全的目標并不是封鎖數據、排除利用,導致數據喪失其經濟與社會價值,而是依法合規流動,始終發揮其功能和價值。因此,在產業層面需保障數字人研發中數據流動的“依法”“有序”“自由”。依法,即數據流動應當遵循數據安全、個人信息安全等國家安全相關法律法規,以及民法、反不正當競爭法等私法領域的法律法規,維護國家安全與私法權益;有序,即不同等級數據在境內、境外流動時,應當按照國家法律法規的要求進行風險評估和安全審查,也應當遵循當事人之間的合同約定;自由,即數據流動的限制應當由法律法規明確規定,除此之外,地方政府、有關部門不應當妨礙數據流動。

四、規制進路:“人身-財產”差異性數據合規體系的構建

基于前述虛擬數字人應用的場景與風險,實現數據安全的基本價值,促進數據利用,可從“識別—溯源—監管”三個層面來實現合規監管。第一,數據識別重在區分虛擬數字人所需數據類型,確定基本規制導向;第二,數據溯源則明確虛擬數字人數據采集的范圍、方式;第三,應用監管中厘清企業與政府之間對數據安全風險的監管界限。

(一)數據識別:建立差異性數據分類模式

面對前述數據安全與技術發展的張力消解,立足于虛擬數字人應用的數據安全領域,如何通過分層分類,劃定數據依法有序自由流動的基本范圍,成為規制實施的首要目的。鑒于虛擬數字人應用場景的數據類型,可從人身性與財產性兩個維度區分數據類型,探討合規舉措。

第一,人身性強且財產性強的數據。此類數據包含文學藝術作品、名人語音形象等,此類數據不僅包含個人信息安全,還囊括財產權益。第二,人身性強財產性弱的數據。其包含公眾醫療數據、個人生物特征數據、公有領域作品等,此種數據則主要涉及個人信息安全。第三,人身性弱且財產性弱的數據。包含處于公共領域內的諸多數據信息,此類數據則屬于法無明文規定即可自由利用的數據類型。第四,人身性弱但財產性強的數據。其包含各類商業秘密、商業數據等,此類數據具有一定的財產權益與競爭法益。

從這一象限圖可窺見數據分類之下的合規趨勢,即重在保障人身性強的數據,這不僅涉及數據隱私等私人權益,更指向數據安全的公共利益。不過,基于財產性的強弱,可進一步區分兩種合規路徑,對處于第一象限的財產性強的數據,數據權利人具有充分激勵保障數據利益,對其保護以私法自治與私法救濟為主;對處于第二象限的財產性弱的數據,數據權利人激勵不夠充分,私人維權成本高,但數據侵權危害大,對其保護以公權監管與公法救濟為主,如主管部門監管與檢察機關公益訴訟。依照這一區分,可以界定下列數據活動的合規邊界。

(二)數據溯源:厘清數字人數據庫采集范圍

1.界定語料數據庫的數據采集行為

第一,界定數據采集行為應以差異性數據分類為基礎。例如,在歌手孫燕姿的數字分身“數字人孫燕姿”的案件中,針對該數字人以孫燕姿本人的聲線翻唱歌曲是否侵害歌手本人人格權益的問題引發爭議。支持論者認為,部分使用他人聲音翻唱的行為需要經本人授權;反對論者則認為,該數字人通過數據公開采集,對孫燕姿公開演講和表演的聲音片段進行處理并技術生成了表演行為,并未侵害歌手的聲音識別權益。“名人語音形象”屬于人身性強且財產性強的第一象限數據,對此類數據采集行為的界定應以數據利用價值為導向,重在財產權益的許可、補償、賠償與保護,“數字人孫燕姿”應用本質與“真人孫燕姿”混淆,而產生誤認,進而獲取流量利益,不屬于對個人語音形象等數據的合理利用。

第二,界定數據采集行為應以利用程度分層為導向。具言之,在生成式人工智能發展的初始階段,如一貫加強數據采集的監管和限制,會對該技術的發展造成不利限制,因此對數字人訓練階段的“數據投喂”等大數據采集行為不宜輕易認定侵權。但是如果涉及商業化使用或大規模利用行為且獲得盈利,則應予以監管和約束,平衡數字人數據服務者、使用者以及數據權益享有者之間的利益,完善利益分配的權利義務,健全許可使用機制。

2.明確數據采集行為的合規情形

基于前述差異性數據分類模式,現實情形數據采集行為呈現不同形態,對圖1第一象限數據,采集面臨“私權保護”,需得到權利人的許可;對第二象限數據,采集面臨“數據安全監管”,需得到監管機關的批準;對第三象限數據,數據采集目前不受限制;對于第四象限數據,數據面臨“技術措施保障”,數據相關方利用技術措施限制或反擊采集行為。由此,采集行為需要考慮公權批準、私權許可、技術措施合理的多元合規。

當前爭議多聚焦于第一與第三象限的數據采集,即不考慮公權監管,數據采集能否突破“私權許可”的低效與“技術措施”的濫用。從域外考察視角看,日本2023年5月份的相關修正案認為“為數據分析利用計算機對作品進行數據處理,在符合作品目的的使用下,不會對版權人產生損害”,即對數據采集行為的認定較為寬松。歐盟亦在《人工智能法案》中對算法大模型訓練行為的數據采集采取了較寬容的態度,與生成式人工智能發展階段相適應。由此可見,域外立法立場多體現為鼓勵數據與技術措施的合理利用,同時不損害著作權與其他在先合法權益。

針對基于AIGC技術的數據采集行為,國家層面相關規范的出臺應把握好鼓勵技術創新和合理監管兩方面的平衡:第一,在司法實踐中考慮技術發展。面對訴訟糾紛,根據個案的具體采集方式和情形審慎作出侵權判定,堅持技術中立的價值選擇,將數據安全的法律監管置于具體應用場景之中,堅持對第二象限數據采集的公法監管,支持第一象限數據采集的私權保障,限制第四象限數據采集的技術濫用;第二,在法律實施中認可產業實踐。推動示范性語料數據庫建設與著作權集體管理組織履職,為生成式人工智能研發提供事先合規的語料數據,減少研發機構的法律負擔。

(三)應用監管:優化數字人應用的治理體系

1.強化虛擬數字人市場準入規則

第一,加強數字人數據獲取的安全評估。對可能存在的非法性獲取與利用行為嚴格審查,健全數字人安全評估規則,以人身性數據安全保障為核心,對數據行為進行由高到低的風險劃分。對于高風險等級的數據利用行為,數字人研發機構必須提交符合規定的數據安全評估報告,并在投放市場前接受相關機構的審查和批準。

第二,明確數字人數據處理的披露規則。在生成式人工智能的應用中,數據獲取方式通常缺乏公開性。為保障個人與國家層面的數據安全,虛擬數字人應用批準應強調數據處理規則的披露,數字人研發機構應當主動采用數據清洗和數據去標識化等技術,保障數字人訓練模型的數據準確可靠,并定期對數字人產品進行合規審查,及時識別和解決潛在的數據安全風險。

2.加大對虛假數據生成行為的打擊力度

第一,加強國家相關立法和監管。我國生成式人工智能相關立法對虛假數據生成行為進行了規制,下階段需要進一步加強執行和監督。另外,由于數字人技術的復雜性,監管部門和執法機構在檢測和防范虛假數據風險方面存在滯后性,且具體的規制方式集中于行政處罰,在刑事合規方面需要進一步完善相關法律法規,確保及時發現惡意生成虛假數據行為并進行有效打擊。

第二,引導企業開展數據安全風險自糾自查。引導數字人企業對可能涉及惡意生成虛假數據的行為進行風險評估,風險評估內容應當包括處理重要數據的種類和數量、數據處理活動的情況、數據安全風險等。要求相關人員提供相關說明材料,深入了解該行為可能產生的數據類型、數據來源、外部數據合作情況、數據保護現狀,并在此基礎上采取具有針對性及可操作性的應對措施。此外,數字人企業內部的重要數據風險評估應成為一種常態化的合規要求,在做好風險防范的同時定期向有關部門報送數據評估報告,建立自身的重要數據“風險全景圖”,增強風險防范意識。

3.健全虛擬數字人開發的產業基礎設施

第一,建設數字人產業的數據登記確權機制。充分運用作品登記、著作權認證等機制,支持數字人開發者、運營者為“數字人”生成內容及相關軟件、名人形象聲音等構成的作品、表演或者錄音錄像制品進行登記確權,避免研發階段對侵犯他人在先人身、知識產權權益,規避非法數據獲取與利用的風險。推動區塊鏈、智能合約等前沿技術手段在各領域、各場景的應用,強化版權自動登記和可追溯侵權源頭的功能,提升行業端對數字人數據的保護能力。

第二,推動中華優秀傳統文化語料數據庫建設。開展針對古籍、文言文、古漢語等優秀傳統文化的語料建設工作,有序有效開放文化數據資源,推動中華優秀傳統文化數據要素在認知安全的前提下轉化為生產要素。通過擬定公共文化數字資源許可和利用指南、示范法律文本,規范開發者對中華優秀傳統文化數字資源的利用行為,合規數字人應用中文化數據資源的數字化及可視化表達。

第三,引入數據要素流通安全保險金融服務。數據安全保險是控制數據流通過程中風險、降低安全損失的有效手段。針對虛擬數字人產業推出數據要素流通安全保險,整合“數據安全風險減量”與“金融補償”功能,填補傳統保險在應對虛擬數字人開發等新型數字化風險保障方面的空白。具體而言,可基于虛擬數字人從研發到部署的階段性數據安全風險,推出涵蓋事前預防、事中防護和事后補償三個階段的數據要素流通安全綜合保險,通過風險評估、系統加固、實時監測和應急響應等措施,提升虛擬數字人產業的數據安全防護能力。

五、結論

在生成式人工智能技術大躍遷的時代,虛擬數字人風險治理應以總體國家安全觀為政策導向,以風險全流程治理為制度目標,以數據安全與數據利用價值衡平適用為價值選擇,以虛擬數字人為中心主體。在準確識別研發、訓練、部署階段涉數據安全風險的基礎上,聚焦數字時代數據安全與發展價值沖突問題,提出基于總體國家安全觀的規范性建構路徑,并著眼于數字人實踐,通過數據溯源治理、生成內容監管、行業保障,凝聚技術、法律和行業組織的共同合力,構建多維度的數字人數據安全治理體系,探索和完善數據安全風險防范模式。

On the Legal Protection of Data Security for Virtual Digital Human Applications

——With Generative Artificial Intelligence Implementation as a Way Forward

Abstract: As one of the typical representatives of generative artificial intelligence, virtual digital people are trained based on big data models for text, picture, audio and video algorithm generation, and are applied to cultural tourism, news and entertainment, e-commerce games and other scenarios. New types of data security risks have also arisen, such as the risk of illegal access and utilization of data, the risk of data bias and data storage, the risk of 1 generation of content and unfair competition, and criminal risk. Therefore, in the face of the reality of tension between data security and data utilization principles, adhere to and implement the principle of integrated security and development of data security and the principle of classification and grading of data utilization, adhere to the “personal-property” differentiated data classification model, and realize the “identification-traceability-exploitation” and “identification-traceability-exploitation” of virtual digital person data. The compliance path of “identification-traceability-regulation” is realized, so as to clarify the scope and mode of data collection and the regulatory boundaries of data security risks between enterprises and the government.

Keywords: Virtual Digital Person; Data Security; Data Utilization; Differential Data Classification

基金項目:本文系2023年文化和旅游部部級社科研究項目“文化藝術數字資源利用版權問題研究”(項目編號23DY18),2022年教育部人文社會科學重點研究基地重大項目“人工智能時代知識產權制度發展研究”(項目編號:22JJD820030)的研究成果。

作者簡介:瞿昊暉,法學博士,中南財經政法大學知識產權研究中心講師;李雋姝,中南財經政法大學知識產權研究中心助理研究員。

主站蜘蛛池模板: 欧美日韩资源| 国产特级毛片| 欧美日韩中文国产va另类| 亚洲欧美一区二区三区图片| 日本欧美午夜| 91原创视频在线| 欧美日韩一区二区三| 亚洲精品自拍区在线观看| 国产亚洲欧美在线人成aaaa| 99久久亚洲精品影院| 欧美不卡视频一区发布| 午夜国产理论| 激情爆乳一区二区| 中文成人无码国产亚洲| 午夜国产在线观看| 成人在线不卡视频| 国产网站黄| 欧美亚洲综合免费精品高清在线观看 | 一本大道东京热无码av | h网站在线播放| 国产在线高清一级毛片| 亚洲色图欧美视频| 精品一区二区久久久久网站| 999精品在线视频| 综合色88| 国产欧美精品专区一区二区| 亚洲香蕉伊综合在人在线| 亚洲精品国产综合99久久夜夜嗨| 伊人成色综合网| 国产一级毛片高清完整视频版| 色一情一乱一伦一区二区三区小说| 成人亚洲国产| 孕妇高潮太爽了在线观看免费| 欧美成人看片一区二区三区| 国产黄网永久免费| 2021国产v亚洲v天堂无码| 欧美区一区二区三| 在线观看av永久| 嫩草在线视频| 免费高清a毛片| 欧美一级片在线| 香蕉久久永久视频| 四虎精品国产AV二区| 日韩午夜福利在线观看| 亚洲精品中文字幕无乱码| 国产无码性爱一区二区三区| 国产精品专区第1页| 精品一区二区三区水蜜桃| 日本91在线| 人人看人人鲁狠狠高清| 国产一区二区视频在线| 欧美日韩国产综合视频在线观看| 亚洲区欧美区| 日韩视频免费| 91在线中文| 九九线精品视频在线观看| 91外围女在线观看| 亚洲第一福利视频导航| 国产美女主播一级成人毛片| 人妻无码中文字幕一区二区三区| 亚洲自拍另类| 久久精品丝袜高跟鞋| 5388国产亚洲欧美在线观看| 亚洲精品视频免费| 欧美国产日韩一区二区三区精品影视 | 免费无码一区二区| 国产精品久久久精品三级| 91丨九色丨首页在线播放| 亚洲精品自拍区在线观看| 亚洲Av综合日韩精品久久久| 久久99国产综合精品女同| 国产免费精彩视频| 欧美国产精品拍自| 女同久久精品国产99国| 久久精品国产91久久综合麻豆自制| 伊人91在线| 欧美另类视频一区二区三区| 性激烈欧美三级在线播放| 人人艹人人爽| 日韩欧美国产成人| 99无码熟妇丰满人妻啪啪| 亚洲伊人久久精品影院|