中圖分類號:D923 文獻(xiàn)標(biāo)志碼:A 文章編號:1008-5831(2025)04-0222-14
為了更好地救濟(jì)信息主體所受的損害,除了采取財產(chǎn)損害賠償與精神損害賠償?shù)葌鹘y(tǒng)的補(bǔ)償性賠償外,還應(yīng)當(dāng)引入懲罰性賠償,最大程度保障信息主體的受損權(quán)益。
一、問題的提出
2022年11月30日,美國人工智能實(shí)驗(yàn)室OpenAI推出的聊天機(jī)器人ChatGPT引發(fā)社會廣泛關(guān)注,其強(qiáng)大的內(nèi)容生成能力標(biāo)志著生成式人工智能技術(shù)的迭代式發(fā)展。ChatGPT可以根據(jù)用戶輸入的指令完成文本編輯、聊天對話、視頻制作、代碼編寫等一系列任務(wù),且完成質(zhì)量較高,因而被評為2023年十大技術(shù)突破之一①。2024年9月,Open AI正式發(fā)布了推理模型o1,該模型可以通過一系列的推理步驟進(jìn)行自我對話,并在此過程中不斷糾正自己,能夠解決復(fù)雜的科學(xué)、編碼以及數(shù)學(xué)模型問題,更是在一項(xiàng)權(quán)威測試中擊敗了博士學(xué)者②。2025年初,杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司(DeepSeek)發(fā)布的DeepSeek-R1模型,以其高性能、低成本、完全開源的特性,掀起了新一輪智能應(yīng)用大規(guī)模拓展的浪潮[1]。一般認(rèn)為,人工智能可以進(jìn)一步劃分為分析式人工智能(Analytical Artificial Intellgence)與生成式人工智能(Generative Artificial Intelligence),分析式人工智能是指從大量數(shù)據(jù)中尋找隱藏模式并形成一定預(yù)測的人工智能,而生成式人工智能則指通過學(xué)習(xí)海量的數(shù)據(jù)進(jìn)而生成新內(nèi)容的人工智能[2。數(shù)據(jù)是生成式人工智能的基礎(chǔ),生成式人工智能在模型訓(xùn)練、內(nèi)容生成、模型優(yōu)化等階段均離不開數(shù)據(jù)的支撐。然而,生成式人工智能大規(guī)模的信息收集以及不透明的處理規(guī)則給個人信息保護(hù)帶來了挑戰(zhàn)。2025年1月,《紐約時報》將Open AI告上聯(lián)邦法院,指控ChatGPT在未經(jīng)授權(quán)或支付費(fèi)用的情況下擅自使用其大量的文章進(jìn)行模型訓(xùn)練,侵犯了其版權(quán),要求Open AI賠償數(shù)十億美元,同時銷毀ChatGPT的數(shù)據(jù)集③。在生成式人工智能變革式發(fā)展的背景下,國家互聯(lián)網(wǎng)信息辦公室聯(lián)合教育部、科學(xué)技術(shù)部等其他部委于2023年7月13日公布了《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《暫行辦法》),然而,《暫行辦法》關(guān)于個人信息保護(hù)的條文較少,且缺乏針對生成式人工智能技術(shù)特性的專門性規(guī)定。職之是故,如何在保護(hù)個人信息的基礎(chǔ)上統(tǒng)籌推進(jìn)生成式人工智能的創(chuàng)新發(fā)展,是當(dāng)下必須回答的時代命題。
二、生成式人工智能的技術(shù)邏輯及其對個人信息保護(hù)的挑戰(zhàn)
(一)生成式人工智能的技術(shù)邏輯
生成式人工智能雖然屬于新興事物,但其技術(shù)理論卻具有較為悠久的歷史。從技術(shù)發(fā)展史角度看,生成式人工智能起源于20世紀(jì)40年代的“控制論”[3],20世紀(jì)60年代問世的聊天機(jī)器人Eliza則是生成式人工智能最早的原型,標(biāo)志著人與計算機(jī)之間的自然語言對話成為可能[4]。立法層面,我國《暫行辦法》首次對生成式人工智能的概念予以明確,《暫行辦法》第22條規(guī)定,生成式人工智能技術(shù)是指具有文本、圖片、音頻、視頻等內(nèi)容生成能力的技術(shù)。據(jù)此可知,生成式人工智能具有多模態(tài)性,不僅可以處理文本任務(wù),還能夠生成圖片、音視頻等其他形式的內(nèi)容。
現(xiàn)階段,Dall-E2、Stable Diffusion、ERNIE Bot、ChatGPT、DeepSeek 等生成式人工智能不斷涌現(xiàn),本文以用戶基數(shù)較大的ChatGPT、DeepSeek為分析模型,旨在明晰生成式人工智能的技術(shù)邏輯。相較于此前Siri、小冰等功能單一且對話生硬的聊天機(jī)器人,以ChatGPT、DeepSeek為代表的生成式人工智能可以“記住”與用戶之前的聊天內(nèi)容,從而實(shí)現(xiàn)連續(xù)多輪對話。通常來說,生成式人工智能的運(yùn)行模式可以概述為以下三個階段,即用戶輸入指令 $$ 算法整合分析 $$ 生成相應(yīng)內(nèi)容。具體來說,用戶在指定的對話框內(nèi)輸入指令,然后系統(tǒng)快速對該指令進(jìn)行分析,如果經(jīng)分析認(rèn)為用戶的指令違反其內(nèi)置的倫理審查機(jī)制,則會拒絕回答用戶的請求。相反,如果經(jīng)審查用戶的指令并不違反其審查機(jī)制,則會在大規(guī)模的語料庫中搜索與之相關(guān)的語詞,并預(yù)測下一個單詞出現(xiàn)的頻率,然后將搜集到的語詞整合優(yōu)化,最后輸出符合人類自然語言表達(dá)習(xí)慣的文本、圖像、視頻等內(nèi)容。
以ChatGPT的技術(shù)架構(gòu)為例,ChatGPT是Chat Generative Pre-trained Transformer的簡化版稱謂,其中,Transformer架構(gòu)是ChatGPT的關(guān)鍵性技術(shù)。Transformer模型誕生于2017年谷歌研究團(tuán)隊(duì)發(fā)表的《Attention is all you need》一文,該文指出 Transformer是一種基于自注意力機(jī)制的序列轉(zhuǎn)換模型,其采用多頭自注意力取代了編碼器—解碼器架構(gòu)中最常用的循環(huán)層,因而Transformer的訓(xùn)練速度明顯快于基于循環(huán)層或卷積層的體系架構(gòu)④。Transformer模型的采用使得ChatGPT能夠快速學(xué)習(xí)數(shù)據(jù)之間的關(guān)系,借由人工智能訓(xùn)練師對模型輸入與輸出的大量調(diào)試,使得模型初步掌握自然語言的語法規(guī)則。為了優(yōu)化模型表達(dá),使其生成內(nèi)容更加符合人類社會的認(rèn)知觀念,ChatGPT在GPT-3.5模型基礎(chǔ)上采用了基于人類反饋的強(qiáng)化學(xué)習(xí)(Reinforcement Leaming from Human Feedback),在語言模型的訓(xùn)練、打分模型的訓(xùn)練以及語言模型的優(yōu)化階段,采用人類提問機(jī)器回答與機(jī)器提問人類回答的方式,不斷提高模型的生成質(zhì)量[5]。
(二)生成式人工智能對個人信息保護(hù)的挑戰(zhàn)
數(shù)據(jù)是生成式人工智能的基石,生成式人工智能在模型訓(xùn)練、數(shù)據(jù)處理以及內(nèi)容輸出等方面均離不開大數(shù)據(jù)的支持。雖然DeepSeek通過優(yōu)化算法一定程度上節(jié)省了算力需求,但數(shù)據(jù)仍是生成式人工智能技術(shù)創(chuàng)新發(fā)展的基礎(chǔ)性要素,通常來說,數(shù)據(jù)的\"量\"與生成式人工智能的\"質(zhì)\"之間呈現(xiàn)正相關(guān)關(guān)系,訓(xùn)練數(shù)據(jù)規(guī)模越大,則生成式人工智能的生成內(nèi)容質(zhì)量就越高[6。然而,由于技術(shù)的不成熟性與立法的相對滯后性,生成式人工智能在收集、利用、生成數(shù)據(jù)的過程中,給傳統(tǒng)的個人信息保護(hù)規(guī)則帶來了挑戰(zhàn)。
1.生成式人工智能收集信息可能帶來的挑戰(zhàn)
知情同意原則作為個人信息收集的基本原則,為各國(地區(qū))立法所承認(rèn)。然而,根據(jù)Open AI官方網(wǎng)站公布的隱私政策可知,其在收集個人信息過程中并沒有嚴(yán)格貫徹知情同意規(guī)則。在告知階段,信息處理者應(yīng)當(dāng)明確告知信息處理的目的、方式等具體事項(xiàng),確保信息主體充分知情。然而,Open AI聲稱其可能將“收集的個人信息用于改進(jìn)服務(wù)、開展研究、防止犯罪活動等”,這些表述具有較大的模糊性與不確定性,無法給信息主體提供明確的行為預(yù)期。在同意階段,信息處理者只有取得信息主體自主的、真實(shí)的同意才能收集個人信息,如果其在個人信息處理過程中更改信息處理方式的,應(yīng)當(dāng)重新取得信息主體的同意。雖然Open AI宣稱其在訓(xùn)練基礎(chǔ)模型時所使用的數(shù)據(jù)來源于已公開的數(shù)據(jù)與獲得授權(quán)許可的數(shù)據(jù),但其至今沒有對外公示數(shù)據(jù)的具體來源,數(shù)據(jù)來源的正當(dāng)性存在疑問。此外,OpenAI在隱私政策中聲明“當(dāng)用戶創(chuàng)建賬戶使用ChatGPT時,Open AI有權(quán)收集用戶的姓名、聯(lián)系方式、賬戶憑據(jù)等個人信息”,DeepSeek隱私政策也表明,其將收集用戶與DeepSeek進(jìn)行交互過程中所輸入的文本、圖片、文件等內(nèi)容,嚴(yán)重違背了知情同意原則的基本內(nèi)涵。
除了虛化知情同意規(guī)則,生成式人工智能在收集個人信息過程中還可能侵犯隱私權(quán)。《中華人民共和國民法典》(以下簡稱《民法典》)第1032條第2款規(guī)定,隱私的判斷不再依據(jù)公開與否,而更強(qiáng)調(diào)權(quán)利主體的主觀意愿,如果權(quán)利主體不愿其私密信息被他人知曉,即使是已經(jīng)公開的私密信息仍屬于隱私范疇。生成式人工智能采用生成式預(yù)訓(xùn)練轉(zhuǎn)換模型,可以在沒有人工監(jiān)督的情形下主動抓取互聯(lián)網(wǎng)數(shù)據(jù),加之缺乏必要的篩選與過濾機(jī)制,導(dǎo)致收集的數(shù)據(jù)中可能包含私密信息,再者,由于個人信息內(nèi)在的勾連性,即使生成式人工智能收集的都是非私密信息,但這些海量數(shù)據(jù)聚合重組之后也可能成為私密信息,從而威脅公眾的隱私安全7]。
2.生成式人工智能利用信息可能帶來的挑戰(zhàn)
在生成式人工智能利用個人信息過程中,由于\"算法黑箱\"以及其他不確定性因素的存在,使目的限制原則以及公開透明原則難以得到貫徹,海量的數(shù)據(jù)處理提高了個人信息泄露的風(fēng)險。
目的限制原則是個人信息利用應(yīng)當(dāng)遵循的基本原則,旨在防止信息處理者恣意處理個人信息[8。根據(jù)OpenAI的隱私政策可知,其可能“將收集到的信息用來分析用戶的行為和特征”\"研發(fā)新的服務(wù)\"等,超越了信息收集時的處理目的,可能使信息主體的合理預(yù)期落空。公開透明原則要求信息處理者公開披露個人信息處理的具體細(xì)節(jié),然而生成式人工智能所依賴的深度學(xué)習(xí)技術(shù)是一個“黑箱”,在生成式人工智能系統(tǒng)輸入的數(shù)據(jù)和輸出的結(jié)果之間,存在著人們無法洞悉的“隱層\"9。生成式人工智能具有涌現(xiàn)性,隨著算法復(fù)雜性以及數(shù)據(jù)規(guī)模的提升,生成式人工智能可能會輸出意料之外的內(nèi)容,即使對于生成式人工智能設(shè)計師來說,也可能難以回答為什么會輸出這樣的內(nèi)容,這違背了《中華人民共和國個人信息保護(hù)法》(以下簡稱《個人信息保護(hù)法》)第7條以及第24條所要求的公開透明原則。
生成式人工智能儲存大量的個人信息,一旦這些信息被泄露或者被不法使用,可能威脅信息主體的人身權(quán)、財產(chǎn)權(quán)。2023年3月,OpenAI公開承認(rèn)因開源數(shù)據(jù)庫的錯誤,導(dǎo)致部分用戶可能看到其他用戶的聊天內(nèi)容以及信用卡相關(guān)信息。DeepSeek同樣存在數(shù)據(jù)泄露問題,有研究發(fā)現(xiàn),DeepSeek可公開訪問的ClickHouse數(shù)據(jù)庫允許用戶完全控制數(shù)據(jù)庫操作,而這些數(shù)據(jù)庫中包含用戶的聊天記錄、密鑰以及其他高度敏感的個人信息。個人信息不依附于信息主體而存在,因而其不法泄露一般不會立刻給信息主體造成財產(chǎn)損害或精神損害,當(dāng)信息主體事后請求損害賠償時可能因時間久遠(yuǎn)而無法提供有力的證據(jù),不利于保護(hù)信息主體所受之損害。
3.生成式人工智能生成信息可能帶來的挑戰(zhàn)
在生成內(nèi)容方面,由于生成式人工智能無法實(shí)現(xiàn)真正意義上的推理,其可能生成看似合理但虛假的內(nèi)容,而在人工智能邏輯包裝下的信息難以被人類辨別真?zhèn)蝃10]。不同于傳統(tǒng)的搜索引擎,生成式人工智能輸出的內(nèi)容具有唯一性,并不提供多來源信息參考,使得虛假或誤導(dǎo)性信息難以被用戶發(fā)現(xiàn)。例如,曾有用戶使用ChatGPT編輯了一則“杭州將在3月1日取消機(jī)動車尾號限行\(zhòng)"的新聞,大量公眾沒有識別出其為虛假消息,造成了不良的社會影響。
除了虛假信息,生成式人工智能還可能輸出歧視性信息,挑戰(zhàn)法律上的平等原則。生成式人工智能的初始模型需要海量的數(shù)據(jù)支持,這些數(shù)據(jù)不可避免地存在人類的認(rèn)知偏見,由于生成式人工智能并不具有學(xué)習(xí)能力,其通過從大型數(shù)據(jù)庫中提取相關(guān)信息,并運(yùn)用一定的排列組合形成特定的文本[1]。因此,如果數(shù)據(jù)庫中的數(shù)據(jù)存在偏差,那么輸出的內(nèi)容必然存在偏差。此外,生成式人工智能系統(tǒng)可能嵌入設(shè)計者的顯性或隱性偏見,而這種技術(shù)盲點(diǎn)難以從算法中剔除[12],致使生成信息存在價值偏見。
三、生成式人工智能背景下個人信息保護(hù)理念的確定
現(xiàn)代社會,迭代更新的高科技技術(shù)不斷挑戰(zhàn)傳統(tǒng)的個人信息保護(hù)模式,究其原因,在于個體主義與靜態(tài)思維的個人信息保護(hù)方式難以適應(yīng)科技的迅猛發(fā)展[13]。在ChatGPT、DeepSeek等國內(nèi)外生成式人工智能技術(shù)迅猛發(fā)展的背景下,亟須確立生成式人工智能中個人信息保護(hù)的基本理念,緩和生成式人工智能創(chuàng)新發(fā)展與個人信息法律保護(hù)之間的張力。
(一)個人信息保護(hù)理念的考查
1.比較法上個人信息保護(hù)理念的歷史嬉變
比較法上,不同國家(地區(qū))對于個人信息保護(hù)的立場存在較大的差異,大致可以分為美國模式與歐盟模式。就美國而言,早期學(xué)者提倡個人信息的自由流動,波斯納通過綜合分析成本與效益,認(rèn)為相較于個人信息保護(hù),個人信息的利用更符合經(jīng)濟(jì)效率原則[14]。還有學(xué)者認(rèn)為,個人信息只有聚合在一起形成龐大的數(shù)據(jù)池才有價值,普通人可能永遠(yuǎn)無法真正地從其單一的個人信息中獲得經(jīng)濟(jì)價值[15]。然而,個人信息天然地蘊(yùn)含人格利益,片面強(qiáng)調(diào)個人信息的利用可能阻礙人格的自由發(fā)展。對此,有學(xué)者認(rèn)為,個人信息保護(hù)應(yīng)在流動的而非靜態(tài)的情況下予以確定,并且需要綜合考慮社會環(huán)境、個人信息的經(jīng)濟(jì)價值等因素[16],從而促進(jìn)個人信息保護(hù)與個人信息利用的協(xié)調(diào)發(fā)展[17]。
就歐盟而言,1950年通過的《保護(hù)人權(quán)與基本自由公約》第8條明確規(guī)定,人人有權(quán)享有使自己的私人和家庭生活以及通信自由得到尊重的權(quán)利,這種人格尊嚴(yán)與人格自由至上的理念深刻影響了個人信息保護(hù)立法。1995年,歐洲議會和歐盟理事會通過的《關(guān)于個人信息處理和流通過程中對個人信息保護(hù)的指令》構(gòu)建了以“知情—同意”為核心的權(quán)利體系來保障信息主體對個人信息的全面控制與支配,諸如知情權(quán)、訪問權(quán)、拒絕權(quán)等。信息技術(shù)的快速發(fā)展使社會對于個人信息的利用需求日益增高,2018年生效的《一般數(shù)據(jù)保護(hù)條例》順應(yīng)社會發(fā)展現(xiàn)狀,明確規(guī)定條例之宗旨不僅在于保護(hù)自然人的合法權(quán)益,也在于促進(jìn)個人數(shù)據(jù)自由流動,改變了傳統(tǒng)只注重信息主體利益維護(hù)的單向性的立法思維,是個人信息保護(hù)理念的突破式發(fā)展。
2.我國個人信息保護(hù)理念的發(fā)展脈絡(luò)
《民法典》通過立法的形式明確了個人信息具有獨(dú)立的法律地位,這一時期,社會的整體論調(diào)是強(qiáng)化個人信息保護(hù),對此又存在“權(quán)利說”與\"利益說\"兩種不同的觀點(diǎn)。“權(quán)利說\"認(rèn)為,為了全面保障個人信息不受非法侵犯,應(yīng)將《民法典》第111條解釋為我國立法確立了“個人信息權(quán)”[18]。“利益說”則認(rèn)為個人信息的內(nèi)涵及外延均存在極大的不確定性,難以達(dá)到權(quán)利客體所要求的具體特定且界限分明的品質(zhì),應(yīng)將個人信息定位于受法律保護(hù)的利益[19]。可見,無論是“權(quán)利說\"還是“利益說”,均強(qiáng)調(diào)保障信息主體對于個人信息的支配與控制,忽視了個人信息內(nèi)含的經(jīng)濟(jì)價值對整個社會的重要性。
隨著數(shù)字社會的到來,過于強(qiáng)調(diào)個體權(quán)益的保護(hù)可能阻礙社會的整體發(fā)展,人們開始重新審視“個人控制論\"的合理性。有學(xué)者認(rèn)為,個人控制論\"將信息主體預(yù)設(shè)為具有完整理性、完整意志力的主體,然而在個人信息處理過程中,信息的不對稱性、風(fēng)險的不確定性以及技術(shù)的復(fù)雜性等諸多因素的存在,導(dǎo)致信息主體難以做出理性的選擇[20]。從社會發(fā)展的角度看,個人信息是推進(jìn)我國數(shù)字經(jīng)濟(jì)發(fā)展與數(shù)字社會構(gòu)建的重要驅(qū)動力,在這一特殊的時代背景下,應(yīng)當(dāng)更強(qiáng)調(diào)個人信息的社會化利用[21]。
面對“信息保護(hù)論”與“信息利用論”的爭執(zhí)不休,有學(xué)者提出信息保護(hù)與信息利用并不存在非此即彼的競爭關(guān)系,而是相輔相成,應(yīng)當(dāng)促進(jìn)兩者的動態(tài)平衡[22]。然而,“動態(tài)平衡論”也遭到了部分學(xué)者的質(zhì)疑。有學(xué)者認(rèn)為,信息保護(hù)與信息利用是一對矛盾體,個人信息權(quán)益保護(hù)必然影響個人信息合理利用,反之亦然[23]。還有學(xué)者直言,所謂信息保護(hù)與信息利用的“動態(tài)平衡”只能是理想狀態(tài),無法在實(shí)踐中具體落實(shí)[24]。
(二)生成式人工智能中個人信息保護(hù)的基本理念:兼顧科技發(fā)展與權(quán)益保護(hù)
1.規(guī)范基礎(chǔ)
《個人信息保護(hù)法》第1條明確規(guī)定,其立法宗旨是“保護(hù)個人信息權(quán)益,規(guī)范個人信息處理活動,促進(jìn)個人信息合理利用”。然而,該條并未言明信息保護(hù)與信息利用究竟具有同等的地位還是存在主次順序,引發(fā)了學(xué)界激烈的探討。龍衛(wèi)球認(rèn)為,個人信息權(quán)益保護(hù)與個人信息合理利用存在主次關(guān)系,前者是首要立法目的,而后者是次要立法目的[25]。高富平也認(rèn)為,個人信息權(quán)益保護(hù)是個人信息合理利用的前提,只有個人信息權(quán)益得到了有效的保護(hù),才有個人信息合理利用的空間[26]。許可則認(rèn)為,《個人信息保護(hù)法》確立了個人信息保護(hù)與個人信息利用的平衡機(jī)制,其不僅要實(shí)現(xiàn)信息主體與私人處理者的利益平衡,還要促進(jìn)信息主體與國家機(jī)關(guān)處理者的利益平衡[27]。
筆者認(rèn)為,雖然從條文表述上看,《個人信息保護(hù)法》將“保護(hù)個人信息權(quán)益”置于“個人信息合理利用\"之前,但不能就此推斷出個人信息保護(hù)優(yōu)先于個人信息合理利用。實(shí)踐中,信息保護(hù)與信息利用不存在預(yù)先、固定不變的序位關(guān)系,應(yīng)當(dāng)優(yōu)先保護(hù)何種價值需要根據(jù)個案具體情境加以確定。譬如,《個人信息保護(hù)法》第13條規(guī)定,如果為了履行法定職責(zé)或者保護(hù)公共利益,則可以不經(jīng)信息主體同意而利用個人信息。可見,在此情形下,個人信息利用優(yōu)先于個人信息保護(hù)。就此而言,《個人信息保護(hù)法》為統(tǒng)籌兼顧個人信息保護(hù)與生成式人工智能發(fā)展提供了堅(jiān)實(shí)的規(guī)范基礎(chǔ)。
2.實(shí)踐需求
生成式人工智能具有多模態(tài)性、生成性等特征,能夠生成風(fēng)格各異、內(nèi)容豐富的圖片、詩歌、視頻等,可以被廣泛應(yīng)用于教育、政務(wù)服務(wù)、科技等領(lǐng)域。自DeepSeek-R1發(fā)布以來,僅僅7天就實(shí)現(xiàn)了用戶量過億,成為現(xiàn)象級的應(yīng)用產(chǎn)品,華為、阿里、百度、騰訊、京東等多家大型平臺企業(yè)相繼接入DeepSeek大模型。在ChatGPT、DeepSeek等生成式人工智能全面賦能社會生產(chǎn)發(fā)展的現(xiàn)實(shí)背景下,亟須在保護(hù)信息主體權(quán)益的基礎(chǔ)上鼓勵數(shù)據(jù)要素價值的釋放,不能因此而阻礙人工智能大模型產(chǎn)業(yè)的創(chuàng)新發(fā)展。
2023年3月13日,第十四屆全國人民代表大會第一次會議通過的《關(guān)于2022年國民經(jīng)濟(jì)和社會發(fā)展計劃執(zhí)行情況與2023年國民經(jīng)濟(jì)和社會發(fā)展計劃的決議》明確提出,要加快人工智能、大數(shù)據(jù)等新型基礎(chǔ)設(shè)施建設(shè),有序推進(jìn)基礎(chǔ)設(shè)施智能升級。可以預(yù)見,未來生成式人工智能將賦能各行各業(yè),促進(jìn)我國經(jīng)濟(jì)社會的全面發(fā)展。在生成式人工智能場景下,個人信息的真正價值在于流動性,如果過度保護(hù)信息主體利益,將會阻礙生成式人工智能的發(fā)展[28]。因此,應(yīng)重點(diǎn)規(guī)制生成式人工智能在應(yīng)用場景下可能給個人帶來的風(fēng)險,而非阻止生成式人工智能進(jìn)入市場。。
四、生成式人工智能中個人信息風(fēng)險預(yù)防機(jī)制的構(gòu)建
(一)風(fēng)險預(yù)防的基本內(nèi)涵
自1986年貝克提出“風(fēng)險社會”一詞以來,“風(fēng)險”成為諸多領(lǐng)域的研究熱點(diǎn)。從某種意義上說,風(fēng)險具有普世重要性,“風(fēng)險評估\"“風(fēng)險效益分析”“風(fēng)險管理\"已經(jīng)成為政府戰(zhàn)略或者金融戰(zhàn)略的焦點(diǎn),而理論層面關(guān)于“風(fēng)險”的論斷更是宏大[29]。關(guān)于“風(fēng)險”的內(nèi)涵,貝克認(rèn)為風(fēng)險是指某種危險和不安全感的方式,與財富的具體可感相比,風(fēng)險具有某種非現(xiàn)實(shí)性[30]。吉登斯則認(rèn)為,風(fēng)險是指在與將來可能性關(guān)系中被評價的危險程度[31]。基于此,筆者認(rèn)為可從主觀與客觀兩個面向來認(rèn)識“風(fēng)險”,就客觀方面來說,風(fēng)險”指損害可能性的提高;就主觀方面來說,“風(fēng)險”指權(quán)利主體合理期待的落空。
在生成式人工智能應(yīng)用過程中,個人信息一旦被泄露或?yàn)E用可能使信息主體面臨較高的風(fēng)險,為此,需要采取一定的措施預(yù)防風(fēng)險的現(xiàn)實(shí)發(fā)生。羅伯特·阿多諾認(rèn)為,風(fēng)險預(yù)防原則是科技時代法律的新標(biāo)準(zhǔn),其構(gòu)成要件包括風(fēng)險的不確定性、風(fēng)險評估、嚴(yán)重或不可挽回的損害、措施的相稱性以及舉證責(zé)任倒置[32]。具體來說,風(fēng)險的不確定性,指風(fēng)險是否發(fā)生不是完全地確定,其發(fā)生的概率介于0到100之間,如果風(fēng)險確定不會發(fā)生,則沒有風(fēng)險預(yù)防的必要性。相反,如果風(fēng)險百分之百發(fā)生,則采取任何的預(yù)防措施都是于事無補(bǔ),此時可通過損害救濟(jì)保護(hù)受害人的合法權(quán)益。在風(fēng)險識別基礎(chǔ)上,需要準(zhǔn)確評估風(fēng)險的大小,并按照一定的標(biāo)準(zhǔn)將風(fēng)險劃分為不同的等級,據(jù)此提供與之相適應(yīng)的規(guī)制措施。嚴(yán)重或不可挽回的損害是風(fēng)險預(yù)防的立足點(diǎn),如果生成式人工智能可能造成的損害微乎其微,或者損害具有可補(bǔ)救性,則會在一定程度上弱化采取風(fēng)險預(yù)防措施的正當(dāng)性。措施的相稱性要求擬采取的預(yù)防措施必須與生成式人工智能可能造成的風(fēng)險相匹配,不得以風(fēng)險預(yù)防之名阻礙生成式人工智能的良性發(fā)展。舉證責(zé)任倒置將風(fēng)險的證明責(zé)任配置給生成式人工智能服務(wù)提供者,由其證明個人信息處理行為不會給信息主體造成超出社會一般人可以承受的風(fēng)險,防止信息主體因信息不對稱或相關(guān)知識的匱乏陷于舉證不能的窘迫境地。
(二)引入風(fēng)險預(yù)防的可行性
面對社會發(fā)展衍生的技術(shù)風(fēng)險,法律通常從兩個面向著手,一種是壓制性的(repressive),即在事故發(fā)生后啟動,主要關(guān)注責(zé)任歸屬以及損失賠償數(shù)額;另一種則是預(yù)防性的(preventive),即事先采取措施預(yù)防特定技術(shù)活動可能產(chǎn)生的風(fēng)險,從而避免事故的發(fā)生[33]。一直以來,損害賠償所具有的填補(bǔ)受害人損害的積極作用都不容置疑,但傳統(tǒng)侵權(quán)法只保護(hù)客觀發(fā)生的現(xiàn)實(shí)損害,而不保護(hù)尚未現(xiàn)實(shí)發(fā)生的損害,即使其發(fā)生的可能性極大也不例外。在損害賠償?shù)穆鋵?shí)過程中,除了具體的損害賠償數(shù)額外,還存在訴訟成本、證明成本等其他的額外支出,極大地消耗了社會的總體利益。對此,有學(xué)者指出,相較于事前的風(fēng)險預(yù)防,事后的損害救濟(jì)更多的是一種無可奈何的措施,如果能夠在風(fēng)險預(yù)防與損害救濟(jì)之間選擇的話,受害人與立法者可能都會毫不猶豫地選擇后者[34]。
在生成式人工智能背景下,個人信息權(quán)益侵害呈現(xiàn)新的特征,使傳統(tǒng)的損害賠償難以應(yīng)對復(fù)雜的現(xiàn)實(shí)實(shí)踐。生成式人工智能可以在沒有人工監(jiān)督的情形下主動收集互聯(lián)網(wǎng)數(shù)據(jù),可能導(dǎo)致收集的數(shù)據(jù)中包含大量的敏感信息或私密信息,給信息主體權(quán)益造成了極大的風(fēng)險。根據(jù)我國現(xiàn)行的證明標(biāo)準(zhǔn),信息主體在訴請損害賠償時必須證明其遭受了現(xiàn)實(shí)的損害以及具體的損害數(shù)額,否則需要承受舉證不能的不利后果。ChatGPT作為高科技的產(chǎn)物,其內(nèi)在的技術(shù)規(guī)則難以為一般人所知曉,在此背景下,信息主體很難證明生成式人工智能給其造成了具體的損害。風(fēng)險預(yù)防是前瞻性的解決方案,其關(guān)注于未來損害是否發(fā)生[3],并要求損害的實(shí)際發(fā)生,權(quán)利人只需要證明損害的發(fā)生具有高度的可能性時,即有權(quán)請求侵害人采取一定的措施,從而合理規(guī)避生成式人工智能引發(fā)的風(fēng)險。此外,風(fēng)險預(yù)防在我國具有一定的規(guī)范基礎(chǔ),例如,《個人信息保護(hù)法》第11條明確規(guī)定\"國家建立健全個人信息保護(hù)制度,預(yù)防和懲治侵害個人信息權(quán)益的行為”。《中華人民共和國數(shù)據(jù)安全法》(以下簡稱《數(shù)據(jù)安全法》)第22條也要求“建立集中統(tǒng)一、高效權(quán)威的數(shù)據(jù)安全風(fēng)險評估、報告、信息共享、監(jiān)測預(yù)警機(jī)制”。因此,將風(fēng)險預(yù)防引人生成式人工智能領(lǐng)域并不會突破法律體系的穩(wěn)定性。
(三)風(fēng)險預(yù)防的規(guī)范構(gòu)造
現(xiàn)階段,《個人信息保護(hù)法》《數(shù)據(jù)安全法》等諸多規(guī)范都體現(xiàn)了風(fēng)險預(yù)防的基本理念,遺憾的是,尚未制定風(fēng)險預(yù)防的具體規(guī)則,不利于對司法實(shí)踐發(fā)揮統(tǒng)合作用。對此,可以從信息主體與信息處理者兩個層面分別構(gòu)建風(fēng)險預(yù)防規(guī)則,促進(jìn)風(fēng)險預(yù)防的貫徹落實(shí)。
1.信息主體層面:豐富個人信息權(quán)內(nèi)容
目前,《民法典》《個人信息保護(hù)法》等相關(guān)法律賦予了信息主體較為豐富的權(quán)利,諸如知情決定權(quán)、查閱復(fù)制權(quán)、更正補(bǔ)充權(quán)、刪除權(quán)等。須明確的是,這些“權(quán)利\"并非傳統(tǒng)意義上的民事權(quán)利,其更多地體現(xiàn)為工具性價值,并不具有獨(dú)立的意義。為了防止生成式人工智能恣意侵犯信息主體的合法權(quán)益,除上述權(quán)利外,還應(yīng)當(dāng)賦予信息主體限制處理權(quán)、算法解釋權(quán)等新型權(quán)利。
就限制處理權(quán)來說,雖然《個人信息保護(hù)法》第44條規(guī)定“個人有權(quán)限制或者拒絕他人對其個人信息進(jìn)行處理”,但這只是“知情決定權(quán)”的具體權(quán)能或者權(quán)利內(nèi)容,無法從中得出《個人信息保護(hù)法》將限制處理權(quán)作為獨(dú)立的權(quán)利類型[36]。限制處理權(quán)是指在特定情形下,信息主體得以請求信息處理者以一定方式暫時停止或永久停止信息處理行為的權(quán)利[37]。實(shí)際生活中,當(dāng)個人信息的正確性或完整性處于不確定狀態(tài)且雙方均難以證明時,限制處理權(quán)能夠在保護(hù)信息主體免受不正確信息侵害的同時兼顧信息處理者的利益,避免系爭事實(shí)不清狀態(tài)下?lián)p及雙方的權(quán)益,彌補(bǔ)更正權(quán)與刪除權(quán)的不周延性,符合權(quán)利精細(xì)化發(fā)展之趨勢。
算法解釋權(quán)是指權(quán)利人認(rèn)為算法自動化決策影響其合法權(quán)益時,可以要求算法設(shè)計者解釋算法結(jié)果的決策過程、運(yùn)行原理等事項(xiàng)[38。由于生成式人工智能技術(shù)發(fā)展的不完善性,算法黑箱難以得到消解,因而生成內(nèi)容的可解釋性往往較低。鑒此,應(yīng)當(dāng)賦予信息主體算法解釋權(quán),從而要求生成式人工智能服務(wù)提供者披露算法的運(yùn)行機(jī)制,實(shí)現(xiàn)算法的透明化。需注意的是,生成式人工智能的輸出內(nèi)容由算法規(guī)則、訓(xùn)練數(shù)據(jù)等多方面因素決定,因此,生成式人工智能服務(wù)者除了披露算法運(yùn)行的源代碼和算法運(yùn)行的機(jī)制外,還需要披露算法運(yùn)行過程的控制情況[39]。
2.生成式人工智能服務(wù)提供者層面:完善去識別化措施
比較法上,大多數(shù)國家(地區(qū))的立法一致認(rèn)為個人信息的核心要素在于可識別性,但可識別性不是固定不變的,其可能被消除或減弱而成為“匿名化信息\"(Anonymization)、“去標(biāo)識化信息\"(De-Identification)或“假名化信息\"(Pseudonymization)。目前,我國立法尚未規(guī)定“假名化信息”,因而去識別化措施主要包括去標(biāo)識化與匿名化。
《個人信息保護(hù)法》第73條規(guī)定,匿名化信息與去標(biāo)識化信息的規(guī)范內(nèi)涵存在差異。具體來說,在識別能力方面,匿名化信息確定地、終局地不具有識別個人的可能性。不同于此,去標(biāo)識化信息只是降低而非徹底消除可識別性,因此在一定的技術(shù)條件下,去標(biāo)識化信息與其他信息結(jié)合仍有可能將特定主體識別出來。在能否復(fù)原方面,匿名化將個人信息的識別元素永久地、徹底地刪除,這意味著匿名化信息不具有可逆性,其永遠(yuǎn)都不可能恢復(fù)識別性。相比于匿名化信息,去標(biāo)識化信息的匿名程度不夠徹底,其僅僅使他人無法憑借該信息直接關(guān)聯(lián)到特定個人,但若結(jié)合其他額外信息或采取一定的技術(shù)措施,去標(biāo)識化信息仍然可以被復(fù)原。
在具體措施上,生成式人工智能服務(wù)提供者在處理個人信息時,可以采用假名、加密、哈希函數(shù)等技術(shù)手段將個人信息中的直接標(biāo)識符或準(zhǔn)標(biāo)識符刪除或變換,去除標(biāo)識符與信息主體之間的關(guān)聯(lián)性。此外,生成式人工智能服務(wù)提供者應(yīng)當(dāng)將去標(biāo)識化后的信息與可用于識別個人信息的標(biāo)識符分別存儲,從而降低信息與特定自然人的關(guān)聯(lián)程度,避免其他主體根據(jù)相關(guān)屬性識別出信息主體。就匿名化措施而言,有學(xué)者認(rèn)為匿名化是一個相對的概念,其范圍可能會根據(jù)具體的應(yīng)用情況而有所不同,完美的匿名化概念只是理論上的想象[40]。不可否認(rèn),個人信息天然地具有勾連性,大數(shù)據(jù)分析技術(shù)的進(jìn)步提高了信息聚合的速度,使匿名化信息存在被識別的風(fēng)險。理論上說,只要投入足夠的人力、物力與時間,憑借匿名化信息也能重新識別出個人信息甚至個人敏感信息[41]。然而,若復(fù)原個人信息所花費(fèi)的成本與時間過于高昂,以至于與所欲達(dá)到的目的明顯不成比例時,可能在一定程度上會妨礙人們對于匿名化信息的再分析。
五、生成式人工智能中個人信息侵權(quán)責(zé)任的規(guī)則展開
(一)責(zé)任主體的確定
根據(jù)《暫行辦法》第9條、第22條等相關(guān)條文可知,《暫行辦法》構(gòu)建了以“服務(wù)提供者”為主,服務(wù)使用者”為輔的責(zé)任體系,且生成式人工智能服務(wù)提供者的信息責(zé)任包括網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任與個人信息處理者責(zé)任。須明確的是,生成式人工智能不應(yīng)當(dāng)成為個人信息侵權(quán)責(zé)任的主體,從技術(shù)角度來說,類ChatGPT生成式人工智能的生成是一種“從有到有\(zhòng)"的生成,只是信息的整合優(yōu)化而非知識的生成,其并未從根本上動搖人機(jī)之間的主客關(guān)系[42]。從實(shí)踐角度來說,責(zé)任主體需要對可歸責(zé)于自己的損害承擔(dān)法律責(zé)任,而生成式人工智能并沒有獨(dú)立的財產(chǎn),無法成為追責(zé)的對象。
生成式人工智能作為人工智能時代新型的數(shù)字基礎(chǔ)設(shè)施,不僅可以為使用者提供智能問答、代碼生成等直接性服務(wù),還可以作為基礎(chǔ)模型賦能于金融、醫(yī)療、自動駕駛等一系列下游產(chǎn)業(yè)中[43]。生成式人工智能的通用性使得個人信息的責(zé)任主體呈現(xiàn)垂直式分布,申言之,生成式人工智能的基礎(chǔ)模型既可以作為信息內(nèi)容生產(chǎn)者為用戶提供直接性的信息服務(wù),也可以作為技術(shù)支持者將基礎(chǔ)模型提供給其他平臺進(jìn)行更專業(yè)化的研發(fā)利用。目前,社會公眾對于生成式人工智能的認(rèn)知較為片面,很難提供證據(jù)證明具體的侵權(quán)行為人,一定程度上阻塞了信息主體的救濟(jì)渠道。為此,應(yīng)當(dāng)實(shí)行舉證責(zé)任倒置,由生成式人工智能服務(wù)提供者與使用者舉證證明其不存在侵害行為,對于無法提供確切證據(jù)證明的,可以借鑒共同危險理論,將生成式人工智能服務(wù)提供者與使用者視為一個整體,如果受害人有證據(jù)證明侵害人利用生成式人工智能侵害其合法權(quán)益,即可推定生成式人工智能服務(wù)提供者及使用者與受害人的損害存在因果關(guān)系[44],從而要求生成式人工智能服務(wù)提供者與使用者承擔(dān)連帶責(zé)任。
(二)二元?dú)w責(zé)原則的確立
《個人信息保護(hù)法》第69條規(guī)定,我國個人信息侵權(quán)歸責(zé)原則采取的是一元的過錯推定責(zé)任原則。然而,個人信息不僅蘊(yùn)含人格利益,還具有經(jīng)濟(jì)性利益,一元的過錯推定責(zé)任原則過于強(qiáng)調(diào)信息主體利益的保護(hù),忽視了個人信息的有效利用對于社會發(fā)展的重要性,不符合個人信息利益多元化的客觀現(xiàn)實(shí),也違背了《個人信息保護(hù)法》的立法宗旨。
法律意義上的歸責(zé)指,從法律價值層面來判斷某人對于損害的發(fā)生是否應(yīng)當(dāng)承擔(dān)法律責(zé)任[45]。可見,歸責(zé)不是單純的事實(shí)判斷,而是多元價值評價的結(jié)果,其本質(zhì)在于合理平衡侵害人與受害人的利益沖突。生成式人工智能中個人信息侵權(quán)歸責(zé)原則的確定需要合理協(xié)調(diào)信息主體利益與生成式人工智能服務(wù)提供者的利益。目前,我國規(guī)范層面對于個人信息采取了類型化的規(guī)制思路,存在公開信息與非公開信息,私密信息與非私密信息、個人敏感信息與個人一般信息等不同的分類模式。可見,現(xiàn)行規(guī)范關(guān)于個人信息的類型化標(biāo)準(zhǔn)較為繁雜,缺乏體系之間的協(xié)調(diào)與融貫,導(dǎo)致同一信息可能歸屬于不同范疇,影響了受損權(quán)益的有效救濟(jì)。
生成式人工智能可以主動抓取網(wǎng)絡(luò)公開信息,并根據(jù)收集的公開信息形成用戶的數(shù)據(jù)畫像,因此,如果根據(jù)收集的信息是否具有公開性來設(shè)計差異化的保護(hù)制度,其合理性有待商榷。此外,對于個人而言,私密信息與非私密信息的分類標(biāo)準(zhǔn)較為模糊,無法為司法裁判提供明確的指引。在現(xiàn)行規(guī)范體系下,以個人敏感信息與個人一般信息為基點(diǎn)來構(gòu)建差異化的歸責(zé)原則不僅契合個人信息保護(hù)的本質(zhì)屬性,也能夠?qū)崿F(xiàn)彈性化的價值評價。由于個人敏感信息關(guān)系信息主體的核心利益,不當(dāng)處理個人敏感信息可能侵害信息主體的人格尊嚴(yán)、人身自由等重要權(quán)益。與之不同,個人一般信息則更多地承載社會交往功能,是信息主體參與社會生活的重要媒介。從價值衡量的角度來說,相較于個人一般信息,法律應(yīng)當(dāng)對于侵害個人敏感信息的不法行為施加更嚴(yán)重的侵權(quán)責(zé)任。鑒此,對于侵害個人一般信息的應(yīng)當(dāng)適用過錯推定責(zé)任原則,而對于侵害個人敏感信息的則適用無過錯責(zé)任原則。
(三)補(bǔ)償性侵權(quán)責(zé)任與懲罰性侵權(quán)責(zé)任的聯(lián)動
1.個人信息是人格利益與財產(chǎn)利益的綜合載體②,生成式人工智能侵害個人信息可能同時造成財產(chǎn)損害與非財產(chǎn)損害。就財產(chǎn)損害賠償來說,《民法典》第1182條、《個人信息保護(hù)法》第69條規(guī)定,應(yīng)當(dāng)根據(jù)受害人損失、侵害人獲益、協(xié)議賠償以及酌定賠償予以確定。關(guān)于損失賠償?shù)姆秶謾?quán)法以填補(bǔ)受害人因侵害行為所遭受的損失為指導(dǎo)思想,因此損失賠償范圍應(yīng)當(dāng)奉行完全賠償原則,這也是公平正義的內(nèi)在要求。關(guān)于獲益返還的范圍,如果要求侵害人將合法經(jīng)營利益一并返還給受害人,可能導(dǎo)致受害人不當(dāng)獲利,亦使獲益返還滑入懲罰性賠償?shù)膶擂尉车亍>痛硕裕诖_定獲益返還的范圍時,應(yīng)當(dāng)將受害人的正當(dāng)性獲益排除出去。關(guān)于酌定賠償?shù)姆秶枰鶕?jù)個案情況綜合考察侵害手段、侵害情節(jié)、侵害范圍、侵權(quán)人的獲益、侵權(quán)人的主觀過錯程度、當(dāng)?shù)亟?jīng)濟(jì)發(fā)展水平以及侵權(quán)人的責(zé)任承擔(dān)能力,同時輔之以公平原則及誠實(shí)信用原則確定賠償數(shù)額。
關(guān)于精神損害賠償,如果生成式人工智能服務(wù)提供者違背信息主體的意愿而不法處理個人信息,并給信息主體造成恐懼、不安、痛苦、絕望等不良情緒時,即可認(rèn)為信息主體遭受了事實(shí)上的精神損害。然而,信息主體遭受的過于遙遠(yuǎn)的、輕微的精神損害一般不予賠償,但若侵害人主觀上存在故意或重大過失的,則不應(yīng)再強(qiáng)求損害后果的嚴(yán)重性。在確定可予賠償?shù)木駬p害之后,尚需對精神損害進(jìn)行金錢評價,金錢評價是精神損害與損害救濟(jì)之間的橋梁與紐帶,但金錢評價不是簡單的算術(shù)公式的運(yùn)用,需要在具體個案中充分考量侵權(quán)人的過錯程度、侵權(quán)行為的具體情節(jié)、侵權(quán)行為造成的后果、侵權(quán)人的獲利情況等諸種因素予以確定。
2.懲罰性侵權(quán)責(zé)任
懲罰性賠償起源于英美國家,與補(bǔ)償性賠償旨在填補(bǔ)受害人損害不同,懲罰性賠償要求加害人賠償?shù)臄?shù)額遠(yuǎn)遠(yuǎn)高于受害人的實(shí)際損害,從而懲罰加害人的侵害行為[46]。對于ChatGPT等生成式人工智能來說,其對于個人信息的不法處理可能嚴(yán)重擾亂人們的正常生活以及社會秩序的穩(wěn)健運(yùn)行,傳統(tǒng)的補(bǔ)償性賠償難以阻遏侵害行為的發(fā)生。懲罰性賠償能夠消除行為人繼續(xù)實(shí)施侵權(quán)行為的動力,并對潛在的加害人形成一定的警示作用,進(jìn)而減少生成式人工智能中個人信息侵權(quán)發(fā)生的概率。
根據(jù)《中華人民共和國消費(fèi)者權(quán)益保護(hù)法》第55條、《中華人民共和國食品安全法》第148條、《民法典》第1185、1207、1232條等相關(guān)條款可知,懲罰性賠償?shù)倪m用需要同時滿足主觀要件與客觀要件。就主觀要件來說,懲罰性賠償要求侵權(quán)人主觀上具有較強(qiáng)的可非難性,超過了一般社會公眾的包容度。就客觀要件來說,懲罰性賠償要求侵害行為情節(jié)嚴(yán)重,造成受害人死亡或健康受損等嚴(yán)重?fù)p害后果,輕微的或一般的損害無法請求懲罰性賠償。筆者認(rèn)為,生成式人工智能具有較強(qiáng)的技術(shù)性,且其運(yùn)行機(jī)理尚未對外公布,一般公眾難以舉證證明侵害人主觀上“明知\"或\"故意”。對此,應(yīng)當(dāng)適度降低生成式人工智能中懲罰性賠償?shù)倪m用門檻,只要受害人有證據(jù)證明侵權(quán)人主觀上具有輕過失即可,無須存在嚴(yán)重的、實(shí)際的損害后果。
懲罰性賠償?shù)穆淠_點(diǎn)在于賠償數(shù)額的確定,關(guān)于生成式人工智能中個人信息侵權(quán)懲罰性賠償數(shù)額的確定,筆者認(rèn)為應(yīng)當(dāng)設(shè)置一個最高賠償限額,由法官在最高賠償限額內(nèi)依據(jù)個案具體情境綜合各項(xiàng)因素得出妥當(dāng)?shù)馁r償數(shù)額,防止法官自由裁量權(quán)的濫用,也能一定程度保障法的安定性與可預(yù)期性。在具體計算懲罰性賠償數(shù)額時,可以受害人實(shí)際損失、侵害人不法獲益或者個人信息授權(quán)許可費(fèi)為計算基數(shù),懲罰性賠償?shù)臄?shù)額為計算基數(shù)的三倍。如果經(jīng)由上述計算方式得出的數(shù)額不足500元的,則按500元計,防止信息主體因賠償數(shù)額與訴訟成本明顯不成比例而不去積極訴請懲罰性賠償。
結(jié)語
如同歷史上任何一次的技術(shù)進(jìn)步,以ChatGPT、DeepSeek為代表的生成式人工智能無疑將會引發(fā)新一輪的產(chǎn)業(yè)革命。比爾·蓋茨聲稱,生成式人工智能是繼互聯(lián)網(wǎng)、智能手機(jī)之后最具革命性的技術(shù)@。生成式人工智能的運(yùn)用可以提高生產(chǎn)效率,促進(jìn)社會生產(chǎn)力的發(fā)展,但也可能引發(fā)算法歧視、數(shù)據(jù)安全、不公平競爭等一系列法律風(fēng)險,沖擊既有的法律秩序。數(shù)據(jù)是生成式人工智能的基礎(chǔ)性要素,然而,生成式人工智能在收集、利用、生成信息過程中對于傳統(tǒng)的個人信息保護(hù)規(guī)則帶來了較大的挑戰(zhàn)。
進(jìn)入21世紀(jì)以來,層出不窮的科技產(chǎn)品滲透社會生活的方方面面,在此背景下,以個體權(quán)益保護(hù)為由而禁錮科技的發(fā)展似乎不是明智的選擇。為了有效應(yīng)對生成式人工智能等新興科技可能帶來的法律風(fēng)險,需要適時轉(zhuǎn)變傳統(tǒng)的法律規(guī)制理念,立足于社會發(fā)展大局,統(tǒng)籌兼顧科技發(fā)展與個體權(quán)益的保護(hù),構(gòu)建合理的法律因應(yīng)制度,促進(jìn)生成式人工智能健康有序的發(fā)展,從而造福整個社會。
參考文獻(xiàn):
[1]魏鈺明.大模型應(yīng)用拓展下的智能社會復(fù)雜性及其治理[J].電子政務(wù),2025(3):2-6.
[2]於興中,鄭戈,丁曉東.生成式人工智能與法律的六大議題:以ChatGPT為例[J].中國法律評論,2023(2):1-20.
[3]蒲清平,向往.生成式人工智能:ChatGPT的變革影響、風(fēng)險挑戰(zhàn)及應(yīng)對策略[J].重慶大學(xué)學(xué)報(社會科學(xué)版),2023(3):102-114.
[4]WEIZENBAUMJ.ELIZA:Acomputer program for the studyof naturallanguage communication between man and machine[J].Communications of the ACM,1966,9(1) :36-45.
[5]朱光輝,王喜文.ChatGPT的運(yùn)行模式、關(guān)鍵技術(shù)及未來圖景[J].新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023(4):113-122.
[6]張亮,陳希聰.生成式人工智能背景下的跨境數(shù)據(jù)安全規(guī)制:基于DepSek、ChatGPT等主流AI的思考[J].湖北大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2025(2):120-128.
[7]郭春鎮(zhèn).生成式AI的融貫性法律治理:以生成式預(yù)訓(xùn)練模型(GPT)為例[J].現(xiàn)代法學(xué),2023(3):88-107.
[8]朱榮榮.個人信息保護(hù)“目的限制原則\"的反思與重構(gòu):以《個人信息保護(hù)法》第6條為中心[J].財經(jīng)法學(xué),2022(1):18-31.
[9]徐鳳.人工智能算法黑箱的法律規(guī)制:以智能投顧為例展開[J].東方法學(xué),2019(6):78-86.
[10]鄭永和,丁雨楠,鄭一,等.ChatGPT類人工智能催生的多領(lǐng)域變革與挑戰(zhàn)(筆談)[J].天津師范大學(xué)學(xué)報(社會科學(xué)版),2023(3):49-63.
[11]BOZKURTA.Generative artificialinteligence(AI)poweredconversational educationalagents:The inevitable paradigmshift[J].AsianJournal ofDistanceEducation,2023,18(1):198-204.
[12]BYRNEMD.GenerativeArtificial Inteligenceand ChatGPT[J].Journal of Perianesthesia Nursing,2023,38(3):519-522.
[13]丁曉東.大數(shù)據(jù)與人工智能時代的個人信息立法:論新科技對信息隱私的挑戰(zhàn)[J].北京航空航天大學(xué)學(xué)報(社會科學(xué)版),2020(3):8-16,71.
[14]POSNERRA. The Right of Privacy[J].Georgia Law Review,1978,12(3):393-422.
[15]JEROMEJW.Buyingandsellng privacy:Bigdata'sdiferentburdensandbenefits[J].SSRNElectronicJournal,2013,66(47) :47-54.
[16]BURDON M.Contextualizing the Tensions and Weaknesses of Information Privacy and Data Breach Notification LawsJ].Santa Clara ComputerHigh Technology Law Journal,2010,27(1) :63-130.
[17]CHIK WB,PANGJKY.The Meaning and Scopeof Personal Data underthe Singapore Data Protection Act[J].SingaporeAcademy of Law Journal,2014,26(2) :354-397.
[18]楊立新.個人信息:法益抑或民事權(quán)利:對《民法總則》第111條規(guī)定的“個人信息\"之解讀[J].法學(xué)論壇,2018(1):34-45.
[19]鄭曉劍.個人信息的民法定位及保護(hù)模式[J].法學(xué),2021(3):116-130.
[20]張濤.探尋個人信息保護(hù)的風(fēng)險控制路徑之維[J].法學(xué),2022(6):57-71.
[21]商希雪.超越私權(quán)屬性的個人信息共享:基于《歐盟一般數(shù)據(jù)保護(hù)條例》正當(dāng)利益條款的分析[J].法商研究,2020(2) :57-70.
[22]申衛(wèi)星.論個人信息保護(hù)與利用的平衡[J].中國法律(中英文版),2021(5):24-29,103-109.
[23]宋偉衛(wèi).處理已公開個人信息的刑法邊界[J].吉林大學(xué)社會科學(xué)學(xué)報,2022(6):71-82,232-233.
[24]儲陳城.大數(shù)據(jù)時代個人信息保護(hù)與利用的刑法立場轉(zhuǎn)換:基于比較法視野的考察[J].中國刑事法雜志,2019(5):48-62.
[25]龍衛(wèi)球.中華人民共和國個人信息保護(hù)法釋義[M].北京:中國法制出版社,2021:5.
[26]高富平.基于規(guī)范目的的個人信息治理規(guī)則[J].中國應(yīng)用法學(xué),2022(6):111-127.
[27]許可.誠信原則:個人信息保護(hù)與利用平衡的信任路徑[J].中外法學(xué),2022(5):1143-1162.
[28]李振林,潘鑫媛.生成式人工智能背景下數(shù)據(jù)安全的刑法保護(hù)困境與應(yīng)對:以ChatGPT為視角的展開[J].犯罪研究,2023(2):25-33.
[29]珍妮·斯蒂爾.風(fēng)險與法律理論[M].韓永強(qiáng),譯.北京:中國政法大學(xué)出版社,2012:5-6.
[30]烏爾里希·貝克.風(fēng)險社會[M].何博聞,譯.南京:譯林出版社,2004:35.
[31]安東尼·吉登斯.失控的世界:全球化如何重塑我們的生活[M].周紅云,譯.南昌:江西人民出版社,2001:18.
[32]ANDORNOR.The precautionaryprinciple:Anewlegal standard fora technological age[J]. Journal of InternationalBiotechnology Law,2004,1(1):11-19.
[33]SEILER H. Harmonised Risk Based Regulation:A legal Viewpoint[J].Safety Science,2002,40(1/2/3/4):31-49.
[34]孫政偉.大數(shù)據(jù)時代侵權(quán)法功能定位的歷史轉(zhuǎn)型[J].民商法論叢,2020(1):125-146.
[35]何國強(qiáng).風(fēng)險社會下侵權(quán)法的功能變遷與制度建構(gòu)[J].政治與法律,2019(7):93-104.
[36]崔聰聰.數(shù)據(jù)限制處理權(quán)的法理基礎(chǔ)與制度建構(gòu)[J].比較法研究,2022(5):75-88.
[37]齊愛民.大數(shù)據(jù)時代個人信息保護(hù)法國際比較研究[M].北京:法律出版社,2015:245.
[38]張凌寒.商業(yè)自動化決策的算法解釋權(quán)研究[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2018(3):65-74.
[39]王葉剛.個人信息處理者算法自動化決策致害的民事責(zé)任:以《個人信息保護(hù)法》第24條為中心[J].中國人民大學(xué)學(xué)報,2022(6):47-59.
[40]PRINS C.Making ourbodyidentifyforus:Legalimplications of biometric technologies[J].ComputerLawSecurity Report,1998,14(3) :159-165.
[41]京東法律研究院.歐盟數(shù)據(jù)憲章:《一般數(shù)據(jù)保護(hù)條例》GDPR評述及實(shí)務(wù)指引[M].北京:法律出版社,2018:8.
[42]肖峰.何種生成?能否創(chuàng)造:ChatGPT的附魅與祛魅[N].中國社會科學(xué)報,2023-03-06(5).
[43]張凌寒.生成式人工智能的法律定位與分層治理[J].現(xiàn)代法學(xué),2023(4):126-141.
[44]阮神裕.民法典視角下個人信息的侵權(quán)法保護(hù):以事實(shí)不確定性及其解決為中心[J].法學(xué)家,2020(4):29-39,192.
[45]孔祥俊.論侵權(quán)行為的歸責(zé)原則[J].中國法學(xué),1992(5):70-77.
[46]張新寶,李倩.懲罰性賠償?shù)牧⒎ㄟx擇[J].清華法學(xué),2009(4):5-20.
The challenge and response to personal information protection forgenerative artificial intelligence
ZHU Rongrong
(School of Humanities and Arts, China University of Mining and Technology,Xuzhou 221116,P.R. China)
Abstract: Generative artificial intelligence,represented by ChatGPT and DeepSeek,refers to artificial inteligence that can generate text,pictures,videos,and other corresponding content according to user instructions.Personal information is the basisof generative artificial inteligence.Generative artificial intellgence needs to deal with a large amount of personal information in all stages of model training,model generation and model optimization, which also brings a certain impact on the traditional personal information protection rules.In the stage of information collection,generative artificial intelligence may blur the rules of informed consent and infringe the privacy of information subjects.In the stage of informationutilization, generative artificial intelligence may impact the basic personal information processing rules such as the principle of purpose limitation and the principle ofopennessand transparency,and increase the risk of personal information disclosure.In the stage of information generation,generative artificial inteligence may generate 1informationand discriminatory information.In the context of the transformational development of generative artificial intelligence,it is urgent to examine the basic concept of personal information protection and seek its valueorientation in the field of generative artificial inteligence.By examining the development of comparative law and the concept of personal information protection in China,we can see that the unipolar thinking of personal information protectionor personal information utilization is difficult to adapt to the practical needs of the digital society,and the dynamic balance between personal information protection and personal information utilization is the ideal path to properly balance the interests of varioussubjects. Generative artificial intelligencecan be widely used as a basic model in many fields such as education,finance, science,and technology.Inview of this,a balance between personal information protection and generative artificial intelligence development should be coordinated and promoted.Personal information is closely related to the information subject.Once personal information is disclosed or abused,the information subject may suffer higher risks.Therefore,it is necessary to builda collaborative relief mechanism of risk preventionand damage compensation,to promote the benign development of generative artificial intelligence based on whole life cycle protection of personal information.As faras the risk prevention mechanism isconcerned,it is necessary to improve the de-identification measures basedon risk identification,and grantthe information subjectthe right to limitprocessing and the right to interpret algorithms,to curb the potential risks inanall-round way. Determination of the subject of liability is the basis of damage compensation.It should be proved by the service provider of generative artificial intelligence and the user that there is no causal relationship between them and the damage,otherwise they need to bear joint and several liabilityforcompensation.In terms of the principle of imputation,the principle of presumptive fault liability or no-fault liabilitycan beapplied respectively according to thefactthatthe infringedobject is personal general information or personalsensitive information.In order to better remedy the damage suffered by the information subject,inaddition to the traditional compensatory compensation such as property damage compensation and mental damage compensation,punitive compensation should also be introduced to protect the damaged rights and interests of the information subject to the greatest extent.
Key Words: generative artificial intellgence; ChatGPT; DeepSeek; personal information; risk prevention tort liability
(責(zé)任編輯 劉琦)
重慶大學(xué)學(xué)報(社會科學(xué)版)2025年4期