一、問題的提出
在數(shù)字化浪潮席卷全球的時代,新質(zhì)生產(chǎn)力已經(jīng)成為推動社會創(chuàng)新進步與科技發(fā)展的重要力量,作為其主要代表的生成式人工智能憑借自身超強的內(nèi)容生成能力,逐漸融入經(jīng)濟、文化、社會發(fā)展等各個領(lǐng)域,給人們的工作和生活帶來極大的便利。然而,任何新技術(shù)的發(fā)展往往都會伴隨一系列的挑戰(zhàn),生成式人工智能的普遍應(yīng)用既使得版權(quán)風險逐漸顯露,也給傳統(tǒng)的版權(quán)法律體系帶來巨大的沖擊,加大了版權(quán)保護的難度。生成式人工智能的完整加工體系包含數(shù)據(jù)收集、機器學習與內(nèi)容輸出三大環(huán)節(jié),每個階段均涉及海量數(shù)據(jù)處理,但是各環(huán)節(jié)的數(shù)據(jù)處理目標與方法存在顯著差異。在生成式人工智能的大規(guī)模數(shù)據(jù)處理與階段性差異影響下,模型訓練、數(shù)據(jù)輸入、內(nèi)容生成等環(huán)節(jié)均存在不同程度的版權(quán)風險隱患。文章通過深入分析生成式人工智能各運行階段的技術(shù)原理,系統(tǒng)揭示了其中潛在的版權(quán)法律風險,并基于分層視角,針對不同階段的具體版權(quán)問題提出了專項研究框架。例如,在數(shù)據(jù)收集階段如何才能保證不侵犯原作者的版權(quán)?在生成階段所形成的產(chǎn)物應(yīng)該如何認定才能實現(xiàn)對其最大化保護的目標,從而平衡技術(shù)的發(fā)展和傳統(tǒng)版權(quán)保護對象之間的沖突?針對以上問題,文章結(jié)合各階段的運作特性針對性地提出規(guī)制對策。
二、生成式人工智能概述
(一)生成式人工智能的內(nèi)涵
第一,人工智能的概念。“人工智能”的概念最早由英國數(shù)學家圖靈在1950年提出,他通過“圖靈測試”這一標準,用以判斷機器是否具備獨立思考能力,并將人工智能定義為:能輸出與人腦別無二致的內(nèi)容的機器。到1956年,達特茅斯會議正式將人工智能作為一個學科的正式命名,并開啟了人工智能的研究歷程[1]。自此,人工智能經(jīng)歷了幾次興衰,分別被稱為“寒冬”和“熱潮”。目前,我們正處于第三次人工智能熱潮,也被稱為“深度學習革命”[2]。深度學習是一種可以處理復(fù)雜的非線性問題,能夠?qū)崿F(xiàn)端到端學習的方法,其利用多層神經(jīng)網(wǎng)絡(luò)進行數(shù)據(jù)表達和學習。基于此,文章可將“人工智能”定義為新興的技術(shù)科學領(lǐng)域,主要致力于研究和開發(fā)用于模擬、延伸及增強人類智能的理論方法、技術(shù)體系及其應(yīng)用系統(tǒng)。該學科旨在探索智能的本質(zhì)特征,研發(fā)能夠模擬人類智能活動并作出類人反應(yīng)的智能系統(tǒng),其典型應(yīng)用包括機器人技術(shù)、生物特征識別以及智能對話系統(tǒng)等。
第二,生成式人工智能的概念。生成式人工智能屬于人工智能的一個特定分支,其技術(shù)基礎(chǔ)主要建立在機器學習等人工智能技術(shù)體系上。生成式人工智能的核心原理植根于深度學習技術(shù),尤其以神經(jīng)網(wǎng)絡(luò)的應(yīng)用最為典型。其核心思想在于使用變分自編碼器(VAE)、生成對抗網(wǎng)絡(luò)(GAN)、大型語言模型(LLM)等訓練模型,通過多層次的神經(jīng)網(wǎng)絡(luò)模塊來理解和模擬數(shù)據(jù)的分布,從而生成與訓練數(shù)據(jù)相似但又獨特的新數(shù)據(jù),實現(xiàn)創(chuàng)造性的內(nèi)容生成[3]。與只能對已知的模式進行重復(fù)利用的普通人工智能相比,生成式人工智能的優(yōu)越性在于:其能夠在對現(xiàn)有的數(shù)據(jù)進行模擬和分類后,利用其已經(jīng)學習到的模式自主地生成文本、音頻、視頻等各種類型的新內(nèi)容。生成式人工智能的核心技術(shù)體現(xiàn)在基礎(chǔ)模型,典型代表包括美國OpenAI開發(fā)的ChatGPT,以及國內(nèi)研發(fā)的文心一言、訊飛星火等主流產(chǎn)品。生成式人工智能的出現(xiàn)是人工智能時代創(chuàng)造性和創(chuàng)新性的重大突破,為各種領(lǐng)域帶來了新的可能性與機遇,同時也帶來了技術(shù)、倫理、法律等各方面的挑戰(zhàn)。
(二)生成式人工智能的特征
生成式人工智能與普通的人工智能有所不同,其基于開發(fā)者預(yù)先設(shè)計的應(yīng)用程序,依托人類主體提供的數(shù)據(jù),以多樣化的方式歸納社會生活中人們對各種事務(wù)的處理規(guī)則,自主地對所采集的數(shù)據(jù)進行加工重構(gòu),進而產(chǎn)出人類主體希望獲得的創(chuàng)造性結(jié)果[4]。結(jié)合以上不同點,文章歸納了生成式人工智能的主要特征。第一,自主創(chuàng)造性。生成式人工智能無須人工干預(yù),在接收用戶指令后,能夠基于內(nèi)置算法和海量數(shù)據(jù)集,通過分析數(shù)據(jù)特征實現(xiàn)跨模態(tài)融合,自主生成超越現(xiàn)有內(nèi)容的全新創(chuàng)作成果。第二,高效可控性。一方面,用戶對生成過程與結(jié)果具有可控性。用戶可通過對大模型發(fā)出指令來調(diào)整生成數(shù)據(jù)的內(nèi)容和結(jié)構(gòu),準確滿足自我需求;另一方面,生成式人工智能生成效率和質(zhì)量較高。當收到用戶的指令時,生成式人工智能可在短時間內(nèi)迅速檢索自身的數(shù)據(jù)庫,快速產(chǎn)出高質(zhì)量的數(shù)據(jù)內(nèi)容,這在節(jié)省大量人力物力的同時提升了生產(chǎn)效率。第三,可解釋性。其一,生成式人工智能為用戶深入了解其模型提供了路徑。當生成物產(chǎn)出后,大模型能夠依照用戶的需求提供生成數(shù)據(jù)的來源與依據(jù),使用戶清晰理解其內(nèi)部機制和決策過程,從而提高生成結(jié)果可信賴度和可解釋性。其二,用戶可通過人機交互判斷生成物的質(zhì)量和可用性。例如,當用戶要求生成式人工智能“撰寫交通事故案例匯編文書”時,系統(tǒng)生成的內(nèi)容可能包含國家權(quán)威案例庫的官方數(shù)據(jù)與社交平臺用戶的非正式回答。通過對比數(shù)據(jù)來源,用戶通常會更傾向于采信權(quán)威機構(gòu)提供的案例,因其在專業(yè)性和可靠性方面更具優(yōu)勢。第四,侵權(quán)特殊性。生成式人工智能在無法合理處理其收集的數(shù)據(jù)內(nèi)容來源或生成不具有創(chuàng)造性的作品時,會產(chǎn)生侵權(quán)的可能性。一方面,侵權(quán)客體具有特定性和特殊性。生成式人工智能的侵權(quán)問題主要涉及人格權(quán)與著作權(quán)兩大領(lǐng)域,這一特性使其面臨的法律風險具有相對可控性。另一方面,侵權(quán)結(jié)果的發(fā)生具有依附性。生成式人工智能雖可能生成虛假內(nèi)容或與既有作品構(gòu)成實質(zhì)性相似,但實際侵權(quán)責任通常源于用戶的傳播行為[5],且侵權(quán)所造成的損害程度和影響范圍往往也和用戶傳播這些內(nèi)容的方式緊密關(guān)聯(lián)。
三、生成式人工智能的版權(quán)風險
隨著科技的不斷更迭發(fā)展,生成式人工智能逐漸成為技術(shù)創(chuàng)新、生產(chǎn)力提升和產(chǎn)業(yè)升級的重要驅(qū)動力量,國家也高度重視數(shù)字經(jīng)濟發(fā)展,2023年中央經(jīng)濟工作會議對此作出重點部署,大力發(fā)展數(shù)字經(jīng)濟,加快發(fā)展人工智能[6]。生成式人工智能的運行并非單一過程,其主要包括數(shù)據(jù)收集、學習和輸出三個階段。在數(shù)據(jù)收集階段,生成式人工智能主要通過對其他作品的收錄編輯形成自己的數(shù)據(jù)庫;在學習階段,生成式人工智能通過分析先前所收集的大量數(shù)據(jù),使用最優(yōu)算法搭建模型,并對模型開展質(zhì)量評估;在輸出階段,生成式人工智能模型可根據(jù)用戶的指令生成具有創(chuàng)造性的人工智能生成物。由此可見,生成式人工智能的運作是一條完整且各環(huán)節(jié)密不可分的鏈條,一旦其中某一環(huán)出現(xiàn)誤差,將導致后續(xù)步驟無法成功運作。正是基于其這一技術(shù)特性,生成式人工智能易引發(fā)一系列版權(quán)風險,這些版權(quán)風險貫穿于生成式人工智能運作的整個過程。
(一)數(shù)據(jù)收集階段的版權(quán)風險
擁有大量的版權(quán)作品和數(shù)據(jù)內(nèi)容是保障生成式人工智能得以有效運行和不斷發(fā)展的重要基石,數(shù)據(jù)收集階段作為生成式人工智能復(fù)雜系統(tǒng)運作的開端,需要將現(xiàn)有的海量作品轉(zhuǎn)換成人工智能可以識別的數(shù)據(jù)類型,以便于下一階段的數(shù)據(jù)處理,故其合法性和合規(guī)性至關(guān)重要。然而,由于該階段的基礎(chǔ)性和特定運作機制,數(shù)據(jù)采集過程常涉及侵權(quán)問題,可能引發(fā)著作權(quán)侵權(quán)風險,并進一步波及后續(xù)學習與輸出環(huán)節(jié),形成連鎖性法律風險。實踐中,該類侵權(quán)主要源于人工智能的開發(fā)者未獲得版權(quán)所有人的授權(quán)許可,如采取通過爬蟲程序獲取數(shù)據(jù)、未經(jīng)版權(quán)人許可直接扒竊數(shù)據(jù)庫或個人數(shù)據(jù)、未經(jīng)授權(quán)將他人非數(shù)據(jù)作品數(shù)字化等一系列手段[7]。因此,如何在現(xiàn)行法律體系下合理協(xié)調(diào)數(shù)據(jù)庫建設(shè)與著作權(quán)保護之間的平衡,確保對人類智力成果的充分尊重,已成為業(yè)界亟須解決的關(guān)鍵問題。
(二)學習階段的版權(quán)風險
生成式人工智能的學習階段可能會引發(fā)改編權(quán)侵權(quán)的風險。改編權(quán)指改變作品,創(chuàng)作出具有獨創(chuàng)性的新作品的權(quán)利,其包括在原作品上進行改編和形成新的作品兩個構(gòu)成要件。
生成式人工智能的學習階段實質(zhì)上為機器學習,主要是將其收集到的數(shù)據(jù)進行加工處理,并構(gòu)建自己獨有且全面的數(shù)據(jù)庫。然而,處理加工的過程往往會涉及將所收集的原作品進行拆解、改裝、重組的情況,因此,有學者將這個階段的學習分為非表達型機器學習和表達型機器學習。非表達型機器學習本身不具備主觀創(chuàng)作意圖,僅對輸入數(shù)據(jù)進行客觀分析和特征提取。由于其所處理的內(nèi)容通常不構(gòu)成著作權(quán)法意義上的作品,這類技術(shù)可以自由使用相關(guān)素材,從而避免了潛在的版權(quán)侵權(quán)風險。表達型機器學習則主要以輸出表達為內(nèi)容,并且可根據(jù)作品作者來源是否具有唯一性和針對性進一步將其分為“普通的表達型機器學習”和“特殊的表達型機器學習”[8]。普通的表達型機器學習指不以特定作者為學習對象,而是從海量現(xiàn)存作品數(shù)據(jù)庫中提取符合條件的內(nèi)容進行訓練;特殊的表達型機器學習以特定創(chuàng)作者為學習對象,如通過分析某位作家的文學風格,進而生成具有該作家典型特征的新作品。前者提取各種類型的作品中所需的數(shù)據(jù)部分,對其加工處理,產(chǎn)生的作品具有創(chuàng)造性和新穎性,能夠構(gòu)成著作權(quán)法定義的“作品”,不易侵犯他人的版權(quán)。后者由于提取的作品具有針對性且為特定作者所著,在生成過程中毫無避免地可能引發(fā)侵犯原作者改編權(quán)的風險。因此,在生成式人工智能處理原作品數(shù)據(jù)的過程中,用戶需要特別關(guān)注表達型機器學習的具體應(yīng)用形式,避免其在學習和生成環(huán)節(jié)侵犯原作者的改編權(quán),從而引發(fā)版權(quán)爭議。
(三)輸出階段的版權(quán)風險
經(jīng)過數(shù)據(jù)收集和機器學習兩個關(guān)鍵環(huán)節(jié)后,系統(tǒng)最終生成新作品的階段,即為生成式人工智能的輸出階段。在此階段,系統(tǒng)首先利用訓練好的模型和輸入的上下文提示,通過概率統(tǒng)計方法預(yù)測并選擇最優(yōu)的文本或視覺元素來生成內(nèi)容。隨后,系統(tǒng)會對生成內(nèi)容進行多維度評估,包括語法正確性和語義相關(guān)性等方面的檢測與優(yōu)化,最終輸出高質(zhì)量且準確的結(jié)果[9]。然而,生成式人工智能的輸出內(nèi)容是基于用戶指令,對數(shù)據(jù)庫的信息進行定向篩選和重組后生成的結(jié)果,可能導致以下著作權(quán)風險:一是生成內(nèi)容缺乏足夠的獨創(chuàng)性;二是可能包含對原作品的實質(zhì)性復(fù)制或過度模仿。這種情況可能涉及侵犯原作者的復(fù)制權(quán)、信息網(wǎng)絡(luò)傳播權(quán)、發(fā)行權(quán)及改編權(quán)等多項著作權(quán)。總的來說,這一階段最大的爭議主要集中于生成物的版權(quán)歸屬問題上。具體而言,當生成內(nèi)容涉嫌侵犯大模型所采集的受版權(quán)保護作品的權(quán)益時,應(yīng)如何準確界定該版權(quán)作品的合法權(quán)利人?這一問題不僅引發(fā)了學術(shù)界的關(guān)注,同時也使司法實踐深受困擾。實際上,版權(quán)歸屬爭議主要涉及生成式人工智能的開發(fā)者、運營者和使用者三方主體,因此合理界定三方的權(quán)責關(guān)系是解決此類問題的關(guān)鍵。
四、生成式人工智能版權(quán)風險的規(guī)制路徑
生成式人工智能的出現(xiàn)是數(shù)字化經(jīng)濟時代的一大創(chuàng)新突破,實現(xiàn)了從語言分析世界向創(chuàng)造世界的偉大飛躍,標志著人工智能迎來了一個更加鼎盛的新時期,其能夠更加充分探索和利用人類的信息環(huán)境,實現(xiàn)信息多元化、創(chuàng)造性結(jié)合,更有利于產(chǎn)業(yè)鏈升級和價值觀的塑造。然而,生成式人工智能作為新興技術(shù)領(lǐng)域,其涉及的技術(shù)特性和潛在風險超出了傳統(tǒng)法律規(guī)制的預(yù)期范圍,導致從數(shù)據(jù)采集到內(nèi)容生成的全流程都存在法律適用的空白與挑戰(zhàn)。在我國現(xiàn)行法律體系中,人工智能相關(guān)規(guī)制分散于多部法律法規(guī)中,如《中華人民共和國電子商務(wù)法》《中華人民共和國個人信息保護法》《中華人民共和國數(shù)據(jù)安全法》,無法形成一個完整周延的法律規(guī)范體系。立法部門只有在第一代生成式人工智能運行時對現(xiàn)存問題采取實質(zhì)性的應(yīng)對措施,解決根本,才可筑牢根基,保證各類生成式人工智能大規(guī)模商業(yè)化落地時能穩(wěn)步運行,確保產(chǎn)業(yè)智能化升級和和現(xiàn)代化進程順利進行[10]。基于此,文章將結(jié)合國家互聯(lián)網(wǎng)信息辦公室等七部門聯(lián)合印發(fā)的《生成式人工智能服務(wù)管理暫行辦法》,綜合考慮生成式人工智能運行的獨立性、各個運行階段的工作和特征,針對其存在的版權(quán)法律問題,提出相關(guān)切實可行的規(guī)制路徑,為生成式人工智能引發(fā)的法律風險解決方案提供相關(guān)建議。
(一)筑牢生成式人工智能發(fā)展的基石
建立數(shù)據(jù)內(nèi)容廣泛且來源合法的儲備庫是生成式人工智能得以穩(wěn)定運行和高質(zhì)量高效率工作的重要前提。針對生成式人工智能在收集數(shù)據(jù)階段可能引發(fā)侵犯原作者復(fù)制權(quán)的問題,當前的研究主要存在以下四種觀點。一是引入法定許可,采用報酬支付或補償金制度;二是將該階段的數(shù)據(jù)收集納入合理使用范疇;三是采取類型化區(qū)分,從而適用著作權(quán)的合理使用,將該范圍限定在公共領(lǐng)域、科研內(nèi);四是絕對否認該階段侵犯復(fù)制權(quán)[11]。在數(shù)據(jù)收集階段,數(shù)據(jù)庫僅對現(xiàn)有作品及信息進行采集與整合,將內(nèi)容存儲于數(shù)據(jù)庫中。文章認為,根據(jù)著作權(quán)法“固定性 + 可復(fù)制性”的判定標準,由于該過程未實際實施傳播行為,因此不構(gòu)成著作權(quán)侵權(quán)。但是,基于數(shù)據(jù)庫是生成式人工智能進行學習、產(chǎn)生生成物的基礎(chǔ),立法部門應(yīng)當在該階段對數(shù)據(jù)收集進行限制一一優(yōu)先使用公共領(lǐng)域數(shù)據(jù)或授權(quán)數(shù)據(jù),避免直接抓取受版權(quán)保護的作品;在涉及存在知識產(chǎn)權(quán)的數(shù)據(jù)抓取上,與數(shù)據(jù)提供商簽訂合法協(xié)議以確保數(shù)據(jù)來源可追溯,從而在源頭上降低侵權(quán)風險[12]。同時,生成式人工智能開發(fā)者須嚴格遵守著作權(quán)法的規(guī)定,結(jié)合《生成式人工智能服務(wù)管理暫行辦法》第九條“提供者應(yīng)當依法承擔網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責任,履行網(wǎng)絡(luò)信息安全義務(wù)。涉及個人信息的,依法承擔個人信息處理者責任,履行個人信息保護義務(wù)。”的規(guī)定,通過與著作權(quán)人簽訂授權(quán)協(xié)議,明確數(shù)據(jù)采集范圍和使用方式、利用經(jīng)合法授權(quán)的開源數(shù)據(jù)庫、限定收集公共領(lǐng)域作品內(nèi)容等措施,有效規(guī)避數(shù)據(jù)收集環(huán)節(jié)的復(fù)制權(quán)侵權(quán)風險。同時,在第七條將獲得原作者授權(quán)的合法作品納入數(shù)據(jù)庫的基礎(chǔ)上,立法部門應(yīng)明確對著作權(quán)違禁作品、違法作品及通過爬蟲程序等侵權(quán)手段獲取的內(nèi)容采取禁止性規(guī)定。此外,立法部門還應(yīng)強調(diào)生成式人工智能服務(wù)提供者的注意義務(wù)。對此,立法部門可借鑒“廣州法院判決AI生成奧特曼侵權(quán)案”法院裁判的判決意見,即生成式人工智能服務(wù)提供者通過采取關(guān)鍵詞過濾等管控措施,確保即使用戶輸入與特定作品相關(guān)的提示詞,系統(tǒng)也不會生成與該作品構(gòu)成實質(zhì)性相似的文本或圖片內(nèi)容。
(二)確保學習階段的嚴格性
若想確保生成式人工智能輸出階段不再侵犯原作者的復(fù)制權(quán)、信息網(wǎng)絡(luò)傳播權(quán)、表演者權(quán)等版權(quán),生成式人工智能開發(fā)者需要保證其運行的前面的各個階段符合相關(guān)要求,不能存在侵犯原作者版權(quán)的行為。在學習階段,生成式人工智能開發(fā)者要特別重視生成式人工智能的特殊的表達機器學習類型可能面臨侵犯原作者的改編權(quán)的問題。在此階段,開發(fā)者應(yīng)當在模型訓練和優(yōu)化時謹慎處理所收集的數(shù)據(jù)內(nèi)容,防止其所采用的技術(shù)和手段直接復(fù)制和濫用原作者的創(chuàng)作成果,構(gòu)成侵權(quán)。為兼顧法律適用的穩(wěn)定性與人工智能技術(shù)的良性發(fā)展,我國可在現(xiàn)行著作權(quán)法框架下,將生成式人工智能使用作品的行為納入合理使用范疇,同時設(shè)定以下限制條件:其一,使用目的不得構(gòu)成惡意競爭或損害權(quán)利人利益;其二,對用于商業(yè)用途的生成內(nèi)容,需要通過“三步檢驗法”評估其合理使用邊界;其三,參照歐盟《人工智能法案》建立素材來源披露機制,確保訓練數(shù)據(jù)的可追溯性。這一制度既能為生成式人工智能的發(fā)展提供法律保障,又能維護著作權(quán)法的核心價值,同時促進原創(chuàng)作品的合法傳播,實現(xiàn)文化知識的良性擴散。
(三)明確人工智能生成物的版權(quán)歸屬
針對生成式人工智能生成物的版權(quán)歸屬,國內(nèi)外一直存在爭議。法國、德國、意大利等歐盟國家以及美國均不支持人工智能生成物的可版權(quán)性,認為著作權(quán)制度的中心應(yīng)為人類,并非人工智能系統(tǒng),且美國版權(quán)局在其發(fā)布的美國聯(lián)邦法規(guī)第202部分《版權(quán)登記指南》中明確規(guī)定了人工智能生成的作品不受版權(quán)法的保護。
我國理論界對此問題也展開了激烈的探討。張平教授從著作權(quán)法視角出發(fā),指出權(quán)利主體不僅限于自然人,還包括法人及非法人組織等非自然人主體,因而主張應(yīng)采用客體判斷標準,即以生成內(nèi)容是否具有獨創(chuàng)性作為認定其構(gòu)成著作權(quán)法保護作品的實質(zhì)要件。馮曉青教授與韋之也贊同此觀點,他們認為,人工智能生成物是經(jīng)人類提示的具有思想性的產(chǎn)物,只要通過查重等手段證明其具有獨創(chuàng)性就可被認定為作品。孫遠釗教授、丁曉東教授與李琛教授主張采取主體判斷標準,認為人工智能不符合著作權(quán)法規(guī)定的創(chuàng)作主體和權(quán)利主體資格要件。
文章認為,若人工智能生成內(nèi)容滿足著作權(quán)法規(guī)定的“獨創(chuàng)性”要求,即應(yīng)被認定為受保護的作品,其著作權(quán)應(yīng)歸屬生成式人工智能的使用者。一方面,技術(shù)開發(fā)者與提供者通過模型商業(yè)化應(yīng)用已獲取經(jīng)濟效益,而生成內(nèi)容則是使用者在基礎(chǔ)指令框架下,通過持續(xù)調(diào)整優(yōu)化形成的個性化智力成果,應(yīng)視為使用者的獨創(chuàng)性表達;另一方面,現(xiàn)行《中華人民共和國民法典》和《中華人民共和國著作權(quán)法》確立的法律框架明確將著作權(quán)主體限定為自然人、法人及非法人組織等平等民事主體,其立法目的在于保護創(chuàng)作者對作品享有的財產(chǎn)權(quán)益,基于維護法律體系內(nèi)在統(tǒng)一性的要求,當前司法實踐不宜將生成式人工智能認定為適格的著作權(quán)主體。此外,生成式人工智能根據(jù)使用者的指令和設(shè)定條件所產(chǎn)生的內(nèi)容,本質(zhì)上屬于人類提升信息處理效率的工具性產(chǎn)物,完全服務(wù)于使用者的特定需求,故其著作權(quán)應(yīng)歸屬于生成式人工智能的使用者。
(四)構(gòu)建全方位監(jiān)管體系,促進生成式人工智能的成長
生成式人工智能通過大數(shù)據(jù)算法完成內(nèi)容生成后,將產(chǎn)出具有創(chuàng)造性的生成內(nèi)容。相關(guān)主體不僅需要界定此類內(nèi)容的法律屬性與權(quán)利歸屬,更需要建立有效的監(jiān)管機制以防范潛在的版權(quán)爭議。
首先,相較其他主體,生成式人工智能的開發(fā)者對生成式人工智能模型享有最大的控制權(quán),也對其擁有全面的了解。雖然人工智能生成內(nèi)容的著作權(quán)歸屬于使用者,但是開發(fā)者仍須承擔首要監(jiān)管責任,以持續(xù)優(yōu)化生成模型,推動技術(shù)創(chuàng)新發(fā)展。生成式人工智能開發(fā)者可通過以下方式履行其監(jiān)管責任:出具相關(guān)的版權(quán)聲明文件以及數(shù)據(jù)來源公開文件,采取水印、特征提取和比對、自動監(jiān)管系統(tǒng)等手段[13],同時定期核查數(shù)據(jù)來源的合法性,及時處置未授權(quán)內(nèi)容,從源頭降低版權(quán)侵權(quán)風險。
其次,生成式人工智能使用者作為技術(shù)應(yīng)用的指令發(fā)出方和生成內(nèi)容的著作權(quán)人,自指令輸入至內(nèi)容產(chǎn)出的全過程均須承擔主體責任,其生成內(nèi)容是否構(gòu)成侵權(quán)將直接影響自身合法權(quán)益。因此,生成式人工智能使用者也應(yīng)當被納進監(jiān)管生成式人工智能的主體隊列中。其應(yīng)當在發(fā)布指令時嚴格限定發(fā)布條件,不得濫用其主體權(quán)利損害他人的版權(quán);在作品生成完成后,要及時采取審查措施,判斷其中是否存在侵犯他人版權(quán)的情形,確認無任何侵權(quán)風險后再將作品公開發(fā)行或營利使用。
最后,政府機構(gòu)應(yīng)當承擔作為公權(quán)力機關(guān)的社會責任。一方面,政府機構(gòu)應(yīng)充分發(fā)揮公信力優(yōu)勢,積極開展知識產(chǎn)權(quán)普法宣傳,面向社會公眾系統(tǒng)性地普及知識產(chǎn)權(quán)知識,提升全民知識產(chǎn)權(quán)保護意識,促進形成尊重和保護知識產(chǎn)權(quán)的社會氛圍,從而從源頭上減少版權(quán)侵權(quán)行為的發(fā)生。另一方面,為有效監(jiān)管生成式人工智能的版權(quán)問題,相關(guān)政府管理部門應(yīng)當與生成式人工智能開發(fā)者建立協(xié)同配合的監(jiān)管體系,通過實施政府引導與企業(yè)自律相結(jié)合的雙重監(jiān)管機制,切實降低生成式人工智能引發(fā)版權(quán)糾紛的可能性。
五、結(jié)語
生成式人工智能的出現(xiàn)掀開了強人工智能時代的序幕,相較普通人工智能而言,其在使用算法技術(shù)分析數(shù)據(jù)的基礎(chǔ)上增加了條件接收和生成反饋的環(huán)節(jié)[14]。這一變革在為科技和人類生活帶來便利的同時,也給傳統(tǒng)版權(quán)體系帶來巨大的沖擊和挑戰(zhàn)。在分層視角下,文章提出,在數(shù)據(jù)收集階段,相關(guān)主體應(yīng)采取“數(shù)據(jù)抓取先后原則與技術(shù)人員責任加強并舉”措施,以遏制源頭侵權(quán)現(xiàn)象的發(fā)生;在學習階段,相關(guān)主體應(yīng)采取“合理使用版權(quán)作品、提升改編、復(fù)制生成素材的透明度”措施,以降低侵權(quán)概率;在權(quán)利歸屬階段,相關(guān)主體應(yīng)采取“確定生成物原則上歸屬于使用者”的權(quán)利主張。各責任主體承擔相應(yīng)的監(jiān)管責任,共同促進人工智能健康升級發(fā)展與版權(quán)保護之平衡,進而在實現(xiàn)生成式人工智能技術(shù)創(chuàng)新和進步的同時,最大化地達到著作權(quán)法的立法目的,保護作者對其作品的合法權(quán)益,促進技術(shù)進步與人類思想深度挖掘的同步實現(xiàn)。
[參考文獻]
[1]譚鐵牛.人工智能的歷史、現(xiàn)狀和未來[J].智慧中國,2019(Z1):87-91.
[2]三劍定乾坤.人工智能:發(fā)展現(xiàn)狀和應(yīng)用前景[EB/OL].(2023-11-09)[2025-05-05].https://mp.weixin.qq.com/s/QMj8AODIkgma-psDSR ZJ3g.
[3]Ai腦洞.什么是生成式人工智能[EB/OL].(2023-08-18)[2025-05-05].ttps://b23.tv/DWigY3m.
[4]韓雨瀟.生成式人工智能作品版權(quán)歸屬問題研究[J].揚州大學學報(人文社會科學版),2023(04):52-64.
[5]王利明.生成式人工智能侵權(quán)的法律應(yīng)對[J].中國應(yīng)用法學,2023(05):27-38.
[6]中央財辦有關(guān)負責同志詳解中央經(jīng)濟工作會議精神[EB/OL].(2023-12-18)[2025-05-05].https://www.gov.cn/zhengce/202312/content_6920788.htm.
[7]詹愛嵐,田一農(nóng).生成式人工智能機器學習中的著作權(quán)風險及其化解路徑[J].電子知識產(chǎn)權(quán),2023(11):4-14.
[8]李安.機器學習作品的著作權(quán)法分析:非作品性使用、合理使用與侵權(quán)使用[J].電子知識產(chǎn)權(quán),2020(06): 60-70.
[9]張金平.論人工智能生成物可版權(quán)性及侵權(quán)責任承擔[J].南京社會科學,2023(10):77-89.
[10」張欣.生成式人工智能的數(shù)據(jù)風險與治理路徑[J].法律科學(西北政法大學學報),2023(05):42-54.
[11]施小雪.重塑復(fù)制權(quán):生成式人工智能數(shù)據(jù)訓練的合法化路徑[J].東方法學,2024(06):70-83.
[12]張偉君.論大模型訓練中使用數(shù)據(jù)的著作權(quán)規(guī)制路徑[J].東方法學,2025(02):79-92.
[13]崔原,連鵬飛,任曉,等.生成式人工智能知識產(chǎn)權(quán)風險及應(yīng)對思路[C」//中國家用電器協(xié)會.2023年中國家用電器技術(shù)大會論文集.青島海爾科技有限公司;數(shù)字化家電國家重點實驗室,2023.
[14]劉霜,張瀟月.生成式人工智能數(shù)據(jù)風險的法律保護與規(guī)制研究:以ChatGPT潛在數(shù)據(jù)風險為例[J].貴州大學學報(社會科學版),2023(05):87-97.