摘要:生成式人工智能服務(wù)提供者不能簡單以“技術(shù)中立”作為免責事由,從成本效益的經(jīng)濟理性、危險控制理論來看,服務(wù)提供者承擔著作權(quán)侵權(quán)責任具有必要性基礎(chǔ)。對生成式人工智能服務(wù)提供者可以采取解釋論立場,確立其作為新型網(wǎng)絡(luò)服務(wù)提供者的主體地位,并結(jié)合生成式人工智能特性與侵權(quán)場景適當調(diào)整其侵權(quán)責任認定,包括引入過錯推定作為歸責原則和探索注意義務(wù)的重構(gòu)。注意義務(wù)的認定應(yīng)遵循一種客觀、動態(tài)的認定標準,具體內(nèi)容涉及數(shù)據(jù)來源合法、算法優(yōu)化訓練、監(jiān)督用戶合規(guī)使用義務(wù)。實踐中,生成式人工智能侵權(quán)表現(xiàn)為不同行為形態(tài)、違反不同注意義務(wù)內(nèi)容,因而有必要類型化構(gòu)建生成式人工智能服務(wù)提供者的著作權(quán)侵權(quán)責任規(guī)則。同時,為維系利益平衡與促進技術(shù)發(fā)展,需要構(gòu)建包括意思自治保留下責任分配、用戶免責下侵權(quán)阻卻等責任限制規(guī)則。
關(guān)鍵詞:生成式人工智能服務(wù)提供者 著作權(quán)侵權(quán) 間接侵權(quán) 注意義務(wù)
一、問題緣起
生成式人工智能(Generative Artificial Intelligence)是指能夠根據(jù)用戶指令,基于算法技術(shù)自主生成表達性內(nèi)容的人工智能系統(tǒng)。實踐中,商業(yè)主體紛紛利用生成式人工智能開展生產(chǎn)經(jīng)營,將生成式人工智能系統(tǒng)嵌入自身網(wǎng)絡(luò)服務(wù)平臺,向用戶提供圖像、文本、音頻等多元化服務(wù)內(nèi)容。典型如OpenAI公司于2022年推出的ChatGPT聊天機器人,能夠根據(jù)用戶提示詞(prompt)自主生成符合設(shè)定的文本。伴隨生成式人工智能逐漸成為重要的內(nèi)容獲取渠道,隨之而來的是一系列著作權(quán)侵權(quán)問題。生成式人工智能以海量既有作品為輸入信息、以作品外觀形式內(nèi)容為輸出結(jié)果,其不可避免地涉及復制權(quán)、改編權(quán)、信息網(wǎng)絡(luò)傳播權(quán)等著作權(quán)侵權(quán)問題。然而,與生成式人工智能應(yīng)用市場繁榮發(fā)展不相匹配的是,我國關(guān)于生成式人工智能的著作權(quán)侵權(quán)認定與規(guī)制規(guī)則并不清晰。目前頒布的《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《暫行辦法》)以風險規(guī)制為基本思路,籠統(tǒng)地搭建服務(wù)提供者侵權(quán)責任框架,但并未針對著作權(quán)侵權(quán)這一特殊領(lǐng)域提出服務(wù)提供者應(yīng)當承擔的侵權(quán)責任。如何正確認識生成式人工智能服務(wù)提供者的主體屬性及其行為定性,實現(xiàn)符合利益平衡理念的權(quán)責劃分,是目前亟待澄清與解決的重要課題。
司法實踐中,廣州互聯(lián)網(wǎng)法院審理的全球首例AIGC平臺著作權(quán)侵權(quán)案,首次回應(yīng)了生成式人工智能內(nèi)容的著作權(quán)侵權(quán)問題,初步確立了判定生成式人工智能服務(wù)提供者著作權(quán)侵權(quán)責任的規(guī)制思路。在該案中,法院判定生成式人工智能服務(wù)提供者因生成侵權(quán)內(nèi)容需承擔著作權(quán)直接侵權(quán)責任,并設(shè)立平臺應(yīng)當履行的三項注意義務(wù),即投訴舉報機制、潛在風險提示和顯著標識義務(wù)。以“首例AIGC平臺侵權(quán)案”為切入,可以發(fā)現(xiàn)生成式人工智能服務(wù)提供者的著作權(quán)侵權(quán)問題涉及如下方面:一是侵權(quán)主體地位認定,即確定生成式人工智能服務(wù)提供者作為侵權(quán)主體的范疇歸類,作為進一步分析平臺侵權(quán)行為定性的重要前提;二是侵權(quán)責任劃分,即分析在用戶作為第三人介入型侵權(quán)情形下平臺應(yīng)承擔的侵權(quán)責任類型及其過錯原則;三是注意義務(wù)設(shè)定,即合理規(guī)定平臺應(yīng)當履行的具體行為義務(wù)形態(tài),從而在平臺違反相關(guān)義務(wù)時推定具有過錯。鑒于此,本文立足于回應(yīng)上述著作權(quán)侵權(quán)問題,檢視既有侵權(quán)規(guī)則在生成式人工智能應(yīng)用場景下的具體適用與革新路徑,嘗試探索出一套規(guī)制生成式人工智能服務(wù)提供者著作權(quán)侵權(quán)的制度方案,以實現(xiàn)不同主體之間的利益分割與風險分擔,促進法律與技術(shù)的良性互動與平衡發(fā)展。
二、生成式人工智能服務(wù)提供者承擔著作權(quán)侵權(quán)責任的必要性證成
著作權(quán)法律制度鼓勵通過新技術(shù)手段開展以作品為對象的多元化利用和傳播,但技術(shù)手段的革新在很大程度上降低了使用者對其行為后果的判斷與控制能力,帶來一定的著作權(quán)侵權(quán)風險。在第三人介入型侵權(quán)情形下,服務(wù)提供者是否應(yīng)當因為其利用生成式人工智能技術(shù)而承擔相應(yīng)的著作權(quán)侵權(quán)責任,需要回歸認定著作權(quán)侵權(quán)責任的基礎(chǔ)原理,明確其成立侵權(quán)行為的該當性。具體而言,關(guān)于服務(wù)提供者承擔著作權(quán)侵權(quán)責任的必要性證成,可以從技術(shù)中立原則、成本效益的經(jīng)濟理性、危險控制理論等方面著手分析。
(一)技術(shù)中立原則的不適性
技術(shù)中立原則也被稱為技術(shù)工具論或者功能中立論,是指具有中立屬性的技術(shù)本身因只體現(xiàn)工具地位而不體現(xiàn)價值取向,其使用行為不應(yīng)當被法律所規(guī)制。該原則通常被用于反對法律對技術(shù)的監(jiān)管,成為技術(shù)提供者免責的重要依據(jù)。美國司法實踐通過1984年的Sony案,首次將技術(shù)中立原則用于著作權(quán)侵權(quán)認定,提出了著名的“實質(zhì)性非侵權(quán)用途”原則,主張對存在實質(zhì)性非侵權(quán)用途的技術(shù)采取中立態(tài)度,避免其間接侵權(quán)責任的承擔。在立法方面,技術(shù)中立原則集中體現(xiàn)于美國《數(shù)字千年版權(quán)法》(DMCA)、《歐盟電子商務(wù)指令》制定的“避風港規(guī)則”,為提供傳輸、存儲、鏈接技術(shù)等服務(wù)商提供一定范圍內(nèi)的侵權(quán)豁免。著作權(quán)法律制度通過技術(shù)中立原則的確立與適用,免除技術(shù)提供者的侵權(quán)責任承擔,降低開發(fā)與利用技術(shù)的法律風險與潛在成本,以此促進技術(shù)的應(yīng)用與進步。
具體到平臺提供生成式人工智能技術(shù)的行為定性上,生成式人工智能服務(wù)提供者能否以所提供技術(shù)的中立屬性為由獲得侵權(quán)豁免,答案顯然是否定的。首先,平臺向自身搭建或聯(lián)接的人工智能算法模型輸入作品作為數(shù)據(jù)樣本,通過對海量作品的機器學習發(fā)現(xiàn)其中語言表達規(guī)律,最終生成具有人類作品外觀形式的內(nèi)容,本身即具有追求生成相似內(nèi)容的意圖。從美國司法實踐來看,Grokster案確立了如下技術(shù)中立原則的例外,如果主體所提供的軟件構(gòu)成“以積極措施引誘用戶將其作品用作侵權(quán)使用”,就推定其已經(jīng)具有明確的幫助侵權(quán)意圖,將不得適用“實質(zhì)性非侵權(quán)用途”原則,構(gòu)成幫助侵權(quán)。生成式人工智能技術(shù)本質(zhì)在于替代人類創(chuàng)作行為以生成表達性內(nèi)容,相比于提供傳輸、存儲等傳統(tǒng)技術(shù)提供者而言,直接涉及對作品的接觸與模仿,其引發(fā)侵權(quán)的意味更加明顯,違背技術(shù)中立的基本理念。
其次,如果平臺都能夠以“技術(shù)中立”作為其免責事由,將嚴重縮減著作權(quán)侵權(quán)規(guī)制范圍,無法實現(xiàn)著作權(quán)法律制度對侵權(quán)行為的打擊,因而需要區(qū)分“技術(shù)中立”與“技術(shù)應(yīng)用中立”。技術(shù)本身是作為一種中立的方法而客觀存在的,但如果技術(shù)提供者在開發(fā)或使用該項技術(shù)時涉及大量主觀因素的介入,主動介入乃至干預(yù)技術(shù)的設(shè)計和運行,則不能簡單地以其提供中立性技術(shù)為由主張免責事由。對于生成式人工智能服務(wù)提供者而言,平臺基于自身運營目標與市場定位,設(shè)置以某種傾向性結(jié)果為導向的評價反饋機制,使得人工智能系統(tǒng)能夠遵循特定運行邏輯,提供符合平臺預(yù)設(shè)的個性化服務(wù)內(nèi)容。從生成式人工智能技術(shù)的設(shè)計、運行與修正過程來看,服務(wù)提供者的主觀因素貫穿其中,其介入與干預(yù)行為已經(jīng)打破技術(shù)中立,導致平臺自身中立地位的減弱。
最后,生成式人工智能服務(wù)提供者通常從會員訂閱、收益分成、廣告收入等平臺運營模式中獲取一定的經(jīng)濟收益,以維持運營平臺的日常開支并實現(xiàn)創(chuàng)收,因存在盈利情況導致其技術(shù)利用行為難謂中立。從“避風港規(guī)則”來看,免責的前提是沒有獲利。平臺地位中立的原則性標準在于其“只能扮演被動與中立角色,不控制用戶行為或不從侵權(quán)行為中獲取商業(yè)利益”。在權(quán)責一致觀念的考察下,服務(wù)提供者如果基于平臺所發(fā)生的侵權(quán)行為獲得經(jīng)濟收益,其應(yīng)當承擔起與獲利水平相當?shù)呢熑巍@纾稓W盟數(shù)字服務(wù)法案》將在歐盟擁有4500萬以上月活躍用戶的數(shù)字服務(wù)提供商定義為“超大型互聯(lián)網(wǎng)平臺”,因其較高獲利水平而被賦予特殊監(jiān)管措施與額外義務(wù)。德國針對歐盟境內(nèi)年營業(yè)額不超過1000萬歐元且向公眾開放時間不超過3年的起步型服務(wù)提供商、年營業(yè)額低于100萬歐元的小型服務(wù)提供商,豁免其屏蔽侵權(quán)作品等部分注意義務(wù)。相比之下,生成式人工智能服務(wù)提供者通常為OpenAI、英偉達、微軟等具有行業(yè)壟斷地位的大型科技公司。此時,服務(wù)提供者借助研發(fā)與使用生成式人工智能獲取大量經(jīng)濟利益,需要對用戶的侵權(quán)行為承擔更高的注意義務(wù)。
(二)成本效益的經(jīng)濟理性選擇
由生成式人工智能服務(wù)提供者承擔著作權(quán)侵權(quán)責任,有利于降低防范侵權(quán)行為的風險成本,符合效益最大化追求,是經(jīng)濟理性選擇下的應(yīng)然結(jié)果。從生成式人工智能侵權(quán)行為邏輯來看,用戶利用平臺提供的生成式人工智能技術(shù)生成侵權(quán)內(nèi)容,并使用、傳播相關(guān)生成內(nèi)容造成對權(quán)利人的損害。在此情形下,權(quán)利人的首要追責主體是用戶。然而,相比于大規(guī)模用戶散點化侵權(quán)責任承擔情形,服務(wù)提供者能夠以集中方式控制與處置侵權(quán)內(nèi)容,其防范與解決侵權(quán)行為風險的成本較低。服務(wù)提供者作為“最低成本規(guī)避者”(cheapest cost avoider theory)對侵權(quán)結(jié)果承擔責任,符合經(jīng)濟效率原則。因此,基于成本最低即效益最優(yōu)的經(jīng)濟理性分析,應(yīng)當引入權(quán)利人向生成式人工智能服務(wù)提供者的追責途徑,由服務(wù)提供者承擔合理范圍內(nèi)的著作權(quán)侵權(quán)責任。
具體而言,在降低成本方面,補充生成式人工智能服務(wù)提供者作為著作權(quán)侵權(quán)主體能夠有效降低侵權(quán)維權(quán)與訴訟成本。在單獨尋找侵權(quán)人的場景下,權(quán)利人存在較高的訴訟成本,不僅發(fā)現(xiàn)侵權(quán)行為難度較高,即便權(quán)利人知曉侵權(quán)行為的存在,為搜尋、定位、通知大規(guī)模用戶也需要付出一定的成本。相比之下,直接以服務(wù)提供者為對象展開訴訟活動,能夠批量集中處理侵權(quán)行為,在客觀上降低維權(quán)成本。在提升效益方面,由生成式人工智能服務(wù)提供者承擔著作權(quán)侵權(quán)責任能夠促進權(quán)利保護與救濟效果的實現(xiàn),體現(xiàn)在消除侵權(quán)內(nèi)容、承擔損害賠償責任等方面。相比于用戶各自刪除侵權(quán)內(nèi)容,服務(wù)提供者因技術(shù)控制能力優(yōu)勢不僅能夠從源頭上消除侵權(quán)內(nèi)容,避免他人使用相同生成內(nèi)容造成重復侵權(quán);在服務(wù)提供者采取算法優(yōu)化必要措施的背景下,通過對算法的調(diào)整和優(yōu)化,更能夠有效規(guī)避后續(xù)類似侵權(quán)行為的發(fā)生。同時,由服務(wù)提供者承擔連帶責任,能夠?qū)崿F(xiàn)損害賠償責任在用戶與服務(wù)提供者之間的合理分配,引入權(quán)利人向服務(wù)提供者的補充追償方案,避免因自然人財產(chǎn)不足以支付損害賠償費用時權(quán)利人的救濟不能。事實上,在信息存儲服務(wù)等傳統(tǒng)網(wǎng)絡(luò)服務(wù)提供者侵權(quán)案件中,原告大多選擇將網(wǎng)絡(luò)服務(wù)提供者列為間接侵權(quán)主體,一方面主張用戶上傳侵權(quán)內(nèi)容構(gòu)成直接侵權(quán),另一方面主張網(wǎng)絡(luò)服務(wù)提供者對用戶侵權(quán)行為起到幫助作用,構(gòu)成間接侵權(quán)。實踐所積累的訴訟策略恰恰表明平臺在規(guī)制與防控著作權(quán)侵權(quán)方面所具有的成本效益優(yōu)勢。
(三)危險控制理論的適用
根據(jù)危險控制理論,行為人對于其能夠?qū)嵤┛刂婆c支配的危險,負有控制責任。關(guān)于人工智能的風險控制者界定,歐盟法律委員會《關(guān)于人工智能民事責任體系的建議性文件》將“對風險實施控制”定義為“能夠在任何階段影響人工智能運行方式或者對其特定功能和程序進行修改的行為”,規(guī)定控制風險應(yīng)當采取的注意義務(wù)包括選擇符合認證標準的人工智能系統(tǒng)、對系統(tǒng)運行部署常規(guī)性監(jiān)控并及時報告異常情況、根據(jù)制造商指示及時升級系統(tǒng)等。能夠?qū)嵤┥鲜鲲L險控制義務(wù)的唯一主體指向生成式人工智能服務(wù)提供者。對于生成式人工智能而言,盡管其自主生成能力已經(jīng)得到人們的廣泛認可,但人工智能作為“數(shù)據(jù)、算法和算力結(jié)合形成的技術(shù)集合體”,本質(zhì)上仍然處于服務(wù)提供者的控制之下。在此方面,有學者將生成式人工智能比喻為服務(wù)提供者操縱的“提線木偶”,服務(wù)提供者作為“幕后引線人”決定著數(shù)據(jù)輸入的選擇、算法模型的設(shè)計與優(yōu)化,以此主宰生成式人工智能最終在用戶提示詞下生成何種內(nèi)容。因此,當生成內(nèi)容引發(fā)著作權(quán)侵權(quán)時,由服務(wù)提供者從“幕后”走向“臺前”承擔著作權(quán)侵權(quán)責任具有必要性。
結(jié)合生成式人工智能技術(shù)進路,對于數(shù)據(jù)輸入、算法運行、內(nèi)容生成等階段可能造成的著作權(quán)侵權(quán)風險,服務(wù)提供者始終處于風險防范與管理的優(yōu)勢地位,具有治理著作權(quán)侵權(quán)風險的能力。具體而言,在數(shù)據(jù)輸入階段,生成式人工智能的數(shù)據(jù)通常來源于服務(wù)提供者事先向人工智能系統(tǒng)中喂養(yǎng)的數(shù)據(jù)。即使在自動抓取模式下,人工智能抓取數(shù)據(jù)的類型與范圍,也取決于服務(wù)提供者設(shè)定的篩選條件。對于數(shù)據(jù)輸入階段存在的復制權(quán)、改編權(quán)侵權(quán)風險,服務(wù)提供者可以通過不使用未經(jīng)授權(quán)的數(shù)據(jù)集合進行規(guī)避。在算法運行階段,服務(wù)提供者作為算法搭建與利用者具有一定程度的控制力。服務(wù)提供者若選擇使用具有同義詞替換、語序轉(zhuǎn)換功能的“洗稿”式算法模型,將在很大程度上直接導致侵權(quán)內(nèi)容的生成。反之,服務(wù)提供者選擇使用神經(jīng)網(wǎng)絡(luò)、深度學習等智能算法模型,則可以有效防范輸出侵權(quán)內(nèi)容,生成具有獨創(chuàng)性的全新作品。在生成內(nèi)容階段,內(nèi)容輸出需要經(jīng)過服務(wù)提供者的評估,并在必要時接受服務(wù)提供者的糾正,因此生成內(nèi)容體現(xiàn)了服務(wù)提供者的價值選擇。服務(wù)提供者在此階段能夠通過優(yōu)化評估標準等手段,防止人工智能系統(tǒng)生成復制型、演繹型侵權(quán)內(nèi)容。因此,服務(wù)提供者負有生成內(nèi)容著作權(quán)侵權(quán)風險防控義務(wù),當侵權(quán)發(fā)生時由服務(wù)提供者承擔著作權(quán)侵權(quán)責任,符合危險控制理論的要求。
三、生成式人工智能服務(wù)提供者著作權(quán)侵權(quán)的歸責路徑分析
前文闡述了生成式人工智能服務(wù)提供者承擔著作權(quán)侵權(quán)責任的必要性,但其究竟應(yīng)當承擔何種著作權(quán)侵權(quán)責任、采取何種過錯歸責原則、如何認定其是否具有過錯,相關(guān)問題需要進一步探討以明晰答案。“首例AIGC平臺侵權(quán)案”認定生成式人工智能服務(wù)提供者構(gòu)成直接侵權(quán),但這是否會賦予相關(guān)平臺過高的責任承擔、對科技賦能產(chǎn)業(yè)發(fā)展造成不利影響,仍然有待進一步研究。為確立生成式人工智能服務(wù)提供者著作權(quán)侵權(quán)的歸責路徑,需要在既有著作權(quán)侵權(quán)規(guī)則體系框架下,針對主體地位、過錯原則與注意義務(wù)等構(gòu)成要件予以具體分析。
(一)生成式人工智能服務(wù)提供者的主體地位之界定
界定生成式人工智能服務(wù)提供者的主體地位,是承擔何種著作權(quán)侵權(quán)責任的前提。值得注意的是,在“《紐約時報》訴OpenAI公司案”中,原告不僅提出OpenAI公司生成侵權(quán)內(nèi)容構(gòu)成直接侵權(quán),同時又以幫助用戶侵權(quán)為由主張OpenAI公司承擔間接侵權(quán)責任。原告的這一做法雖然是訴訟策略的選擇,但也恰恰反映出生成式人工智能服務(wù)提供者作為侵權(quán)主體的復雜性,若不清晰界定其主體屬性,將導致著作權(quán)侵權(quán)框架的模糊與混亂。根據(jù)民法基礎(chǔ)理論,平臺作為網(wǎng)絡(luò)服務(wù)提供者,只需對用戶侵權(quán)行為承擔間接侵權(quán)責任;反之平臺作為內(nèi)容生產(chǎn)者,則應(yīng)當承擔直接侵權(quán)責任。生成式人工智能服務(wù)提供者是否構(gòu)成著作權(quán)法意義上的網(wǎng)絡(luò)服務(wù)提供者,決定著行為人是否具有承擔著作權(quán)間接侵權(quán)責任的資格,關(guān)乎侵權(quán)抗辯事由的成立與否。因此,在生成式人工智能侵權(quán)中,有必要首先明確服務(wù)提供者的主體性質(zhì),以在主體定位問題上達成共識為前提,確定其后續(xù)的責任承擔問題。
生成式人工智能服務(wù)提供者旨在提供技術(shù)支持,具備對外提供服務(wù)的行為外觀。就生成式人工智能侵權(quán)中三方主體而言,用戶通過輸入提示詞方式觸發(fā)人工智能系統(tǒng)輸出侵權(quán)內(nèi)容,其指令的存在決定人工智能系統(tǒng)生成相關(guān)表達,其意圖的選擇決定究竟生成何種表達。相比之下,服務(wù)提供者負責運營、控制生成式人工智能系統(tǒng),向用戶提供一種智能化生成服務(wù)。此時,生成式人工智能系統(tǒng)作為工具供用戶使用,因而服務(wù)提供者僅具有提供技術(shù)支持的行為。參考《深度合成管理規(guī)定》第23條第1款對深度合成技術(shù)屬性的定位,深度合成服務(wù)提供者因提供技術(shù)通常被認定為網(wǎng)絡(luò)服務(wù)提供者。生成式人工智能作為深度合成的一種,其服務(wù)提供者亦應(yīng)被界定為網(wǎng)絡(luò)服務(wù)提供者。當然,考慮到生成式人工智能與一般網(wǎng)絡(luò)服務(wù)技術(shù)的不同,其對內(nèi)容輸出的介入與接觸程度較高,防范此類侵權(quán)行為的能力較強,但這并不意味著生成式人工智能服務(wù)提供者就應(yīng)當成為直接侵權(quán)主體,而是可以通過提高其注意義務(wù)標準實現(xiàn)權(quán)責一致觀念下對生成式人工智能侵權(quán)的規(guī)制。
進一步而言,生成式人工智能侵權(quán)與網(wǎng)絡(luò)服務(wù)提供者侵權(quán)存在同質(zhì)性,二者具有“評價重心”的相似性。客觀上,生成式人工智能系統(tǒng)短時間內(nèi)即輸出海量內(nèi)容,服務(wù)提供者沒有能力接觸或?qū)彶槿绱她嫶蟮膬?nèi)容,大幅降低了服務(wù)提供者與侵權(quán)內(nèi)容之間的緊密聯(lián)系。主觀上,在用戶輸入指示詞并發(fā)出生成指令的前提下,人工智能系統(tǒng)才會輸出相關(guān)內(nèi)容,因而服務(wù)提供者通常無法自主知曉或意識到侵權(quán)內(nèi)容的存在。由此可見,服務(wù)提供者與指令發(fā)出用戶和一般網(wǎng)絡(luò)服務(wù)提供者與真正上傳內(nèi)容用戶之間的關(guān)系具有相似性,同理,應(yīng)當將用戶界定為直接侵權(quán)主體,而服務(wù)提供者則作為間接侵權(quán)主體。
因此,鑒于生成式人工智能侵權(quán)與一般網(wǎng)絡(luò)服務(wù)提供者侵權(quán)的相似性,對于生成式人工智能服務(wù)提供者的主體地位,完全可以采解釋論立場,將生成式人工智能的服務(wù)提供者作為特殊類型納入網(wǎng)絡(luò)服務(wù)提供者的門類,以此確定其間接侵權(quán)主體的屬性。事實上,從《民法典》《信息網(wǎng)絡(luò)傳播權(quán)保護條例》等規(guī)定來看,立法者顯然沒有預(yù)料到人工智能這一類新型網(wǎng)絡(luò)服務(wù)技術(shù)的崛起,而是基于對網(wǎng)絡(luò)服務(wù)的傳統(tǒng)認知,將“網(wǎng)絡(luò)服務(wù)提供者”的法定類型限定于自動接入或傳輸、自動存儲、提供信息存儲空間、提供搜索或鏈接等四種特定情形,施以不同的責任豁免方式。但是,為解決上述封閉式法定類型應(yīng)對新型著作權(quán)侵權(quán)糾紛能力的不足,法院就曾開創(chuàng)性地將信息流推薦服務(wù)提供平臺定位為網(wǎng)絡(luò)服務(wù)提供者。為了規(guī)制生成式人工智能侵權(quán),擴大解釋的法解釋方法也可為生成式人工智能應(yīng)用場景下的侵權(quán)問題提供解釋進路,將生成式人工智能網(wǎng)絡(luò)服務(wù)提供者視為新型網(wǎng)絡(luò)服務(wù)提供者,并在后續(xù)制度設(shè)計中結(jié)合其技術(shù)特點與侵權(quán)場景,適當調(diào)整侵權(quán)責任承擔方式并合理設(shè)立注意義務(wù)。
(二)生成式人工智能服務(wù)提供者著作權(quán)侵權(quán)的過錯原則之確立
生成式人工智能服務(wù)提供者作為新型網(wǎng)絡(luò)服務(wù)提供者,置于現(xiàn)行著作權(quán)間接侵權(quán)規(guī)則體系,應(yīng)對其采用過錯責任原則。從一般網(wǎng)絡(luò)服務(wù)提供者過錯責任原則的立法模式演變來看,伴隨服務(wù)提供者對侵權(quán)行為防范和監(jiān)控能力的不斷提升,主要國家均拋棄無過錯責任原則,選擇對服務(wù)提供者采用過錯責任。因此,為回應(yīng)實踐需求、契合制度融貫性,生成式人工智能服務(wù)提供者原則上應(yīng)承擔過錯責任。不僅如此,應(yīng)當意識到著作權(quán)侵權(quán)之于普通民事侵權(quán)的不同,前者由于權(quán)利客體無形性、權(quán)利保護范圍限定性,侵權(quán)本身即存在較大的不確定性,涉及思想和表達界限的劃分。借鑒美國司法實踐做法,當涉及思想表達之上過錯認定時,法院往往采取較為謹慎的態(tài)度,避免無過錯責任的承擔。從“毒蘑菇案”到“阿特金斯減肥法案”,美國法院先后駁回了要求紙質(zhì)圖書出版者、網(wǎng)站信息發(fā)布者對自身平臺上思想內(nèi)容承擔無過錯責任的主張,認為對媒介平臺采用嚴格責任不利于思想的傳播與表達。因此,對于生成式人工智能而言,要求服務(wù)提供者承擔嚴格侵權(quán)責任,會在很大程度上抑制多元化表達的產(chǎn)生與傳播。對于人工智能系統(tǒng)所生成的思想表達內(nèi)容,不應(yīng)苛責平臺承擔無過錯責任,而應(yīng)以過錯責任為歸責原則,從而適當降低其侵權(quán)責任承擔水平。
然而,直接將過錯責任適用于生成式人工智能侵權(quán)將產(chǎn)生如下問題:一是因生成式人工智能系統(tǒng)復雜性所帶來的“算法黑箱”問題,難以定位過錯源頭、追溯侵權(quán)發(fā)生原因。在生成式人工智能的各階段中,非法數(shù)據(jù)輸入、算法運行故障、指示詞設(shè)置不合理等都有可能導致侵權(quán)內(nèi)容的輸出,即便是專業(yè)人員也無法解釋生成侵權(quán)內(nèi)容的詳細機理。與提供自動傳輸、信息存儲空間等傳統(tǒng)網(wǎng)絡(luò)平臺相比,“算法黑箱”問題加劇了法律制度在考察算法目標意圖、感知侵權(quán)內(nèi)容能力等方面的困惑,為推斷服務(wù)提供者的主觀狀態(tài)帶來巨大挑戰(zhàn)。二是服務(wù)提供者與使用者存在“信息不對稱”局面,生成式人工智能系統(tǒng)信息通常被服務(wù)提供者內(nèi)部所掌握,而權(quán)利人卻無從獲取相關(guān)信息,難以舉證證明服務(wù)提供者的過錯狀態(tài)。為解決上述問題,采用過錯推定原則更為合理。所謂過錯推定原則,即以特定作為或不作為行為推定服務(wù)提供者具有主觀過錯,這種客觀化認定不僅契合生成式人工智能的技術(shù)特性,也能夠解決無法解釋過錯的實踐難題,有效減輕權(quán)利人的證明負擔。對此,《歐盟關(guān)于使非合同性民事責任規(guī)則適應(yīng)人工智能的指令(提案)》(以下簡稱《歐盟人工智能責任指令》)也提出“證據(jù)披露推定”“因果關(guān)系推定”,即典型的過錯推定方式。
過錯推定原則作為過錯責任的一種特殊形態(tài),本質(zhì)上是一種客觀化的過錯認定方式。從《民法典》第1197條規(guī)定來看,間接侵權(quán)的過錯認定存在“知道或者應(yīng)當知道”兩種主觀狀態(tài)。前者是指行為人具有“明知”的主觀故意心態(tài),典型如服務(wù)提供者收到權(quán)利人發(fā)出的侵權(quán)通知。此時,服務(wù)提供者明確知悉侵權(quán)行為的存在,如果不履行采取必要措施的義務(wù),具有故意放任侵權(quán)發(fā)生的主觀過錯,在此種情況下行為主體應(yīng)當就損害擴大部分與直接侵權(quán)主體承擔連帶責任。后者作為特殊情形,盡管此時服務(wù)提供者不存在知悉侵權(quán)行為發(fā)生的主觀故意,但法律規(guī)定由于服務(wù)提供者在運營過程中出現(xiàn)特定的作為或不作為行為,就推定具有“應(yīng)知而未知”的過失心態(tài),要求其承擔相應(yīng)的侵權(quán)責任。因此,生成式人工智能侵權(quán)適用過錯推定責任原則表現(xiàn)為:一方面,過錯推定原則采取的是一種過錯認定的客觀化標準。《歐盟人工智能責任指令》指出,“被告或可歸責于被告的主體”如果“違反歐盟或成員國法律規(guī)定的、直接目的在于防止發(fā)生損害的注意義務(wù)”,可以推定其存在過錯。在過錯推定原則下,服務(wù)提供者是否具有過錯不再考察其對侵權(quán)內(nèi)容的主觀心理狀態(tài),而是聚焦于該服務(wù)提供者是否盡到法律規(guī)定的注意義務(wù)、恰當履行特定行為。另一方面,過錯推定原則具有推定因果關(guān)系的效果,降低了權(quán)利人舉證證明責任。當侵權(quán)行為發(fā)生時,權(quán)利人只要能夠初步證明生成式人工智能系統(tǒng)輸出侵權(quán)內(nèi)容且服務(wù)提供者違反法定義務(wù),服務(wù)提供者即被推定對侵權(quán)內(nèi)容存在因果關(guān)系,因具有過錯而承擔相應(yīng)的間接侵權(quán)責任。
四、生成式人工智能服務(wù)提供者著作權(quán)侵權(quán)的注意義務(wù)設(shè)立
在過錯推定原則下,服務(wù)提供者違反法定義務(wù),即被推定具有過錯。因此,注意義務(wù)成為判斷生成式人工智能服務(wù)提供者著作權(quán)侵權(quán)的核心。關(guān)于如何設(shè)立生成式人工智能侵權(quán)的注意義務(wù),學者提出有“防抄襲設(shè)計與停止輸出”“規(guī)避版權(quán)侵權(quán)設(shè)計與用戶誘導侵權(quán)治理”“數(shù)據(jù)清理與算法調(diào)整”等不同觀點。本文認為,設(shè)立生成式人工智能侵權(quán)的注意義務(wù)需要首先確定其客觀、動態(tài)的認定標準,結(jié)合既有技術(shù)水平、服務(wù)方式和內(nèi)容管理能力等因素,合理設(shè)置注意義務(wù)的具體內(nèi)容,從而為服務(wù)提供者使用技術(shù)提供法律保障,以鼓勵其技術(shù)研發(fā)與利用行為。
(一)生成式人工智能服務(wù)提供者著作權(quán)侵權(quán)注意義務(wù)的認定標準
生成式人工智能服務(wù)提供者作為一類新型網(wǎng)絡(luò)服務(wù)提供者,如何合理設(shè)立其注意義務(wù),關(guān)系到生成式人工智能技術(shù)發(fā)展與權(quán)利人權(quán)益保護之間的平衡。如果法律制度設(shè)置過強的注意義務(wù),將在市場中反映為服務(wù)提供者使用生成式人工智能系統(tǒng)成本的激增,極易抑制生成式人工智能技術(shù)的研發(fā)與推廣;反之,服務(wù)提供者履行注意義務(wù)不足,不利于權(quán)利人的權(quán)益保護,難以實現(xiàn)著作權(quán)法保護創(chuàng)新、激勵作品創(chuàng)作之制度宗旨。因此,生成式人工智能侵權(quán)中注意義務(wù)的設(shè)立需要立足當前技術(shù)發(fā)展與實踐需求,在既有規(guī)則基礎(chǔ)上作出適當調(diào)整,充分發(fā)揮其督促服務(wù)提供者消除損害后果、預(yù)防監(jiān)測侵權(quán)行為發(fā)生的積極作用,以促進人工智能技術(shù)與智能內(nèi)容產(chǎn)業(yè)的協(xié)同發(fā)展。
具體而言,服務(wù)提供者的注意義務(wù)認定首先需遵循客觀標準。如前所述,注意義務(wù)的本質(zhì)即在于客觀化的過錯認定方式。在這種客觀標準下,服務(wù)提供者的過錯判斷不再關(guān)注其主觀上對侵權(quán)行為的可預(yù)見性,而是聚焦于該服務(wù)提供者的外在行為是否符合法律規(guī)定的特定客觀標準。在此,參考安全保障義務(wù)理論中“善良管理人”標準,有學者類比提出生成式人工智能侵權(quán)的“理性計算機”(Reasonable Computer)標準,強調(diào)在判斷過錯時注重計算機系統(tǒng)的實際行為,以此克服計算機運行過程的不透明性。事實上,注意義務(wù)可以被視為一種為生成式人工智能服務(wù)提供者制定的“理性計算機”標準,是法律制度對非侵權(quán)主體的客觀“畫像”。實踐中,著作權(quán)法律制度通過《暫行辦法》等法律法規(guī)預(yù)先設(shè)置服務(wù)提供者的各類行為義務(wù),構(gòu)建起生成式人工智能成為“理性計算機”的客觀標準。在認定服務(wù)提供者有無過錯時,只要將該服務(wù)提供者的實際行為與該客觀標準進行比對即可,如果其達到客觀標準即不具有侵權(quán)可責性;反之,則服務(wù)提供者未盡到注意義務(wù),應(yīng)當承擔侵權(quán)責任。因此,關(guān)于生成式人工智能服務(wù)提供者的注意義務(wù)應(yīng)作客觀化判斷,采取以外在行為為核心的客觀中心主義。
同時,著作權(quán)法律制度應(yīng)對服務(wù)提供者的注意義務(wù)認定采取動態(tài)標準,將行業(yè)普遍技術(shù)水平、侵權(quán)危害程度、獲利水平、服務(wù)方式和內(nèi)容管理能力等都作為影響注意義務(wù)的重要因素。注意義務(wù)的設(shè)定應(yīng)當采取彈性標準,結(jié)合因素變化情況,動態(tài)地調(diào)整注意義務(wù)水平,以確保不同情況下服務(wù)提供者的權(quán)責一致性,維系服務(wù)提供者、權(quán)利人與廣大用戶之間的利益平衡。面對實踐中類型多樣的生成式人工智能服務(wù)提供者,應(yīng)根據(jù)服務(wù)提供者實際采用的人工智能系統(tǒng),結(jié)合技術(shù)運行原理分析其對于輸出內(nèi)容的控制能力,對不同服務(wù)提供者的注意義務(wù)作出合理的制度安排。例如,隨著數(shù)字技術(shù)的飛速發(fā)展,行業(yè)普遍的內(nèi)容識別技術(shù)水平顯著提升,導致服務(wù)提供者的監(jiān)督與防范侵權(quán)成本持續(xù)下降,由服務(wù)提供者采取更專業(yè)的必要措施、更大范圍地控制侵權(quán)內(nèi)容輸出成為可能。此時,仍采取舊時技術(shù)水平下的注意義務(wù)標準將造成權(quán)責分配的不均,應(yīng)當要求服務(wù)提供者承擔較高的注意義務(wù),以此推動技術(shù)向上向善的發(fā)展。
(二)生成式人工智能服務(wù)提供者著作權(quán)侵權(quán)注意義務(wù)的具體內(nèi)容
以客觀、動態(tài)作為注意義務(wù)的主要認定標準,結(jié)合既有技術(shù)水平、侵權(quán)危害程度、內(nèi)容管理能力等因素,可以合理設(shè)置生成式人工智能服務(wù)提供者的注意義務(wù)內(nèi)容。“首例AIGC平臺侵權(quán)案”確立的注意義務(wù)包括投訴舉報機制、潛在風險提示以及顯著標識義務(wù),主要援引自《暫行辦法》相關(guān)管制性規(guī)定。結(jié)合危險控制理論的適用,生成式人工智能在數(shù)據(jù)輸入、算法運行、內(nèi)容生成等階段均出現(xiàn)著作權(quán)侵權(quán)風險,旨在消除和防范著作權(quán)侵權(quán)風險的注意義務(wù)應(yīng)當結(jié)合上述不同階段加以設(shè)立。本文在“首例AIGC平臺侵權(quán)案”所確定注意義務(wù)的基礎(chǔ)上,提出生成式人工智能侵權(quán)的注意義務(wù)應(yīng)當包括數(shù)據(jù)來源合法義務(wù)、算法優(yōu)化訓練義務(wù)、監(jiān)督用戶合規(guī)使用義務(wù)。
1. 數(shù)據(jù)來源合法義務(wù)
數(shù)據(jù)來源合法義務(wù)來源于《暫行辦法》第7條“依法開展訓練數(shù)據(jù)處理活動”要求,即服務(wù)提供者應(yīng)使用具有合法來源的數(shù)據(jù),不得侵害他人依法享有的知識產(chǎn)權(quán)。從生成式人工智能技術(shù)機理來看,數(shù)據(jù)作為機器學習的樣本來源,其本身質(zhì)量高低影響到最終生成內(nèi)容的優(yōu)劣。通常而言,喂養(yǎng)高質(zhì)量數(shù)據(jù)集合的人工智能系統(tǒng)更能得出合理、可靠的輸出結(jié)果。反之,服務(wù)提供者輸入大量侵權(quán)內(nèi)容作為機器學習樣本,人工智能系統(tǒng)發(fā)現(xiàn)其中侵權(quán)行為規(guī)律,并將相關(guān)行為特征運用于內(nèi)容生產(chǎn),將極大概率地輸出侵權(quán)內(nèi)容。在訓練數(shù)據(jù)選擇這一重要階段,服務(wù)提供者可以通過制定數(shù)據(jù)輸入標準、數(shù)據(jù)的收集與篩選流程,獲得對輸入數(shù)據(jù)的決定與控制權(quán)限。因此,服務(wù)提供者應(yīng)當建立更加完善的數(shù)據(jù)輸入機制,將侵權(quán)規(guī)制節(jié)點前置于數(shù)據(jù)輸入環(huán)節(jié),通過確保數(shù)據(jù)來源合法以最大程度地避免大規(guī)模侵權(quán)內(nèi)容的輸出。具體而言,在數(shù)據(jù)自行抓取過程中,以robots協(xié)議約定的方式和范圍獲取數(shù)據(jù)樣本,不得不當繞過權(quán)利人合法設(shè)置的技術(shù)措施;在數(shù)據(jù)處理過程中,完成對收集數(shù)據(jù)的初步篩選,排除其中未經(jīng)授權(quán)使用的侵權(quán)作品內(nèi)容。
2. 算法優(yōu)化訓練義務(wù)
對于生成式人工智能而言,算法作為人工智能系統(tǒng)生成內(nèi)容的引擎,算法的先進性之于輸出內(nèi)容的創(chuàng)新性而言具有關(guān)鍵作用。生成式人工智能場景下內(nèi)容生成的行為模式與基本特征很大程度上取決于算法模型的搭建方式及其功能化實現(xiàn)路徑。人工智能系統(tǒng)生成大量侵權(quán)內(nèi)容,往往是由于其算法構(gòu)建思路、指標比重設(shè)計等方面存在一定缺陷。為此,有必要合理設(shè)置生成式人工智能服務(wù)提供者的算法優(yōu)化訓練義務(wù),從技術(shù)根源上避免侵權(quán)問題的出現(xiàn)。具體而言,該義務(wù)的構(gòu)建應(yīng)當從事前、事后兩方面進行。前者是指服務(wù)提供者應(yīng)盡最大努力阻止?jié)撛谇謾?quán)內(nèi)容的輸出,提前介入以阻斷侵權(quán)發(fā)生;后者是指當人工智能系統(tǒng)確有侵權(quán)內(nèi)容生成時,服務(wù)提供者應(yīng)當及時采取算法模型的審查與整改措施,防止未來更多類似侵權(quán)內(nèi)容的輸出。
事前方面,服務(wù)提供者的注意義務(wù)是指引入算法過濾機制。該注意義務(wù)來源于網(wǎng)絡(luò)服務(wù)提供者的事先版權(quán)過濾機制,旨在利用算法阻止侵權(quán)內(nèi)容的輸出。版權(quán)過濾機制在《歐盟單一數(shù)字市場版權(quán)指令》中獲得廣泛承認,其第17條第4款賦予歐盟境內(nèi)網(wǎng)絡(luò)服務(wù)商承擔一種前置審查責任,被學者稱為“過濾器”條款。將上述規(guī)定適用于生成式人工智能侵權(quán)場景,注意義務(wù)要求服務(wù)提供者應(yīng)在人工智能系統(tǒng)搭建過程中嵌入版權(quán)內(nèi)容過濾機制,利用算法實現(xiàn)生成內(nèi)容的事先識別,并設(shè)置自動化程序阻止被系統(tǒng)判定為侵權(quán)內(nèi)容的輸出。日本《人工智能與著作權(quán)處理方案(草案)》出現(xiàn)類似規(guī)定,“提供者采取了防止該人工智能系統(tǒng)生成與現(xiàn)有作品相似內(nèi)容的技術(shù)措施時,其被評價為侵權(quán)主體的可能性降低”。實踐來看,當前各大網(wǎng)絡(luò)平臺為防范用戶利用其網(wǎng)絡(luò)服務(wù)上傳侵權(quán)作品,已經(jīng)采取各類事先過濾技術(shù)手段。國外如視頻分享網(wǎng)站You?Tube研發(fā)Content ID內(nèi)容識別系統(tǒng),對平臺上海量作品內(nèi)容開展實時版權(quán)偵測;國內(nèi)如百度公司自主開發(fā)“反盜版DNA比對識別系統(tǒng)”,用于識別并攔截用戶上傳與既有作品相同或高度近似的內(nèi)容。在最高人民法院發(fā)布的2012年知識產(chǎn)權(quán)司法保護十大案件中,法院就曾認定百度文庫“確保其反盜版系統(tǒng)正常運行之功能”屬于相關(guān)網(wǎng)站應(yīng)當采取的必要措施之一。既有版權(quán)過濾技術(shù)的日漸成熟為設(shè)立算法過濾義務(wù)提供了充分的客觀基礎(chǔ)。
應(yīng)當注意到,引入算法過濾機制義務(wù)本質(zhì)上是一種行為義務(wù),而非結(jié)果義務(wù)。換言之,只要服務(wù)提供者采取了與其技術(shù)水平、專業(yè)程度相匹配的內(nèi)容識別、關(guān)鍵詞過濾等技術(shù)措施即達到該注意義務(wù)標準,而不論其防范侵權(quán)內(nèi)容生成的實際效果。尤其對于著作權(quán)侵權(quán)而言,服務(wù)提供者實際上無法定性評估生成內(nèi)容是否合法,只能基于重復表達數(shù)量推斷構(gòu)成侵權(quán)。例如,算法不能在個案中分辨侵權(quán)行為與合理使用的差異。這意味著那些雖然存在重復表達但構(gòu)成轉(zhuǎn)換性使用的作品,以及那些部分屬于有限表達范疇的作品,會被算法過濾機制“誤判”為侵權(quán)內(nèi)容予以刪除或屏蔽。因此,要求引入算法過濾機制義務(wù)以達到某種防范侵權(quán)效果,既不現(xiàn)實也不可取。生成式人工智能服務(wù)提供者所搭建的算法過濾機制只要達到同階段同類型服務(wù)行業(yè)的普遍技術(shù)水平,就應(yīng)當視為其已經(jīng)盡到注意義務(wù)。
事后方面,服務(wù)提供者的注意義務(wù)是指采取算法模型整改措施。根據(jù)《暫行辦法》第14條規(guī)定,提供者發(fā)現(xiàn)違法內(nèi)容的,不僅應(yīng)當“及時采取停止生成、停止傳輸、消除等處置措施”,還應(yīng)當“采取模型優(yōu)化訓練等措施進行整改”,以防范人工智能系統(tǒng)未來再生成類似侵權(quán)內(nèi)容。從網(wǎng)絡(luò)服務(wù)提供者的“通知-必要措施”規(guī)則來看,服務(wù)提供者收到侵權(quán)通知后未采取必要措施的,與用戶承擔連帶責任,使得“必要措施”成為服務(wù)提供者應(yīng)當負擔的注意義務(wù)。法院認為,服務(wù)提供者采取必要措施的恰當性需要結(jié)合形式與實質(zhì)兩個要件加以判斷。前者是指服務(wù)提供者是否根據(jù)用戶侵權(quán)行為的方式以及自身所提供服務(wù)的性質(zhì)、技術(shù)水平、信息管理能力等,實際采取了包括但并不限于刪除、屏蔽、斷開鏈接等方式的措施。后者則是指相關(guān)措施的采取是否產(chǎn)生了制止和預(yù)防明顯侵權(quán)的處理結(jié)果。法院在論述二者關(guān)系時指出,前者只是網(wǎng)絡(luò)平臺所應(yīng)履行的法律義務(wù)中的一部分,是其免于承擔侵權(quán)責任的必要并非充分條件。如果未能在實質(zhì)上取得制止、預(yù)防明顯侵權(quán)的效果,依然被視為沒有完成其必要措施義務(wù)的履行。對于生成式人工智能服務(wù)提供者而言,為達成實質(zhì)要件所追求的預(yù)防侵權(quán)效果,有必要設(shè)立算法模型整改義務(wù)作為事后方面的注意義務(wù)。
換言之,目前對于服務(wù)提供者采取措施的注意義務(wù)不僅停留于刪除屏蔽、停止輸出等簡單行為,而是要求做到從根源上阻止未來更多類似侵權(quán)行為的發(fā)生。立法方面如《歐盟單一市場版權(quán)指令》采用“專業(yè)勤勉的高度行業(yè)標準”,要求服務(wù)提供者必須“盡到最大努力防止侵權(quán)作品的未來上傳”;司法實踐方面,巴西最高法院審理“達夫拉訴谷歌案”認為網(wǎng)絡(luò)平臺有必要采取搜索攔截機制作為技術(shù)解決方案,以防止被刪除內(nèi)容的再次上傳。上述義務(wù)也被德國聯(lián)邦最高法院描述為“面向未來的審查義務(wù)”(künftige Kontrollp?flicht),要求服務(wù)提供者對未來侵權(quán)的發(fā)生承擔審查防范義務(wù)。因此,算法模型整改義務(wù)要求生成式人工智能服務(wù)提供者在發(fā)現(xiàn)人工智能系統(tǒng)輸出侵權(quán)內(nèi)容時,不僅需要對相關(guān)內(nèi)容進行刪除或屏蔽,以阻止該侵權(quán)內(nèi)容的繼續(xù)傳播,還應(yīng)當及時檢測算法是否存在固有缺陷,采取模型優(yōu)化訓練等措施予以整改,以防止實質(zhì)性相同的侵權(quán)行為再次發(fā)生,促進人工智能系統(tǒng)生成更多優(yōu)質(zhì)內(nèi)容。
3. 監(jiān)督用戶合規(guī)使用義務(wù)
生成式人工智能服務(wù)提供者作為技術(shù)支持方,無法決定用戶如何使用該人工智能系統(tǒng),但應(yīng)當通過采取警告、賬號封禁、投訴舉報等措施監(jiān)督用戶使用行為,以實現(xiàn)“指導使用者科學理性認識和依法使用生成式人工智能技術(shù)”原則性規(guī)定。第一,對于用戶誘導侵權(quán)行為,包括故意輸入誘導性提示詞、基于非法目的要求使用版權(quán)作品、故意規(guī)避過濾機制等,服務(wù)提供者應(yīng)當及時予以警告,并在必要時采取停止輸出、關(guān)鍵詞屏蔽等措施。第二,對于同一用戶的反復侵權(quán)行為,服務(wù)提供者應(yīng)當主動采取相應(yīng)的阻止措施。法國《促進互聯(lián)網(wǎng)創(chuàng)作傳播和保護法案》規(guī)定有“三振出局”規(guī)則,即對于侵權(quán)達到三次的用戶將被網(wǎng)絡(luò)服務(wù)提供商切斷網(wǎng)絡(luò),且在斷網(wǎng)期間,禁止其他網(wǎng)絡(luò)服務(wù)提供商為其提供替代的網(wǎng)絡(luò)連接。參考國外相關(guān)經(jīng)驗做法,針對平臺中反復侵權(quán)用戶,生成式人工智能服務(wù)提供者應(yīng)當在必要時基于服務(wù)使用規(guī)范采取賬號封禁、限制訪問、終止提供服務(wù)等制止手段,以避免更多侵權(quán)內(nèi)容的輸出。第三,對于用戶潛在侵權(quán)行為,及時建立投訴舉報機制。這包括設(shè)置便捷的投訴舉報入口、公布處理流程和時限、及時受理并反饋處理結(jié)果等具體內(nèi)容。通過建立完善的投訴舉報機制,確保權(quán)利人投訴舉報渠道的暢通,以便及時發(fā)現(xiàn)用戶的潛在侵權(quán)行為。當服務(wù)提供者收到相關(guān)投訴舉報信息時,應(yīng)當完成對涉嫌侵權(quán)內(nèi)容的形式審查,如果初步判定構(gòu)成侵權(quán),應(yīng)采取必要措施并將通知轉(zhuǎn)送用戶;如果初步判定不構(gòu)成侵權(quán),應(yīng)建立反通知的用戶維權(quán)機制,及時恢復被不當處理的相關(guān)內(nèi)容。
五、生成式人工智能服務(wù)提供者著作權(quán)侵權(quán)責任的認定規(guī)則構(gòu)建
現(xiàn)行網(wǎng)絡(luò)服務(wù)提供者的著作權(quán)侵權(quán)責任認定規(guī)則具有一定的局限性,無法被合理有效地適用于生成式人工智能等新型技術(shù)應(yīng)用場景之中,導致生成式人工智能服務(wù)提供者在著作權(quán)侵權(quán)規(guī)制與防范方面的不足,也為服務(wù)提供者利用生成式人工智能帶來諸多不確定性風險。面對人工智能等新一代信息技術(shù)的迭代升級,有必要意識到生成式人工智能技術(shù)的自主性和復雜性,構(gòu)建與該技術(shù)相適應(yīng)的著作權(quán)侵權(quán)責任體系。在確定著作權(quán)侵權(quán)歸責路徑的前提下,重構(gòu)服務(wù)提供者的新型網(wǎng)絡(luò)服務(wù)提供者地位,以前文設(shè)立的生成式人工智能侵權(quán)注意義務(wù)為核心,結(jié)合不同行為形態(tài)類型化構(gòu)建生成式人工智能服務(wù)提供者著作權(quán)侵權(quán)責任體系;在建立著作權(quán)侵權(quán)責任認定規(guī)則的同時,合理制定生成式人工智能服務(wù)提供者著作權(quán)侵權(quán)責任限制規(guī)則,以維系權(quán)利人、服務(wù)提供者與用戶之間的利益平衡。
(一)生成式人工智能服務(wù)提供者著作權(quán)侵權(quán)責任的類型化構(gòu)建
根據(jù)過錯推定原則,生成式人工智能服務(wù)提供者未盡到注意義務(wù)的,承擔間接侵權(quán)責任。圍繞生成式人工智能技術(shù)全生命周期設(shè)立的注意義務(wù)涵蓋數(shù)據(jù)輸入、算法運行、內(nèi)容生成等不同階段,涉及數(shù)據(jù)來源合法、算法優(yōu)化訓練、監(jiān)督用戶合規(guī)使用等多元樣態(tài)。服務(wù)提供者因違反不同的注意義務(wù),其著作權(quán)侵權(quán)責任的發(fā)生依據(jù)不同,導致著作權(quán)侵權(quán)責任的具體認定也應(yīng)當有所不同,故應(yīng)類型化構(gòu)建生成式人工智能服務(wù)提供者著作權(quán)侵權(quán)責任體系。
1. 基于數(shù)據(jù)來源非法的著作權(quán)侵權(quán)責任
生成式人工智能服務(wù)提供者在數(shù)據(jù)輸入階段未盡到數(shù)據(jù)來源合法的注意義務(wù),導致數(shù)據(jù)輸入端存在大量侵犯他人著作權(quán)的數(shù)據(jù)樣本,應(yīng)被推定為“應(yīng)當知道”的過失情形,由生成式人工智能服務(wù)提供者承擔間接侵權(quán)責任。實踐中,服務(wù)提供者向人工智能系統(tǒng)喂養(yǎng)的數(shù)據(jù)類型多元,且數(shù)據(jù)來源方式復雜多樣,包括服務(wù)提供者自行抓取互聯(lián)網(wǎng)上公開數(shù)據(jù),也包括數(shù)據(jù)持有主體以API接口、打包下載等方式向服務(wù)提供者有償提供數(shù)據(jù)集合。在后一種情況下,服務(wù)提供者并非原始的數(shù)據(jù)收集與持有主體。此時,在要求服務(wù)提供者因未盡審核數(shù)據(jù)合法來源義務(wù)而承擔著作權(quán)侵權(quán)責任的同時,還應(yīng)當引入原始數(shù)據(jù)持有主體作為第三人補充承擔相應(yīng)的侵權(quán)責任。原始數(shù)據(jù)持有主體承擔著作權(quán)侵權(quán)責任的原因在于其未經(jīng)原權(quán)利人許可向生成式人工智能系統(tǒng)提供侵權(quán)內(nèi)容,涉及對相關(guān)內(nèi)容之上復制權(quán)、信息網(wǎng)絡(luò)傳播權(quán)的直接侵權(quán)。因此,基于數(shù)據(jù)來源非法的著作權(quán)侵權(quán)責任認定應(yīng)當以服務(wù)提供者承擔間接侵權(quán)責任為原則,同時允許服務(wù)提供者事后向原始數(shù)據(jù)持有主體追償,由數(shù)據(jù)來源的真正收集和提供者承擔補充責任。
2. 基于算法缺陷的著作權(quán)侵權(quán)責任
與基于數(shù)據(jù)來源非法的著作權(quán)侵權(quán)類型不同的是,基于算法缺陷的著作權(quán)侵權(quán)通常不涉及其他第三方主體,而僅由服務(wù)提供者承擔侵權(quán)責任。服務(wù)提供者因違反算法優(yōu)化訓練的注意義務(wù),既沒有在事前引入算法過濾機制,也沒有在侵權(quán)行為發(fā)生后及時采取算法模型整改措施,導致平臺上出現(xiàn)大量實質(zhì)性相似的侵權(quán)內(nèi)容,將被視為具有“應(yīng)當知道”算法缺陷的主觀過錯,由服務(wù)提供者承擔間接侵權(quán)責任。值得注意的是,此處的“算法缺陷”并非旨在真實考察該生成式人工智能系統(tǒng)是否存在運行漏洞,而是一種法律推定,即當服務(wù)提供者未采取相應(yīng)措施、具有相關(guān)不作為行為時即推定其導致生成式人工智能系統(tǒng)產(chǎn)生算法缺陷,對最終輸出侵權(quán)內(nèi)容的結(jié)果承擔相應(yīng)的連帶責任。
如前所述,判斷生成式人工智能提供者是否違反注意義務(wù)應(yīng)采取彈性標準,結(jié)合既有技術(shù)水平、專業(yè)程度、信息管理能力等因素加以個案判斷。為促進新技術(shù)產(chǎn)業(yè)發(fā)展,在生成式人工智能產(chǎn)業(yè)的發(fā)展初期,不宜在算法優(yōu)化訓練方面制定過高的注意義務(wù)標準,而應(yīng)適當放寬對基于算法缺陷的著作權(quán)侵權(quán)認定。法院在審理其他新技術(shù)領(lǐng)域侵權(quán)案中明確指出,民事責任規(guī)則的設(shè)立不僅關(guān)系個案中當事人之間的利益平衡,亦會對整體技術(shù)產(chǎn)業(yè)發(fā)展產(chǎn)生影響。“若對云計算服務(wù)提供者在侵權(quán)領(lǐng)域的必要措施和免責條件的要求過于苛刻,勢必會激勵其將大量資源投入法律風險的防范,增加運營成本,給行業(yè)發(fā)展帶來巨大的負面影響”。在此方面,“漢德公式”提出一種基于成本與損失比較的判斷標準,即只有當行為人預(yù)防未來侵權(quán)發(fā)生的成本小于預(yù)期侵權(quán)損失時,才應(yīng)當要求行為人對不作為行為承擔過失侵權(quán)責任。參考“漢德公式”的量化標準,如果服務(wù)提供者采取必要措施的成本高于既有算法缺陷可能造成的侵權(quán)損害,如引入算法過濾機制遠高于現(xiàn)實可執(zhí)行的管理技術(shù)水平、算法模型整改成本過于高昂等,此時經(jīng)生成式人工智能服務(wù)提供者舉證證明,可以免除其著作權(quán)侵權(quán)責任。
3. 基于用戶引誘的著作權(quán)侵權(quán)責任
當用戶采用故意引誘方式要求人工智能系統(tǒng)生成侵權(quán)內(nèi)容時,服務(wù)提供者能夠以已經(jīng)采取事先警告、關(guān)鍵詞屏蔽等措施為由避免責任承擔;然而,如果服務(wù)提供者在其日常運營中未盡到監(jiān)督用戶合規(guī)使用義務(wù),則需要對用戶引誘侵權(quán)承擔連帶侵權(quán)責任。此時,用戶存在明顯的侵權(quán)意圖,其作為侵權(quán)內(nèi)容的觸發(fā)與誘導者,對侵權(quán)行為的發(fā)生負有主要責任,故應(yīng)當減輕服務(wù)提供者的間接侵權(quán)責任。如生成式人工智能服務(wù)提供者能夠證明用戶引誘侵權(quán)行為超出其控制與預(yù)料范圍、不具有識別或阻止用戶引誘侵權(quán)行為的現(xiàn)實可能性,可以僅在合理范圍內(nèi)承擔賠償責任,以公平責任形式對權(quán)利人損失給予適當補償。正如“首例AIGC平臺侵權(quán)案”所面對的困境,即便服務(wù)提供者明知用戶指令將會生成侵犯他人權(quán)利的內(nèi)容,但服務(wù)提供者往往無法拒絕相關(guān)內(nèi)容的生成。此時,服務(wù)提供者只要已經(jīng)向用戶發(fā)出警告,并在收到權(quán)利人通知后及時采取必要措施,不應(yīng)當要求其承擔損害賠償責任。同時,著作權(quán)法律制度也應(yīng)當規(guī)定在此類情況下行為人承擔損害賠償金額的上限,以避免施以服務(wù)提供者過重的侵權(quán)賠償責任。
(二)生成式人工智能服務(wù)提供者著作權(quán)侵權(quán)責任限制的合理設(shè)置
侵權(quán)責任制度的價值取向在于預(yù)防功能而非制裁功能。侵權(quán)責任制度的設(shè)計應(yīng)當重視引導行為人如何預(yù)防損害的發(fā)生,防止一味地加重侵權(quán)責任作為懲戒,削弱相關(guān)主體創(chuàng)新的積極性。因此,在制定生成式人工智能著作權(quán)侵權(quán)認定規(guī)則的同時,為維系利益平衡、促進法律與技術(shù)的良性互動,還需要思考如何設(shè)置服務(wù)提供者著作權(quán)侵權(quán)責任限制,以避免相關(guān)侵權(quán)責任后果的無限擴張。本文認為,生成式人工智能服務(wù)提供者著作權(quán)侵權(quán)責任限制可以通過制定意思自治保留下的責任分配規(guī)則、用戶免責下的侵權(quán)阻卻規(guī)則予以界定。
1. 意思自治保留下的責任分配規(guī)則
法律制度無法消除侵權(quán)行為造成的損害,但是可以通過明確規(guī)定損害發(fā)生后的侵權(quán)責任分配規(guī)則,在為權(quán)利人提供救濟的同時,也為技術(shù)開發(fā)與使用者對各自行為后果與風險承擔建立穩(wěn)定預(yù)期。生成式人工智能服務(wù)提供者的著作權(quán)侵權(quán)責任承擔,旨在合理地分配損害風險,實現(xiàn)全新內(nèi)容創(chuàng)作模式下的利益分割與風險分擔。實踐中,服務(wù)提供者和用戶之間往往通過用戶協(xié)議等格式合同,事先約定關(guān)于生成內(nèi)容之上著作權(quán)侵權(quán)風險的承擔主體與責任范圍。對此,法律應(yīng)當尊重雙方對于侵害損失分擔的意思表示,鼓勵行為人以意思自治方式實現(xiàn)風險分擔與責任劃分。構(gòu)建意思自治保留下的責任分配規(guī)則,是指法律允許服務(wù)提供者和用戶通過事先約定的方式分配著作權(quán)侵權(quán)責任,優(yōu)先于法律法規(guī)在著作權(quán)侵權(quán)責任承擔方面的概括性規(guī)定。對于服務(wù)提供者對生成侵權(quán)內(nèi)容不具有主觀過錯,采取必要措施后仍造成相關(guān)損失的,可以通過事前約定等方式減輕或免除責任。
2. 用戶免責下的侵權(quán)阻卻規(guī)則
生成式人工智能服務(wù)提供者侵權(quán)是第三人介入型侵權(quán)情形。用戶使用人工智能系統(tǒng)生成侵權(quán)內(nèi)容并對外傳播構(gòu)成直接侵權(quán),服務(wù)提供者因提供生成式人工智能技術(shù)幫助侵權(quán)內(nèi)容的輸出而構(gòu)成間接侵權(quán)。關(guān)于直接侵權(quán)與間接侵權(quán)的關(guān)系,目前理論界主流采“從屬說”,認為間接侵權(quán)依附于直接侵權(quán)而存在,行為人承擔間接侵權(quán)以直接侵權(quán)的實際發(fā)生為前提。反之,若不存在直接侵權(quán),則行為人不構(gòu)成間接侵權(quán)。在著作權(quán)侵權(quán)領(lǐng)域,如果用戶未對外傳播侵權(quán)內(nèi)容或者對外傳播侵權(quán)內(nèi)容但構(gòu)成合理使用,即符合《著作權(quán)法》第24條規(guī)定的若干法定情形,用戶的直接侵權(quán)行為獲得免責。此時,作為間接侵權(quán)構(gòu)成基礎(chǔ)的直接侵權(quán)行為不復存在,因而服務(wù)提供者不需要承擔侵權(quán)責任。即便服務(wù)提供者違反應(yīng)盡的注意義務(wù),其也不承擔侵權(quán)責任。2007年,由微軟、索尼影業(yè)、迪士尼等全球互聯(lián)網(wǎng)和媒體公司共同發(fā)起的行業(yè)行為規(guī)范提出,技術(shù)的使用方式必須能夠合理平衡權(quán)利人在防止侵權(quán)內(nèi)容方面的合法利益與網(wǎng)絡(luò)平臺和用戶在允許合理使用方面的利益。因此,及時構(gòu)建生成式人工智能服務(wù)提供者著作權(quán)侵權(quán)認定中基于用戶免責的侵權(quán)阻卻規(guī)則,是實現(xiàn)利益平衡、推廣技術(shù)應(yīng)用的重要制度構(gòu)成。
六、結(jié)語
生成式人工智能技術(shù)的涌現(xiàn)不僅造成技術(shù)革新,也正在深刻改變著互聯(lián)網(wǎng)生態(tài)環(huán)境與產(chǎn)業(yè)利益格局。生成式人工智能不同于傳統(tǒng)網(wǎng)絡(luò)服務(wù)提供者所使用的內(nèi)容分發(fā)手段,而是具備自主性內(nèi)容生產(chǎn)能力,對著作權(quán)侵權(quán)責任認定帶來不小的挑戰(zhàn)。“首例AIGC平臺侵權(quán)案”作為司法實踐對生成式人工智能侵權(quán)問題的首次回應(yīng),其做法整體上值得肯定。然而,該案在侵權(quán)主體認定、注意義務(wù)與侵權(quán)責任承擔等問題上的分析尚不夠深入。生成式人工智能服務(wù)提供者的法律規(guī)制需要把握其技術(shù)特性與侵權(quán)場景,置于既有著作權(quán)侵權(quán)責任認定體系框架下予以具體分析。“如無必要勿增實體”,對生成式人工智能服務(wù)提供者可以暫且采解釋論立場,將其納入網(wǎng)絡(luò)服務(wù)提供者主體范疇進行規(guī)制。對于這類新型網(wǎng)絡(luò)服務(wù)提供者,應(yīng)當建立過錯推定原則,重構(gòu)其注意義務(wù)標準與具體內(nèi)容,完善并構(gòu)建著作權(quán)侵權(quán)責任認定及其限制規(guī)則。毫無疑問,清晰劃分生成式人工智能服務(wù)提供者的侵權(quán)行為界限,回應(yīng)權(quán)利人、服務(wù)提供者與用戶等多方主體之間復雜的利益訴求,重塑技術(shù)產(chǎn)業(yè)變革下的網(wǎng)絡(luò)版權(quán)治理范式,是有效解決生成式人工智能服務(wù)提供者著作權(quán)侵權(quán)問題的出路。