□ 文 宋先發 龔模干
2022年11月30日ChatGPT一經發布,便在科技界引起軒然大波,并且在不久的4個月后,超越GPT-3.5的模型GPT-4接踵而至。相較于GPT-3.5是在擁有3000 億個單詞的語料基礎上預訓練擁有1750億參數的模型,而GPT-4的參數規模則是GPT-3.5的1-2倍。依據相關研究,深度神經網絡的學習能力和模型的參數規模呈現正相關系。人類大腦皮層所擁有的突觸總數超100萬億個,而當人工智能所擁有的參數規模達到100萬億時,意味著其將達到與人類大腦的同等水平。亦有人預測這或許意味著這一系統開始具備人類的自主思維,擁有與人類相似的創作能力。目前亟待解決的問題在于,這些由ChatGPT所“創作”的,外觀上幾乎與人類作品別無二致的“作品”,在《著作權法》上該如何定性?學術界對人工智能生成物的《著作權法》上的作品定性多采用肯定觀點。然而,將該生成物認定為“作品”,不僅與大多數人的直覺相違背,并且在算法、算力等相關技術不斷精進的今天,亦潛藏著巨大的危機。故而有必要從ChatGPT等人工智能的“創作”機理出發,綜合考量相關的形式因素與實質因素,重新思考ChatGPT等人工智能生成物的著作權法定性問題。
ChatGPT是人工智能技術驅動的自然語言處理工具,通過理解和學習人類的語言來進行對話,實質并非一個強大的“搜索引擎”,其原理并非通過在龐大的數據庫中以超高的運算速度快速比對文本找到相類似的內容,進而進行比對、拼接,得出結果。其機器學習所用到的大量學習材料并不會保存在模型之中。學習材料的作用是使得GPT模型能夠進行“利用人類反饋強化學習(RLHF)”的訓練。通過訓練不斷調整語言模型以得到通用模型,以使得ChatGPT能夠回答未接觸過的問題。因此ChatGPT也被稱為生成模型。而就其語言生成功能而言,其可以概括為“自回歸生成”模式,也可以形象地稱為“單字接龍”,即給他任意的長文,它會依據自己模型去“生成下一個字”,再將此生成的“下一個字”與之前的上文組合,形成新的長文。而在“上文”模型相同的情況下,ChatGPT則是依據概率抽樣來生成下一個字。由于抽樣結果存在隨機性,所以即使面臨相同的問題,ChatGPT的回答亦各不相同。

關于ChatGPT等人工智能生成物該如何定性,是否屬于《著作權法》上的作品這一問題,在《著作權法》上的分歧主要體現于“人工智能是否能成為作者”、“生成物是否具有獨創性”以及“生成物是否屬于智力成果”三個方面。
爭議之一在于作者的范圍是否包括人工智能。一般情況下,作者是指進行創作活動的自然人,而在某些特殊情況下,法人也被視為作者,而法人被視為作者的原因在于作品中體現了法人的意志。故而依據此原理,有主張在人工智能“創作”中,所有者為向人工智能注入意志的主體,人工智能可視為代表所有人創作,故而認可類推適用法人作者的規則,將人工智能所有者視為作者。實質上,無論是哪種形式的法人組織,法人的意志根源于自然人,法人作品根源于存在具備人類思想意志的自然人“創作者”。并且法人具有獨立的民事權利能力,具備將其擬制為作者的條件。然而,在人工智能創作物的情形中,由于人工智能自身不具備獨立民事權利能力,自不必說,其本身不得成為作者。再者,其作為實際“創作者”也無法體現出人類思想意志。可以說由于與“法人作者”的情形不具備類似性,因而無法類推適用“法人視為作者”規則的相關條件。

獨創性是指由作者獨立完成,源于本人,并且具有一定程度的智力創造性。在人工智能生成物是否具備獨創性的問題上,主張不具備獨創性者認為“人工智能生成的內容只是應用某種算法、規則和模板的結果,與為形成作品所需的智力創作相去甚遠”,即使是不同的人,只要輸入相同的內容,輸出結果具有唯一性,故認為此過程實際上排除了個性化特征,從而不符合獨創性的要求。此見解實際上描述的是“機械創作”的過程。
然而,就目前ChatGPT的技術原理而言,其實際上是屬于“算法創作”而非“機械創作”,其是采用“自回歸生成”的方式生成一篇長文,長文反映了概率抽樣的結果。故而實際上即使輸入相同的指示,也可能依據隨機抽樣輸出不同結果。而算法創作中,人工智能可以通過深度學習自主地構建函數模型,而非依賴于設計者事先定義特征量和目標效果的函數關系。
主張具備獨創性者則認為,基于上述“算法創作”人工智能的出現,由于結果具有隨機性,故而可以認定其該不同次數的運算具備個性。并且,從現實中人工智能生成物與人類作品難以區分的現象上也可以看出,人工智能生成物可能具備“獨創性”要件。因此就此客觀意義上的“獨創性”而言,人工智能生成物亦可能滿足,即使受限于當前技術水平人工智能的“獨創性”可能達不到某些國家法律規定或者專業人士內心的標準,但隨著人工智能學習能力的提升,在不遠的將來在客觀上達到“獨創性”的標準也只是時間問題。
依據《著作權法》第3條規定,作品是指“文學、藝術和科學領域內具有獨創性并能以一定形式表現的智力成果”。由此可知,獨創性并非是作品唯一構成要件。除此要件之外,多數觀點認為作品還需滿足:屬于人類的智力成果、是能夠為他人感知的客觀表達、是屬于文學、藝術和科學領域的智力成果。在人工智能生成物作品定性中成為問題的除“是否具備獨創性”問題外,還在于“其是否屬于人類的智力成果”。也有將此要件的內容作為“獨創性”中所需要具備的人格要素考慮者。但殊途同歸,無論哪種對獨創性要件的理解,都強調作品需要為“人的智力活動所產生的成果”。
對此要件,有觀點通過《著作權法》中存在的法人作者的特殊規定,認為“智力成果”的主體并不限于自然人,同時認為將其解釋為自然人主體限制有悖于《著作權法》第1條鼓勵創作傳播宗旨,同時會使內容生成式人工智能陷于濫用和版權混亂困境,故而認為應當將其解釋為“與自然人腦力創作相當的新穎性、創造性的新內容”。此觀點無疑混淆了法人作者制度的定位,法人作者規范是在生成物被認定為作品前提之下,調整作品著作權歸屬的規范,而非是解決是否成立作品的規范。法人作品中,依然存在自然人的智力創作活動,并未打破作品需要為“人的智力活動所產生的成果”這一規則。
更多的支持人工智能生成物作品論者則是企圖從設計者對人工智能算法系統的搭建、訓練者對人工智能學習數據的挑選標注、適用者對人工智能生成物原始數據的提供等方面,來論證的人工智能生成物中所蘊含的人類的智力創造因素。
然而《著作權法》所保護的并非是思想、思路、觀念、理論、構思等本身,其保護的只是以文字、音樂、美術等各種有形的方式對思想的具體表達。據此,所謂作品中體現的人的智力活動亦應當具體到對作品具體表達形成的參與上,而不能僅僅停留于抽象的思想參與層面。原因在于,關于同一種思想可能存在無數種具體表達,能將同一主旨的作品區別于其他作品的關鍵點在于作者所選用的不同具體表達,此才能體現出作者的智力創作活動。如果以此標準來衡量人工智能生成物中人的智力參與的話,在ChatGPT的算法創作型人工智能中,設計者及訓練者都不可能預知ChatGPT將來會輸出怎樣內容的生成物,自然難以稱得上對最終ChatGPT生成物存在智力參與。而使用者所謂的原始素材提供也只是為人工智能創作提供一個方向,充其量僅是停留在生成物的“思想”層面,難對該生成物的具體表達有所預見,因此更別說使用者對生成物的具體表達存在《著作權法》意義上的參與了。
如果使用者并非是給Chat GPT,而是其他自然人提供素材、下達指令,由其他人完成的作品,是否能夠視為使用者對該他人作品存在智力參與呢?其能夠成為合作作品著作權人嗎?答案是否定的。依據通說,只有實際參與了創作活動,對最終作品作出了獨創性貢獻的人才能成為合作作者,僅僅為創作提供咨詢意見、物質條件、素材或其他輔助勞動的人并非合作作者。由此可知,《著作權法》意義上的創作的參與需要具體到表達,而不能僅停留在思想、素材層面。在人工智能生成物的情形下亦是如此,使用者的素材提供、指令下達行為無法成為人工智能生成物上的人的智力參與因素,人工智能生成物并非是“人的智力活動的成果”。可知,將人工智能生成物視為人工智能與人類的“合作作品”論者的觀點亦難以成立。

如果上述理由僅涉法教義上的理由,那么,實質上將人工智能生成物排除出“作品”范圍的更加實質的理由則在于以下幾個方面。這也是對人工智能著作權問題的思考出發點,上述法教義上的理由僅是在于強化從此出發點形成的確信。

在2023年1月美國進行的一項千人調查中,有8 9%的學生表示曾在家庭作業中使用過ChatGPT,并且還有學生通過用ChatGPT完成作業取得了最高分。這使得美國一些高校紛紛宣布禁止學生使用ChatGPT完成作業。
各高校視ChatGPT為大敵的原因在何?從巴黎政治大學所發布一份禁止使用ChatGPT的聲明中不難找到答案——“為防止學術欺詐與剽竊”。無疑,從高校的反應而言,在對于學生使用ChatGPT完成的生成物的態度上,幾乎沒有高校會認為其屬于學生個人的“智力創作”。這是因為,人們普遍認為在使用ChatGPT進行“創作”的過程中,使用人僅通過下達指令參與“創作”,是無法體現出使用者對最終生成物存在智力貢獻。毋寧說,頻繁使用ChatGPT完成作業會助長學生的思維惰性,使得教育的目的發生改變。
《Science》亦明確發出聲明,禁止在投稿中使用由ChatGPT生成的文本,如違法則構成學術不端行為。《Nature》則表示不能將ChatGPT列為論文作者,同時如果論文創作過程中使用過相關工具,則必須予以注明。
以上各學校、期刊的反應無不表明:ChatGP T的使用者將ChatGPT生成物作為自己的“創作”是不被容許的。使用者給ChatGPT下達指令的行為并不能歸結于對生成物的“智力參與”,僅此無法達到能使該生成物能夠視為使用者的“智力成果”的程度。就此而言可知,將人工智能生成物視為“作品”保護明顯有違社會大眾的觀念,同時也將對教育、學術倫理帶來巨大的沖擊。

不論何種人持何種看法,在認定版權制度的本質是鼓勵用頭腦從事創作人這一點上,意見是一致的。文藝作品等由信息構成的成果之所以成為法律上的財產,是出于公共政策的需要。即《著作權法》第1條所規定的:“鼓勵有益于社會主義精神文明、物質文明建設的作品的創作和傳播,促進社會主義文化和科學事業的發展與繁榮”。無論是動物還是機器,都不可能因《著作權法》保護作品而受到鼓勵,從而產生創作的動力,只有人的行為才能為《著作權法》所鼓勵。因而即使對人工智能生成物施加以著作權的保護,亦無法達到鼓勵創作的效果,只因人工智能生成物的生成過程并不依賴于使用人的腦力創作活動。
或許有質疑觀點認為,如果不對人工智能生成物施以著作權保護,將影響研發者們對人工智能研發的積極性。實際上,研發者們的算法研發所投入的智力可以通過計算機軟件著作權得到一次保護,故而其創作熱情并不會受到抑制。其次,ChatGPT等算法型人工智能的作用遠不止“創作”,其亦具有“提供論文思路、框架”、“修改表達”、“翻譯”、“問題解答”等輔助創作的功能。并且如上述所言,其生成物無法獲得著作權保護本就是人們的普遍認知,故而其不會僅因生成物無法獲得著作權保護而影響使用者的熱情,投資者利益亦不會受到影響,因為投資者的利益完全可以通過收取使用費等商業手段得到彌補。
文字的排列組合在有限的空間內存在限度。恰如在18世紀生物學家赫胥黎所提出的“無限猴子理論”,即只要有無限多的猴子和無限多的打字機,即便是猴子,也可以打出《莎士比亞全集》這樣極具藝術價值的作品。此理論無疑反映出文字作品的本質在于單個字母或字的排列組合。因一定長度的文字集合存在窮盡的可能性,并且借助于人工智能強大的算力,使該種窮盡更具可能。盡管有人從實現的角度提出此構想存在技術瑕疵,如存在算力或是存儲空間不足等技術難題。但不難想象的是,隨著技術的迭代,算力及存儲空間的問題都將會被逐步解決,即便無法完全實現“窮盡”,也可以向“窮盡”不斷靠近。
在此背景下,如果對ChatGPT等人工智能的生成物予以著作權的保護,則憑借人工智能強大的算力,即使無法提出“窮盡”的文字排列組合,其也能夠計算出龐大的文字排列組合,在有限的排列組合背景下,人工智能生成物能夠在短時間內迅速占領相關內容領域,造成自然人創作侵權風險大幅度提高,這無疑會擠占傳統人類創作的空間。即使有觀點提出在現行著作權制度中,即使后作與前作存在實質性相似,如果不存在“接觸”亦不構成侵權,故認為無需擔心人工智能創作會過度擠占人類創作的空間。在互聯網幾乎完全覆蓋的今天,只要將人工智能生成物的存儲空間在網上對公眾公開,則在后作出相同創作者便將難以證明不存在“接觸”,而人工智能擠占人類創作空間的事實也將現實地發生。
使人工智能生成物進入公共領域會帶來何種弊端呢?支持將人工智能生成物納入作品范圍保護者的理由往往在于,使其直接進入公共領域容易出現大量將人工智能生成成果冒充個人作品的情形,最終將阻礙人類作品的創作積極性。此批評可以說并未切中要點,反而為反對論者提供了論據。相較于在否定人工智能生成物“作品”性質的立場下“偶發性”的冒充個人作品而言,無疑是在肯定人工智能生成物“作品”性質的立場之下,“常態化”的用人工智能創作對傳統人類作品創作程度的阻礙程度更高。并且,以人工智能作品冒充個人作品的行為無異于抄襲,即使是在不存在人工智能的時代,抄襲現象也依然存在,依然會阻礙人類創作的積極性。故而此問題并非人工智能時代所特有,更非通過將人工智能生成物納入“作品”范圍所能夠解決的。毋寧說重要的是在否定人工智能生成物“作品”定性的基礎之上,健全相關的人工智能生成物區分識別機制,才能保全人類創作的“凈土”。
自OpenAI發布ChatGPT以來,谷歌、百度等公司也爭相研發競品。GPT-4功能之強大讓無數人感到“失業”的危機臨近。人工智能的時代已經開啟,人類不應回避,而應直面這項將給我們生活帶來巨大變革的技術。對于需要明晰的人工智能生成物著作權問題而言,算法創作由于其無法體現為人類的智力創造活動,故不屬于《著作權法》上的作品。并且對人工智能生成物施以著作權保護不僅有違《著作權法》立法宗旨,而且可能蘊含巨大的危機,亦明顯違背民眾的社會情感觀念,故不宜對人工智能生成物施以著作權保護。