文/張新玲 謝永生 章權
2022年11月30日,美國OpenAI研發的聊天機器人程序ChatGPT一經發布便迅速火爆全網,引起全球互聯網界、學術界及產業界的關注和熱議。OpenAI此前還發布了GPT-1、GPT-2和GPT-3,ChatGPT是基于第三代大模型GPT-3的升級產品,是在GPT-3.5上進行微調而誕生。2023年3月14日,智能水平更高、專業學術基準性能及圖片識別能力更強的GPT-4發布,再次引爆了人們對ChatGPT的關注。與此同時,我國的人工智能技術也取得了很大的進展,2023年3月16日,國內首款對標ChatGPT及GPT-4的大語言模型“文心一言”正式發布。此外,國內大量“類ChatGPT大語言模型”也蜂擁而出,也可用于文本生成。ChatGPT預示著一個新時代的啟幕,將極大推動人工智能發展乃至信息產業革命。
ChatGPT被稱為學術界的“靈丹妙藥”,可以幫助研究人員閱讀文獻、分析數據、撰寫論文,是研究人員不可多得的學術研究助手。但ChatGPT缺乏準確、充分傳達復雜科學概念和信息所需的知識和專長的能力,缺乏評估處理信息真實性和可靠性的能力,因此其最顯著的缺點是生成的信息不總是準確的,即ChatGPT輸出的論文有可能在數據、結論、意識形態、科技倫理方面存在錯誤和誤導性信息,這對學術出版尤其有害,加上錯誤信息還沒有高效的識別軟件,因此,相關內容審查需要作者、編輯及審稿人的仔細核實、驗證及修改,需要花費大量的人力和時間。
ChatGPT屬于人工智能,但又不是普通的人工智能,在很多方面遠超普通人工智能。社會層面已開啟ChatGPT融合發展及對策研究,如ChatGPT與教育、新聞出版及圖書館行業等的相關研究。因此,本文重點研究ChatGPT等對學術期刊的挑戰及對策,以期在理論上豐富人工智能時代學術期刊發展模式的研究內容,在實踐上幫助期刊積極應對ChatGPT帶來的挑戰,及時制定發展規劃,調整發展路徑,為構建新時代學術期刊的發展模式提供參考。
對學術期刊來說,ChatGPT可協助審稿、策劃組稿、編輯加工等,提高期刊出版發行和學術傳播的效率和質量,給學術期刊帶來新的發展機遇,但由于ChatGPT輸出的學術論文存在不確定性,也給學術期刊帶來很大的挑戰。
人類技術發展史表明,新技術的廣泛應用將會引發新的法律風險。ChatGPT強大功能的背后,也暗藏很多法律風險隱患,首要的就是知識產權風險和著作權問題。在數據源獲取階段,ChatGPT對數據集的使用可能涉及對原始作品權利人的知識產權侵權風險;在內容生成階段,ChatGPT或其權利人對其生成的信息是否享有著作權,是否會產生知識產權法律風險,還存在爭議。解決這些法律風險問題對未來ChatGPT的技術研發和應用尤為重要。
1.ChatGPT應用過程中的知識產權風險。ChatGPT在學術論文的生成過程中用到大量人類作者創作的文字作品,這可能侵犯了他人的著作權。ChatGPT不直接抄襲他人的文本,而是形成對他人作品的一種重新的組合。而《著作權法》本身并不保護人的觀點或思想,保護的是這種觀點或思想的表達形式,所以ChatGPT使用人的語言的模式很可能會規避掉《著作權法》對著作權的保護。此外,有學者指出,ChatGPT用3000億單詞的語料數據和1750億的參數,很大程度上依賴CommonCrawl、WebText、維基百科和書籍語料庫等海量數據,這就涉及“文本數據挖掘”是否需要相應的知識產權授權及是否侵犯“復制權”的問題。OpenAI公司是否取得了這些公司的授權?使用這些數據是否存在知識侵權風險?有學者認為ChatGPT是一個高科技剽竊系統;有國外新聞媒體指責OpenAI在不支付任何費用的情況下使用他們的文章來訓練ChatGPT。ChatGPT在學術論文創作過程中所用數據面臨很大的知識產權風險,若該問題得不到妥善解決,可能會使ChatGPT輔助生成的學術論文受到侵權的影響,這種現象不僅影響學術論文的知識傳播及使用,還會影響作者的聲譽和學術期刊的發展。
2.ChatGPT輔助生成的學術論文的著作權問題。ChatGPT生成的內容著作權歸誰,人工智能是否應被承認為作者等問題引起學界和業界人士的激烈爭論。學術界存在兩種不同的觀點:一種認為ChatGPT有著作權和署名權?!吨鳈喾ā返囊粋€重要功能是保護著作權,如果是人工智能機器人的生成物由人類署名,就算抄襲,因此,應給人工智能生成物署名。另一種認為:“權利—義務—責任”一體,著作權人應就所生成的內容負責,權利和義務是相伴相生的,人們如果給ChatGPT權利,那它必須承擔義務,如果存在侵害著作權的問題,同樣應由著作權人來承擔相應責任,但ChatGPT只是一個信息處理工具,無法為生成的內容承擔責任,所以責任還是在ChatGPT的使用者身上。因此,人工智能不具備主體資格屬性的獨創性,不存在著作權意義。
從Web of Science數據庫調查可知,從2022年11月ChatGPT發布以來,截至2023年4月12日,僅有5篇論文將ChatGPT列為共同作者。從目前的呼聲及學術期刊發布的聲明看,人們大多數傾向于ChatGPT輔助生成的論文無相應的著作權。Nature發表聲明“任何大型語言模型工具(比如ChatGPT)都不能成為論文作者”,Science明確禁止將ChatGPT列為論文的合著者,Springer-Nature聲明不能將ChatGPT列為作者,eLife主編邁克爾·艾森(Michael Eisen)表示ChatGPT不可能是作者。我國也有期刊做出了回應,《暨南學報(哲學社會科學版)》不接受ChatGPT單獨或聯合署名的文章。
ChatGPT具有強大的數據搜集和智能文本生成功能,但在準確性和創新性方面存在缺陷:其缺乏評估處理信息真實性和可靠性的能力;論文的生成是執行“搜索—整合—生成”的指令過程,不太具備創新能力,很難生成新的觀點和想法,沒有真正意義上的思考創造。這引起了期刊出版者的質疑,ChatGPT準確性和創新性的缺陷能否承擔學術論文的輔助寫作的重任?ChatGPT輔助學術論文寫作的規范是什么?如何揚長避短,合理利用ChatGPT的優勢同時避免其錯誤信息?當前對此還缺乏相應的規范指導,不同的學術期刊各自為政,比較混亂,影響了學術期刊行業的發展。如Science禁止在投稿論文中使用ChatGPT生成的文本;Nature、Critical Care、Belitung Nursing Journal等20余個期刊的相關文章在致謝中將ChatGPT的應用情況簡要說明,但不夠詳細。ChatGPT在學術界扮演的角色越來越重要,相關部門和期刊出版者應盡快出臺ChatGPT輔助學術論文的使用規范,引導作者合法合理地使用ChatGPT。
比爾·蓋茨說:“ChatGPT像互聯網發明一樣重要,將會改變世界?!泵鎸υ絹碓綇姶蟮腃hatGPT,宜疏不宜堵,封堵政策是最不可行的,學術期刊應采取積極開放的態度,勇敢應對時代進步與技術發展帶來的挑戰。
審稿是決定學術期刊文章質量的關鍵環節,目前學術期刊審稿制度主要是“三審制”,而ChatGPT的出現給當前的審稿制度帶來一個很大的考驗。美國西北大學的一項研究顯示,ChatGPT撰寫的論文摘要和內容竟然“騙”過了期刊編輯和審稿人。因為ChatGPT輸出的論文存在信息準確性低和原創性差的問題,需要期刊編輯和同行評議人對論文進行更加細致、專業的審查和篩選。ChatGPT背景下學術期刊必須更新審稿方式,提高審稿質量,更加注重學術論文的知識準確性和創新性審查。
1.嚴控編輯初審環節,提高審稿質量。按當前的審稿程序,初審主要審查重復率、研究方向、研究價值、是否涉及敏感話題等,這些都是大方面的,很少涉及文章的詳細內容。為防范ChatGPT的濫用,需改進傳統的初審模式,加大初審力度,重點關注文章的內容錯誤,包括數據、倫理、政治性審查、參考文獻等,為文章復審做好鋪墊。在送審之前應加強與作者的溝通和交流,為作者提供詳細的修改意見,以保證學術論文內容的準確性和科學性,從源頭消滅學術論文中的錯誤信息。
2.增加復審內容,豐富復審形式。其一,注重內容準確性審查。傳統上復審的主要內容是:創新性、科學性、學術不端、先進性及重要性。當前,復審要增加專業內容準確性審查,包括數據是否可靠、理論依據是否可靠、是否具有明顯政治傾向等。建議期刊編輯將重點審查內容羅列在審稿單上,引導審稿人的審稿思路。
其二,豐富審稿形式。智能時代復審作為有效的學術質量控制機制也應不斷創新發展,不能局限于傳統的復審模式。小組/協作式同行評議模式比較適合論文各項內容的全面細致審查,該模式是基于團隊的同行評議方法,多名審稿人對稿件進行評議,共同提交綜合審稿意見完成審稿,彌補審稿人知識點的盲區,有助于各學科論文內容信息的全面審查。
可以預見的是,在未來ChatGPT等人工智能技術很難禁用。期刊必須制定ChatGPT的使用規范,使ChatGPT真正服務于期刊和作者。規范的制定要建立在詳細了解ChatGPT在輔助學術研究方面的優勢和局限的基礎上,搞清楚ChatGPT在哪些方面可替代人類,哪些是人類必須要主導和把關的。當前,學術期刊界對ChatGPT的主要使用規范有兩種:禁止使用和限制性使用。鑒于ChatGPT在數據搜集、優化整合等方面優于人工,但在創新性及準確性方面尚有缺陷,對原創性要求高的期刊可禁止使用ChatGPT,其余可采取限制性使用。綜合考慮,因當前ChatGPT在創新性及準確性方面存在的弊端,限制性使用可能是比較適合的選擇??山ㄗh研究者在文章的構思、數據搜集、優化整合、可讀性提高方面使用,但在學術論文的關鍵部分不能使用,在論文創作中用過ChatGPT的部分,應在文章適當的地方做明確且詳細的說明,以便于編輯對ChatGPT生成的內容進行審查。
為提高數據的透明性,更有力地阻止ChatGPT輸出的錯誤信息,期刊可要求投稿者提交原始數據和程序、處理數據、研究材料、公式推導過程、質性研究資料、總結后的詳細數據等相關附件,并在期刊網站上公開原始數據。實際上,國內外很多期刊尤其是實驗科學領域已采用公開原始數據的模式,以提高科學研究的可重復性(在學術研究領域,可重復性指的是針對同一研究問題,其他研究者的獨立研究可以借助作者提供的方案再現實驗結果)。例如,我國期刊《中國工業經濟》、國際期刊Nature及子刊也要求作者提供與論文結論有關的所有數據。未來,越來越多的研究者會將ChatGPT用于學術論文寫作,公開論文原始數據將是有效預防濫用ChatGPT的有效舉措。
ChatGPT在學術界的應用也帶來期刊界對人工智能技術人才的巨大需求。當前我國很多領域都缺乏人工智能人才,當務之急是對期刊編輯人員進行規范化、專業化技能培訓,使編輯人員熟練掌握數據搜集、智能審稿系統的應用,將所學應用到期刊的審稿及編輯出版中,提升編輯人員的信息素養。通過對近幾年開展的編輯業務培訓的調查,發現人工智能相關的課程已出現在編輯業務培訓中,如中國期刊協會開設的“智能審校技術在期刊審稿及編校質量提升中的應用”課程,幫助編輯學習智能審校技術,受到大量編輯的好評。但當前關于人工智能的培訓較少,需要增加人工智能培訓的相關課程。
ChatGPT、GPT-4及“文心一言”等人工智能技術的發展及應用尚在起步階段,未來可能給學術期刊帶來更大機遇和挑戰。人機協同時代,學術期刊應加快與人工智能融合發展,強化學術期刊人工智能人才隊伍建設,制定明確的人工智能使用規范,引導作者合理合法地使用人工智能工具,構建積極、健康的學術環境,共同促進學術研究的繁榮發展。