




關鍵詞:人工智能;學術出版;學術期刊;出版倫理規范
一、引言
人工智能(Artificial Intelligence,AI)是利用計算機技術模擬人類智能的技術科學,在21世紀取得了重大研究進展,也產生了廣闊的應用場景。隨著2022年以來以ChatGPT為代表的大語言模型取得突破性進展,人工智能生成內容(ArtificialIntelligence Generated Content,AIGC)在文字、圖像、視頻、音頻等領域的應用效果大幅提升,使知識內容的生產、服務與傳遞的邏輯發生了一系列重大變化,由此帶來的機遇與挑戰也成為學界和業界共同關注的話題,人工智能生成的內容是否可信、是否可用、如何規范成為亟待討論與落實的問題。
學術出版是知識生產的核心要地,承載著發掘科研成果、提供知識服務、促進科學創新的重要職能,需要作者、審稿人和編輯的共同參與。作者撰寫學術論文,進行知識的生產創造;審稿人對論文的創新性、嚴謹性、科學性等進行同行評議,并撰寫審稿報告,對論文提出建議;編輯作為學術期刊出版流程的組織者和管理者,承擔“把關人”的職責,擁有論文錄用與否的決定權。在學術出版流程中,作者、審稿人和編輯要共同遵守出版倫理規范,以保證科學知識的規范生產、加工與傳遞。
人工智能在學術出版流程中應用廣泛。在內容生產環節,作者可以利用人工智能進行知識發現、數據處理和語法潤色; 在稿件評審環節,人工智能可以協助匹配合適的審稿專家,并通過抓取論文創新點協助審稿專家提升評審效率;在編輯環節,編輯可以使用人工智能進行選題策劃、智能排版與校對,提升編輯效率與質量。有學者認為,人工智能出色的內容生產效率及驚人的發展速度有可能徹底改變科研實踐和出版實踐。
人工智能在學術期刊出版中的大量應用帶來了一系列出版倫理問題,引發了相關領域學者的關注。張萍等通過實驗和網絡調查方法總結了機器參與論文寫作的發表現狀與應用特征,并從數據倫理問題、學術創新爭議、算法黑箱與偏見問題、引用問題和署名問題等方面重點論述了機器參與寫作帶來的出版倫理困境。 趙豐討論了生成式人工智能參與創作的版權問題,認為智能生成AI不具有主體適格性,不能擁有版權。王少認為使用生成式人工智能進行文獻總結易出現引注缺漏和引注錯誤,進而構成剽竊,引發學術不端。 陳冬梅等指出,編輯使用生成式人工智能進行選題策劃、校對等工作,一定程度上撼動了編輯原有的主體地位,進而沖擊了編輯責任倫理。
在出版倫理問題被大量揭露的同時,部分學者對問題出現后的規范手段進行了探討。方卿等指出AIGC的應用催生了技術倫理失范和出版倫理失范的風險,會嚴重損害學術成果的科學性、可靠性,威脅學術誠信,應建立AIGC的共性倫理框架,通過多元利益主體協同治理建立內外部共同規范。張新新等認為AIGC降低了論文抄襲成本,也提高了學術不端行為的檢測難度,學界應通過規章制度對其進行規范,并開發更高水平的AI審核技術以監督。 Brady D.Lund等對300本頂級期刊展開調研,發現有58.7%的期刊公布了與人工智能相關的具體政策,其中98.9%的期刊不承認以ChatGPT為代表的生成式人工智能的作者身份。文獻調研發現,當前研究主要集中在作者這一單一主體在使用人工智能進行創作時的出版倫理上,而較少考慮到審稿人和期刊編輯的人工智能使用情況和倫理問題,針對學術出版整體流程的人工智能倫理規范仍存在研究空白。
除學界相關學者的討論之外,許多國際出版學協會也針對人工智能環境下的出版倫理困境提出了建議。國際出版倫理委員會(Committee onPublication Ethics,COPE)肯定了人工智能在輔助同行評議和編輯出版過程方面的積極作用,但不建議人工智能替代編輯和審稿人作出最終決定。其重點強調,作者、審稿人和編輯都應對人工智能的使用負全部責任,并且應當保證使用過程的透明性。科學編輯委員會(Council of Science Editors,CSE)認為人工智能不應被列為作者,也不擁有版權。國際醫學期刊編輯委員會(InternationalCommittee of Medical Journal Editors,ICMJE)不允許將人工智能列為作者,且強調作者在引用時必須保證論文內容有恰當的出處標注,以此避免人工智能生成內容的“黑箱”問題。在各出版學協會的指導下,許多國內外學術出版機構相繼出臺了出版倫理規范文件,以限定人工智能使用過程中作者、審稿人與編輯的權利邊界與責任義務。2023年9月20日,中國科學技術信息研究所聯合國際出版集團Elsevier、Springer Nature與Wiley共同發布了《學術出版中AIGC使用邊界指南》,針對學術出版中AIGC使用的透明度、隱私、公平等問題展開研究,并從研究開展和論文撰寫、投稿和出版后三個階段作出實踐指導。該文件以凝聚業界共識、提供基本原則為目的,對大部分問題的論述較為簡單,也未對各主體人工智能出版倫理規范進行區分討論,規范的邏輯性、框架性存在不足。
本文以Elsevier、Springer等出版機構發布的人工智能環境下的出版倫理規范為樣本,通過質性文本主題分析方法對其規范內容進行梳理,歸納出學術出版過程中各主體倫理規范的特點與建設情況,梳理人工智能環境下的出版倫理規范框架,以期為我國制定出版倫理規范,應對人工智能帶來的機遇與挑戰提供借鑒。
二、研究方法與過程
(一)樣本選取
本研究共選取了國內外影響力較大的、具有代表性的49家出版機構,其中,國內出版機構28家,均為卓越行動計劃的領軍期刊、集群化試點期刊。本研究選取了21家國外出版機構,首先在國際科學技術與醫學出版商協會(InternationalAssociation of Scientific,Technical and MedicalPublishers,STM)的報告中,選擇了13個出版規模排名高、影響力大的商業出版機構、大學出版機構、學會出版機構、開放獲取出版機構,其次選取了三家享譽國際的世界一流科技期刊,最后選取了五家在全球具有高學術影響力的生物醫學類單刊。然后,本研究在刊物官網以“AI”“ArtificialIntelligence”“AIGC”“ChatGPT”“人工智能”等為檢索詞進行檢索,從中篩選涉及人工智能的出版倫理規范或新聞報道,確定了發布相關倫理規范的出版機構共21家,其中國內5家,國外16家,又進一步提煉了符合研究主題的核心內容,用于內容分析。出版機構及倫理規范示例見表1:
(二)研究方法
內容分析法是通過精讀、理解并闡釋復雜文本內容,對其進行歸類與編碼,并在此基礎上開展定性與定量研究以剖析事物特點或歸納理論的研究方法。本研究選取的樣本全部為文本數據,其內容量大、蘊含信息復雜,因此采用內容分析法對出版倫理規范文本進行梳理與歸納,力求在復雜文本中提煉倫理規范的特點與建設情況。
(三)編碼框架
本研究編碼的一級類目按照學術出版流程中的三大主體進行劃分,即作者、審稿人和編輯。一級類目確定后,本研究通過參考資料及反復閱讀樣本,制定并補充二級類目,最終制定的編碼框架如表2所示。
(四)編碼結果
經過反復閱讀及編碼,確定最終編碼參考點為n=112,具體如表3所示。
當前學術出版倫理規范中對于作者使用人工智能規范的條目數量最多,達90條;對于審稿人的規范次之,為19條;對于編輯的規范條目最少,僅有5條。人工智能環境下,當前出版機構發布的倫理規范多集中于作者方,重點針對科研人員做好科研誠信、出版倫理規范方面的前端控制。究其原因,學術不端問題往往產生于科學研究、交流、合作階段,集中爆發在論文發表階段,在論文進入評議、發表階段后發現學術不端,處理問題的成本和事件的破壞力就會大大提高。因此,在論文寫作環節對作者進行重點規范,是防患于未然的最佳選擇。人工智能環境下針對作者的出版倫理規范主要包括作者署名、引用、圖片誠信、科學數據、人工智能使用披露和人工智能可使用場景規范。其中,作者署名、人工智能使用披露和可使用場景是出版機構重點討論的話題,占據了與作者相關規范樣本的70%。
部分出版機構也對審稿人和編輯如何合理使用人工智能進行了指導,但數量總體較少。對于審稿人的出版倫理規范主要針對審稿過程中使用人工智能的公平性、保密性問題,也對人工智能使用披露,責任歸屬以及人工智能可使用場景進行了規范。對于編輯的出版倫理規范主要為編輯的最終決定權以及編輯的人工智能可使用場景的規范。
三、研究結果
(一)人工智能環境下作者出版倫理規范
作者出版倫理規范是各學術出版機構規范的重點內容,主要包括作者署名、引用、圖片誠信、科學數據、人工智能使用披露以及人工智能可使用場景規范。
1. 作者署名
作者署名是作者身份的認證,署名既是賦予科研人員的榮譽,更代表一種責任。Elsevier發布的出版倫理規范中明確說明“作者身份意味著只能歸因于人類并由人類執行的責任和任務”。當前各出版機構均否認人工智能的作者身份,不允許人工智能署名。Springer聲明,大語言模型“目前不符合我們的作者標準”;Cambridge University Press規定,“人工智能,例如大型語言模型,不符合被列為作者或合著者的標準,因為它們無法對成果的內容和完整性負責”。關于作者署名的定義,學術共同體普遍認同國際醫學期刊編輯委員會發布的《學術研究實施與報告和醫學期刊編輯與發表的推薦規范》,其建議作者署名應同時符合四條標準:①對研究的思路或設計有重要貢獻,或者為研究獲取、分析與解釋數據;②起草研究論文或者對重要的知識內容進行關鍵性修改;③對將要發表的版本進行最終定稿;④同意對研究工作全面負責,確保與論文任何部分的準確性或誠信有關的質疑得到恰當調查和解決。當前,采用人工智能進行創作基本可以較為出色地完成①②的要求,但難以滿足③④的條件,即人工智能不能對版本進行最終定稿,也不能對研究工作的準確性和誠信負責,本質原因是人工智能在倫理角度和法律層面都不滿足成為科研主體的條件。人工智能本質上是一類通過計算機技術開發的工具,其在倫理角度不具有人類的主體性,在法律層面不具有自然人身份和法人資格,既不能在主觀上作出“定稿”的選擇,也不能在客觀上履行法律義務、承擔法律責任。IOPPublishing提出:“作者需要對論文承擔責任,包括需要履行版權或其他法律義務。這同樣不適用于大語言模型,因為其缺乏承擔責任的能力。例如,他們無法理解有關利益沖突的問題,也不具有簽署出版協議的法人資格。”若允許人工智能署名,由此出現的研究準確性不足、學術不端責任劃分模糊、版權歸屬不清問題將難以解決。
2. 引用、圖片誠信以及科學數據
人工智能環境下的引用規范、圖片誠信和科學數據規范均是對作者論文創作過程中人工智能具體使用行為的約束與限制。
在參考文獻引用方面,Science和NEJM均提出,科學期刊內容中引用的來源不得由人工智能工具創作或合著,核心原因是人工智能創作內容溯源難、核實成本過高,會帶來真實性風險。引用參考文獻既是作者學術水平和嚴謹性的體現,也是構建學術脈絡、便于他人查證的重要資源,必然要求參考文獻的可溯源性與真實性。雖然眾多人工智能產品均聲稱訓練語料為真實存在的網絡數據,但算法的“黑箱”屬性無疑加大了檢測語料真實性的難度。
時下熱門的ChatGPT和文心一言均不能準確回答生成內容的來源,在實踐中經常出現生成錯誤信息、編造文獻來源的情況,作為引用數據時其真實性不能滿足學術的嚴謹性要求,更不能作為佐證文章論點的論據。雖然微軟旗下的New Bing可以提供內容鏈接、支持溯源,但其生成內容仍屬于二次加工內容,有可能存在杜撰觀點的情況,對其進行一一核實會花費過高的時間、人力、物力成本。
圖片生成是生成式人工智能應用的重要形式,Midjourney、文心一格等人工智能作圖工具已經被廣泛應用于自媒體、藝術設計、圖書出版等領域。學術出版對于圖片誠信的要求更加嚴格,Elsevier、Springer、Scinece、PNAS、《畜牧與生物技術雜志(英文版)》出版方五家出版機構都提及了圖片誠信規范,為防止出現版權糾紛與學術不端,不允許作者使用人工智能創建或修改圖片。
科學數據與引用規范和圖片規范大體相同,也受到出版機構的嚴格限制。當前市場環境中不乏進行數據生成和修改的人工智能產品,可以根據用戶需要輸出誤差小、解釋力強的數據,此類人工智能的使用會對論文科學性、嚴謹性造成嚴重影響。
PLOS認為“使用人工智能工具和技術來捏造或以其他方式歪曲原始研究數據是不可接受的”,數據是支持研究結論、驗證研究假設的重要基礎,任何篡改數據的行為都是學術不端的體現。
3. 人工智能使用披露
作者的人工智能使用披露指作者需對論文寫作過程中的人工智能使用情況進行說明。出版機構對于作者人工智能使用披露的規范主要包括內容披露條件與披露方式兩部分。
當論文內容同時滿足“采用生成式人工智能”“采用大語言模型”“人工智能生成內容對論文作出實質性貢獻”三個條件時,作者必須對該部分內容的人工智能使用情況進行披露。采用生成式人工智能和大語言模型生成的內容邏輯性強、難以檢測,往往對論文內容作出實質性貢獻,易在文字、圖片、數據等方面出現剽竊、偽造等倫理風險。人工智能的種類與用途繁多,部分非生成式的人工智能可以在不涉及倫理問題的前提下輔助作者進行排版、校對等工作,不會對稿件內容原創性產生影響,一般不在人工智能使用披露規范之中。但也有少部分出版機構,例如PLOS要求作者對所有人工智能使用情況都進行詳細說明,包括人工智能工具名稱及版本、指令(prompt)、使用過程應用內容等,以備審查。
披露方式因出版機構而異,主要在論文的研究方法部分、致謝部分或稿件末尾(參考文獻之前)進行披露。Cell對此規范最為嚴格,其要求作者在利益沖突聲明后,再撰寫一篇標題為“在寫作過程中聲明生成式人工智能和人工智能輔助技術”的單獨章節,對人工智能使用情況進行說明。
4. 人工智能可使用場景
除對作者使用人工智能進行嚴格限制外,出版機構也說明了可使用人工智能的例外場景。對于文本內容,允許作者使用人工智能提高文本的可讀性和流暢度;對于圖片類型,允許作者在不遮擋或消除原圖片信息的情況下對亮度、對比度或色彩平衡進行調整。另外,當人工智能生成內容是研究方法的一部分時,其使用也是正當合理的,例如在有關圖片生成算法的論文中使用人工智能生成圖片作為模型輸出的范例、在測試生成式人工智能特點的實驗中使用人工智能生成文本作為研究數據等。使用人工智能時,作者仍需嚴格遵守作者署名、引用、圖片、科學數據以及人工智能使用披露規范。多家出版機構指出,應用人工智能“應在人類的監督和控制下完成,作者應該仔細檢查結果”。值得注意的是,出版倫理規范會隨著實踐的深入而不斷調整,人工智能的可使用場景則會隨著倫理規范的調整而改變。例如,2023年11月16日,Science發布了新的編輯政策,放寬了對科研創作中使用人工智能輔助創作的尺度,在確保作者知悉人工智能使用披露規范且能夠事后追責的條件下,允許作者在論文創作中使用人工智能,而在10個月前的政策中,Science仍堅持對人工智能使用的嚴格限制。
(二)人工智能環境下審稿人出版倫理規范
科學審查、同行評議是審稿人的核心職責,審稿人需要對論文的知識價值、創新程度、科研誠信等作出評議,并撰寫審稿報告,以保證期刊發表論文的質量。Elsevier、Springer、Science、BMJ和《中國科學:數學(英文版)》主辦機構五家出版機構發布了審稿人出版倫理規范,現有規范主要包括審稿過程中的公平性、保密性規范,人工智能使用披露、審稿人責任歸屬,以及人工智能可使用場景的規范。
1. 公平性
公平性原則指審稿人在進行論文審查時不得帶有任何偏見,以保證論文篩選的公正、合理。在審稿過程中使用人工智能,尤其是生成式人工智能很可能受到算法偏見的影響,《中國科學:數學(英文版)》主辦機構制定的出版倫理規范中重點提及了該問題:“用戶需要警惕人工智能改變自己看法的方式。例如:審稿人使用人工智能進行評審可能會使對研究的評估帶有偏見。”劉佳麗等認為,ChatGPT采用“機器學習+人工標注”模式進行自我強化,極易出現文化和價值觀偏差。首先,以ChatGPT為代表的生成式人工智能,其訓練數據以英文語料庫為主,自然會貫徹英語文化背后的價值體系,對其他文化的包容性不足。其次,人工標注的過程也會帶有主體偏好,提升了出現算法偏見的風險。在簡潔高效的前端界面背后,算法的“黑箱”屬性使得可能出現的偏見無法溯源、難以檢測,會對審稿公平性造成嚴重威脅,導致高質量論文被埋沒,甚至會對期刊的學術質量和學術聲譽造成不良影響。因此,很多出版機構不允許審稿人使用帶有公平性倫理風險的人工智能,以防算法偏見干擾論文篩選。
2. 保密性
保密性原則指審稿人不得向他人透露正在評審的論文內容及作者信息,以保護作者隱私權以及審稿公平性。使用生成式人工智能審稿時往往需要輸入論文數據,輸入內容會被回傳至有公共性質的訓練數據池,可能引發作者信息及論文一手數據的泄露,侵犯作者隱私權,影響論文創新性。Elsevier、Science、BMJ和《中國科學:數學(英文版)》主辦機構的規范中均提到審稿人應保證審稿過程的機密性,“不允許將正在評審的手稿放入公開可用的人工智能中”,嚴格遵守保密性規范。
3. 人工智能使用披露
在論文評審過程中,審稿人也應遵守人工智能使用披露規范,聲明人工智能使用情況。與作者人工智能使用披露規范不同的是,針對審稿人的人工智能使用披露規范在披露條件上更為嚴格,但并未對披露方式進行要求。披露條件方面,Springer要求“評審的任何部分以任何方式得到人工智能的支持”,審稿人均應聲明此類工具的使用;BMJ則要求“使用人工智能改進文字和語言”的情況也需要予以說明,此類情況在大多數作者規范中并未被納入需要披露的范圍。在披露方式方面,出版機構僅要求審稿人在審稿報告中披露人工智能使用情況,沒有作出更加詳細的要求。
4. 責任歸屬
Elsevier和Springer規定,審稿人在審稿過程中不允許使用任何人工智能(包括生成式人工智能和人工智能輔助技術),審稿人應對審稿報告內容負全部責任。首先,撰寫審稿報告需要對學科領域有充分了解和大量的先驗知識儲備,對論文進行評議、提供建議的過程也是知識創新和再生產的過程,禁止人工智能參與審稿流程是對論文質量、期刊質量和出版機構聲譽負責,也是保證審稿過程公平性和保密性的需要。其次,審稿過程也存在判斷失誤、信息謬誤、誠信缺失等問題,審稿人作為同行評議的執行人和審稿報告的撰寫者,是審稿過程的主體,具有倫理層面的主體性和法律層面的自然人屬性,理應承擔責任。明確責任歸屬是強化事前約束、便于事后追責的需要,可以有效規范審稿人的人工智能使用行為。
5. 人工智能可使用場景
相比嚴格禁止在審稿過程中使用人工智能的Elsevier和Springer,BMJ和《中國科學:數學(英文版)》主辦機構允許部分場景下的人工智能使用行為。BMJ允許審稿人在充分披露且遵守保密性規范的前提下使用人工智能進行語言潤色;《中國科學:數學(英文版)》主辦機構肯定了人工智能對審稿的積極作用,允許使用人工智能改善語言。針對保密性原則,《中國科學:數學(英文版)》主辦機構認為采用部署在本地的大語言模型可以防止數據回傳至公共數據池,“大大降低風險”,但并未明確肯定自建模型的使用。
(三)人工智能環境下編輯出版倫理規范
與作者和審稿人相比,出版機構發布的編輯出版倫理規范數量和類型均較少。現有規范主要針對編輯對于人工智能使用的最終決定權和人工智能可使用場景。
1. 最終決定權
Wiley、PLOS和Science均賦予了編輯對作者人工智能使用的最終決定權,編輯可以賦予作者使用人工智能的權利,也可以針對作者使用人工智能過程中的學術不端行為施行懲罰措施。Wiley指出,使用生成式人工智能是否被允許或是否合適的最終決定權“在于期刊的編輯或執行出版物編輯政策的其他方”;PLOS和Science均規定,若作者在人工智能使用過程中未遵守引用、圖片、數據、作者署名等方面的倫理規范,編輯有權將不合格論文退稿或撤稿。在學術出版流程中,編輯始終扮演著“把關人”的角色,人工智能環境下,出版機構賦予編輯“賦權”和“監督”的雙重職能,便于編輯對多種情景下的人工智能使用情況具體問題具體分析,做到“不錯殺,不錯放”,保證論文的創新水平和誠信水準,進而維護期刊質量與期刊聲譽。
2. 人工智能可使用場景
出版機構中僅有Elsevier提及了編輯的人工智能可使用場景。Elsevier計劃開發新的人工智能驅動技術,從而為編輯提供支持。自主研發、獨立部署的人工智能技術可以在貫徹出版倫理規范的前提下充分支持編輯的選題策劃、排版、校對等工作,提高工作效率。
四、討論與思考
本研究通過對國內外21家具有代表性的出版機構展開調研,獲取其在人工智能環境下制定并發布的出版倫理規范文件,對文本進行編碼與內容分析,從作者、審稿人和編輯三大主體角度切入,分析各主體倫理規范特點與建設情況,由此建立了人工智能環境下的學術期刊出版倫理規范框架(見圖1)。在國際學會、協會和各國政府的指導下,各學術出版機構在人工智能環境下的出版倫理建設取得了一定成就,可以為學術期刊應對人工智能帶來的挑戰提供參考。同時它們也注意到,當前倫理規范建設也存在一些問題,主要表現在針對編輯的出版倫理規范薄弱以及業內對學術出版流程中人工智能使用規范尚未達成共識。另外,我國中文期刊在倫理規范建設方面仍存在一定的滯后性。
(一)人工智能環境下針對編輯的出版倫理規范薄弱
在出版倫理規范體系中,針對作者的倫理規范最為豐富全面,其次是審稿人,而針對編輯的倫理規范最為薄弱。在本研究編碼的112個參考點中,僅有5個參考點提及了對于編輯的規范,僅占總數的4.5%,規范類型分別為最終決定權(4個)和人工智能可使用場景(1個)。當前對于編輯的規范全部集中在對編輯權力的界定方面,如出版機構是否為編輯提供人工智能技術支持,編輯是否可以使用人工智能輔助工作,是否擁有對作者人工智能使用的最終決定權,但并未對編輯權力行使過程中的責任義務進行說明,例如編輯在執行選題策劃、排版、校對等過程中的人工智能使用行為規范,編輯在使用人工智能遴選審稿人時的公平性和保密性規范等。在人工智能環境下,編輯作為作者出版倫理的監督者和期刊聲譽與質量的“把關人”,更應該合理使用權力、規范自身行為。出版機構后續應針對編輯部建立出版倫理規范與審查機制,對編輯人工智能使用行為邊界作出界定,防止編輯過程中出現保密性、公平性等問題。
(二)業內對學術出版流程中的人工智能使用規范尚未達成共識
本研究在樣本內容分析過程中發現,各出版機構制定的學術出版倫理規范仍處在討論階段,尚未形成正式的出版倫理規范文件,多家機構都指出,未來將根據版權法和行業的標準要求隨時更改規范內容。除了被重點討論的作者署名問題外,其他規范類目的分布較為分散,各出版機構發布規范涉及的一級主體類目和二級規范類目各有側重,并未形成業內普遍認可和遵守的倫理標準。以出版機構規定的作者人工智能使用披露方式為例,Spring要求作者在論文研究方法部分披露;Science要求作者在致謝部分披露;Wiley、OxfordUniversity Press、PLOS要求作者在研究方法或致謝部分披露;Cell要求作者在“利益沖突聲明”部分之后的,以“在寫作過程中聲明生成式人工智能和人工智能輔助技術”為標題的新章節中進行披露;Elsevier、Cambridge University Press等機構則僅要求作者“應在論文中進行披露”,但未對披露方式作出詳細說明。可以發現,針對人工智能披露方式的規范差異較大且不夠明確,未形成統一的行業標準,既會給作者帶來困惑,也易增加審稿人和編輯的審核壓力,長此以往,不利于倫理規范的深入貫徹與持續建設。為應對和解決此類問題,既需要學術出版機構不斷補充完善相關倫理規范,也需要學會、協會發揮凝聚行業共識的職能,盡快出臺人工智能環境下的一系列出版倫理規范標準。隨著人工智能在學術界的應用日益廣泛,以國際出版倫理委員會、國際醫學期刊編輯委員會、世界醫學編輯協會、科學編輯理事會等為代表的學會、協會均已陸續制定并發布了學術出版流程中使用人工智能的相關指南,并且召開討論會,邀請業內專家對原則邊界限定和具體規范場景展開討論,以凝聚業內共識,建立規范標準,為學術出版機構制定倫理規范提供參考。
(三)我國中文期刊出版倫理規范建設存在滯后性
在人工智能迅速發展、AIGC廣泛應用的背景下,我國在出版倫理規范建設方面存在一定的滯后性。在本研究初步選取的28家國內學術出版機構中,僅有5家針對人工智能環境下的出版倫理發布了相關規范,其中3家是英文刊,包括《中國航空學報(英文版)》《中國科學:數學(英文版)》和《畜牧與生物技術雜志(英文版)》。我國英文刊物大多直接采用國外出版機構發布的倫理規范,或參照國際出版倫理委員會等國際學會、協會制定規范。例如,《中國科學:數學(英文版)》官網將針對人工智能的出版倫理規范直接鏈接到Springer的倫理規范界面。
除英文刊物外,僅有《中國科技期刊研究》出版機構和中華醫學會雜志社制定了中文版本的出版倫理規范,且相較于國外出版機構發布的出版倫理規范,其在完備程度和規范力度方面還存在一定差距,反映了我國本土出版倫理建設存在的滯后性問題。在我國的學術出版環境中,以中文學術期刊為主的出版機構制定學術出版倫理規范時需要國家政策與行業標準的指導。中國科學技術信息研究所在2023年9月發布的《學術出版中AIGC使用邊界指南》是一個良好的開端,有關部門應持續完善學術出版倫理規范,確保其原則合理、邊界清晰、嚴謹且高效,為各學術出版機構應對人工智能對出版倫理造成的沖擊提供指導,保障科研寫作、審稿和編輯流程的誠信規范。在建立學術出版倫理規范時,應從作者、審稿人和編輯三大主體入手,重點考慮人工智能環境下的論文寫作環節、同行評審環節以及編輯出版環節中的署名、責任歸屬、人工智能使用披露等問題,建立結構完備、內容嚴謹的規范框架。