

摘要:
美國開放人工智能研究中心(OpenAI)研發的人工智能聊天機器人ChatGPT,基于“生成預訓練轉換器”(GPT)語言模型能夠理解和響應自然語言輸入,于2022年11月30日正式發布,短時間內在全球互聯網界、學術界及產業界引發熱議和關注。以ChatGPT、Microsoft Bing為代表的人工智能聊天機器人基于超大海量數據,采用“從人類反饋中強化學習”(RLHF)進行訓練,主要具有三大功能:智能交互對話、智能文本生成、智能文獻爬取。人工智能聊天機器人的核心競爭力是采用人工智能生成內容技術(AIGC)而具有強大的內容生成或文本生成能力,除能夠生成一般應用性文稿外,還能夠從事科學寫作,從而引領和推動知識生產方式和學術研究范式變革,知識生產和學術研究進程將顯著提速,知識生產者將從非創造性勞動中獲得解放,知識生產方式將由“手動式”“半自動式”邁向“自動化”“智能化”。這種變革對傳統的科研成果評價機制將產生重大影響,更進一步將對通過科研成果進行人才評價產生重大影響。大體上說,以ChatGPT為代表的人工智能聊天機器人應用于學術研究中,將遮蔽成果演化學術史,影響科研成果創新性評價;挑戰知識產權保護制度,影響科研成果權屬認定;帶來學術倫理風險,影響科研成果評價生態;沖擊人才評價基本標準,影響人才評價客觀性。鑒于人工智能的滲透性、擴散性和顛覆性,首先要在思想認識上積極面對而不是消極應對,用其所長、避其所短,審慎使用,著力發揮其促進知識生產、推動學術進步的積極作用;其次,要抓住現行相關法規制度與快速進步的人工智能技術之間發展不平衡的矛盾,進一步完善制度、設置“護欄”,規范使用;第三,要推動技術開源,公開其智能生成邏輯,增強人工智能聊天機器人的技術可信度;第四,要建立人機協作機制,既發揮技術的數據處理優勢,又發揮人的理性思維優勢,最終由人把關知識生產、科研成果及人才評價。
關鍵詞:人工智能;人工智能聊天機器人;人工智能生成內容;ChatGPT;微軟必應;科研成果評價;人才評價;知識生產方式
中圖分類號:TP18;TP242;G40-058.1" 文獻標志碼:A" 文章編號:1008-5831(2023)02-0097-14
一、問題緣起:人工智能聊天機器人勃然興起
適逢“世界數字教育大會”在北京召開前后,在互聯網領域、學術界及產業界陡然掀起一股ChatGPT熱。ChatGPT僅上線2個月,其月活用戶就超過1億人,超越短視頻社交平臺TikTok成為史上增長最快的消費應用,一夜之間新晉“網紅”。科技部部長王志剛認為,“ChatGPT確實挺熱”[1],已形成了一種現象級的應用。2023年2月7日,谷歌公司“應急”發布了基于其自研的全新自然語言模型框架LaMDA(Language Model for Dialogue Applications)的下一代人工智能聊天機器人Bard(中文名:巴德);2023年2月8日,微軟公司緊跟發布整合了ChatGPT的全新搜索引擎必應Bing和Edge瀏覽器,并宣布旗下Office、Azure云服務等所有產品都將全線整合ChatGPT[2];2023年2月24日,Meta公司“跟風”發布一款全新大型語言模型LLaMA,加入硅谷人工智能競賽[3] ;2023年2月28日,百度公司則官宣將于3月16日正式發布所謂百度版ChatGPT——“文心一言”(英文名:ERNIE BOT);同時,阿里巴巴達摩院(杭州)科技有限公司申請的“人機對話及預訓練語言模型訓練方法、系統及電子設備”專利已在“實質審查中”[4]。一時間掀起了全球人工智能聊天機器人大戰。
針對ChatGPT熱議,一部分人聯想到當前中美之間的“科技戰”、國內面臨技術“卡脖子”的情形,感嘆ChatGPT怎么又是外國提出來的,如“元宇宙”(metaverse)一樣,為什么不是中國原創的;一部分人擔心其對學生學習可能造成的偷懶甚至作弊情況而感到憂慮;一部分人則擔心工作崗位被替代而失業,更多人則是在探討以ChatGPT、Microsoft Bing為代表的人工智能機器人現象及其已經和可能產生的影響,它能做什么,不能做什么。如《教育研究》雜志社第一時間舉辦“ChatGPT與未來教育”沙龍,《重慶高教研究》雜志社第一時間開辦專欄筆談,探討和評估ChatGPT可能帶來的教育影響、科技影響等,如韓云波對ChatGPT對教育的挑戰與應對提出了初步思考;劉進討論了ChatGPT時代工程教育知識重構的基本思路[5]。此外,令小雄等對ChatGPT類人工智能技術的科技倫理和學術倫理進行了比較系統的思考[6]。
實際上,ChatGPT的核心技術是深度學習,做到更高水平(類人腦)或許就能像人一樣(可能在某些方面超越普通人)思考、工作和創新。盡管ChatGPT的智能程度與我們的期望相比還不夠高,但其深遠影響卻難以估量。微軟公司創始人比爾·蓋茨(Bill Gates)甚至認為,ChatGPT的重要性不亞于互聯網的發明[7]。美國太空探索技術公司CEO埃隆·馬斯克(Elon R. Musk)認為,ChatGPT“厲害得嚇人”,“我們離強大到危險的AI不遠了”[8]。有人稱其可能是科技界的“奇點”。可以預期,ChatGPT、Microsoft Bing等新一代人工智能聊天機器人必將對人類知識生產方式產生重大影響,對于肩負知識傳承、知識創新職責使命的教育界、科技界可能帶來顛覆性革命。試想,如果科研成果(學術論文)是借助或完全依賴ChatGPT或Microsoft Bing生產的,應當如何評價它及其“作者”?由此可能對現行人才評價也產生革命性影響。對此,我們計將安出?
二、人工智能聊天機器人的主要功能
人工智能聊天機器人已發布多款產品,其中以ChatGPT和Microsoft Bing為代表。ChatGPT全稱為Chat Generative Pre-Trained Transformer,中文名稱是:預訓練生成聊天模型或聊天生成預訓練轉換器,是由美國開放人工智能研究中心(OpenAI)研發的基于GPT-3.5語言模型的聊天機器人,于2022年11月30日正式發布。這是繼1997年IBM公司的“深藍”、2014年谷歌公司的AlphaGo圍棋機器人之后人工智能領域技術突破的新里程碑。據OpenAI網站介紹,ChatGPT是一種優化的對話語言模型,采用“從人類反饋中強化學習”(Reinforcement Learning from Human Feedback,RLHF)對其進行訓練,使之能夠以對話方式進行交互,這種方式使其能夠回答后續跟進問題(followup questions)、承認錯誤(當它不知道自己在說什么時,它承認不知道)、挑戰不正確的前提、拒絕不適當的請求等。它是InstructGPT的姊妹模型,后者經過訓練可以按照提示中的說明進行操作并提供詳細的響應[9]。ChatGPT可追溯到OpenAI公司2018年在論文《通過生成性預訓練提高語言理解》(Improving Language Understanding by Generative Pre-Training)中所構建GPT-1模型[10]。Microsoft Bing,中文譯名“微軟必應”,原名Bing(必應),是微軟公司于2009年5月28日推出的一款搜索引擎。2023年2月發布的新版微軟必應,整合了ChatGPT系統背后的AI技術,它可以回答一些搜索查詢,而不僅僅是提供一系列超鏈接。加入ChatGPT功能的新版Microsoft Bing搜索引擎,用戶可以選擇與搜索框對話,實現個性化智能搜索,使搜索結果更加精準。“更神奇的是,必應偶爾還會嘗試主動向我們提問,建議可能答案”[11]。基于其強大功能,據第三方data.ai的分析顯示,Microsoft Bing發布后僅一天時間,全球下載量就猛增了10倍[12]。
目前,人工智能聊天機器人主要具有智能交互對話、智能文本生成和智能文獻爬取三大功能。
(一)智能交互對話功能
ChatGPT作為一款聊天軟件,其第一功能就是聊天、對話。基于強大的學習能力、強大的數據資源和先進的算法,ChatGPT可謂“學人成精”了,其對話能力“引爆”網絡。有人分析,其對話水平已超過80%甚至90%的人,在未來(對話)達到類人的能力一定是可以期待的[13]。它具有很強的互動性,有問有答,甚至不問自答;有很強的“能動性”,能夠以自然和類似人類的方式理解和響應復雜的請求,能夠根據問題即興發揮、即興思考,“更像人類一樣說話”。它可以就諸如“女朋友和媽媽同時落水先救誰?”這類讓男朋友進退兩難的生活常見問題進行對話、給出回答(示例如下)。從中我們可以看到其智能程度:先指出問題的復雜性和挑戰性,然后從理論上進行分析,從“個人情況”給出答案,從道德的角度進行分析,最后從專業角度提出建議,沒有把天聊死,也沒得罪任何一方。
問:女朋友和媽媽同時掉水里,先救誰?
ChatGPT回答:這是一個非常困難的決策。理論上,在緊急情況下,應該先救受傷或處于
生命危險中的人,無論他們是誰。然而,如果兩個人都需要救援,那么您需要評估每個人
的情況并作出決策。從道德的角度來看,救自己的女朋友或救自己的母親可能都是正確的,
取決于您認為誰需要救助得更緊急。如果可能的話,最好請求緊急救護服務的幫助,以確
保所有人的安全。
同時,ChatGPT也可以就一些“死循環”哲學問題進行對話,如“先有雞還是先有蛋”的問題(示例如下)。從中我們可以看出,它開宗明義直接定義問題的學科領域(哲學問題)及其發展現狀(存有爭議),然后“花開兩朵,各表一枝”,分別就對立的兩種觀點進行說明,最后再來一個中庸性的啟發性結論。
問:是先有的雞還是先有的蛋?
ChatGPT回答:這是一個著名的哲學問題,也是一個有爭議問題。有人認為是先有雞,因
為雞是由一對特定父親和母親通過生殖過程產生的,而蛋則是由雞產生的。而有人則認為
是先有蛋,因為他們認為蛋是孵化的前提,而雞則是后續產生的。不管哪一種說法最終是
正確的,他們都提醒我們要思考先因和后果的相互關系
資料來源:女朋友和媽媽同時落水先救誰?ChatGPT給出了答案[EB/OL]. [2022-02-17].https:∥www.thepaper.cn/newsDetail_ forward_21946669.]。
(二)智能文本生成功能
如果ChatGPT只是一款單純的聊天機器人,那類似的產品就多了,包括現在很多企業的“客服”機器人,都能進行基本的“對話”。ChatGPT之所以“火出圈”,根本在于其基于超大海量數據基礎上的自主學習能力,采用人工智能生成內容技術(AI-Generated Content, AIGC),從而具有強大的內容生成或文本生成能力,相當于一個智能的文本生成器。如果只是生成文本功能,那ChatGPT也不是首創,早在2009年美國棒球大聯盟就率先啟用了智能機器人StatsMonkey完成比賽稿件的撰寫,2015年騰訊公司在國內首次上線了寫稿機器人DreamWriter[14]。ChatGPT等人工智能機器人之所以號稱“震驚了半個科學圈”,是因為其“武力值”遠遠超過以前的機器人,它能夠根據研究主題自動、智能撰寫各種文本材料,無論是會議演講稿、詩歌、小說、文學劇本,或者是商業文案、法律文書、新聞報道,或者是編程、寫作業等,無一不懂,為此深受有關群體歡迎。據Study.com2023年1月對美國1 000多名學生使用ChatGPT的調查顯示,超過89%的學生曾使用ChatGPT幫助完成家庭作業,48%的學生承認使用ChatGPT完成家庭測試,53%的學生使用ChatGPD寫論文,22%的學生使用它寫論文提綱[15]。據美聯社2023年1月25日報道,美國眾議員杰克·奧金克洛斯(Jake Auchincloss)在發表演講討論創建美國—以色列人工智能(AI)中心的法案時,其宣讀的兩段講稿是由ChatGPT生成的[16]。2023年2月4日,以色列總統艾薩克·赫爾佐格(Isaac Herzog)發表了部分由人工智能(AI)撰寫的演講,成為首位公開使用ChatGPT的國家領導人[17]。新加坡政府正在將ChatGPT整合到Microsoft Word中,開發一套類似ChatGPT的系統——Pair,以更好地協助公務員完成篇幅較長的總結、探索相關觀點或改善寫作表達能力等[18]。
如果只是能生成一般應用性文本,那也就不是ChatGPT了。它的出彩之處在于,無論是學術前沿的量子物理研究,還是復雜的宗教與社會問題,無一不曉。只要給定一定的條件或提供簡潔的信息,ChatGPT猶如一位飽學之士,能夠“讀書破萬卷,下筆如有神”。有人曾要求ChatGPT“寫一個故事,用簡單的術語解釋量子物理學”,結果它不負所托(圖1)。2023年1月,北密歇根大學的哲學教授安東尼·奧曼(Antony Aumann)評閱“世界宗教”課程的學生論文時,驚喜地讀到了一篇“全班最好的論文”,雖然給出了A+的成績,但他對此還是有所懷疑,經追問和質詢學生,原來這篇“全班得分最高的論文,是用ChatGPT寫的”[19]。這正是人工智能聊天機器人“人有我優”的核心競爭力——能夠從事科學寫作。事實上,上文所說的智能交互對話功能,也是一種文本生成,屬于“交互式文本生成”,而此處所稱智能文本生成屬于“非交互式文本生成”。可以說,ChatGPT已表現出驚人的學習能力和創作(生成)能力。這讓人不禁想起“江郞才盡”典故,江淹因得“五色筆”而才華橫溢,因失之而“從此遂無妙句”。ChatGPT似乎成了現代的“五色筆”,離開它我們或許會“江郎才盡”。
(三)智能文獻爬取功能
ChatGPT、Microsoft Bing等人工智能聊天機器人的智能化建立在強大的文獻搜索技術之上。為了“培養”ChatGPT,OpenAI用了45TB的數據、近1萬億個單詞,大概是1 351萬本牛津詞典[2]。特別像Microsoft Bing本身就是一款強大的網絡搜索引擎,可以快速檢索某個特定主題的相關文獻資料,并完成摘要提取,形成文獻綜述;或搜索某個主題的研究方向,找到該主題的前沿研究問題,追蹤研究熱點。如有人提問ChatGPT:“Got any creative ideas for organizational behavior research?”,結果ChatGPT給出了8點意見。國外已研究表明,使用ChatGPT進行文獻綜述,就是對Google Scholar上的相關論文摘要進行關鍵詞比對,然后進行“轉述”生成的[20-21]。
筆者使用Microsoft Bing(集成了ChatGPT功能)檢索關于nanoe technology的文獻綜述,結果顯示有2 340 000條記錄,呈現若干關于該主題的綜述類文獻,從而可以幫助人們
快速了解關于nanoe technology的研究進展和最新動態(圖2)。
事實上,人工智能聊天機器人的功能遠不止這三個方面,它還可以廣泛應用于機器翻譯、軟件開發(書寫代碼、調試程序等)以及自然語言處理(如語法分析)、各種考試等方面。
三、人工智能聊天機器人推動知識生產方式和學術研究范式變革
一般認為,學術研究因其高深性、邏輯性、理性而為人類所獨有,“幾個世紀以來,人們一直將科學視為一種知識形成與理性思考的融合,堅持知識生產和驗證過程的嚴謹性與透明性”[22]。但如今人工智能聊天機器人已擁有強大的“創作”和學習能力,學術研究面臨數百年未有之大變局,新的學術研究范式和知識生產方式已露端倪,科研成果產出方式可能在不久的將來被顛覆。可以說,以人工智能聊天機器人為代表的人工智能技術正在引領范式變革。
(一)知識生產和學術研究進程顯著提速
傳統意義上,學術研究和知識生產速度較慢,正所謂“十年磨一劍”“板凳甘坐十年冷”,大概就是用來描述這種情形下的知識生產節奏的。作家馬爾科姆·格拉德威爾在《異類:不一樣的成功啟示錄》中更提出了“一萬小時定律”,即“人們眼中的天才之所以卓越非凡,并非天資超人一等,而是付出了持續不斷的努力。1萬小時的錘煉是任何人從平凡變成世界級大師的必要條件”[23]。隨著信息技術的發展,加上社會需求更新頻率不斷加速,最近數十年來知識更新節奏不斷加快,芯片界“摩爾定律”就是一個例證。為此,有人提出“知識半衰期”說法:一個專業人士的知識如果不更新,在“半衰期”后,基礎知識仍然可用,但其他一半新知識則已落伍。據測算,1950年前的知識半衰期為50年,21世紀知識的半衰期平均為3.2年,IT高級工程師的半衰期僅為1.8年[24]。知識半衰期之所以不斷縮短,原因是新知識增量速度不斷加速,知識總量不斷擴大,人類由此進入“知識經濟時代”。不過,這一切在今天又都變了:幾年前有報道稱機器人寫新聞稿只要0.3秒,現在ChatGPT幾秒鐘就可完成一篇學術論文,可謂只有更快沒有最快。可以預期,知識生產成果數量(文獻量)將在短時間內實現倍增,人工智能聊天機器人一年所創造(生產)的知識可能超過以往若干時代的總和。
(二)知識生產者從非創造性勞動中獲得解放
人類勞動一般分為重復性勞動與創造性勞動,前者指維持人類經濟與社會發展中的簡單再生產與擴大再生產的勞動,后者指探索、發現、使用人類不曾使用過的知識、技能、手段、材料、工具創造新的產品或新的生產方式從而以更高的效率從事商品生產的勞動[25],其中“包含著思考和精巧的技能和技藝”[26]。學術研究是一種特殊形式的勞動,在學術研究和知識生產的勞動過程中,創造性勞動顯然是核心和關鍵,因為知識需要創新,只有創造性勞動才會有新的知識產生,否則研究成果就沒創新性,不過,其中也少不了占相當比重的重復性勞動或稱為非創造性勞動,如研究主題的學術史梳理、文獻搜集與整理、實驗操作、文字輸出、數學計算、生成初稿以及文字校對等等。這一類非創造性勞動或創造性較低的勞動,在傳統的學術研究中往往需要研究者投入大量人力物力、時間精力,速度慢、效率低,嚴重影響學術研究或知識生產進程和效率。ChatGPT等人工智能機器人通過其強大的數據庫和智能技術手段,可以在非常的短時間內完成有關非創造性勞動,可以顯著提高科學知識生產效率;同時,它將研究人員(包括期刊編輯)從非創造性勞動中解放出來(對文獻檢索等基本技能的需求或將大大減少),“科研人員再也不用坐在那里給經費申請書寫很長的引言了,他們現在只要讓系統來寫就行了”[27],從而使其有更多時間從事創造性勞動:如進行項目研究頂層設計、思考提出新理念、設計新的實驗方案、邏輯推理等。或許我們可以預期,人工智能聊天機器人今后將進化到能夠從事某些方面某種程度的創造性勞動。如此,學術成果或知識產品實際上是由人與人工智能聊天機器人共同完成的,學術研究范式將發生重大變化。
(三)知識生產方式由“手動式”“半自動式”邁向“自動化”“智能化”
關于知識生產方式的轉變,學術界目前主要基于知識生產的邊界發生變化或者說環境變遷、參與主體變動的視角來思考,其中最大變化之一是知識生產的“情境性”。所謂知識生產方式的情境性,是指“大學知識生產的壟斷地位被打破,知識需求者的立場往往取代真理而成為知識生產的標準,知識生產越來越受到具體的應用情境影響”[28],即知識生產在“應用情境”中進行,“以銷定產”而不是“以產定銷”,進入吉本斯(M.Gibbons)所稱的知識生產模式Ⅱ。英國知名理論物理學家和科學技術學家約翰·齊曼(John Ziman)則根據冷戰結束后西方發達國家科學研究發生的重大變化,將“為科學而科學”、只為追求真理、滿足好奇心的科學知識生產稱之為“學院科學”,與之相對應的“后學院科學”知識生產新模式則強調集體化、產業化、官僚化等[29]。如果我們從知識生產的技術參與程度來看,知識生產方式也已發生革命性變革。在現代信息技術、互聯網技術、大數據技術等出現以前,知識生產完全依靠研究人員手工勞動或借助一定的儀器設備和工具軟件進行研究,是“手動式”或“半自動式”。現代信息技術等出現以后,特別是集其大成的人工智能技術不斷迭代升級以后,知識生產在某些情況下已經可以不需要人的介入,在更多情況下人直接介入的程度越來越低,人工智能聊天機器人已經可以自動生成文本、智能生產知識了,知識生產方式(寫作或科研過程)實現“自動化”“智能化”。2022年12月,Medrxiv發表了一篇題為《ChatGPT在美國醫學執業考試(USMLE)上的表現:使用大型語言模型進行人工智能輔助醫學教育的潛力》的論文,ChatGPT被列為第三作者,而且還通過了USMLE考試 [30]。按照勞凱聲教授的觀點,大學知識生產的發展已從以大師為標志的前知識生產階段、以學科為標志的創新1.0階段,發展到了以智能化創新平臺為標志的創新2.0階段[31]。
四、人工智能聊天機器人影響現行科研成果及人才評價機制
上述分析表明,人工智能機器人已經對知識生產產生重大影響,它已經不是我們愿意不愿意、認可不認可的問題了,而是不以我們的意志為轉移的一種客觀發展態勢。作為知識生產結果主要表征的科研成果(學術論文)不可避免地會“遺傳”到人工智能聊天機器人的基因,這對傳統的科研成果評價機制將產生重大影響,更進一步必將對通過科研成果進行人才評價產生重大影響。粗略地說,以ChatGPT為代表的人工智能聊天機器人將影響科研成果創新性評價,影響科研成果權屬認定,影響科研成果評價生態,影響人才評價客觀性等。
(一)遮蔽成果演化學術史,影響科研成果創新性評價
人工智能聊天機器人強大的文本生成功能,徹底改變了學術論文的內容創建方式。已有研究表明,人們已難以辨別學術論文(文本)究竟是ChatGPT“寫”的還是人工寫的。國外曾做過一次實證,結果發現,ChatGPT生成的摘要愚弄了科學家,使用ChatGPT生成的摘要順利通過了剽竊檢查器,原創得分中位數為100%,表明沒有檢測到剽竊;AI輸出檢測器發現了66%的ChatGPT生成摘要,但人工審稿人卻錯誤地將32%的生成摘要識別為真實摘要,將14%的真實摘要識別為生成摘要[32]。這不僅表明人工智能聊天機器人已能在很大程度上“懂人心”“說人話”,而且由于人工智能聊天機器人目前多半只是“綜述組合”“雜糅復制”有關數據資料,常“在沒有可靠地引用原始來源或作者的情況下復制文本”,不會標注或不能準確標注參考文獻
,從而導致“使用這種技術的研究人員有可能不對早期的工作給予肯定”[33],遮蔽所研究
問題的學術發展歷史脈絡。
正如《自然·機器智能》雜志2023年1月發表的一篇關于ChatGPT的社論所說,ChatGPT在提供正確事實或可靠參考文獻方面不能被信任[34]。此外,一旦研究人員向ChatGPT和其他大語言模型透露相關信息,就可能被納入模型,隨之人工智能聊天機器人就可以將其提供給他人,但提供者卻不被承認為原始來源[33]。長此以往,人們將難以判斷學術思想的源流,更難以判斷科研成果的創新性。加之,為了應對學術期刊(以及相關文稿發表平臺)審稿查重,或應對AI生成文本檢測軟件(如斯坦福大學研究團隊設計的DetectGPT、普林斯頓華人本科生Edward Tian創建的GPTZero等),人工智能機器人將“洗稿”“降重”“降AI痕跡”,或將導致“一本正經胡說八道”式的偽創新。
(二)挑戰知識產權保護制度,影響科研成果權屬認定
在web of science上以“作者”字段檢索ChatGPT,截至2023年3月4日,已有5條記錄。隨著人工智能聊天機器人的推廣及進化,署名ChatGPT的學術成果將越來越多。對于人工智能聊天機器人能否署名的問題,學術界和法律界持有爭議。目前主要有兩種觀點:一種觀點認為可以署名,其著作權歸屬開發人工智能聊天機器人的企業(機構);另一種觀點不贊成署名,因為這與現有著作權法規相抵觸。如《中華人民共和國著作權法》第九條規定,著作權人包括“作者”(中國公民及相關外國人、無國籍人)和“其他依照本法享有著作權的自然人、法人或者非法人組織”,類似ChatGPT一樣的人工智能聊天機器人顯然不符合著作權人的規定。歐美國家的版權法相關規定大體相同,如美國版權法規定,作者是指創作美國版權法所涵蓋的某類作品的人[35];美國版權局在其版權登記手冊中也明確規定:作品必須是由人創作的。由自然現象或動植物的活動形成的結果不能進行版權登記[35]。從根本上說,現行版權法保護的是權利人的權益,其前提是權利人能夠對自己的工作負責,作者更應該是“創作者”,要“文責自負”。顯然,人工智能聊天機器人不是民事行為主體,不能對自己的工作負責,也很難準確認定它對論文(科研成果)做出的實質貢獻。美國《科學》(Science)雜志主編認為,應按照作者對論文原創性負責的一貫要求,明確禁止將人工智能程序列為作者,認為“ChatGPT好玩,但不是作者”,并且修改其編輯政策,不允許在論文中使用ChatGPT或其他人工智能工具生成的文本、圖形、圖像等[36]。英國《自然》(Nature)雜志2023年1月24日發表社論,認為ChatGPT等工具威脅著透明的科學,呼吁建立基本規則,以合法使用而避免濫用,雖然其允許作者在主動報告的情況下使用ChatGPT等工具,但仍然禁止署名為作者[37]。國內方面,《暨南學報(哲學社會科學版)》對使用ChatGPT等人工智能工具的立場與Nature類似[38],而《天津師范大學學報(基礎教育版)》只是要求作者對使用情況予以說明,未明確禁止署名[39]。由此可見,如果我們將人工智能聊天機器人署名為作者,將不符合目前相關法律對作者身份的定義;如果不將其署名為作者,又與“作者”的實際貢獻不符,都將影響科研成果的權屬認定。
(三)帶來學術倫理風險,影響科研成果評價生態
美國技術哲學家詹姆斯·摩爾提出科技倫理領域的“摩爾定律”,“伴隨著技術革命,社會影響增大,倫理問題也增加了”[40]。隨著人工智能技術的進步,其倫理問題將日益突出。ChatGPT等人工智能聊天機器人基于其“非人化”,不具有人類意義上的個人意識和感情,嚴格意義上它本身不具有倫理意識和倫理責任,但這個倫理責任應當由使用它的人來承擔,比如使用ChatGPT用于考試作弊,考生應該受到懲罰。一方面,ChatGPT等人工智能聊天機器人可能被濫用。目前ChatGPT等技術還不夠成熟,經常連它自己也沒有“標準答案”,但只要給定了提示,它一般都能夠基于神經網絡和“聯結主義”的強大算法給出回答,如“林黛玉倒拔垂楊柳”“張飛殺岳飛殺得滿天飛”等看似合理實則不然的答案(其中有前期語料庫預訓練的因素)。如果“這個系統在學術界被濫用,因為借助ChatGPT,沒有專業知識的人也可以嘗試寫科學論文”[41],從而生成虛假的學術論文,“制造”所謂新知識,扭曲科學事實,傳播錯誤信息,不斷往語料庫中“摻沙子”,導致以訛傳訛,帶來巨大倫理風險。另一方面,ChatGPT等人工智能聊天機器人可能被有意誤用。ChatGPT雖然自信但也保持清晰,強調自己“只是一個工具,還在不斷進化,還有一些局限”,但有人可能會利用所掌握的技術優勢和工具的技術局限,利用海量網絡資源生成若干論文,卻不如實報告人工智能寫作工具的使用情況,鉆有關政策或技術空子(期刊編輯和同行識別困難),剽竊而不被發現,侵權而難以認定,從而引發學術失范,對科研成果評價生態造成深遠影響。另外,ChatGPT背后的算法如果存在歧視或偏見(傳播偏差、偏好),對不同國家(地區)、不同人提供不同的過濾器、調用不同的語料庫,則其潛藏的道德風險更大。
(四)沖擊人才評價基本標準,影響人才評價客觀性
“不出版,就死亡”,不僅是高校人事聘用考核的通行原則,也是人才評價的一項基本標準,無論是評價人才(教師)的學術潛力(招聘)還是學術實力(授予人才頭銜、晉升職稱、申請項目等),都要評價其研究產出效率和學術貢獻率。從全世界范圍看,論文依然是學術成果主流呈現方式,“是代表大學教師科研水平的標志性成果”[42],仍是學術界的“硬通貨”[43],因此,盡管要“破五唯”不能“唯論文”,但基于其對學術發展的重要性,學術論文仍然是人才(教師)評價的重要參考指針。鑒于此,學術界將大步跟上人工智能步伐,使用ChatGPT等人工智能聊天機器人來“寫”論文,其中除了存在上文論及的相關問題外,還將涉及如何評價這些論文的作者問題。我們知道,知識就是力量,“技術的本質是能力,而能力越大,其博弈均衡點就對技術掌權者越有利”,“占有技術資源的人擁有壓倒一切的必勝技術”而成為“絕對強者”[44],這樣那些掌握人工智能技術、能熟練使用人工智能聊天機器人、擅長操縱數據資料“寫”論文的“技術人員”,就將憑借數量優勢相對容易地被評價為“人才”,成為“知識權威”,獲得各種學術利益。更糟糕的是,這些“人工論文”至少目前還難有真正的創新性,學術價值堪憂。同時,由于其高產出,所謂人才的成長周期或將大大縮短,人工智能聊天機器人將“揠苗助長”一批人才,而這些所謂人才的成長過程并“沒有伴隨著自己在該領域的經驗的真正增加”,“學術機構聘用專業人士時可能會出現道德問題”[45]。如果只破不立,不能科學評價“新型論文”,則必將不能科學開展人才評價、客觀評價人才。
五、基本應對思路與對策
根據Web of Science,截至2023年3月4日,“標題”字段中包含ChatGPT的檢索記錄已有65條,其中2023年為62條,日均新增一條;論文類已有27篇。另外,已有網絡文章注明:“本文有ChatGPT的貢獻”。因此,在人工智能技術滾滾向前的歷史車輪上,使用ChatGPT還是不使用ChatGPT,已經不是一個問題,問題是如何合理使用、為科研成果及人才評價所用、為人類所用。
(一)積極面對、審慎使用
習近平總書記指出:“自古以來,科學技術就以一種不可逆轉、不可抗拒的力量推動著人類社會向前發展。”[46]教育更是隨著技術變革而變革、轉型和發展。教育是面向人、培養人的事業,旨在培養全面發展的人、不斷提高人類(群)的綜合素質,進而能夠推進社會科技進步,造福人類。面對洶涌奔流的人工智能技術,首先要在思想認識上積極面對,甚至張開雙臂擁抱它,而不是消極抵制甚至唱衰反對它,因為人工智能是技術發展方向和歸宿。在某種程度上可以說,一切技術進步都在奔向“人工智能”的這個目標,一方面是為了讓“萬物有靈”,另一方面是為了實現人的智能延伸拓展,從而最終實現“人是萬物的尺度”這一人類夙愿。不過,我們也不要把他奉為“天神”或被其嚇倒,對“熱技術”要“冷思考”。其次,由于任何技術都是一把雙刃劍,ChatGPT在帶給我們便利、收益時,也可能會帶來負能量,產生副作用,包括可能影響人(類)的思考能力。對此,我們要審慎使用,用其所長、避其所短,發揮其促進知識生產、推動學術進步的積極作用。
(二)完善制度、規范使用
人工智能聊天機器人對科研成果及人才評價機制的影響,其中既有技術不夠先進的因素(下文另述),更主要是現行相關法規制度與快速進步的技術手段之間發展不平衡的矛盾。比如人工智能聊天機器人能否署名為作者的問題,癥結就在于現行法律障礙,根據近現代法律思想,“人是法律主體的元概念,權利主體始于人,并派生出權利能力”,著作權法也因此規定只有自然人、法人或者非法人組織才享有著作權,因此人工智能聊天機器人不能直接獲得所生成作品的著作權[35]。再如沖擊學術倫理規范問題,我們可以建立健全和落實相關制度,在技術開發上,貫徹落實國家新一代人工智能治理專業委員會發布的《新一代人工智能倫理規范》,切實“將倫理道德融入人工智能研發和應用的全生命周期”;在使用上,要求使用人標注應用人工智能聊天機器人生成的文本內容,采用適當方式報告人工智能聊天機器人使用情況等,同時研發AI使用情況檢測工具,建立問責機制,對違反相關制度的人或機構施以相應懲罰,為人工智能聊天機器人及其使用人的行為設置“護欄”。“相信只要我們能夠構建適應新時代、新技術的學術規范、倫理道德和管理制度”[5],加強監測和評估,保障人工智能聊天機器人被規范安全、公開透明、合乎倫理的使用,就將有助于學術研究和創新能力提升。
(三)公開透明、開源“智能”
目前,人工智能聊天機器人應用所帶來的憂慮、擔心、困擾,很大程度上是因為其生成過程是一個“黑箱”,不清楚其神經網絡是如何聯結的,不清楚其生成內容與“原始文獻”之間的算法邏輯。這一點與人們現今使用某些研究工具(如NViov、DEA等)進行學術研究是有很大不同的,因為后者對使用者來說是透明,數據處理過程、方式是研究人員設計的,是可以重復的。為此,建議推動人工智能聊天機器人技術實行“開源”,公開其算法邏輯,明示其生成邏輯,防范“數據主義”風險,從而增強人工智能聊天機器人的技術可信度,提高社會認可度,降低社會困惑度。
(四)人機協作、共同“治理”
在可以預見的將來,人工智能技術仍會繼續聽命于人,受人控制,作為人的助手,其智能水平都是人賦予它的,還只能按照人類教給他的內容學習、運行,應該說還未“學成出師”;另一方面,由于“人工智能的替代效應是建立在對人類勞動數據化和邏輯化的基礎上的”,不能替代那些不可數據化和邏輯化的勞動[47],加之技術的不完備性和發展性,現階段的人工智能聊天機器人還處于“弱智能”階段,缺少人的理性思考,還未發展到“強智能”水平,對人類創造性勞動只能起到輔助作用,而且應該永遠不可能完全替代人。為此,建議在科研成果及人才評價、學術論文撰寫及發表環節都要繼續安排人工介入,由“人工”與“智能”并行而有所交叉地進行檢查把關,既發揮技術的數據處理優勢,又發揮人的理性思維優勢,注重考察科研成果和人才的創新價值、創新能力。
最后,筆者想借用“神筆馬良”的故事對本文作個小結。目前的人工智能聊天機器人還屬于“初生之物”,在技術研發上還有很長的路要走,
在應用場景開發上還有許多工作要做。在未來,如果我們能將人工智能聊天機器人“規訓”成為馬良的那支“神筆”,并且保證其掌握在善良、正義的“馬良”手里,那它必將使人類知識生產能力如虎添翼、科研創新能力大幅提升,科研創新人才輩出,人工智能聊天機器人則將與人類和諧相處、共同發展。
參考文獻:
[1]剛剛,科技部部長王志剛談ChatGPT[EB/OL].(2023-02-24).https:∥baijiahao.baidu.com/s?id=1758687146107906632amp; wfr =spideramp;for=pc.
[2]朱涵,彭茜,黃堃.三問ChatGPT如何影響人工智能的未來[J].瞭望,2023(8).
[3]Meta發布全新大型語言模型LLaMA 加入硅谷AI競賽[EB/OL].(2023-02-26).https:∥baijiahao.baidu.com/s?id=1758859153822039672.
[4]國產版“ChatGPT”進展如何?阿里巴巴開始內測 百度下月面世[EB/OL].(2023-02-09). https:∥baijiahao.baidu.com/s?id=1757283966256262300amp;wfr=spideramp;for=pc.
[5]鐘秉林,尚俊杰,王建華,等.ChatGPT對教育的挑戰(筆談)[J/OL].重慶高教研究,2023:1-25.(2023-03-02).http:∥kns.cnki.net/kcms/detail/50.1028.G4.20230301.1040.002.html.
[6]令小雄,王鼎民,袁健.ChatGPT爆火后關于科技倫理及學術倫理的冷思考[J/OL].新疆師范大學學報(哲學社會科學版),2023:1-14.(2023-03-01). https:∥doi.org/10.14100/j.cnki.65-1039/g4.20230213.001.
[7]比爾·蓋茨再談ChatGPT:要性不亞于互聯網的發明,將改變我們的世界[EB/OL].(2023-02-11).https:∥baijiahao.baidu.com/s?id=1757516621271845208amp;wfr=spideramp;for=pc.
[8]ChatGPT可能從這12個方面徹底改變我們的工作和生活[EB/OL].(2023-02-15). https:∥blog.csdn.net/jane9872/article/details/129052120.
[9]Introducing ChatGPT[EB/OL].(2022-11-30)[2023-03-05].https:∥openai.com/blog/chatgpt.
[10]RADFORD,ALEC KARTHIK NARASIMHAN.Improving Language Understanding by Generative Pre-Training[R]. 2018.
[11]顛覆歷史!“ChatGPT搜索引擎”發布,微軟市值一夜飆漲5450億[EB/OL].(2023-02-08).https:∥baijiahao.baidu.com/s?id=1757229046402590054amp;wfr=spideramp;for=pc.
[12]魏蔚.集成ChatGPT后,微軟必應下載量增10倍[N].北京商報, 2023-02-09. https:∥www.bbtnews.com.cn/2023/0209/466149.shtml.
[13]專家稱ChatGPT對話水平已超過9成人類[EB/OL].(2023-02-04).https:∥www.163.com/dy/article/HSO81FLH05319LDA.html.
[14]文靜.寫稿機器人“搶”飯碗?[N].廣州日報,2018-11-19.https:∥baijiahao.baidu.com/s?id=1617506646524438875amp;wfr=spideramp;for=pc.
[15]卜金婷.超89%的學生使用ChatGPT作弊!斯坦福率先打響反擊戰[N].中國科學報,2023-02-03.
[16]文巧.寫的論文騙過大學教授,火爆全球的機器人ChatGPT要搶誰的飯碗?[EB/OL].(2023-02-01). https:∥new.qq.com/rain/a/20230129A06EY900.
[17]人工智能行業深度報告:ChatGPT引發的大模型時代變革[EB/OL].(2023-02-27). https:∥baijiahao.baidu.com/s?id=1758971954494864004amp;wfr=spideramp;for=pc.
[18]政府開發人工智能系統 提高公務員書寫工作效率[N].聯合早報, 2023-03-01.https:∥www.zaobao.com/news/singapore/story20230301-1367941.
[19]學生用ChatGPT拿下全班最高分,教授驚呆![EB/OL].(2023-02-05). https:∥learning.sohu. com/a/637506415_121123901.
[20] AYDN , KARAARSLAN E. OpenAI ChatGPT generated literature review: digital twin in healthcare[J].SSRN Electronic Journal, 2022:22-31.
[21] SALVAGNO M, ChatGPT, TACCONE F S, et al. Can artificial intelligence help for scientific writing?[J]. Critical Care, 2023, 27(1):75.
[22]王俊美. ChatGPT改變人類知識生產方式[N]. 中國社會科學報,2023-02-20(03).
[23]牛寶榮,李如密.有意練習:促進學生有效學習的重要策略[J].教學研究,2020(6):9-14.
[24]人民日報寄語年輕人:以知識見識錘煉真本領[N].人民日報,2018-09-20.
[25]馮驪. 創造性勞動與勞動價值論:對馬克思勞動價值公式的補充[J].河南師范大學學報(哲學社會科學版), 2008(5): 16-19.
[26]譚凱娜,馬香蓮.創造性勞動:蘇霍姆林斯基勞動教育思想的精神特質[J].吉林省教育學院學報,2022(11): 59-64.
[27]STOKEL-WALKER C, VAN NOORDEN R. What ChatGPT and generative AI mean for science[J]. Nature, 2023, 614(7947): 214-216.
[28]張繼明.知識生模式變遷視角下大學治理模式的演進及其反思[J].江蘇高教,2019(4):9-17.
[29]約翰·齊曼.真科學[M].曾國屏,等譯.上海:上海科技教育出版社,2002:37,84-99.
[30] KUNG T H, CHEATHAM M, MEDENILLA A, et al. Performance of ChatGPT on USMLE: potential for AI-assisted medical education using large language models[J]. PLoS Digit Health, 2023, 2(2): e0000198.
[31]勞凱聲.智能時代的大學知識生產[J].首都師范大學學報(社會科學版),2019(2):1-6.
[32] ELSE H. Abstracts written by ChatGPT fool scientists[J]. Nature, 2023, 613(7944): 423.
[33]EVA A. M. VAN DIS, JOHAN BOLLEN, WILLEM ZUIDEMA, et al. ChatGPT: five priorities for research[EB/OL]. (2023-02-03).https:∥www.nature.com/articles/d41586-023-00288-7.
[34] The AI writing on the wall[J]. Nature Machine Intelligence, 2023, 5(1): 1.
[35]邢賀通.從ChatGPT看AI生成內容的著作權問題[EB/OL].(2023-02-24).http:∥www.ipforefront. com/m_article_show.asp?id=2900amp;BigClass=%E4%B8%93%E6%A0%8F.
[36] THORP H H. ChatGPT is fun, but not an author[J]. Science, 2023, 379(6630): 313.
[37]Tools such as ChatGPT threaten transparent science: here are our ground rules for their use[J]. Nature, 2023 ,613:612.https:∥www.nature.com/articles/d41586-023-00191-1.
[38]關于使用人工智能寫作工具的說明[EB/OL].暨南學報(哲學社會科學版)微信公眾號,2023-02-10.
[39]關于使用人工智能寫作工具的說明[EB/OL].天津師范大學學報基礎教育版微信公眾號,2023-02-11.
[40]尤瑞恩·范登·霍溫,約翰·維克特.信息技術與道德哲學[M].趙迎歡,等譯.北京:科學出版社,2014:13.
[41]李木子.AI能列為論文作者嗎[N].中國科學報,2023-01-20(01).
[42]田輝.國外高校教師多元化晉升機制面面觀[N].光明日報,2019-10-24(14).
[43]構建多元評價體系,破除“唯論文”(社論)[EB/OL].(2020-12-15).https:∥www.thepaper.cn/newsDetail_ forward_10404249.
[44]趙汀陽.人工智能提出了什么哲學問題?[J].文化縱橫,2020(1):43-57.
[45] SALVAGNO M, ChatGPT, TACCONE F S, et al. Can artificial intelligence help for scientific writing?[J]. Critical Care, 2023, 27(1): 75.
[46]習近平.在中國科學院第十七次院士大會、中國工程院第十二次院士大會上的講話[N].人民日報,2014-06-10(02).
[47]白惠仁.人工智能與創造性勞動:評《科學技術知識的政治經濟學研究》[J].西部學刊,2020(1):154-156.
Research on the Influence of AI Chatbot on the Evaluation
of Scientific Research Achievements and Talent Evaluation:
Analysis based on ChatGPT and Microsoft Bing
JIANG Hualin
(School of Public Affairs, Chongqing University, Chongqing 400044, P. R. China)
Abstract:
Chat GPT, an artificial intelligence (AI) chatbot developed by the United States Open Artificial Intelligence Research Center (OpenAI), can understand and respond to natural language input based on the language model of “Generate Pre-training Converter” (GPT), which was officially released on November 30, 2022, and has caused heated discussion and attention in the global Internet, academia and industry in a short time. The AI chatbots represented by ChatGPT and Microsoft Bing are based on huge amounts of data and trained with “reinforcement learning from human feedback” (RLHF). They have three main functions: intelligent interactive dialogue, intelligent content generation, and intelligent document crawling.The core competitiveness of the AI chatbot is to adopt the AI generated content technology (AIGC) and have strong content generation or text generation ability. In addition to generating general applied manuscripts, it can also engage in scientific writing, thus leading and promoting the transformation of the mode of knowledge production and academic research paradigm. The process of knowledge production and academic research will be significantly accelerated, and knowledge producers will be liberated from non-creative labor, the mode of knowledge production will move from “manual” and “semi-automatic” to “automatic” and “intelligent”.This change will have a significant impact on the traditional evaluation mechanism of scientific research achievements, and further will have a significant impact on talent evaluation. In general, the application of AI chatbot represented by ChatGPT in academic research will obscure the evolution of academic history of achievements and affect the innovative evaluation of scientific research achievements, and challenge the intellectual property protection system and affect the ownership of scientific research achievements, and bring academic ethical risks and affect the evaluation ecology of scientific research achievements, and impact the basic standards of talent evaluation and affect the objectivity of talent evaluation. In view of the penetration, diffusion and subversion of AI, first of all, we should face it positively rather than passively in ideological understanding, utilize its strengths and avoid its weaknesses prudently, and exert its positive role in promoting knowledge production and promoting academic progress. Secondly, institution construction should be further improved to set up “guardrails” for AI chatbot according to the imbalance between the current relevant laws and regulations and the rapid progress of AI technology. Third, AI chatbot technology open source should be promoted to disclose its intelligent generation logic, and enhance the technical credibility of AI chat robots. Fourth, human-computer cooperation mechanism should be established to give play to the advantages of technology in data processing and human rational thinking, and finally let people check the knowledge production, scientific research achievements and talent evaluation.
Key words:
artificial-intelligence;artificial-intelligence chatbot; AI-Generated Content; ChatGPT; Microsoft Bing; evaluation for scientific research achievements; talent evaluation;mode of Knowledge production
(責任編輯 彭建國)