摘 要:隨著人工智能技術的不斷發展,新聞生產方式和傳播生態也在發生改變。ChatGPT在為新聞生產提供便利的同時,也滋生了傳播虛假新聞信息的風險。本文基于新聞傳播學視角,聚焦ChatGPT新聞寫作中虛假新聞信息的生產和傳播現象,結合相關報道和案例,總結ChatGPT虛假新聞的特點,探討其產生機制、帶來的危害以及應對措施,旨在為網絡虛假新聞治理工作提供參考。
關鍵詞: ChatGPT;虛假新聞;產生機制
中圖分類號: G210. 7 文獻標識碼: A 文章編號: 1672-8122 (2025) 03-0032-04
一、引言
OpenAI公司在2022年11月30日發布的ChatGPT引發了全世界的關注,不同于之前發布的GPT-2、GPT-3等模型,新發布的ChatGPT將參數提升至千億級,標志著通用人工智能時代的開啟。ChatGPT的誕生就像打開了“潘多拉魔盒”,它助力新興行業的產生、元宇宙的落地,但也引發了新的社會問題。依托強大的數據庫和算力, ChatGPT能夠快速抓取信息,生成文本、圖片、視頻和代碼等,是新聞寫作的得力助手。但是,除了便利高效的優勢,它也會帶來虛假新聞信息傳播的隱憂。虛假信息無疑會降低人們對媒體的信任度,影響媒體的公信力,對社會良性運轉帶來負面影響。因此,本文聚焦ChatGPT新聞寫作中虛假新聞信息的生產和傳播現象,結合相關報道和案例,總結ChatGPT虛假新聞的特點,探討其產生機制、帶來的危害以及應對措施,旨在為網絡虛假新聞治理工作提供參考。
二、ChatGPT虛假新聞的特點
自新聞誕生起,虛假新聞就如影隨形。隨著新聞采寫分發技術的更新迭代,虛假新聞也更加難以辨別。當前,新聞生產主體的邊界越來越模糊,不再僅限于主流媒體,任何自媒體和個人都能成為新聞生產的主體。因此,本文中的ChatGPT虛假新聞是一個寬泛概念,泛指由運用ChatGPT等人工智能編寫發布的不實新聞信息,或任何個人、組織運用該技術有意編造傳播的不實信息。總體來看, ChatGPT虛假新聞具有生產門檻更低、生成速度更快、內容形式更多樣、傳播影響更大等特征。
(一)炮制簡單,主體多元
從ChatGPT虛假新聞的生產主體來看,不僅僅有記者、自媒體從業者、個人,還有技術本身。以往虛假新聞的產生大多與記者報道失誤、媒體把關不嚴、利益驅動等因素有關,而在ChatGPT虛假新聞中, ChatGPT直接成為虛假信息的信息源和“販賣機”。它能夠產出語意連貫、邏輯通順,符合新聞語言和體裁規范的稿件,但內容的真實性無法保證。據《紐約時報》2023年2月報道,美國新聞可信度評估與研究機構NewsGuard對ChatGPT進行了測試, NewsGuard聯合首席執行克羅維茨表示, ChatGPT將成為互聯網上傳播錯誤信息的最強大的工具。當前,一些自媒體利用ChatGPT將舊新聞回爐重造、改頭換面,只要輸入關鍵詞和要求就能憑空捏造虛假信息,在短短幾分鐘內形成一篇新聞稿件。技術下沉讓廣大網民都能夠享受智能服務,但由于缺乏規范和約束,也使技術淪為部分人借機牟利的工具。
(二)形式多樣,真假難辨
從ChatGPT虛假新聞的呈現形式來看,其形式越來越多樣,更具迷惑性和欺騙性。ChatGPT不僅能模仿各種語言風格,生產各種體裁的新聞,還能以文字、圖片、音視頻等形式進行呈現。雖然ChatGPT是一個文本生成模型,但通過加入Unsplash API或HTML代碼等方式就能生成圖片或視頻。當前,部分ChatGPT虛假新聞通過偽造新聞演播室場景、模仿專業主持人的播報方式以及創建人工智能虛擬主播等手段,偽裝成權威新聞媒體,以此誤導大眾。另外,也有一些ChatGPT虛假新聞運用剪貼、拼湊等技術手段,制造與社會案件、國際時政熱點等相關的虛假報道。例如, 2023年6月10日,外媒《Bloomberg Law》報道稱ChatGPT錯誤地將電臺主持人Mark Walters描述為美國第二修正案基金會(SAF)前首席財務官,并指控其挪用資金和欺詐。實際上, Walters與SAF案件無關, ChatGPT提供的案件編號和事實均屬虛構。在人工智能技術得到廣泛應用的背景下,虛假新聞的呈現形式不斷更新,虛實邊界更加模糊,這對網絡虛假新聞治理提出了更高的要求。
(三)欺騙誘導,危害安全
從ChatGPT虛假新聞的影響來看,其混淆了虛實的邊界,增加了新聞事實核查難度,擾亂了網絡生態,損害了大眾利益。不可否認的是,技術的鴻溝與信息差將長期存在,人工智能技術發展日新月異,而大眾對于新技術的認知和熟悉過程卻是漫長的。這就給不法分子偽造和傳播虛假信息提供了便利,他們借助虛假新聞混淆視聽,導致人們誤解事實真相,從而影響判斷和決策。
三、ChatGPT虛假新聞產生機制探析
虛假新聞的產生不僅僅與新聞從業者有關,還與新聞生產的流程和社會環境有著密切的關聯。ChatGPT虛假新聞的產生除了受到訓練數據質量的影響外,也與市場利益誘導和相應監管規約滯后相關。
(一)技術機制:數據參差
ChatGPT是通過人類反饋強化學習(Reinforcement Learning with Human Feedback, RLHF)機制進行無監督學習訓練的聊天生成式預訓練轉換器,它會基于大語言模型、訓練數據庫和算法,對用戶提出的問題自動生成符合要求的答案。ChatGPT的數據庫包含各種來自互聯網的文本信息,如果用于訓練的數據本身就存在偏差和失真,那么生成的內容就會不實。一方面,真實性是新聞的生命。ChatGPT能夠生成語意連貫、邏輯通順的文本,卻無法保證內容的真實性,如果不進行事實核查就會被誤導欺騙。另一方面,時效性是新聞的重要特性。但ChatGPT的訓練數據具有滯后性,上線的模型訓練數據停留在2021年,在此之后發生的事情還無法獲知[1]。此外, ChatGPT有時也會“一本正經地胡說八道”,存在事實性錯誤、知識盲區和常識偏差, OpenAI公司就曾警告用戶“它(ChatGPT)可能偶爾會產生不正確的信息”。由于ChatGPT在客觀題測試中表現較差,無法辨別真假,所以現在還不能用它獲取可靠知識,更不能完全依賴它來代寫新聞[2]。
(二)市場機制:利益導向
從ChatGPT虛假新聞生產的主體來看,除了部分主流媒體,大多是自媒體機構。部分自媒體利用ChatGPT進行改編或捏造信息,從而規避平臺查重監測,快速生成虛假新聞,用多個賬戶同時發布,博取關注并非法獲利。例如, 2023年5月7日,甘肅公安偵破了一起用ChatGPT杜撰“火車撞上修路工人致9人死亡”虛假新聞來賺取流量獲利的案件,成為我國自2023年1月10日《互聯網信息服務深度合成管理規定》頒布實施后,甘肅省偵辦的首例利用人工智能技術炮制虛假不實信息的案件[3]。國外也不乏利用ChatGPT發布虛假消息的例子。例如, 2023年3月德克薩斯州監管機構緊急叫停一項名叫TruthGPT的代幣項目,調查發現項目方利用人工智能模型進行包裝宣傳,騙取投資以此獲利[4]。ChatGPT大大降低了內容生成門檻和成本,讓假新聞生產更快更“真”,對于炮制假新聞的不法群體無疑是一把利器,他們為了獲取流量,增加廣告收入,以自身利益為導向,全然不顧大眾利益。
(三)監管機制:規約有待完善
新技術既需要鼓勵支持又需要規范約束。人工智能的底層邏輯是算法和大數據,其在新聞寫作應用中出現的問題主要集中于算法偏見、技術霸權、算法黑箱、隱私、虛假信息等。網信辦、工業和信息化部、公安部聯合發布的《互聯網信息服務深度合成管理規定》,對人工智能等新興技術做了預先規定,但其治理對象主要是算法,聚焦于信息安全,難以有效應對像ChatGPT等大人工智能模型帶來的新問題[5]。治網之道,法治為本, ChatGPT引發的問題逐漸復雜化、多樣化,除了對人工智能行業進行規范約束之外,也要重視對智能產品使用者的約束,不能忽視個人在社會化傳播中的道德倫理責任[6]。
四、ChatGPT虛假新聞的危害
ChatGPT生成的內容真假難辨,給新聞真實性和媒體的公信力帶來挑戰,沖擊了原有的新聞倫理,損害了大眾利益,還會引起社會恐慌,破壞社會穩定和安全。
(一)新聞業層面:沖擊新聞倫理,削弱媒體公信力
從人機關系來看, ChatGPT能夠生成新聞報道或作品,使記者專注于工作的其他方面。但是,這也增加了新聞事實核查的難度,其帶來的核查工作無疑又加重了記者的負擔。此外, ChatGPT致使人機關系由主客工具的寄生關系轉向人機合作競爭的共生關系,不同于以往的機器寫作, ChatGPT擁有更高的獨立性,沖擊了新聞從業者的主體地位,為新聞倫理帶來新的風險和挑戰。
一方面,真實性是新聞的基本原則,而ChatGPT依托龐大的數據庫和語料庫生成的虛假信息,使新聞事實核查的難度升級,對新聞真實性提出嚴峻的挑戰。例如,在I-Team測試中,測試人員要求ChatGPT寫一篇關于邁克爾·布隆伯格結束第三次紐約市長任期以后的活動新聞,發現ChatGPT會編造出邁克爾·布隆伯格從未說過的話。另一方面,客觀性是實現新聞真實性的基本途徑。ChatGPT在回答觀點類問題時會表明“作為一名人工智能助手,我對具體的產品或組織沒有個人的意見或看法”,這種看似客觀公正的表述實則回避了事實上的不公正,用于AI模型訓練的數據可能在不同程度上缺乏多樣性,常見的包括人口偏差、內容偏差、歷史偏見、技術偏差等,這會加重刻板印象和不平等[7]。
(二)大眾層面:損害公眾利益,產生信任危機
隨著技術的進步,網絡虛假信息的生產更快更“真”,這會對大眾和社會帶來許多負面影響,其中一個主要的影響就是增強了人們的不信任感。ChatGPT具有生成圖片和視頻的功能,僅僅輸入關鍵詞就能生成圖片或視頻腳本。2023年3月, Twitter上一組教皇方濟各穿著巴黎世家風格羽絨服的照片瀏覽超千萬,不少人信以為真,“有圖未必有真相”成為現實。在感嘆技術強大的同時,人們對真假難辨的擔憂情緒也在上升,假作真時真亦假,造假的便捷度與虛假辨別難度嚴重不對等。當人們無法分辨信息真偽時,就會很難相信任何網絡信息,從而對媒體產生不信任情緒。此外,出行、飲食、健康等與人民生活密切相關的領域也往往是虛假新聞的重災區,對于缺乏辨別能力的群體而言,那些“言之鑿鑿”的新聞無疑會誤導他們。例如,有網友借助ChatGPT寫一篇關于杭州取消限行的新聞稿,本意是測試,卻被不明就里的廣大網民信以為真,導致錯誤信息被傳播,警方介入調查,涉事網民也在互聯網上公開道歉。
(三)國家層面:擾亂社會秩序,危害網絡安全
ChatGPT技術無疑助力了行業升級和社會發展,但也會給違法分子提供“武器”。當前, AI換臉、合成視頻不僅混淆了虛實邊界,更侵害了他人的人格權,對受害者造成難以挽回的傷害,嚴重危害網絡生態環境。虛假新聞往往是有目的地制造和傳播的,不法分子通過ChatGPT等技術惡意造謠、傳謠,試圖操縱輿論,以達到自己的目的,這會引發社會恐慌和焦慮。此外,虛假新聞還可能被用作宣傳工具,煽動社會不良情緒,危及社會的穩定和安全。
五、ChatGPT虛假新聞應對之策
網絡安全是國家安全的重要組成部分, ChatGPT虛假新聞混淆視聽,污染網絡空間,危害大眾利益,對社會運轉帶來負面影響,亟需社會各界共同行動。
(一)明確技術責任,嚴控數據把關
在技術迅猛發展的同時,“技術迷思”也在擴張,烏托邦式的技術幻想與技術霸權加劇了技術鴻溝,引發新的社會問題,對人工智能的發展進行必要的倫理判斷是打破“技術迷思”的重要途徑[8]。在新技術萌芽期,除了建立法律法規進行硬性規制之外,還需要用倫理性的“軟約束”加以規范。在人工智能倫理風險治理方面,許多學者都認為應把技術設計者納入治理考量,細化相應的倫理責任[9-10]。技術設計者對于技術的把控會直接影響技術使用效果。技術開發公司有必要對技術人員進行培訓,明確其倫理職責。研究開發人員有義務對算法模型進行優化,減少算法偏見。在進行數據訓練時,公司和技術人員應嚴格把控數據質量,增強數據多樣性,把關數據真實性,并及時更新訓練數據,以適應社會需要。此外, ChatGPT的設計者有必要公開ChatGPT生成內容的數據源信息,方便使用者查證。
(二)完善平臺規約,規范內容發布
虛假新聞治理是一個全球性的問題,而網絡平臺是虛假信息傳播的主要渠道,因此,規范運行和管理平臺十分必要,這能夠有效減少虛假信息傳播風險。新聞傳播行業需要加強對ChatGPT的使用監管,建立關于人工智能使用的行業規約,落實ChatGPT新聞生產和傳播把關等流程責任。在信息傳播中,傳播者有必要對人工智能生成內容進行標注,提示大眾理性看待。各大社交媒體平臺需要履行監管職責,完善平臺規約,對于人工智能生成內容進行顯著、統一標識,規范網絡視聽。例如, 2023年5月9日,抖音發布新規《抖音關于人工智能生成內容標識的水印與元數據規范》,要求發布者對人工智能生成內容進行標注,規范智能生成內容發布,促進平臺良性發展。此外,平臺還應通過人工與算法審核相結合的方式進行信息過濾,及時識別和刪除虛假信息;建立舉報系統,鼓勵用戶主動上報虛假信息,對違反平臺規約的用戶進行警告。
(三)提升大眾媒介素養,共建清朗網絡空間
在加強技術管理,規范平臺運營,打擊虛假新聞的同時,提升網民媒介素養也至關重要。在Web3. 0時代,網民擁有更多的自主權,但權利往往與義務相生相伴,網民應提高自身媒介素養,自覺遵守網絡平臺規約。此外,政府應組織公益廣告、知識競賽等宣傳活動,向大眾普及虛假信息的識別方法,縮小技術鴻溝;對人工智能生產內容加強監管,完善相關法律法規,讓網絡治理有法可依。科技公司應開發人工智能生成內容檢測技術,幫助人們快速辨別虛假信息。
六、結 語
ChatGPT等人工智能技術是人類智慧創造的工具,在為新聞生產提供便利的同時,也滋生了傳播虛假新聞信息的風險。本研究通過分析ChatGPT等人工智能技術在新聞生產中的應用及其潛在風險,提出了治理網絡虛假新聞的多維度策略。研究結果表明,有效治理虛假新聞需要構建系統化的治理框架。首先,在技術層面應強化數據質量控制,確保人工智能模型訓練數據的真實性與可靠性。其次,在平臺層面需完善內容發布規范,建立嚴格的虛假信息防控機制。最后,在社會層面應著力提升大眾媒介素養,構建多方協同的治理體系。這些發現為構建清朗的網絡信息生態提供了理論依據和實踐指導。在今后的研究中,應進一步探討人工智能技術在新聞傳播領域的倫理邊界及治理范式,促進技術應用與信息安全的協調發展。
參考文獻:
[1] PAVLIK J V. Collaborating With ChatGPT:Considering the Implications of Generative Artificial Intelligent for Journalism and Media Education[J]. Journal ismMass Communication Educator,2023,78(1):84-93.
[2] 於興中,鄭戈,丁曉東.生成式人工智能與法律的六大議題:以ChatGPT為例[J].中國法律評論, 2023(2):1-20.
[3] “甘肅公安”微信公眾號.甘肅警方:男子用ChatGPT編造虛假信息被采取刑事強制措施[EB/ OL]. (2023-05-08)[2024-12-07]. http:/ / www. piyao. org. cn/20230508/ dfaf8e4c765340239abd5abf d8141701/ c. html.
[4] Chris Glorioso. Fake News? ChatGPT Has a Knack fo r Making Up Phony Anonymous Sources[EB/ OL].(2023-02-24)[2024-02-07]. https:/ / www. nbcnewyork. com/ investigations/ fake-news-ChatGPThas-a-knack-for-making-up-phony-anonymoussources/4120307/ .
[5] 張凌寒.深度合成治理的邏輯更新與體系迭代——ChatGPT等生成型人工智能治理的中國路徑[J].法律科學(西北政法大學學報),2023(3): 38-51.
[6] 陳昌鳳,張夢.由數據決定? AIGC的價值觀和倫理問題[J].新聞與寫作,2023(4):15-23.
[7] 張恒軍,張芷汀.機器新聞寫作的倫理風險治理:困境與規制[J].新媒體與社會,2021(1):32-46.
[8] 舒洪水,彭鵬. ChatGPT場景下虛假信息的法律風險與對策[J].新疆師范大學學報(哲學社會科學版),2023,44(5):124-129
[9] 胡宏超,謝新洲.人工智能背景下虛假新聞的發展趨勢與治理問題[J].新聞愛好者,2023(10):9-15.
[10] 韓曉寧,耿曉夢,周恩澤.人機共生與價值共創:智媒時代新聞從業者與人工智能的關系重塑[J].中國編輯,2023(3):9-14.
[責任編輯:喻靖雯]