文/劉亞東
繼ChatGPT之后,OpenAI公司2023年3月14日又發布了GPT-4。GPT-4是新一代大語言模型,它進一步提升了自然語言的處理能力,以及包括語義理解、推理和判斷的智能對話能力,可以處理更加復雜和抽象的語言任務。同時,它還增加了語種,支持更多的自然語言處理任務,為人類提供更多更好的語言交流服務。
作為大語言模型,無論ChatGPT還是GPT-4,它們本身并不會直接影響新聞傳播。然而,隨著人工智能技術的不斷發展,越來越多的新聞機構開始利用類似于ChatGPT這樣的自然語言處理技術來改進新聞的生產和傳播方式,從而為傳媒業開辟了全新的賽道。需要注意的是,ChatGPT并不生產知識,而只是知識的搬運工。那些有見解、能創造、敢擔當的人類編輯記者將與ChatGPT相得益彰,呈現出傳媒業態的未來圖景。
傳統的內容生產需要耗費人類大量的時間和精力來構思、查閱、撰寫和編輯,而ChatGPT的出現使這種狀況似乎在一夜之間發生改變。尤其在生成高質量文本內容方面,ChatGPT的工作能力已然超越絕大多數人類。在新聞生產、傳播和消費等方面,ChatGPT同樣具有廣闊的應用前景,其現實的和潛在的影響至少表現在以下幾方面。
第一,提高新聞生產效率。ChatGPT和其他自然語言處理技術可以幫助新聞工作者更快速、準確地收集和分析信息,并將其轉化為可用于新聞報道的文本,包括文章、標題、摘要、評論等,從而加快了新聞生產速度。比如,ChatGPT可以利用其深度學習的功能,在短時間內從大量文本中提取關鍵信息,并自動生成新聞稿件的大部分內容,提高媒體的工作效率。同時,ChatGPT的應用還能替代大量重復性勞動,降低生產成本。
第二,增加新聞的多樣性。ChatGPT能夠生成各種語言風格和文體的文本,使新聞報道的形式更加豐富多彩。例如,媒體可以使用ChatGPT生成新聞報道的初稿,通過編輯和修改,最終呈現出不同的新聞風格,滿足受眾的各種需求。ChatGPT和其他自然語言處理技術還能把新聞報道轉化成多種形式的可視化內容,如圖表、動畫、視頻等,這將幫助讀者更好地理解和消化新聞內容,提高新聞報道的影響力和吸引力。此外,ChatGPT還能幫助媒體將一種語言的內容翻譯成另一種語言,從而擴大受眾群體。
第三,確保新聞報道的質量和可信度。自然語言處理技術可以幫助新聞工作者更快速、更準確地分析和驗證信息來源,并消除謬誤或不實信息,這將使新聞報道的質量和可信度獲得技術保障。同時,借助于ChatGPT,快速檢查和修正文章的語病和錯別字也變得輕而易舉。
第四,加快新聞傳播速度。利用ChatGPT等自然語言處理技術,可以自動生成特定內容的新聞稿件,并將其快速發布到各種數字平臺上,如社交媒體、新聞網站、移動應用等,這將大大提高新聞傳播的速度。
第五,推動個性化新聞發展。媒體可以利用ChatGPT等自然語言處理技術來分析讀者的閱讀興趣和偏好,并根據這些信息推薦相應的新聞內容。這將幫助媒體提高讀者的忠誠度和參與度,增加訂閱量和廣告收入。
以ChatGPT為代表的人工智能技術必將在傳媒業引發顛覆式創新。我們應積極推動人工智能技術在新聞傳播領域的應用,以適應信息化時代的新潮流。比如,通過開發智能化新聞生產和傳播平臺,提高新聞生產和傳播的效率和質量;利用大數據技術分析新聞信息,了解公眾關注的熱點和趨勢,為新聞生產和傳播提供數據支持;以人工智能技術開發智能化新聞交互方式,為用戶提供更加便捷和個性化的新聞服務。
ChatGPT雖然能夠有效提升新聞報道的效率和質量,但也對新聞道德和倫理提出挑戰。隨著ChatGPT等自然語言處理技術的興起,傳媒業面臨著一系列新的道德倫理問題。這些問題涉及媒體的新聞操守、職業規范、信息真實性、隱私保護等方面,給媒體和公眾都帶來深遠影響。
第一,可能制造虛假新聞。ChatGPT無疑能夠生成高度逼真的虛假新聞,媒體如果過度依賴 ChatGPT生成內容,極有可能誤導公眾、損害公眾利益。一些不負責任的媒體甚至會故意利用這個模型來制造虛假新聞或夸大事實,并傳播給公眾。一旦出現這種情況,輕則會讓媒體失去公眾的信任,重則可能引起社會恐慌。因此,媒體在使用ChatGPT時需要保持警惕,始終以批判質疑的態度對待其生成的內容;應該加強事實核查,增強辨別力和判斷力,以保證新聞的真實、客觀。
第二,可能引起道德失范。ChatGPT只能根據輸入的數據和編程指令來生成響應,所以道德失范的問題并不在于它本身,而在于它的使用者。同時,ChatGPT生成的內容也可能違背真實、客觀、公正、全面等新聞道德準則。因此,應該制定法律法規,并輔以相應技術手段,以確保ChatGPT被用來增進人類福祉、促進社會進步。
第三,可能對個人隱私造成威脅。在新聞傳播過程中,媒體需要搜集、分析和發布各種信息,其中包括個人信息。ChatGPT在學習和推理過程中,需要大量的數據輸入。如果輸入的數據包含敏感信息或隱私,如個人身份、興趣愛好、行為習慣等,則會被ChatGPT學習并保存。一旦這些信息被不法分子竊取或泄露,將對個人隱私和安全造成威脅,甚至可能被用于針對個人的攻擊和欺詐。此外,ChatGPT也可能在與其他智能機器人進行交互時,共享個人信息和數據,這也增加了信息被泄露的風險,需要采取有效措施來防范。
第四,可能濫用智能推送算法。ChatGPT能夠通過智能推送算法,把新聞內容更精準地推送給用戶,但也可能因為過度追求點擊率而出現濫用的情況。這將加劇信息繭房效應,從而引發偏見和歧視,局限個人知識面,妨礙公共討論與合作,激化社會矛盾等。因此,我們在享受ChatGPT帶來的便利時,更應注重獲取多樣化的信息和觀點,聽取不同的聲音,不斷拓寬自己的知識面和思考能力。
第五,可能給傳媒業生態帶來深遠的負面影響。由于ChatGPT能夠快速生成大量文本內容,一些媒體可能會利用ChatGPT來獲取競爭優勢,這必然導致一些媒體過多使用機器人而不是記者來采寫報道。所以,媒體需要在使用ChatGPT時保持平衡,以確保新聞報道在更高層次上的質量和水平。
應該說,在包括傳媒業在內的幾乎所有行業,大多數日常工作都是重復和組合,而不是發現和創造。正是由于這個原因,ChatGPT的出現必然會使媒體減少對編輯記者的需求,導致一些工作崗位消失。這無疑會給一些新聞工作者造成壓力,但也從客觀上迫使他們轉型,努力提升自身素質和素養,更多地從事那些富于想象力和創造性的勞動,以適應新形勢和新環境。
另外,ChatGPT不會也不能完全取代編輯和記者的角色。編輯最耀眼之處,在于他們面對復雜事物所表現的敏感性、洞察力和判斷力,而這是ChatGPT在可預見的未來無法企及的。記者的很多工作由于如下原因,同樣是ChatGPT無法替代的。
一是無法進行實地報道。ChatGPT只能基于過去的信息來回答問題,無法身臨其境地采寫新聞。而記者可以到現場采訪,獲取第一手資料,了解事件的真實情況。
二是缺乏人類的思考能力。ChatGPT能夠處理自然語言,但缺乏人類的思考能力,而一些復雜問題往往需要記者進行判斷和推理。例如,在采訪一些重大事件的當事人時,記者需要識別其表情和語氣,從而更好地理解和報道事件。
三是無法獲得獨家新聞。ChatGPT是加工和處理已有信息的高手,但無法獲得獨家新聞。記者則可以通過深入調查和獨家采訪來獲得獨家新聞,提供更有價值的內容。事實上,很多獨家選題的挖掘,都始于記者在社會生活中獲得的線索,這是ChatGPT無論如何都做不到的。
四是沒有人類情感。新聞大都涉及人類情感,比如憂慮、期望和關注等。記者可以更好地理解并傳達這些情感,而ChatGPT沒有這種人性化的感知和傳達能力,無法像記者一樣,寫出有深度、有溫度、人性化的新聞報道。
作為人類的通用任務助理,ChatGPT生成的高質量對話,讓許多人誤以為人工智能獲得了意識并實現人格覺醒。其實,ChatGPT背后的原理仍然是大數據分析。就速度和準確性而言,從龐雜、枯燥的數據中提取有用信息并做一定處理,ChatGPT顯然比人類更具優勢。目前,在功能屬性方面,ChatGPT已經能較好地處理標準化、結構化的內容。但迄今為止,在人格屬性方面,ChatGPT還沒有學會像人類一樣思考并提出自己的問題。像質疑、追問、尋找對方話語中的新聞線索等記者的基本功,對于包括ChatGPT在內的現有人工智能來說還無法實現。與人類思考、分析、挖掘故事的能力相比,它還差得遠!
所以,嚴格地說,ChatGPT是資訊整理,而不是新聞生產。由于新聞工作的特殊性,以及這個職業對社交能力、協商能力,同情心、責任感,以及創意和審美的要求,在可以預見的未來,那些稱職的優秀人類記者不可能被機器取代。
ChatGPT和其他自然語言處理技術正在改變新聞生產和傳播方式,在帶來機遇的同時也帶來挑戰。我們既要認識ChatGPT的優勢和特長,也要了解它的局限和短板,這樣才能讓ChatGPT更好地推動傳媒業發展。與此同時,還應鼓勵媒體和ChatGPT開發者合作,創造更多的新聞傳播應用和商業模式。