李 翔 余超越
(作者單位:江西科技師范大學文學院)
“后真相”一詞最早來源于西方政治領域,被牛津字典定義為“訴諸情感及個人信念,較客觀事實更能影響民意”。指的是人們不再專注于尋找真相,客觀事實對輿論的影響力下降,而情感與個人信仰則會產生更大的影響。后真相時代,情緒比新聞真相更加重要。公眾更愿意選擇與自身興趣、個人觀點、自我認知相符合的新聞信息,具體表現有三種:第一是“回聲室效應”,是指個體處于一個封閉的空間內,當聽到的聲音是自我聲音的回響時,就會認為自己的看法代表了主流聲音;第二是“信息繭房”,是指大眾只關注自己感興趣的信息和領域,進而將自己封閉在“繭房”之中,缺乏對其他領域的了解;第三是反轉新聞,是指一些引發廣泛關注與討論的新聞熱點事件經過一段時間之后,出現與事實截然相反的現象[1]。在中國,后真相新聞的流弊主要表現在虛假新聞層出不窮、輿論非理性表達、網絡暴力蔓延、群體極化加強、媒體公信力下降等方面。
算法是人工智能技術的典型代表,是指為解決某一特定問題而采取的有限且明確的操作步驟[2]。雖然算法不需要在軟件中實現,但是計算機基本上是算法機器,旨在存儲和讀取數據,以受控的方式將數學過程應用于數據,并提供新的信息作為輸出[3]。目前常見的有協同過濾推薦算法、基于內容的推薦算法、基于關聯規則的推薦算法、基于效用的推薦算法和基于知識的推薦算法五種推薦算法類型[4]。算法偏見主要是指算法運行中出現的會對個人、群體乃至社會造成危害的一種不公平、不合理或者歧視的偏差現象。算法生產者的社會性、導入數據的不準確性、算法技術的局限性等都會讓算法攜帶偏見。
新聞傳播進入移動互聯網時代,截至2023年6月,我國網絡新聞用戶規模達7.81億,占網民整體的72.4%[5]。網絡新媒體平臺為提升用戶的規模、參與度以及使用黏性,基于算法技術形成“用戶畫像”進行偏好、興趣推薦,并將其應用于新聞傳播的各個環節。由于新聞媒體平臺本身也具有自己的運營理念、傳播傾向和政治立場,當其利用算法技術的時候會深化偏見并激化情緒,從而助推新聞后真相現象,最終導致“回音室效應”“信息繭房”“反轉新聞”等現象接踵而至,公眾只能看到自己想看到的“真相”,了解到已經接納的視角,個體固守著自身的“觀念部落”對真相進行消解,從而深化新聞后真相現象。
“用于訓練、學習和數據挖掘的原始數據是算法程序中的基石,其客觀與中立程度直接影響算法的決策結果”[6],算法原始數據中隱含的偏見將會深化整個算法程序。首先,算法原始數據主要來自個體,而個體本身是攜帶社會屬性的,體現在其成長環境、社會經歷、個人性格、思維認知及行為方式都攜帶個體偏見。其次,算法原始數據的采集主要來自大數據,但是不論大數據發展多么迅猛完善,其采集到的原始數據都不可能是全面的、具體的、完整的,這將導致算法原始數據產生偏差,而這些偏差都可能被算法捕捉并放大,最終以算法結果呈現出來。
以算法生產新聞為例,雖然算法可以快速整合文字、圖片和視頻等信息素材自動生成新聞作品,單獨完成新聞生產工作。但是,如果采集到的原始數據是存在偏見或歧視性的,算法再將這些不準確的、片面的、攜帶偏見的數據鑲嵌進新聞生產程序中,則會引發新聞生態失衡,導致虛假新聞泛濫、新聞內容低質化以及庸俗、低俗與媚俗新聞充斥社會。算法原始數據偏見加劇了新聞生態紊亂,強化了用戶非理性的情緒,弱化了用戶辯證思考能力,為新聞進入后真相時代提供了機會。
算法工程師是算法偏見形成的一個不容忽視的群體根源。算法工程師有能力直接使用算法、調整算法和預設算法的未來走向,在整個算法設計中起著至關重要的作用。算法工程師有著不同的價值觀念,在實現目標功能的過程中,會選擇不同的算法來解決問題。正是在這個過程中,算法工程師自身的文化偏見、思維慣性、道德理念等價值偏向會有意識或無意識地被融入算法程序中。
比如在算法驅動的數字新聞生產中,“從客觀現實到表征現實的‘轉譯’過程需要經過兩個階段:記者對客觀現實的轉譯和程序員對記者轉譯后的客觀現實的再轉譯”[7]。即新聞生產的第一次“轉譯”來自記者,第二次“轉譯”是程序員對記者轉譯后的客觀現實的再轉譯,也就是算法運算的過程。但是算法工程師會有意識或無意識地將主觀情緒偏向、繼承給算法,所以在新聞生產的第一次“轉譯”之后,再利用算法技術進行新聞的第二次“轉譯”時,算法工程師的主觀情緒也將注入新聞內容中,導致新聞的主觀性被強化。而公眾在瀏覽新聞的時候將潛移默化地接受被深化的主觀理念和個人情緒偏向,在多次反復地被新聞主觀情緒影響時,公眾個人情緒不斷激化,進而步入“感性在前,理性在后”的新聞后真相時代。
算法技術和人工智能深度學習的局限性導致人機互動時人工智能容易習得公眾的偏見。目前的算法模型也不夠完善,工程師往往通過學術資源網站獲取經過大量數據檢驗過的成熟算法模型,并在此基礎上進行“本土化”處理,因地制宜修改參數應用到實際中[8]。
例如在新聞推薦中,由于人類的情感具有復雜性及多面性,算法只能將復雜的人類情感簡化為用戶在媒體平臺上單一的社交手勢,即通過跟蹤用戶在媒體平臺的行為數據對用戶進行畫像,分析其新聞接收偏好。這種片面的、淺顯的、武斷的方式無法深入了解用戶真正的需要,必然導致對用戶產生算法傳播偏見。算法技術的局限性具體體現在向用戶反復推薦具有相同觀念、興趣和情緒的新聞信息,進而構建出一個“新聞繭房”?!靶侣劺O房”會使用戶桎梏在固有的“繭房”之中,限制其新聞視野,對相反的意見采取排斥態度,強化用戶存在的偏見性認知,甚至將自己的偏見視為真理,最終深陷新聞后真相而不自知。
算法使用者主要是指網絡媒體平臺,其私人主體本質決定了其創新技術、嵌入應用、提供服務的核心目的在于商業逐利,這就迫使媒體信息傳播價值體系逐漸偏向商業性。算法使用者在商業利益影響下,“流量至上、唯利是從”的運營理念甚囂塵上,利用、支配和操控算法的情況屢見不鮮,當網絡媒體平臺通過算法進行盈利時就已經形成了算法偏見,即算法開發者或所有者通過調控程序參數,從而得到想要看到的結果。
例如在新聞輿論生成中,媒體平臺為了實現商業利益,人為干預算法、竄改程序、操縱結果,將主觀意識融入新聞信息的加工制作中,并通過個人偏見引導新聞輿論走向,算法無形之中被賦予了輿論引導的作用。尤其當新聞熱點出現的時候,媒體平臺為了追求流量和商業利益,控制算法反復推送相關內容,以此來引導輿論、吸引用戶并引導公眾情緒,實現被商業浸染的算法偏見帶來的經濟效益。另外,在一些重大新聞事件中,商業資本可以通過重要性排序、關鍵詞過濾和內容算法推薦等手段對社會輿論進行目的性操控和引導,以此來增加用戶黏性和維護熱度。
網絡媒體平臺通過算法技術實現新聞信息的個性化分發,可以從大量的信息中篩選出用戶感興趣的內容,增加用戶黏性,但也使用戶的信息接觸受限,導致用戶只能生活在自己和媒體構建的擬態環境之中,只能看到同質新聞信息,形成“新聞繭房”,不利于個體全方位信息的獲取。長此以往,容易使用戶對現實世界缺乏整體認識與思考,迷戀無價值的信息,進而忽視對真實意義的追求,陷入低俗與娛樂化的新聞狂歡,沉溺在一種虛假的自我滿足中,對公共事件漠不關心,缺乏社會責任與思辨能力,成為單向度的人[9]。
群體極化是指群體中已存在的傾向性觀點或態度從原來的群體平均水平加強到具有支配地位的現象。從群體維度來看,隨著網絡新聞的發展,“新聞業的中心轉向移動互聯網,新聞成為一部分人的新聞,而不是傳統媒體時代大眾傳媒給人們提供‘無差別的’新聞,媒體從服務大眾轉向服務一定的社會群體,機構化、專業化的新聞生產轉向機構媒體、社會群體乃至個人的融合生產和傳播”[10]。互聯網媒體的發展加劇了社群化,而算法的協同過濾使具有相同觀念和興趣愛好的人“抱團”,進一步促進社會分眾。每個群體對熱點新聞的認知在群體“部落”里得到認可并強化,隨之而來的是各個群體的立場變得界限分明,無法了解與包容其他立場,激進的情緒和非理性的信念建起了群體與群體之間的高墻,群體之間排他性變強促進群體極化,與此同時社會共同價值觀也容易被解構。
互聯網時代的網絡媒體平臺準入門檻低,算法把關不嚴格,導致新聞傳播內容質量參差不齊,虛假新聞亂象不斷,新聞的真實性淡化。一方面,算法生產的社會性、算法技術的局限性以及算法的商業性使算法攜帶偏見和歧視,導致新聞的主觀性得到強化,不斷構建起用戶的新聞虛擬世界,新聞的客觀性與真實性漸漸模糊;另一方面,后真相時代的公眾樂于在網絡輿情中“吃瓜”,不加思考地與事件當事人共情,對與自己情緒相同的新聞觀點進行非理性地跟帖與轉發,在“主觀”情緒中迷失自己,不斷輸出情緒而不是俯瞰事件并追逐真相?;ヂ摼W發展實現了話語權下放,人人擁有“言論自由”,但是這也使社會輿情風險在隨之增加,負面言論鋪天蓋地,不利于社會健康發展。
客觀記錄事實、承擔社會責任、正確引導輿論以及守望公平正義,是媒體確保新聞質量的重要體現。但是在新聞后真相時代,新聞質量得不到保證,輿論反轉的事件屢次發生,公眾漸漸地失去了對媒體的信任,無法認真嚴肅對待新聞事件,對新聞的“娛樂性”需求大于對真相的渴望,新聞生產者和新聞接收者之間的信任紐帶正在被切割。在用戶興趣導向的驅動下,新聞生產的核心理念由具有普惠價值的“公共利益至上”轉變為功利化的“受眾喜歡什么”。在算法個性化分發新聞的過程中,新聞本身的公正可能已經被遮蔽,當大量不公正的、低質量的和娛樂性的新聞充斥屏幕時,公眾也會漸漸對新聞媒體失去信心。
由于算法偏見帶來的影響,公眾很難再如同傳統媒體時代對特定媒體品牌形成穩定黏性。他們往往在不同平臺和渠道中不停切換,如同“游獵”一般以滿足自己的新聞需要。同時,在沒有相關訓練和道德建立的情況下,大量“吸睛”“獵奇”的信息被批量產出,滿足“新聞游獵者”的需要。在此情況下,需要大量調查成本和理性表達的傳統媒體的生存空間遭到極大擠壓,傳統主流媒體的用戶流失嚴重、廣告份額下跌、傳播影響力日漸滑坡,使得基于事實的傳統客觀表達的新聞影響力不斷降低。
“崇尚自我體驗、自我表達的后現代倫理狀況極易導致個體信任表現形式的變異,也對信任走向異化發揮了最大限度的文化負面效應?!盵11]社交網絡的道德信任呈現出碎片化、自由化、反體制的傾向。公眾逐漸對官方機構的權威性、媒體的公信力產生懷疑,真相、事實乃至理性被情緒化言論所影響,最終導致“情感信任異化”這一社會逆反心理普遍存在。
新聞“事實”和“反轉”接連不斷,公眾在批判性思維不足的情況下,往往缺乏對新聞事件的理性分析力,進而傾向于認可自己的主觀情感或者感受,不以達成社會共識為目的?!半S著平民意識的覺醒,以及精英與大眾之間裂痕的加大,平民大眾不再將自身的權利訴求假手于精英與政客,并開始走向政治前臺。”[12]互聯網對公眾意見表達的充分賦權使得網絡空間充斥著不同的意見、觀點和情感,促進了各種社會思潮相互激蕩和各種輿論相互交錯,而新聞后真相時代的倫理失范又加劇了這種狀況,不斷侵蝕和危及社會共識的凝聚。
網絡媒體中充斥著海量碎片化的新聞信息,甚至是虛假片面的新聞信息,公眾急需提升媒介素養,不斷增強新聞辨識力。在后真相時代,可以通過多種方式描述一個人、一起事件、一件事物或者一項政策,這些描述可能具有同等的真實性[13]。后真相時代有較多對熱點進行點評的新聞,面對這些帶有偏向性的“真實”點評,公眾需要保持批判性思維、理性思考以及對真相的尊重。
新聞后真相現象中的算法偏見為公眾營造了舒適的“新聞繭房”,但是“兼聽則明,偏信則暗”,公眾需要主動“破繭重生”,對信息進行主動篩選與辨別,跳出主觀桎梏去接納更多不同立場的觀點,積極使用理性思維去看待新聞信息,提升主動質疑意識,謹防偏向情緒化而失去對新聞真相的追求。
被算法技術賦權的網絡媒體帶來了批量“快餐新聞”,嚴重弱化了公眾對媒體的信任,公眾常常以“戲謔”的話語來回應新聞并消解對真相的追求。新聞媒體肩負著求真的道義責任、提供背景的知識責任、提供輿論陣地的組織和政治責任三大責任。因此,新聞媒體急需在“真相淡化”的后真相時代肩負起社會責任,明確新聞媒體職責,對新聞事件進行核實,回歸客觀與真實的報道,進行“輿論糾偏”,引導公眾樹立正確的價值觀。新聞媒體也不能過度依賴算法把關,而需要強化自身把關職能,堅守新聞的“客觀性”與“真實性”,篩選并剔除失實內容,引導公眾走向理性與真實。
算法偏見深化新聞后真相要求社會將視線聚焦到算法,新聞生產者迫切需要促進算法技術革新,進而規避和淡化算法偏見,促進人工智能新聞傳播健康發展。一方面,在算法技術倫理領域,生產者需要厘清技術與道德的關系,進行自我道德約束,利用高尚的道德引導算法技術革新與發展,并且將優良的道德觀念貫穿于算法迭代的全過程,使算法的運用和價值設定符合社會主流價值觀,保持新聞的客觀真實原則,生產高質量新聞;另一方面,在算法技術控制層面,要提升算法數據和算法運算的透明度,做到數據來源可查、數據內容可查、數據處理可查、數據可自主更改等。數據透明有利于用戶進行理性的自我審視,并在算法偏見的影響下仍然能夠保持獨立思考的能力。而算法運算透明由于技術的保密性、復雜性和專業性,向公眾遮蔽了算法偏見,急需公權力進行制約,以此淡化算法偏見的影響。
在新聞后真相時代,網絡新聞傳播的原理和核心是算法。算法的技術性較強,算法偏見也較隱蔽,由此產生的積弊難以靠平臺的自律而改變;加之算法權力帶來的風險是一種典型的現代性風險,也是日趨智能化的社會面臨的整體性風險,政府作為社會秩序的維持者應該完善監管體系,規制算法權力[14]。一方面,政府需要對算法偏見主體進行監管,明晰算法偏見的責任主體,比如算法模型的設計者和使用者,并對各個階段的責任主體進行監管、約談和問責;另一方面,政府需要成立專門部門,對算法模型本身和算法數據進行審查,并制訂專門的法律法規,對算法權力進行監督和規范,促進算法的公開和透明。