□ 王詩雯
基于算法的個性化推送,桑斯坦在《網絡共和國》中描述的“個人日報”(Daily Me)成為現實。算法滿足了受眾的需求,個性化推送可以讓受眾只看他們喜歡的。與此同時,個性化推送引發的信息繭房焦慮也卷土重來。
“信息繭房”(information cocoon)的概念同樣由桑斯坦提出。他在《信息烏托邦》中指出,在信息傳播中,公眾自身的信息需求并非全方位的,他們只看自己選擇的或能愉悅自己的東西。久而久之,信息就像蠶絲一樣將受眾與世隔絕,形成一個封閉的繭房①。他認為信息繭房可能會窄化受眾的信息來源,割裂不同群體間的交流,破壞多元的民主社會。
在國外,“信息繭房”作為學術概念較少被提及,一般用“過濾氣泡”(filter bubble)或“回音壁”(echo chamber)來代替?!斑^濾氣泡”是美國Upworthy網站首席執行官伊萊·帕里瑟于2011年提出的概念。他認為,人們在互聯網中所處的信息環境就像一個個氣泡,氣泡是經過一系列個性化過濾后產生的,這種過濾器遍布互聯網,并阻礙人們接觸新觀點②。“回音壁”也叫“同溫層效應”,媒體上指在一個相對封閉的環境中,意見相近的聲音被不斷重復,并以夸張或其他扭曲形式重復,令處于該環境中的大多數人相信這些扭曲的故事就是事實的全部。
這三種學術概念在學術界經常交替使用。近幾年,隨著算法進入傳媒業,今日頭條、騰訊新聞等一系列算法推薦資訊平臺興起,我國學者對信息繭房的研究也越來越多。
目前,我國大部分學者對此仍持警惕態度。他們的憂慮大致分為三類:第一,信息繭房可能會影響受眾的價值取向,導致群體極化,形成新的“沉默的螺旋”,破壞公共領域③;第二,信息繭房是受眾犧牲隱私的產物,為了維持繭房的影響力,算法會持續監視受眾④;第三,信息繭房可能會被議程設置所利用,成為操縱意識形態的工具⑤。國內學者對信息繭房的警惕,本質是對算法技術的不信任。
而部分國外學者卻將視線轉移向受眾,認為信息繭房的影響主要與受眾自身有關。他們認為,信息繭房在媒體中的負面效應被夸大了。最早表達此類觀點的是密歇根大學公共政策學院教授布倫丹·尼漢發表在紐約時報上的評論《美國人沒有生活在信息繭房中》(American don't live in information cocoon)。他列舉了皮尤研究中心對人們政治觀點的研究,發現選擇性心理仍有重要影響,人們選擇與自己偏好一致的信息與他們所處的媒體環境無關。彭蘭教授也發表了類似觀點,她認為完全消除信息繭房不現實,由于受眾的選擇性心理,信息繭房會一直存在⑥。
渥太華大學的杜波依斯教授通過對2000名英國成年互聯網用戶的調查發現,只有8%的用戶缺少多元的新聞視角,有可能被困在信息繭房之中⑦。丹麥奧爾胡思大學學者也得出了類似結論,他們通過對1000名丹麥Facebook用戶新聞源的調查發現,受到信息繭房影響的用戶只占一兩成。而用戶的“社會性”,即喜歡的頁面數量、團隊成員和朋友,是個性化推送中最重要的預測因素⑧。
因此,信息繭房一直存在于傳播過程之中,并不是算法生產的。在個性化推送背景下,信息繭房有不良影響,但也可能被削弱或克服。
選擇自己喜歡的媒介,支持并相信與自己觀點一致的信息,回避與自己觀點相悖的內容,這是受眾天生的“選擇性心理”。因此,受眾不可避免地會被束縛在由興趣和主觀所導致的狹隘信息域中。
2016年,阿姆斯特丹大學的學者綜合了對個性化推送強度及影響的實證研究,發現人們在主動選擇接收內容前,會預先設置個性化選擇。即算法為用戶提供的個性化內容,其實是用戶深思熟慮的選擇⑨。
算法為受眾創造了便利,他們可以預先設置自己的喜好,通過個性化推送更高效地找到自己喜歡的信息,并形成與自己觀點一致的群體,主動沉浸于信息繭房。比如,抖音備受海外性少數群體的推崇⑩。原因在于,算法分發比社交分發更為精準地讓他們找到與自己相似的群體,并與對立觀點隔絕。這使他們可以輕松地在“烏托邦”中交流,躲避對立群體的謾罵和歧視。
同樣的情況在追星族中也可找到端倪。個性化推送會按照粉絲偏好向他們推送明星資訊,并幫助他們找到對應粉絲團,形成所謂的“粉圈”。生活在“粉圈”中的粉絲會源源不斷地接收到與明星相關的信息,并主動屏蔽負面信息,強化明星在其心中的良好形象?!胺廴Α钡谋举|就是粉絲為自己打造的信息繭房。
在“選擇性心理”的驅動下,個性化推送會將觀點對立的群體區分開來,進而加速信息繭房的形成。
目前,個性化推送廣泛采用的算法技術是“協同過濾算法”,即算法會通過對大范圍內的人群進行分析,同時考察群體中不同的興趣愛好,并找出與目標對象喜好最相近的小部分信息或人。個性化推送的“協同過濾算法”,則是對個人議程設置主觀篩選后的二次過濾?。前者為受眾劃分了選取信息的范圍,后者則將范圍進一步細化,并將同類信息和用戶集中起來,讓“相同的聲音”更多。
算法“制造”信息繭房,主要原因是目前的算法技術存在局限。算法并沒有我們想象中那么智能,它只能根據指令提供信息,無法判斷什么樣的信息應該被受眾看到。這是目前無法避免的技術問題。
其次,既然算法由人類編寫,就會不可避免地被植入“偏見”,不論無意還是故意。部分個性化推送平臺甚至會利用技術優勢,通過“算法偏見”來制造信息繭房。比如2018年爆發的“大數據殺熟”問題,旅游購票軟件通過分析不同群體的消費能力,將顧客的付費價格差異化。同樣的商品或服務,消費力高的用戶往往比消費力低的用戶付費更多,而前者對這種差價渾然不知。
同樣的行為也被放到政治宣傳中。美國大選期間,Facebook和Twitter上關于特朗普的消息和討論數量遠超希拉里。有學者認為,過量有關特朗普的信息讓網絡中他的支持者們發言更踴躍,有利于他在競選中勝出。
我們所擔心的信息繭房,源自單一的、同質化的算法。但在實際生活中,用戶會消費各種各樣的算法平臺,不同類型的算法平臺又會向受眾提供不同的個性化資訊。通過不同算法的互相補充,個性化推送有時可以起到消除信息繭房的作用。
2016年,英國帝國理工學院的學者進行了一項代表性試驗。他們選取了50000名參與者,要求他們報告最近閱讀、觀看或收聽的媒體,同時監測和記錄他們的實際媒體消費行為。通過數據對比,研究發現人們實際的媒體消費比想象中更具有多樣性?。也就是說,人們總是誤認為自己身處信息繭房之中。實際上,通過不同推薦平臺的信息補充,信息繭房對他們的影響并不大。甚至有研究指出,算法可以在一定程度上拓寬受眾的視野?。比如通過推薦與用戶喜好相似的人的媒體消費行為,讓用戶接觸到偏好項中更多元的內容。簡而言之,個性化推送雖然在橫向上減少了其他信息的種類,卻在縱向上拓展了他們需要的信息種類。
對信息繭房產生警惕的不只有學者,部分感受到算法威力的受眾也開始改變閱讀習慣,主動參考與自己意見不一致的觀點。為了彌補算法技術可能導致的信息繭房問題,個性化推送平臺也在嘗試做出改變,如谷歌瀏覽器的“逃離泡泡”插件。還有學者建議,在網頁上設置“翻頁”按鈕,點擊后觀看與自己觀點相反的信息,以獲取不同視角。盡管個性化推送的算法對于大部分受眾而言仍如“黑箱”,但只有了解和認識信息繭房,才有機會打破固執。這不僅需要依靠算法平臺的升級,還需要依靠受眾自身的改變。
我們對信息繭房的擔憂并非杞人憂天,但用批判的觀點看待新技術,預判信息繭房可能導致的問題,也是源于對算法技術發展完善的迫切。然而,夸大信息繭房的危害,過度悲觀,是毫無必要的。無論技術如何改變受眾獲取信息的方式,決定信息接收并消化的仍是個人。信息繭房或許永遠無法被消除,但認清個性化推送與信息繭房的關系,或許會讓解法越來越簡單。
注釋:
①[美]凱斯·R.桑斯坦.信息烏托邦——眾人如何生產知識[M].畢競悅 譯.北京:法律出版社,2008:8.
② Eli Pariser:Beware online “filter bubbles”,TED Talks(March 2011).
③喻國明,侯偉鵬,程雪梅.個性化新聞推送對新聞業務鏈的重塑[J].新聞記者,2017(03):9-13.
④郝雨,李林霞.算法推送:信息私人定制的“個性化”圈套[J].新聞記者,2017(02):35-39.
⑤范紅霞,孫金波.大數據時代算法偏見與數字魔咒——兼談“信息繭房”的破局[J].中國出版,2019(10):60-63.
⑥彭蘭.人人皆媒時代的困境與突圍可能[J].新聞與寫作,2017(11):64-68.
⑦ Dubois.E:The echo chamber is overstated:the moderating effect of political interest and diverse media,Information,Communication Society,vol.21,no.5 (2018),pp.729-745.
⑧ Bechmann,A:Are We Exposed to the Same “News”in the News Feed? An empirical analysis of filter bubbles as information similarity for Danish Facebook users,Digital Journalism,vol.6,no.8(2018),pp.990-1002.
⑨FJ Zuiderveen Borgesius:Should we worry about filter bubbles?,Internet Policy Review,vol.5,no.1(2016),pp.1-16.
⑩ Joseph Longo:FOR LGBTQ TEENS,TIKTOK IS THE NEW TUMBLR,MEL magazine,2019-7-4.
?劉華棟.社交媒體“信息繭房”的隱憂與對策[J].中國廣播電視學刊,2017(04):54-57.
? Seth Flaxman:Filter Bubbles,Echo Chambers,and Online News Consumption,Public Opinion Quarterly,vol.81,Issue S1(2016),pp.298-320.
? Tien T.Nguyen:Exploring the filter bubble: the effect of using recommender systems on content diversity,Proceedings of the 23rd international conference on World wide web,April 2014,pp.677-686.