姬廣緒
正如電子前線基金會的克里斯·帕莫所說,“你獲得的是免費服務,你付出的是個人信息,而Google和Facebook很懂得如何將個人信息兌換成金錢。”
如果說獲取免費服務的代價僅僅是將個人信息用于商業性的廣告定制和更加精準地推送給客戶,那其實也還好。但是隨著算法的不斷迭代,個人的信息搜集變得越來越普遍時,我們發現這種“個性化”左右的不僅僅是我們購買何種商品和服務。
隨著移動互聯網的發展及智能終端的普及,越來越多人的主要新聞和信息來源依賴于網絡新聞資訊平臺,從目前的趨勢來看,以今日頭條為代表的互聯網新聞平臺將是中國公眾未來主要的信息來源。在今日頭條這樣的平臺上,表面上,“你所關心的就是頭條”,平臺在迎合你的興趣愛好,給你推送“個性化定制”新聞。實際上,你能看見什么由平臺的算法所決定,算法在影響你的立場,進而塑造你的價值觀。
目前多數的算法和信息過濾技術,都是根據用戶的點擊內容、文字輸入和搜索等動態行為來判斷你可能會感興趣的內容。用戶在網上的行為會被詳細記錄、標簽,以此來推斷你的好惡。只看想看的信息,聽起來是一件很愉快的事情,但長此以往,你就被隔離在信息的孤島上,喪失了理智選擇的權利。
在今天的互聯網上,所有的平臺和網站都不會告訴用戶其搜索到或被推送的信息是如何遴選出來的,用戶同樣不知道,算法在背后已經對自己進行了全方位的立體畫像。
帕斯奎爾將由于算法的秘密性所帶來的信息社會稱為“黑箱社會”,并且新媒體們可以逃避責任,不必像傳統媒體那樣直面公眾,所有公司都在最大化地隱藏算法設計方法,甚至隱藏算法的存在,“商業機密”成為隱藏的“合理”說辭。因此,索羅斯所聲稱的,“威權國家可能與擁有大量數據的公司結成聯盟,最終形成一個連奧威爾都未曾想象到的極權控制網絡”,并非是一個耄耋老人的囈語。
關于算法的原理,Facebook借助的是EdgeRank,以這種演算法來整理預設的賬號首頁,亦即頭條動態消息。EdgeRank的作用是為Facebook上的每一種互動排名,演算法很復雜,但基本概念相當簡單,依據三種因素來計算:第一種因素是親近度,你在某人的賬號上逗留時間越長,表示你和這人的親近度越大,Facebook越有可能對你發布這人的近況;第二種因素是資訊類型的比重,以“感情狀態”為例,加權的比重非常高,因為大家都想知道誰正在和誰交往;第三種因素是時間,近期張貼的事項比舊事重要。
文化認知結構作用:人腦的認知一方面要強化既有的認知,另一方面要獲取新知,而人腦每天接觸到大量的信息,如何過濾掉無意義的信號,篩選出極小比率的重要資訊,以達到強化既有認知和求取新知的平衡,這一點尤為重要。
在人腦中,這個最重要的機制就是壓縮資料。大腦通過壓縮信息量,捕捉所見所聞中的精髓概念,在認知人類學中被稱為“認知結構”。認知結構的作用就是,一種事物如果反復出現,人腦就沒有必要去重新認識。人一旦認出椅子的長相,就知道它的用途。認知結構一旦生成,我們本能上就會去強化這些結構。心理學稱這種傾向為“確認偏誤”,也就是人們更加愿意相信能夠佐證既有觀點的事物,往往只看到他們想看的東西。
個人化的文化認知結果會以三種方式阻礙文化多樣性認識:第一,過濾罩以人為的方式限制“異文化視野”;第二,過濾罩里的信息環境缺乏激發理解文化多樣性的特質。互聯網本是人類接觸和了解多樣文化的最佳窗口,然而人工智能及算法營造出來的過濾罩環境卻將這扇大窗戶壓縮為一面小鏡子;第三,人工智能和算法 “推送”的是(它猜測)你會感興趣的信息,個人主動搜尋和探索異文化的機會被抑制。
基于算法的信息過濾所提供的對于特定問題的解答是一種人工解答,視域極其有限,但很有效。無論你想解決什么樣的問題,它都能夠給你提供一個高度關聯的信息環境。通常這樣的環境都很實用,例如當你搜索“非洲黑人”時,搜索引擎會在下方推薦你可能會感興趣的相關話題,例如“非洲黑人為什么懶”、“廣州非洲黑人治理”、“廣州黑人兇”等。當你點擊相關話題瀏覽信息時,算法就會將你的這個動態痕跡記錄下來,作為日后推薦更加符合你的閱覽偏好的信息的關聯數據,但這時你看待問題的視野無形中就會被壓縮了。算法過濾帶來的最大問題就是它沒有“拉遠鏡頭”的功能,使用者容易迷失方向,看不清楚事物的全貌,將自己置身于一座信息孤島上。
算法過濾的機制依循的是三步驟模式:首先,算法通過動態信息和靜態信息認清用戶身份與喜好;其次,對用戶提供最合宜的信息;最后,把算法改良到恰到好處。簡言之,你的身份形塑你使用的媒體,反過來媒體也會形塑你的身份,最后就是個人和媒體高度互嵌。
當個人化的媒介與特定的人的心理機制結合后,我們會發現身份塑造媒體的同時,媒體也在影響個體相信和關心的事物。當你點擊一條關于非洲黑人的新聞的鏈接時,表示你對那鏈接表現出興趣,這代表你未來比較可能點擊同一主題的文章和新聞,媒體進而暗中慫恿你繼續這個主題。個體就這樣被困在一個信息的閉環,反復看見的都是自己想看的信息,陷入傳播學中經常提到的“信息繭房”。
例如,瀏覽網上關于非洲黑人的負面評論,就會發現網友普遍認為黑人都很懶惰、不遵守規則、在廣州一定是會擾亂社會治安。這是因為基于人工智能的算法推薦程序不斷把相關信息推送給本來就有誤解的讀者,他們看到的這些信息又驗證了已有偏見和假設,成為“自我應驗的預言”。
因此,盡管網上有海量信息,深居算法和過濾罩里的我們卻陷入了“信息繭房”。盡管網絡本可以解放知識、松綁控制,實際卻在逐漸收窄我們的視野,限制我們的機會,而網絡權力集中在幾個人身上,形成史上僅有的少數霸權。科技的初衷是讓人類更能控制日常生活,如今的結果卻是剝奪我們的權利。
針對上述問題,有幾個層面的問題需要思考。
首先,從國家和政府的層面,需要對信息時代的公共領域和資源有全新的認識。隨著數字生活的全面開啟,公眾對于信息的消費需求越發強烈,商業性的力量先于政府介入其中并開始控制信息的供給。正常的競爭本無可厚非,既符合商業邏輯,也節約了公共資源。然而商業的逐利本性和壟斷操縱野心讓公共信息的供給走向歧途,甚至某些巨頭企業為了滿足投資者的需求開始在搜索引擎中置入非正當、非正義的算法。這就需要政府的主動干預來矯正,合理控制企業在公共信息提供方面的任意性和商業性導向。例如,在承諾保密的前提下,政府可以要求占據壟斷地位的巨頭企業報備其算法模型,并由自己的專業監管機構或外部專家委員會加以審核。
其次,從企業來說,在保證商業利益的前提下,算法模型應該強調“多元性”,例如瑞士的報紙Neue Zürcher Zeitung(NZZ)最近開發了一款App——the Companion。像大多數智能新聞終端一樣,這款App也通過機器學習生成個人算法,給用戶推送個性化的新聞信息流。但與眾不同的是,算法會確保這一系列新聞中包含一個“驚喜”,也就是超出讀者偏好范圍之外的內容。
類似地,谷歌瀏覽器的“逃離泡沫”(Escape Your Bubble)插件也在做同樣的努力,這款插件可以根據用戶的閱讀習慣,反向推薦調性積極、易于接受的內容。用戶每次訪問Facebook時,插件會將不同視角的文章自動導入用戶的信息流。多元提供了用戶逃離“信息舒適區”的可能性,更加多元和豐富的資訊有助于完善今天數字信息的生態。這就要求算法工程師在制作算法的時候應該有意識地通過更加合理的技術增加奇遇、多添一些人性,對微妙的身份差異敏感一些、主動宣傳公共議題并培養公民精神,用更加多的“道德算法”解決之前的技術偏見問題。
而作為公共信息的重要來源,頭部搜索引擎公司和信息平臺公司需要繼續強化“信息把關人”的職能,肩負起社會責任、傳播人文精神,為用戶提供有價值的閱讀,真正讓重大新聞能看到、有人看,防止算法操控下劣質信息的過度生產和分發。
最后,從用戶的角度來說,提升“網絡素養”不應僅僅是體現在如何防止網絡詐騙,減少經濟損失這樣直接的利害問題上。提高信息搜索、信息篩選的能力,更是未來融入數字世界的核心所在。良性信息已經成為現代公民重要的生存資源,獲取資源能力的關鍵就在于網絡素養的提升,這也是技術賦權的重要方面。
(作者為中山大學移民與族群研究中心副研究員、互聯網人類學博士;編輯:馬克)