王玉山
摘要:Facebook泄露隱私事件讓人們將目光重新回到了2016年美國大選。由于人們對于算法的影響仍然察覺不足,算法機制下的新聞對人們似乎有著“皮下注射”般的效果。為了規制這樣日趨成熟且影響巨大的算法,人們可以考慮從市場、法律、架構和準則四個維度入手。
關鍵詞:互聯網;新聞;意見;美國大選;Facebook;議程設置
2016年特朗普當選美國總統的結果出乎了許多人的意料,從傳統的理論出發來看,媒介議程能夠影響公眾議程。而在2016年的美國大選中,卻出現了媒介議程與公眾議程的極大差異。大選中,主流媒體的聲音似乎一直在調侃特朗普,支持希拉里,而由它們塑造的公眾意見氣候以及廣大調查公司偵測到的意見氣候,也是以支持希拉里為多數的。而從最后的結果來看,公眾的真實的意見卻支持特朗普。這一被稱為“特朗普現象”的事實顯示,不僅媒介議程被改變了,連傳統的感知意見氣候的方式都已經過時。傳統媒體與互聯網媒體之間、精英的意見與大眾的意見之間,形成了一種割裂。
矛盾背后的原因,可能是公眾意見氣候與公眾意見本身就存在著差異,可能是議程設置的理論在這個新的時代已經不再適用,而直到2018年初Facebook泄露用戶信息的丑聞曝出,人們才開始將目光移到技術的角度。本文試圖從技術角度出發,探究新技術背景下,媒體是如何影響公眾意見的。
一、互聯網技術背景下的媒體
對比從前和現在的媒體,不難發現,之前的理論框架下的媒體和現在的媒體已經有了巨大的差異,拋開電視、報紙、廣播等傳統媒體本身的變化,互聯網作為媒體出現,其本質與傳統媒體有著巨大的區別。人們似乎直到現在才開始意識到,互聯網在影響人們的想法上的巨大的威力。尤其是當人們試圖通過改變媒體議程來影響公眾議程的時候。
互聯網作為媒體,其體量已經超過了所有的傳統媒體。人們無法用一個單獨的、割裂的眼光來看待互聯網,因為其內容的豐富使其又不僅僅是一個媒體。互聯網既是新聞的載體,又是人們接觸新聞的場景。人們習慣于在瀏覽信息、上社交網絡甚至娛樂互動時接觸到一條一條傳統定義中的新聞。在互聯網上,人們通常會忽略新聞本身的新聞特點,而直接將其歸于信息流之中。
互聯網是技術主導的、沒有完整行業規范的媒體。區別于人們早已認識到其威力并制定了完整的行業規范和倫理的傳統新聞行業,互聯網作為媒體仍處在野蠻生長的階段?;ヂ摼W的規則是“流量為王”,傳統的新聞倫理沒有辦法限制到本來與新聞行業相差甚遠的非新聞專業出身的互聯網媒體人。在法律和硬性規定以內的所有手段都可以被使用才是互聯網的邏輯。
互聯網是其他媒體的內容表現平臺,與大部分其他媒體共享同一內容庫。不同于傳統媒體之間區別的主要方式是內容形式,互聯網的極大包容性允許任何新聞以任何形式呈現,并且成為傳統媒體必須爭搶的主要用戶渠道。盡管仍有不少媒體拒絕互聯網的渠道和分享,但用戶的流失讓擁抱互聯網、共享內容成為大多數媒體繼續生存的僅有途徑。
對比作為媒體的互聯網與傳統媒體,不難發現,互聯網與傳統媒體共享記者、內容庫,但卻比傳統媒體有著更廣大的受眾。當然,決定用戶究竟從互聯網和傳統媒體上獲得什么信息的關鍵,則是編輯。區別于傳統媒體的以人為主的編輯室機制,以技術為主導的互聯網則發展出來了新的編輯機制。
二、以算法為主導的新互聯網編輯機制
算法最開始是一個純技術術語,其本意指通過代碼編程,使計算機實現人們所需要的內容。其內核在于,用系統的方法描述解決問題的一個機制。在計算機學科內,通過簡單的“輸入-計算-輸出”結構解決大多數問題,而算法就是其中計算過程的一個具體過程。而在現實的使用中,一般指代以用戶個體特征為基礎的新聞推薦算法機制?;ヂ摼W算法的內核是收集用戶信息、比對用戶行為,在此基礎上直接推薦內容。用戶在上網時的每一次點擊、每一條評論、每個頁面停留的時間、使用的網絡(Wi-Fi 還是移動數據)、手機機型都將被系統收集起來,隨后算法會利用這些收集到的數據構成一個多維的數據矩陣,并以此刻畫出屬于這一用戶的“用戶畫像”。在確定了用戶的特征之后,算法就可以基于此向用戶推薦他可能感興趣的內容。也就是說,算法和“用戶畫像”在互聯網新聞中取代了傳統媒體的編輯工作,由來源于用戶本身的信息所顯示的用戶興趣來決定用戶自己讀什么。
通過算法推薦的新聞產品與傳統媒體所呈現的新聞產品有著相同的內容源、記者、新聞稿庫,區別就在于編輯的不一樣。這樣的區別決定了最終出現在受眾眼前的內容的不一樣。畢竟,受眾的精力是有限的,有限的精力和閱讀意愿被編輯所引導,最終出現在受眾眼前的文章與編輯的關系甚大。傳播學者已經反復證明了人們的觀點與所讀文章的相關性,所以我們可以推測,并非議程設置的理論在新環境下已經不適用了,而是在新技術條件下,人們所接觸到的媒介議程已經個體化、區別化了。在“千人千面”的媒體議程下,人們需要與新技術結合來重新看待媒介議程和意見氣候的關系。
而Facebook隱私泄露的丑聞則告訴了我們,現在的互聯網公司是如何使用用戶數據和算法,來為用戶進行新聞推薦的。3月18日,《衛報》的報道證明,在美國,Facebook干預了大選結果。一家名為劍橋分析(Cambridge Analytica)的數據公司竊取了5000萬Facebook用戶資料,根據每個用戶的日常喜好、性格特點、教育水平,預測他們的政治傾向,進行新聞的精準推送,達到洗腦的目的,間接促成了特朗普的當選。該公司的主要業務是運用大數據挖掘和心理側寫(Psychological profiling)等技術手段,提供信息精準投放服務。CA 公司將美國人口分為 32 種人格類型并且僅關注 17 個州。通過這種方法 CA 公司發現了諸如喜歡美國汽車的人民更有可能支持特朗普這樣的性格傾向。同時這類信息又很好地提示了何種信息在何處能夠發揮最大的效果。
盡管報道中欠缺對于技術直接影響意見的證明,但通過隱私信息和算法,為民眾推薦既符合其行為愛好又具備政策、意見、選舉傾向的新聞的做法,是完全可行的。也就是說,如果傳統的議程設置理論的機制在今天沒有出現太大偏差,那么這樣一個通過技術設置個人專屬的議程來影響公眾意見的邏輯也是完全說得通的。這樣的推測似乎讓傳播學重新回到了強效果理論的時期,人們對于新技術的抵抗力近乎為零,影響公眾的意見如發射子彈和皮下注射般輕松寫意。
三、對于算法的規制
毋庸置疑,算法對于互聯網出現后的傳媒的影響是巨大的,其出現在公眾的視域中的方式卻是十分負面的。正如新聞業在不斷的規制中成熟一樣,如果不開始對算法進行限制,類似于Facebook泄露隱私的事件必然會不斷重演。關于如何規制算法,在網絡世界剛出現時,萊斯格在著作《代碼2.0:網絡空間中的法律》一書中就探討過規制網絡世界的四個基本元素:市場、法律、架構和準則。
目前,市場是影響算法相關產品的最成熟的一環。事實上,正是市場這一元素,讓互聯網公司和算法的野蠻生長和所謂“技術中立”的說辭有了意義。“技術中立”正是價值不中立的絕佳掩飾,這并不是對于互聯網公司的貶斥,而是正常的自由主義市場下必然出現的結果。因為網絡空間一直以來的技術導向,讓人們忽略了它背后的價值觀。一直到2016年12月21日,扎克伯格才終于改口,認為“Facebook”不是一家傳統媒體公司。“我們構建技術,我們對它的使用負責?!憋@然,互聯網世界并非只有市場說了算。
在代碼層面,萊斯格認為代碼的透明度是很重要的部分,中國社科院新聞與傳播研究所副研究員季芳芳的研究中同樣有所提及。新聞媒體中的算法透明度,是公開算法機制相關信息的嘗試。算法信息的披露,有利于公眾知曉算法可能存在的價值觀導向。算法的透明度雖然會對用戶體驗產生不良影響,但當受眾對特定推薦進行選擇時,也增加了對算法質量的認可。公開透明的算法是代碼層面解決問題的路徑之一,但并非唯一路徑。在技術層面上,開發外向性的研究推薦算法來減少信息繭房的形成,在算法推薦的基礎上加入人工推薦的元素等方式也都是可行的。
準則強調的是個人參與、素質以及社會認知。在準則層面對算法進行規制,個人的媒介素養是重要的一環。人們目前對于網絡媒介的使用習慣、信任程度無疑是讓算法由工具成為操縱者的主要原因之一。提高使用者的自主程度,改變使用習慣,是我們每個人可以完成的對抗算法的影響的行為。