王旭
隨著電腦、手機等移動終端的廣泛使用以及互聯網的發展,微博、Facebook、YouTube等社交媒體興起,一個名副其實的“地球村”正在形成,互聯網上的個人信息和用戶的行為數據越來越多,在大數據的支撐下,推薦算法也有了長足的發展。第三方監管機構Analysys發布的數據顯示,2016年在信息發布市場,算法驅動的內容超過50%,而到2022年,這一比例應當會更高。
自1998年起,亞馬遜在其電子商務平臺上引入了基于文字的協作過濾算法,在眾多用戶及產品中實現了個性化推薦,之后,網絡平臺加速了算法的研發與實踐,如今日頭條、抖音、小紅書等內容發布平臺、Facebook等社交網站等均廣泛應用了推薦算法技術。
推薦算法的運行機制,是基于互聯網上的海量用戶數據,通過對其瀏覽與閱讀行為進行捕捉,分析出用戶的個人畫像后將他們進行標簽化分類,對此將新聞內容進行個性化精準分發,便可實現信息分發的高效。而用戶的每一次刷屏行為下都能有新內容的出現,正是因為有著海量的數據的支撐,大數據才成為推薦算法的基礎,如果想要提升用戶個性化信息推薦的精準性,則要不斷地充實用戶數據庫。
在新聞領域,推薦算法極大地影響了新聞的分發環節。如今,算法已成為國內資訊APP的“標配”,今日頭條、一點資訊、天天快報等都是以算法為核心,其中,“今日頭條”作為一個新聞資訊聚合平臺,聚合了互聯網上各種媒體渠道產生的內容,通過推薦算法為用戶提供個性化發布,在這個過程中,它只涉及新聞內容的發布,并不產生新聞內容本身。
現如今的算法新聞涉及體育、金融、氣象類,并且在形式上也是以靜態的敘述新聞為主。本文認為,隨著計算機技術與信息技術的不斷發展,算法新聞將逐漸轉向更為復雜和敏感的新聞領域:如社會新聞和政治新聞等。
誠如尼爾·波茲曼在《技術壟斷:文化向技術投降》所言,所有技術都既是恩賜,又是包袱,不是非此即彼的結果,而是利弊同在的產物,對于算法推薦技術而言亦是如此。
要想得到更準確的推薦,就得“讓渡”一些個人隱私,讓算法來定義自己,就像是看病時,要將自己的身體狀況告訴醫生一樣。但是當前個人信息卻被非法收集,且有二次販賣和泄露的危險,而這些,用戶自己并不知道。
2020年5月,王越池發微博稱中信銀行上海虹口分行未經授權將個人賬戶資金信息提供給笑果文化傳播有限公司,涉嫌侵犯公民個人信息,王越池已發出律師函,請求中信銀行、笑果文化進行賠償,并公開道歉。近幾年,這樣的事情時有發生,信息技術的發展讓每個人的瀏覽足跡都可以通過網絡找到,再也沒有了所謂的私人空間。
除卻個人信息的直接泄漏,企業的大量用戶數據泄露事件也同樣在發生。同年,一個名叫“f666666”的暗網用戶非法販賣圓通的十億條用戶信息,這些信息包括發件人(收件人)的姓名、聯系方式、地址等信息,并進行了再加工,復制率低于20%,售價1個比特幣。有網友調查后發現,“單號”上的用戶個人信息都是真的。后來圓通公司稱,是公司的員工與外界人員串通謀劃了這一“個人信息泄漏”事件。
在新的技術時代,互聯網為用戶提供了大量的信息,算法的“標簽化”則能夠將海量數據逐一標注、分類存儲,然而“標簽化”也就意味著“去個性化”,大量的同質性信息又會導致受眾的視野狹窄,大眾只能關注自己喜歡的東西,久而久之,就會陷入“信息繭房”,人們對事物的認知會得到進一步加深固化,讓原本植根在受眾內心的固有觀念被無限放大。
河北一出租車司機連續偏離路線致使女乘客跳車事件,引發極大關注,有關部門介入調查后稱該司機是因為修路而繞行,這并非第一起由網約車偏離路線造成的乘客跳車事故。2021年2月份一位湖南女性在貨拉拉平臺上打了一輛車搬家,卻在半路跳車身亡。前后兩起相似性事件引發了網民的情緒共振,“網約車”“女乘客”“跳車”“偏航”等符號的出現,讓那些有著相似情緒和態度的網民重新聚集在一起,形成了一個個封閉式的小群體,成員與外部世界交流甚少,容易導致個體的思維空間受到限制,進而喪失獨立思考的能力并產生盲目自信、心胸狹隘等不良心理,而經過多起滴滴出行、貨拉拉等負面事件的傳播,含有負面情緒的新聞話語已經擴散到公眾固有認知中。
隨著推薦算法的興起,媒體“把關人”的權力從人轉移到了機器上。
傳統媒體時代,新聞從業人員擔任著“把關人”的角色,他們對各類新聞信息進行篩選鑒別,確保受眾看到的新聞是真實且符合主流價值觀的。
當前,信息的“把關權”是由算法控制的,但現有的算法無法讓電腦像人類那樣精確地分析文本、音頻、視頻等信息,從而使得讀者的興趣偏好成為信息的“把關人”。
在推薦算法中,常常以“流行度”為衡量標準,受眾只會看到他們所希望看到的資訊,而非主流媒體所要傳達的資訊,“把關權”的轉移使得主流媒體在某種程度上喪失了對議題設置的主導地位。同時用戶在使用手機的時候,通常都處于獨處的狀態,這個時候,他們的信息需求就會帶有“獵奇性”,更加偏向低俗低質的信息,在算法推薦下,將會造成更多低質量的信息傳播。
推薦算法已經成為眾多互聯網公司的“一把利器”,正在從根本上改變著傳統信息社會的流動方式,不僅可以對用戶的需求和價值進行深入挖掘,而且還可以“投其所好”地實現一系列的業務活動,但其治理問題也逐漸成為智媒時代政府治理的重要挑戰,也是當下完善國家信息安全機制的重要組成部分。
習近平總書記在十九屆中央政治局第十二次集體學習時明確提出:“我們要增強緊迫感和使命感,推動關鍵核心技術自主創新不斷實現突破,探索將人工智能運用在新聞采集、生產、分發、接收、反饋中,用主流價值導向駕馭‘算法’,全面提高輿論引導能力”。
對此,國家各相關部門已積極采取了一系列措施。國家網信辦、工信部、公安部、國家市場監督管理總局聯合發布《互聯網信息服務算法推薦管理規定》(以下簡稱《規定》),自2022年3月1日起施行。《規定》明確了算法推薦服務提供者的信息服務規范,要求算法推薦服務提供者應當堅持主流價值導向,積極傳播正能量,不得利用算法推薦服務從事違法活動或者傳播違法信息,應當采取措施防范和抵制傳播不良信息,不得利用算法實施影響網絡輿論、規避監督管理以及壟斷和不正當競爭行為。
主流價值觀要對“算法”進行導向,一方面要在標題、敘述手法、寫作角度、表達方式、傳播路徑等方面提高內容的品質,使得觀眾主動點擊、瀏覽、分享、轉發;另一方面要發揮基層新媒體、政務新媒體、校園媒體等多元傳播主體的協同過濾機制,加大正能量內容的“曝光率”,盡可能地讓更多的人看到。
算法時代的到來,給用戶的素養提出了新的要求,不僅要有媒介素養和數字素養,還要具備一定的算法素養,而要提倡算法素養的前提,就是要讓人們自身明白,在當今的社會中,算法是不可避免的,我們必須培養自己的算法素養,才不至于淪為算法的“囚徒”。所以,要了解各種算法的工作方式,以及它們在什么層次上影響我們的認知、行為、社會關系。
算法推薦帶給我們的內容會潛移默化地影響價值觀與網絡行為,對于一個新聞事件,現如今會有不少人在互聯網的虛擬世界里做一個“鍵盤俠”,躲在屏幕后操縱著自己的鍵盤,憑借著僅有的“真相”來肆意攻擊其他人,“網絡暴力”所帶來的惡果是非常沉重的,四川德陽女醫生因不堪忍受網絡暴力與人肉搜索而選擇自盡等此類案件不禁讓人唏噓不已。
最近幾年,關于騰訊、美團等公司因壟斷或大數據“殺熟”被有關管理部門勒令整頓的消息一次又一次地出現在各大媒體頭條。北京市消協的數據顯示,互聯網平臺、旅游平臺、網約車平臺等都是“殺熟”的重災區,若不加以整治,將繼續損害消費者的合法權益,也將對電商產業的長遠發展產生不利影響。而平臺無論是基于用戶行為習慣、消費偏好等特征進行大數據“殺熟”,或是非法搜集、買賣用戶隱私數據,歸根結底都是因為智能媒體時代算法推薦技術的不透明性,“暗箱操作”給社會公眾的合法利益、相關部門的有效監管帶來極大的挑戰。所以,我們務必建立一套完善的算法信息披露機制,并督促相關公司和平臺將主要算法推薦技術的工作原理公之于眾。
《規定》)聚焦大數據殺熟、算法偏見等侵害用戶權益的亂象,明確算法推薦服務公開透明的原則、保障用戶選擇或退出使用算法推薦服務的權利、建立用戶申訴渠道等多種措施,保障未成年人、老年人、勞動者權益,鼓勵算法推薦服務提供者綜合運用內容去重、打散干預等策略、增強規則透明度和可解釋性。有關部門應積極引導商業平臺進行公平競爭,防范少數大公司的壟斷,并在必要的時候對分銷商進行反壟斷的檢查。
算法推薦機制的公開透明還有很長的路要走,《規定》倡導社會監督,不可只依賴于企業的自覺性,鼓勵廣大網民積極參與算法安全治理工作,面對公眾和監管部門的詢問與質疑,算法企業和平臺主體必須保證投訴渠道的實時暢通,并依法合規地做好后續的解釋處理工作,各方要共同攜手,最大限度地保證算法的公開透明化。