莊子楦
摘 要 憑借著個性化、精準化、數據化等特點,算法推薦技術成了各大新聞資訊平臺邁向“智媒時代”的香餑餑。正如萊文森所說的“任何技術都是刀子的翻版”。算法推薦技術為媒體和受眾帶來傳播便利和經濟利益的同時,也隨之帶來了一系列的倫理問題,“數據主義”“人文主義”相互協調卻又相互制約,受眾似乎在新技術主導的傳播過程中重回被動。文章對算法推薦做出概念界定及意義,并從信息繭房、算法黑箱、全景監獄三個倫理問題角度分析算法對于用戶權利的威脅,從法律、機制優化、把關回歸三個角度提出“權利回歸”解決路徑。
關鍵詞 算法推送;技術倫理;權利
中圖分類號 G2 文獻標識碼 A 文章編號 2096-0360(2020)20-0025-03
隨著新媒體成為受眾日常接觸世界了解世界的重要途徑,互聯網的海量性使得受眾跨入了一個信息負載的網絡時代,龐大海量的信息也讓傳統的內容分發模式徹底失效,受眾的閱讀習慣日益“碎片化”。不少社交媒體平臺、新聞客戶端都開始順應大數據時代的潮流,探索新型的內容分發模式,于是乎,類似以今日頭條為代表的“算法推薦分發”模式、知乎為代表的“社群分發”模式、微信為代表的“個性化訂閱”模式的出現,在豐富了內容分發的模式的同時,也讓算法推薦成了各大平臺都爭相使用的內容分發技術。
1 算法推薦概念界定
算法推薦是基于內容資源、大數據技術、用戶為一體的一種信息精準分發模式[ 1 ]。其操作過程是通過算法程序收集用戶的上網行為,將用戶的上網行為儲存為可分析的數據,然后分析數據進而挖掘出用戶的愛好習慣以用戶的社交圈,用一個個標簽化的關鍵詞繪制出用戶專屬的用戶畫像,從而據此向用戶推送個性化定制的新聞產品。
目前算法推薦形式中應用較為廣泛的是以下 三種。
1)用戶畫像算法,即計算機會通過數據采集和分析,構建出用戶個性化用戶圖像,系統會推薦那些與用戶喜歡的以及用戶關注過的內容相類似的Item[ 2 ],此外算法還會分析這些內容之間的關聯性。但是這樣的算法推薦方式卻極易出現內容同質化現象的出現,也導致用戶受困于“信息繭房”之中。
2)協同過濾算法,即系統會通過技術手段去分析用戶的“朋友圈”,然后將具有相同興趣愛好的朋友喜愛的內容推薦給用戶。
3)基于知識的推薦算法,這種推薦算法手段比較典型的方法就是構建領域本體或是建構規則,據此進行內容推薦。值得一提的是,上述算法推薦機制也頻繁出錯,這也迫使各大平臺開始積極的探索更完善的融合算法推薦機制。
2 算法推薦時代下“權利”的迷失
2017年人民網的三篇文章點名批評算法推薦,一下將算法推薦置于風口浪尖之上,關于其帶來的一系列倫理問題也成了學界乃至受眾都關心的議題。多名學者也從人文主義、人本精神的視角去探析算法推薦下用戶權利問題。杜駿飛教授在一次訪談中提到新聞傳播人文主義的核心是尊重人的價值,算法有自己的邏輯、世界、目的所在,人文主義是必須提倡的[ 3 ]。孫海龍教授則提出算法運算過程中必須加入“人文主義情懷和價值觀,警惕算法帶來的以人為本的夢幻[ 4 ]。陳昌鳳教授則從權利遷移、人本精神角度探析倫理問題,她認為新時代的新聞領域必將是人主導下的人機高度融合的結 果[5]。誠然算法推薦技術極大的便利了我們對內容的獲取也大大的提高了新聞生產分發的效率,但是仔細一想受眾似乎又回到了的你傳我受的傳統“被時代”,受眾的“權益”“隱私”正在被大數據、算法一步步的侵蝕著。在此章節筆者將著重分析算法推薦技術對于用戶“權利”的剝奪。
2.1 “信息繭房”:用戶選擇權的迷失
算法推薦通過對用戶的瀏覽記錄、愛好、搜索記錄、閱讀頻率等數據來建構了用戶專屬的用戶畫像,通過數據的用戶分析然后進行算法個性化篩選,將用戶感興趣的內容傳遞給信息,這樣的內容分發機制表面上以定制化的形式滿足用戶碎片化閱讀習慣,但是實質上是打著“以人為本”的幌子實現技術的霸權壟斷。
首先,每一個個體都是具有主觀能動性的,受眾感興趣的內容并非一成不變,況且還呈現出多元化、不穩定的特點,通過算法分析出來的用戶興趣傾向很有可能只是用戶“一時的興趣”,這只能滿足用戶短暫和淺層的個性需求。因此如何完善算法機制以滿足用戶真正的價值需求是算法推薦急需探索的方向。
其次,分發內容同質化嚴重,相似內容領域的內容反復推送就可能會使得用戶對于該領域內容產生厭煩。這樣一來算法推薦潛移默化的剝奪了用戶對多元信息的選擇權,信息失衡難以偶遇讓用戶受困于算法營造出的“信息繭房”,難以去接觸和探索其他領域的內容。而這也值得令人反思,算法技術給受眾帶來便利的同時,構建了一種“以人為本”的錯覺,似乎讓受眾又回到了“魔彈論”的那個強效果時代。
2.2 “超級全景監獄”:用戶隱私權何去何從
法國著名哲學家福柯在邊沁的“圓形監獄”模式的基礎上提出了“全景敞視主義”,描述了這樣一種場景,環形建筑塔尖的監視者從“上帝視角”監視者犯人的一舉一動,而被監視者卻絲毫沒有發覺。在此理論基礎上,美國學者馬克·波斯特提出了基于信息社會下的“超級全景監獄”理論。而反觀大數據時代下,受眾們就如同被囚禁在一個數據化的監獄中,算法技術通過不斷的采集用戶數據秘密的監視著用戶在互聯網上的一舉一動,而受眾卻全然不知,甚至沉浸于算法技術帶來的便利。通過個人信息個人偏好去換取閱讀上的便利和定制化,這樣的交易簡直就是“平臺之蜜糖,用戶之砒霜”。
碎片化的閱讀習慣和快節奏的生活無形地導致了隱私的被動流失。當注冊軟件賬戶時,受眾會習慣性地快速勾選用戶協議,而這也直接地將權限所有權移交給了互聯網軟件,隨之帶來的隱患就是數據可能被非法使用甚至被共享給了第三方平臺,受眾的數據就如同廉價的商品跨平臺流動交易著。此外還有就是信息流廣告無孔不入,用戶在網購中瀏覽的商品信息以信息流廣告的形式不斷穿插于各種社交媒體以達到精準營銷的目的。這也應征了波斯特提出的超級全景監獄,而關乎用戶的網絡記憶所有權的歸屬依舊個是疑問,如何保障用戶的隱私所有權以及用戶能否要求個人記憶的抹去問題也成了是法律乃至學界急需研究的議題。
2.3 “算法黑箱”:偏見剝奪用戶知情權
關于算法這一技術就是如何運行?其如何分析受眾的互聯網行為?受眾的哪些信息會被算法所捕捉到呢?對于大多數普通用戶來說,可能大家只知道算法推送機制的存在,卻對它的運行機制“一頭霧水”。算法就如同巨大的“黑箱”,難以理解難以評判難以監督。“黑箱”是控制論中概念,它指不為人所知的打不開又不能從外部直接觀察其內部在狀態的系統。
首先,算法并非完美且帶有明顯的利益傾向。目前大多數平臺使用的算法機制都是來源商業化企業,這也導致了用戶收取到的信息帶有明顯的利益傾向,商業利益化的信息流廣告、以及煽情化、點擊率高的低俗內容“成災”,局限性及利益性使得算法在某種程度上剝奪了用戶的知情權。
其次,算法設計者的偏見導致了信息不對稱。算法的框架和標準的制定者都是人,算法設計者自身帶有的無意識的偏見導向決定了算法推薦要選用用戶的哪些數據以及算法要過濾了哪些內容,這樣的偏見價值觀也使得算法推薦機制無法保持客觀中立的向用戶合理推薦。而讓人擔憂的是,這種來源于算法設計者的偏見色彩,掌控了用戶知情權,用戶無法去了解他們應該知道的內容和信息。這對于那些依賴于用算法推薦來了解世界的用戶來說,算法推薦實際上為他們營造了“看似中立卻隱含著偏見”的擬態環境。
3 算法推薦下“權利回歸”路徑探析
3.1 法律制度保障,算法“黑箱”透明化
有關“權利回歸”的探討首先必須得到法律制度的保障和支持。縱觀近兩年的算法倫理事件,可以發現目前法律對于算法推薦平臺的管制局限于事后問責,大多是問責、刪除、阻截等管制手法,缺乏對于算法技術使用和設計上的規范。
首先,政府需要制定一套完善的算法技術使用規范和標準,加強第三方監管的力量,可以引入專業性強的非盈利監管機制,從平臺用戶協議簽訂、算法設計環節、數據收集等涉及用戶信息的環節對算法平臺實施嚴格全方位的監管,以保障用戶的合法權益[ 6 ]。
其次,可以借鑒西方的算法解釋權來保障用戶的知情權,算法解釋權即受眾受到算法自動化決策在法律上經濟上的損害時,有權向算法使用提出異議,要求提供對具體決策的解釋[ 7 ]。算法解釋權在一定程度上可以打破了“算法黑箱”,也提高了“算法黑箱”的透明度,保障了受眾權利不受侵害,讓“不為人知”的自動化決策呈現在公眾面前。
最后,需要有更加完善的法律條文,對于用戶互聯網行為的隱私所有權的界定,加大侵犯隱私權的違法成本,切實保障用戶的隱私不被非法利用。
3.2 優化推送機制,提高信息偶遇
要做到減少“信息繭房”,為用戶提供更加深層次、優質、多元化的信息,是每一算法平臺都需要去優化和改進的地方。
首先,要完善和優化推送系統,加入能夠真正反映用戶需求的數據指標,例如可以引入用戶滿意度、評論質量、專業度、用戶觀看時長、用戶興趣排序等指標,通過多指標的分析構建更加“人性化”的用戶畫像,為用戶挖掘出更加有價值更加專業的內容。
其次,用戶畫像的建構應該多“更新”、多“變動”、多“評估”,以滿足用戶的“主觀能動性”,對用戶的標簽以及用戶瀏覽的內容引入排序機制,辨別出用戶的短暫興趣或是深層次偏好,推送時可以有選擇性的按照占比或是先后順序進行分發,這樣一來就可以保證用戶可以獲取到更加多元的內容。
此外,可以在分發流程中應該賦予用戶更多“主動”的權利,給用戶拒絕此類內容的選擇權。同時,在用戶圖像分析時應該減少娛樂化、低俗化標簽,多弘揚主流價值觀傳播正能量的優質內容。
3.3 人機協同,還原內容本真
算法推薦下的新聞生產,通過自動化快速化海量化的算法分析技術替代了傳統“把關人”編輯的角色,但是算法機器在對于內容價值、質量的把控上過于機械化,這也導致了許多低俗劣質內容的滋生。因此這也更加需要“傳統把關人”的回歸,充分發揮新聞媒體從業人員的專業能力,建設一個人機協同的內容審核制度[ 8 ]。
首先,通過傳統把關人的回歸,為機械化的算法推薦過程注入主流價值觀,堅持社會主義核心價值觀和傳統文化為指導思想,使得“以人為本”“主流正能量”成為算法推薦內容的主旋律,可以有效制止和減少智能化傳播中“算法偏見”的出現。
其次,具備專業媒介素養的編輯“把關人”在算法審查環節扮演“糾錯者”身份,可及時制止低俗內容的傳播和侵犯用戶權利現象的產生。還可以采取算法、編輯同步采集內容的決策,讓更多有價值的內容被受眾所看到,讓算法設計和推送的環節上更加注重新聞價值觀,讓數據時代的新聞內容回歸客觀真實中立。
4 結語
智能技術的不斷發展也預示著學者彭蘭所說的“萬物皆媒”的時代即將到來,而這也意味著人、人體、人的活動甚至是思維都將被數據化[9],生活數據化所帶來的是用戶體驗感增加、生活愈加便利,然而它悄無聲息的監視和窺探著受眾的種種行為,算法推薦同樣如此讓受眾的各項合法權益受到侵犯和限制,工具性和人性、數據主義與人文主義在萬物皆媒時代下相互協調又相互矛盾,因此如何實現“權利回歸”、用戶主導權話語權的提升是學界乃至各大平臺都急需去面對和解決的問題。
參考文獻
[1]王仕勇.算法推薦新聞的技術創新與倫理困境:一個綜述[J].重慶社會科學,2019(9):123-132.
[2]周建明,馬璇.個性化服務與圓形監獄:算法推薦的價值理念及倫理抗爭[J].社會科學戰線,2018(10):175-180.
[3]史劍輝.新聞觀:人文主義轉向何以可能?——南京大學杜駿飛教授學術專訪[J].新聞記者,2018,428(10):31-38.
[4]孫海龍.新聞算法推薦對社會價值觀的影響——基于人文主義視角[J].新聞世界,2019,333(1):30-34.
[5]陳昌鳳,霍婕.權力遷移與人本精神:算法式新聞分發的技術倫理[J].新聞與寫作,2018(1):65-68.
[6]張淑玲.破解黑箱:智媒時代的算法權力規制與透明實現機制[J].中國出版,2018(7):49-53.
[7]張凌寒.商業自動化決策的算法解釋權研究[J].法律科學(西北政法大學學報),2018,229(3):67-76.
[8]趙雙閣,岳夢怡.新聞的“量化轉型”:算法推薦對媒介倫理的挑戰與應對[J].當代傳播,2018(4):52-56.
[9]彭蘭.萬物皆媒——新一輪技術驅動的泛媒化趨勢[J].編輯之友,2016(3):5-10.