匡文波
摘 ? 要: 算法推薦技術的出現,使得傳統以編輯為中心的把關權力部分遷移到算法創設主體身上,以算法為核心的“技術叢”在一定程度上被賦予信息采集、記錄、篩選、分類、推送、存儲等權力,而這些權力背后的動機及其執行結果并不都是符合倫理的,信息繭房、數據濫用、算法黑箱等問題對個人隱私權、知情權、平等權、被遺忘權造成了不同程度的威脅。算法推薦技術在新聞傳播領域中的運用帶來了技術邏輯與新聞邏輯的碰撞,商業和資本價值輸出給數字人權和公共價值帶來新困境。基于此,從法倫理的視角出發,以權利為邏輯起點,從數字人權中的自由、正義、隱私、自主性、人性尊嚴等先行價值切入,重新解讀算法黑箱和信息繭房等問題中受沖擊的倫理內核,厘清智能傳播環境下算法推薦技術對個人、行業和社會造成的權利威脅,反思造成這種現狀的原因,并試圖提出可行的解決對策和建議,提倡以人權價值規制算法技術,在算法推薦技術的發展中重視人的價值,尊重人的主體地位。
關鍵詞: 數字人權;法倫理;算法歧視;信息繭房;被遺忘權;隱私侵犯;數字素養
中圖分類號:TP18 ?文獻標識碼:A ?文章編號:1004-8634(2021)05-0014-(10)
DOI:10.13852/J.CNKI.JSHNU.2021.05.002
一、引言
人工智能的核心在于算法,算法的社會本質是一種權力,作為數據與人工智能的節點,它在新聞內容生產和制作環節中起著關鍵的邏輯組織作用,在信息的準入、準出方面發揮著重要的過濾作用,在檢索、分類方面發揮著匹配和判定作用。1 “個性化新聞推薦”(Personalized News Recommender)是一種基于計算機技術、統計學知識,通過將數據、算法、人機交互有機結合,建立用戶和資源個性化關聯,從而為用戶提供信息決策支持的技術。2 目前,用于新聞分發的算法主要包括:協同過濾(Collaborative Filtering Recommendation)、基于內容的推薦(Content-based Recommendation)和關聯規則推薦。其中協同過濾系統又包含基于記憶的(Memory-based)和基于模型的(Model-based)協同過濾。3 其基本思路是通過對內容、個人、場景特征的判斷,進行信息匹配。從數據采集的角度看,算法推薦技術需要至少采集以上三個方面的信息,具體包括個人的年齡、興趣、職業等詳細的人口統計學信息,瀏覽記錄、互動記錄等行為信息,地理位置、網絡情況等場景信息,基于此描繪個體的“數字畫像”。在內容判斷上,針對具體信息內容的關鍵詞、熱度等做出判斷,1 算法基于這兩端的信息,通過過濾邏輯進行匹配,推送個人化的內容。
算法技術的運用,不僅對原有的傳播主體進行了重新賦能與賦權,也影響和解構了傳統傳播生態。不少學者從技術角度或者個案視角對智能分發機制進行考察,探討了算法推薦在新聞傳播領域中運用的影響,如,蔡磊平從協同過濾算法出發,探討了個性化推薦算法下個人信息的窄化和信息繭房風險;張志安和湯敏指出以偏好為導向的算法推薦擠壓了主流媒體的生存空間,給主流意識形態的傳播帶來挑戰;2 任莎莎與田嬌等選取算法推薦技術較為成熟的平臺作為個案,分析這項技術帶來的倫理問題。3學者們普遍認為,算法推薦在新聞傳播領域的運用,除了提高信息生產效率、稿件質量外,還緩解了信息過載、實現了信息精準分發,但同時也加劇或引發信息繭房、泛娛樂化、公共性減弱、算法黑箱等問題。總體來說,一些學者從技術視角出發,揭示算法推薦或某一平臺媒體的技術邏輯,進而反思其引發的問題;還有一些研究從新聞倫理角度分析算法推薦對專業主義和新聞場域的解構與重塑;也有一些研究從現象出發,聚焦“后真相”“算法黑箱”“信息繭房”等問題。
本文認為,現象中包含的倫理問題有重疊性,基于單個案例或現象的分析較為深入,但不利于從全局把握這一問題;技術視角下的剖析有利于建構“以技術約束技術”的路徑,但與從倫理建構和法律規制上約束算法推薦之間缺少橋梁。算法推薦技術的倫理問題從屬于技術倫理范疇,這一問題不僅可以從技術角度切入,還可以從倫理視域分析,如有學者認為功利主義、義務論、契約論和美德倫理學等道德理論可以為算法帶來的倫理問題提供框架,并從算法新聞的“輸入—處理—生產”和“組織—專業—社會”兩個層面出發,構建算法新聞的多層倫理分析框架。4 本文試圖從法倫理的視角出發對算法推薦技術引發的倫理問題進行解讀,從透明、平等、隱私、自主等核心視點出發去理解算法黑箱、信息繭房等問題。這種以倫理價值先行的分析方式,有助于我們剝離紛繁復雜的現象表層去審視被算法推薦侵蝕的倫理內核。我們以數字人權理論中的公民隱私權、數據權、公平權等為起點,分析算法推薦技術對個人權利的濫用與侵犯,以期加深對算法推薦技術倫理問題的實然性與應然性解讀,為進一步建立從倫理上約束、從法律上規制的算法推薦開發與運用管理系統提供新的思考起點。
二、算法推薦技術引發的倫理困境
1.個體層面:權利讓渡與濫用
數據權利被納入第四代人權即數字人權框架,數字人權理論是在信息技術、人工智能技術高速發展,算法全方位融入社會生活的背景下提出的。信息的存在方式賦予了人權數字屬性,5 它主張數字科技要以人為本,把人的權利及尊嚴作為最高目的,以人權作為根本的劃界尺度和評價標準,包括數據信息知情權、數據信息表達權、數據信息公平利用權、數據信息隱私權、數據信息財產權等。6 它提倡以公民隱私權、數據權、知識利益公平共享權等人權基本價值制約數字科技的開發與運用,確保其在公平、自由、正義、安全底線之內運行。7 在算法推薦技術已經廣泛應用于搜索、社交、資訊定制平臺的當下,個體出于信息獲取的便利性,或主動、或被動地向服務提供者讓渡自身部分數字權利。算法推薦引發的倫理困境普遍產生于這種權利讓渡與濫用的情境中。
第一,隱私讓渡與全景監控。
從權利功能來看,隱私權主要是為了保護個人私生活的安寧與私密性。隱私權的內容包括維護個人的私生活安寧、個人私密不被公開、個人私生活自主決定等。對隱私權的侵害主要是非法的披露和騷擾。1 個人信息在內容上是隱私的內在組成部分,保護個人信息是為了捍衛隱私權。隱私權主體有權不被干擾,而且對自身信息有自我決定權。2
如前文所述,算法推薦技術運行的基石是海量數據的采集,對個人信息的采集、使用行為的記錄、興趣偏好的判斷是信息定向推送的基礎。這意味著大量形象特征和行為數據的采集變得不可避免,這其中包含大量個體不想曝光的基本的人口統計信息、興趣偏好、地理位置行動軌跡、社交范圍、親屬關系群體、消費水平等。算法創設主體在收集個體基本數據的前提下,根據用戶行為、社交關系、地理位置等信息推斷其興趣偏好與需求,描繪用戶畫像,貼上數據標簽,在此基礎上推送與用戶屬性相匹配的新聞內容,更重要的是廣告內容——這仍然是目前應用最廣泛的變現模式。這些被算法創設主體采集,用以判別和定義用戶的“元數據”,是信息時代商業機構競爭的重要戰略資源。數據采集是信息定制的前提,這意味著受眾個人必須“讓渡”一部分隱私數據使用權才能讓算法了解和定義個體,才能實現“千人千面”的專屬定制和精準推送。就如進行衣服定制時,需提供個人的尺寸,進行信息定制,也需提供自己的“數據尺寸”。信息定制意味著信息暴露,個人讓渡的隱私數據尺度及其使用權不完全由個體所知、所掌控。個人數據的采集和使用范圍往往是秘而不宣的,中國的《網絡安全法》第41條規定,搜集個人的信息應符合合法、正當和必要三元素,3在實際情況中,數據的采集、采集范圍、使用范疇不被個人所知,即使在知情信息被采集的情況下,也會面臨“不同意即停用”的局面。網頁、應用軟件、設備對信息收集的范圍往往遠超它們提供正常服務所調用的必需權限。之所以要超過使用所必需的范圍采集信息數據,在于更多的“元數據”意味著更為精準的個體畫像,意味著更高的變現價值。而“元數據”的商品化,泄露、二次售賣現象早已不是個案,銀行、購物平臺都有泄露數據的先例。2019年9月20日中國青年網報道了網絡求職者“簡歷”被1元售賣的現象,被人民網官方微博轉載。全球最大社交平臺Facebook也多次卷入數據泄露的風波,2018年更是因為5000萬用戶數據泄露的“劍橋分析事件”而接受調查。數量眾多、良莠不齊的設備對用戶數據進行普遍抓取,卻不一定有足夠的保護措施防止這些數據被盜,這意味著個人信息被獲取后其用途和是否會泄露成為不確定事件,隱私侵犯隱患成為常態。
隱私侵犯問題不僅在于個人私有信息的“公共暴露”,更在于無聲監控和暗中利用,4 在于算法背后的技術與資本對個人的監視、規訓與剝削。5 這些無處不在、秘而不宣的數據掌控者對全景透明、無知無覺的個體造成了一種數字全景監控,在這種不對等的身份條件下歧視和信息操縱變得有機可乘。
物聯網、云存儲等技術的發展使個人在互聯網上所有的蹤跡都變得有跡可循,絕對意義的私人領域不存在,理論上如果打通所有的數據渠道,是可以還原一個人在數據世界的生活圖景的。真正的個人空間和私域消失,某種程度上人在數據世界里變成了透明人,一種數字意義上的“全景監控”成為可能,海量信息采集意味著海量的監控。但是我們必須看到,個人隱私的存在和不被侵犯是對人性自由和尊嚴的尊重,是對自主權的捍衛,也是互聯網技術進一步發展的必然要求。在大數據時代,用隱私通貨(Privacy Currency)交換便利6似乎已經變成不可避免的事情,但是隱私的邊界在何處,信息采集和調用如何規范,如何在尊重隱私的基礎上提供更便利的生活方式,在公共領域和私域之間找到平衡點,是我們進一步探索的重點。
第二,自主讓渡與規訓操縱。
自主,或稱自治,是指建構自己目標和價值的能力,以及有自由做出自己的決定并根據這些決定采取行動的能力。1 接受算法推薦還意味著對個體自主性、獲取和處理信息的自我決策權進行部分讓渡,代表著接受算法替個人決策“看什么和不看什么”“多看什么少看什么”。麥克盧漢認為,媒介是人的延伸,延伸意味著截除。算法被喻為人腦的延伸,我們賦予技術以“決策權”,在某種程度上是人的自主性被“截除”。而這種決策導向的單一性,壓縮了我們生活的自主性、偶然性、延展性。這種個性導向的邏輯容易加劇個體與真實、多元、多樣世界脫節的風險。而信息的多元化、多樣性是個人進行認知世界、自由交流、發表政治意見、按照自己的意志做出決策的基礎,與受眾興趣和觀點匹配度高的信息會以更符合他們閱讀習慣的方式出現。通過算法過濾,屏蔽了真實世界的一部分。這種自主性的讓渡讓受眾變成被動接受信息投喂的單向度“信宿”,被動地接受自動化決策方案,壓縮了個體與多樣內容的交互空間。
智能算法延伸了我們的智能判斷能力,也讓我們在技術中被馴化,逐漸喪失了思辨能力。在這種情況下,算法通過對個人數據的分析進行信息干預,改變受眾態度和行為的風險增大。此時,商業或其他力量的介入,會加劇對自我決策的侵蝕,如在線商業營銷、關鍵詞競價排名、基于搜索行為和內容的廣告等。有研究者指出,基于興趣導向的算法推送,受眾所接觸信息的同質性增加,接觸到的知識的多樣性減少,人類的自主性在認知和行為層面都有了減退的風險。2 以“今日頭條”為代表的多個資訊APP也因此備受詬病。此外,作為普通公民,“喜歡看到的信息”不等同于“需要知道的信息”。媒體建構的擬態環境是人們認知世界的重要來源,如果這一擬態環境的構建只依據單一的興趣偏好原則,會更加限制受眾對真實世界的認知,束縛在算法構建的同質化的信息繭房中。“信息繭房”(Information Cocoons)是凱斯·桑斯坦在《信息烏托邦》一書中提出的概念,他指出,公眾的信息需求并非全方位的,人們傾向于將自己包裹在自己感興趣的內容中,從而將自己桎梏在一個“信息繭房”中。信息繭房提供了一個更自我的思想空間,將個人限制在有限的領域內,加劇認知偏差,提高刻板印象和群體極化的風險,加深了不同群體之間的交流鴻溝。更為重要的是,這些“繭房”邊界的設定中摻雜著算法開發者的意志,其篩選和推送機制裹挾著其他利益相關者的商業目的,其輸出結果執行開發者利益最大化的原則,優先推送那些最符合自身訴求的信息;通過有偏向的算法影響個體認知、議程設置,這些經過精心篩選后的信息加深了對個體的規訓、操縱和剝削。
第三,知情侵犯與信息繭房。
知情權指知悉、獲取信息的自由與權利,包括對所征集的個人信息及基于這些信息加工的征信產品享有知情權。3 算法對知情權的威脅一方面體現在算法推薦邏輯單一帶來的“信息世界窄化”上;另一方面是個人信息在用戶“不知曉”的狀態下被采集和使用,還有“技術黑箱”的部分不可知。個體在接受算法的信息過濾機制的同時,也意味著在某種程度上同意“算法推送一個由算法邏輯為主導的不完整的世界”,而這個“算法邏輯”的加工和選擇機制并不完全被普通新聞用戶所熟知,算法在其中如何過濾和排序信息對絕大部分用戶而言是一個“技術黑箱”,4這造成傳播地位的嚴重不對等,普通用戶甚至對“算法推薦”的存在也渾然不知。用戶對算法和算法邏輯的不知情,影響他們對真實世界的認知與判斷,進而影響了他們的社會公共參與。傳統的非算法推薦邏輯下的擬態環境雖然也窄化了信息世界,其篩選機制融入了專業機構和把關人的社會公共價值考量,但是其過程是公開和可被審視的,而算法的過濾邏輯和價值導向并非如此。此外,技術和資本壟斷也構成數字時代算法推薦對個體知情權的威脅,占據壟斷地位的行業巨頭變成了新聞信息流通道路上重要的“守門人”,其利益相關者的“有償新聞”和“有償不聞”也變得更加隱蔽,資本和技術對“熱搜榜”“頭條”競價排名等的過度介入威脅了普通公眾知悉事實真相的權利。
第四,平等侵犯與算法歧視。
平等的界定經過了從形式平等到實質平等的發展,實質平等考慮個體之間的差別,給予不同對待,以在事實上達到平等。而人工智能算法個性化的推薦邏輯,會產生針對特殊主體的個體性規則,這種規則會突破法的一般性,產生馬太效應,造成實質的不平等。1 谷歌相冊(Google Photos)將黑人分類為“大猩猩”的例子一度引起公眾對算法歧視的討伐。布魯諾等學者將算法歧視分為預先存在于數據、算法設計參與者之中的偏見,由算法的分類、優化邏輯等引起的不公正,以及由于對數據權重設置不同引發的間接歧視行為三種。2歧視即區別對待,它意味著不平等和非正義。這也是算法推薦難以避免的一大難題,因為算法的一個重要運行邏輯是數據的“標簽化”“類別化”,這是其進行后續量化分析與操作的重要基礎,而個性化推薦就是對目標個體展開劃分和進行區別化信息推送的過程。標簽化與類別化也意味著“去個性化”,這種做法加深了“刻板印象”和社會偏見,容易對“類別”中的獨立個體造成誤判和傷害。而認知上的偏見會導致行動上的歧視。在算法歧視中,數據采集、數據解讀的偏差,算法設計者的主觀思維上的偏見等環節,都會引發最終執行結果上的歧視行為。算法歧視導致在地區發達程度不同及收入水平和性別種族不同的人群間信息資源的分配不均,進一步擴大“數字鴻溝”。這種歧視和偏見通過算法推薦再次被人們吸收,偏見被固化,形成“自我實現的歧視性反饋循環”。3除了信息資源的不公正分配,算法歧視還體現在“價格歧視”上,典型的如某網約車平臺的“大數據殺熟”現象,在內容付費時代,很難保證這種價格歧視不會遷移至知識付費、新聞付費領域。
當然,偏見普遍存在于不同的文化中,算法作為人造物,不可避免地繼承了這些偏見,而且變得更加隱蔽。隨著算法推薦的擴散,其引發的風險也變得更加不確定和不可預計。因此,在數據采集、分析和算法設計過程中,減少偏見,加強監督和管理顯得更加重要。不同成因的算法歧視的治理路徑不同,研究者們普遍認為通過公開算法的運行機制與設計意圖,接受公眾的監督,能減少算法創設環節的人為偏見。此外,“機會平等原則”(Equality of Opportunity)和“人文主義精神”也被提議納入算法系統的設計中。4
第五,被遺忘讓渡與永久記錄。
“被遺忘權是指信息主體對已被發布在網絡上的,有關自身的不恰當的、過時的、繼續保留會導致其社會評價降低的信息,要求信息控制者予以刪除的權利。”5 大數據、傳感器、物聯網等技術的出現使得個人在互聯網上所有的蹤跡都變得可循,而云存儲、擴容等技術使得這些數據的永久記錄成為可能。數字化記憶變成網絡信息時代的重要特征,個體和集體記憶的形態從生物記憶延伸到了數字空間。伴隨著對互聯網的使用,個體的身份信息、檢索數據、瀏覽痕跡、購買行為等會長久甚至永久地存儲在互聯網數據庫中。從個體在網絡上留下瀏覽或者內容數據那一刻起,我們就逐漸喪失了對這些信息的掌控,對數據的控制與訪問權則被讓渡給了數據記錄者和占有者,他們通常是占據壟斷地位的科技公司、政府等機構。6
數字化記憶的可訪問性、持久性、全面性以及由此所帶來的永久“凝視”,使我們面臨數字化在時間與空間上雙維度的介入。7 經由一系列的數字行為軌跡的拼合,在多年之后仍然可以根據推測數據還原出用戶的個人畫像,人們可以想象,在網上不經意的行為會被長久地記憶,可能成為引發某些事件的導火索。如加拿大心理咨詢師費爾德瑪在一本雜志中提到自己在20世紀60年代曾服用過致幻劑,由此,他在進入美國邊境時被扣留了4個小時。在社交、資訊、購物等平臺,小到抱怨、負能量,大到激烈的辯論和意見、態度的發表,情緒可能是一時的,但記錄是永久的,甚至在多年之后被當作“黑歷史”再現,影響個體的生活。從這個角度來說,它似乎縮小了個體“改過自新”的空間。面對這種個人信息和行為數據在網絡上長久留存可能帶來不可控的預期損耗和風險,人們可能會在互聯網上選擇“噤若寒蟬”,導致所謂的寒蟬效應(Chilling Effect):人們為了避免不可預知的潛在風險,減少意見發表和對公共事務等的參與。
記憶倫理的核心問題是“誰在記憶”“記憶什么”“如何記憶”以及“如何表述記憶”。1 什么樣的機構和組織可以去記憶,什么樣的數據可以被納入數據記憶這些都是需要進一步考察的問題。目前,這一領域的問題仍處在探討階段。2016年,中國頒布了《網絡安全法》,正式確認個人對其網上個人信息的“刪除權”,即“個人發現網絡運營者違反法律、行政法規的規定或者雙方的約定收集、使用其個人信息的,有權要求網絡運營者刪除其個人信息。”2 這種“刪除權”并不完全等同于“被遺忘權”(Right to Be Forgotten),它更多是為了保障網絡信息傳播秩序的穩定,而且技術上的實現也有困難。美國加州2014年通過了“橡皮”法律,用戶可以要求科技公司刪除涉及個人隱私的信息。2012年,歐盟在《通用數據保護條例》草案中也提出了“被遺忘權”。這些法律和條例的制定為“被遺忘權”在中國的本土化提供了一些借鑒與參考。在中國語境下,當被遺忘權與公共利益沖突時,我們如何界定被遺忘權的邊界,如何明晰被遺忘權與言論自由的權責關系,如何在公共領域的開放性和私人領域的不可侵犯性之間尋找平衡點,也同樣是我們需要進一步探索的問題。
除此之外,算法壓縮了偶然性,正如“我憑什么不想看新的東西”的邏輯所指涉的,3 算法推薦的邏輯是根據個體過去的行為軌跡預測其未來的行為傾向,從而投其所好,“投喂”符合其偏好的內容。但在現實生活中,人的行為邏輯是復雜的、多樣化的,不是只有“過去+現在—未來”導向。個體的需求和成長具有發展性,行動邏輯還有目標導向性,即“未來—現在”導向。就像人的口味會改變一樣,人的信息需求和生活目標也會改變,一味根據過去的行為邏輯和標簽投其所好只會禁錮個體的視野,限制其發展的更多可能性。從這個角度來說,算法推薦還影響了個人成長和發展的空間。另外,簡單粗暴的算法推薦對出版權、言論自由等權利也造成了不同程度的沖擊。
2.行業層面:觀念、主體性的變化與“算法囚徒”
算法推薦技術在新聞傳播領域的運用對新聞生產和傳播方式都產生了重要影響。算法的創設主體及其規則對專業新聞生產機構的主體性、權威性造成了沖擊。平臺擁有絕對優勢量的活躍用戶和優質內容分發渠道,為實現新聞內容更廣泛的傳播提供了必要條件,同時它們分散了主流媒體的受眾,而擁有采編權的專業新聞機構和海量的UGC內容則成為算法創設主體進行內容分發的主要來源。新聞專業主義中的技能規范、組織倫理被非專業參與和技術改寫,把關、分發權力的遷移,生產、營利模式的改變,價值理性的削弱,產生了新聞專業主義的“控制危機”。4
而與傳統受過系統訓練的專業新聞工作者把關不同,算法推薦機制以興趣為導向的邏輯無法實現對主流價值觀的引導,進而新聞業的環境監測、輿論監督、價值引領職能也受到削弱。新聞業的合法基石在于向公眾提供可信賴的新聞信息服務。5新聞專業主義的核心理念是客觀性,新聞從業者秉持客觀、公正、中立的原則進行真實、準確的報道,捍衛公眾權利,也以此為準則進行內容的審核和把關,以客觀立場反映社情民意。這是算法推薦光靠技術邏輯難以實現的。算法技術簡化了社會功能和意義豐富的新聞邏輯,并將其簡單處理為“信息”供求問題,通過點擊率、閱讀量等一系列指標量化滿足用戶的喜好。這種去價值化、去意義化的做法將新聞簡化為一種無差別的“信息商品”,6 變成為商業資本服務的工具,而非實現新聞理想、追求社會公平正義的途徑。7 算法在本質上不是中立的,是構建和實施權力和知識的制度,其使用具有規范性含義。8 算法是由一系列代碼與公式組成的指令,旨在解決具體問題,而問題的性質在被提出和界定之前就帶有強烈的背景和意圖,這也意味著算法推薦從誕生伊始就必然夾帶著算法創設主體的意志,因而,算法的中立性是一個偽命題。
這些資本和商業意圖在算法中的滲透,不僅改寫了從選題到內容分發的各個新聞內容生產(如新聞語言萌化、泛娛樂化、興趣導向擠壓了嚴肅議題的空間)環節,以用戶點擊和廣告售賣為效果導向也改寫了新聞創作的觀念,它將受眾個體的數字勞動和內容創作者的創意工作都納入其資本擴張和增值的過程中,加劇了對受眾個體和內容生產者原有的規訓及剝削。
具體來說,內容生產者方面,翟秀鳳通過對今日頭條、新浪微博、微信公眾號等五家大型網絡內容平臺和相關內容從業者進行深度訪談發現,算法通過自動化指標、工具理性和懲罰性機制對內容生產者形成了規訓,使平臺目標內化為從業者的行為準則和價值追求。新聞生產活動由強調媒介精英主體性價值的活動變成經濟驅動型活動。“我們不用直接告訴創作者應該怎么做,只要我們把算法設計好就可以了……他們自然就明白怎么做才能分到錢。”在“越被推送越賺錢,越賺錢系統就越愿意推你”的“調教”下,內容生產表現出“物化”勞動的情況,內容創作者在一篇篇“10萬+”文章的驅動下成為平臺資本增值過程中的被剝削對象,如同外賣平臺的騎手遇到的“困在系統里”一樣,內容生產者也遇到了這個算法困局。1
受眾個體層面,在大數據采集中,受眾的每一次瀏覽、點贊、分享等行為成為可以量化的、實現內容運營KPI的數字勞動。受眾在使用內容商品的同時,其行為本身也成為數據商品被二次販賣。從每千人成本(Cost Per Mille,縮寫CPM)、每點擊成本(Cost Per Click,縮寫CPC)、每行動成本(Cost Per Action,縮寫CPA),到日/月活躍用戶(Daily/Monthly Active User)的演化,使得受眾的注意力被販賣的明碼標價過程更加精細。正如安德烈耶維奇提出的“互動性壓迫假說”(Interactive Repressive Hypothesis)所警示的,每當我們被告知互動性是表達自己、反抗控制、顛覆權力的一種方式時,我們就需要警惕權力的詭計:煽動我們提供關于自己的信息,參與我們的自我分類,從而完成控制的循環。2 要警惕數據交互過程中的規訓與交換。
3.社會層面:公共性的消減
大眾傳播權源自公民對自身知情權、表達權與對公共事務監督權的讓渡。3 在中國,主渠道的媒體傳播屬于公權力的一部分;在西方國家,媒體也被稱為“第四權力”。媒體有讓公眾了解事物全貌、引導社會輿論的責任。但是隨著資本力量的流入,曾被哈貝馬斯喻為民主基石與公共領域的大眾傳播的公共性有減弱之勢。算法背后資本和技術開發主體的意志,代表的是少數股東的訴求,而非廣大公眾的利益,會過濾掉那些不利于算法開發者的信息。
由信息繭房引發的個體分散、知識溝擴大、群體極化、社會凝聚力降低的風險,由熱度排行榜、內容運營KPI引發的議程設置導向偏差,由算法黑箱引發的偏見和歧視風險,由算法規訓對內容生產者主體性的削弱,由興趣導向培養的娛樂化、單向度個體等方面,消減了媒體空間的公共性。媒體作為社會公器的監督作用被減弱,傳播環境中意見的多元空間被擠壓,“澄清謬誤、明辨是非”的思辨與批判機制也受到了沖擊。數字空間的永久記憶造成的寒蟬效應降低了公共參與精神被培育的可能性,構建了溝通壁壘和偏見。數據標簽體系的建立助長了刻板印象的產生,不利于整個社會民主和協商之風的形成。總體來說,由資本操控的算法信息采集和把關機制,編織了一個有利于資本的信息氣候,破壞了輿論的公共空間。
三、算法推薦技術倫理失范的原因及對策探討
算法推薦技術引發的一系列倫理問題,究其根本,一方面是由算法技術天然自帶的特性造成的,另一方面是由“新聞邏輯”和“技術邏輯”之間的不適配導致的。技術邏輯是問題導向,算法推薦重在解決信息資源在傳受雙方間的最佳匹配問題,其核心是提高效率。而新聞邏輯著眼于社會公平問題,除了提供信息、引導輿論、教育大眾外,還承擔著重要的監測環境、輿論監督等功能。算法推崇“用戶”思維,著眼于信息生產和分發的效率;新聞業推崇“公眾”思維,著眼于社會公平正義、民生福祉。兩者著眼點的不同導致在融合初期出現眾多不適配現象。隨著商業資本的介入,算法中還滲透了商業邏輯,對公共利益和個人的價值、權利造成忽視。此外,也存在管理、法律、監管等諸多外部因素。而受眾層面,娛樂主義和商業主義的盛行形成了整體的信息偏好,這種意見氣候助長了算法的單一價值取向。算法迎合受眾的興趣偏好,進一步推動了受眾脫離公共空間。因此,筆者將分別從這技術與資本、法律與倫理、個人的媒介素養與數字素養三個方面分析算法推薦技術倫理失范的原因,探討可能的解決路徑。
1.技術與資本
壟斷資本對工具理性的過度依賴以及算法的不透明性是引發算法推薦技術倫理失范的兩個重要來源,偏見、歧視和規訓也建立在此基礎上。
對工具理性的過度依賴是由資本的逐利性導致的,在對算法的運用過程中,商業主題追求的是推送的精準度和用戶黏度,而非人性需求和多元化。算法創設主體在設計算法規則時應當分配更多的權重在公共價值和人文關懷方面,增加對公平、正義、人性尊嚴的考量,從源頭上減少算法剝削、霸權和濫用。必要時,行政、法律力量需要介入打破技術與資本的壟斷,以達到制約和平衡算法技術的工具理性與價值理性之間關系的目的。
算法的不透明,部分是由技術壟斷和商業機密導致的,部分是由對機器算法執行結果的不可理解導致的,即人類目前對這個技術的認識還存在未知的部分。前者需要建立合理的算法審查機制加以約束,以保證其設計與運行結果的合法性。而對機器不可知的部分需要我們在技術上進一步推進在計算機技術方面的研究,減少不可控制的風險。通過行業和行政的干預力量,落實“可理解的透明度”,1 公布算法黑箱中存在的技術和價值取向,接受公眾的審視,是規范算法的重要途徑。有研究者總結了研究算法的六種方法,認為結合使用兩種或兩種以上的方法有助于我們揭示算法的本質和工作原理,即:檢查偽代碼/源代碼(Examining Pseudo-code/Source-code)、反身地生成代碼(Re?exively Producing Code)、逆向工程(Reverse Engineering)、采訪設計人員或對編碼團隊進行民族志研究(Interviewing Designers or Conducting an Ethnography of a Coding Team)、解開算法的全部社會—技術組合(Unpacking the Full Socio-technical Assemblage of Algorithms)和研究算法究竟是如何運作的(Examining How Algorithms Do Work in the World)。2
除此之外,技術本身的缺陷也是引發倫理困境的原因。機器算法作為“物”,沒有作為人的高級情感,不能完全取代記者和編輯進行道德倫理判斷、人文關懷和獨立的價值識別。算法作為一種機器語言,也無法對非量化、不能被定義的內容做出識別。只有將意涵豐富的內容簡化為一系列指標,將內容數據化、將“社會人”數據化,才能進入其判斷體系。這個過程是簡單粗暴的類別化過程和去“社會人”過程。它將“社會人”視作數據商品的提供者和消耗體,將“社會人”數據化、機器化,消解人作為人不能被算法系統所識別的特征。這是技術科學與社會人文之間的根本差異。正如哈貝馬斯所說,科技進步導致人對精神價值的忽視,并將自己作為生產要素,淪為機器和金錢的附屬品。在算法推薦中,我們也看到這種技術反客為主,人的主體性削弱、異化的趨勢。3 也由此,我們重新突出人在技術環境中的主體性地位。
2.法律與倫理
目前,對人工智能、算法、數據采集等技術進行管理的機制與法律還不健全。在智能技術已經廣泛應用到傳播實踐中的當下,規范與管理嚴重滯后于技術發展的步伐,傳媒立法滯后,使算法推薦倫理失范現象和侵權的灰色產業有了可乘之機,也使得算法創設主體有了逃避責任、壟斷的機會。在算法使用的管理方面,一方面,要明確責任主體,規范算法研發者、運營者和使用者各自的權利與義務關系;另一方面,面對算法引發的具體倫理和法律問題,要建立健全審查機制,建立包含新聞、法律和倫理相關專家的監察機構審核算法原理及決策過程,4 通過立法或行政干預鼓勵優質主旋律內容的生產和傳播。5
當前部分國家和地區已將人工智能立法提上日程。2018年5月生效的歐盟《一般性數據保護法案》(General Data Protection Regulation,縮寫GDPR)給予用戶申請基于算法得出結論的解釋權。美國紐約州為了解決政務系統算法歧視問題于2017年12月通過了算法問責法案。這些案例都為中國在法律法規方面建立健全算法管理機制提供了借鑒意義。有學者針對個人信息權的保護提出“新數據權”權利束的概念,提倡通過立法保障由算法推薦技術叢引發的知情同意權、數據采集權、修改權、可攜權、被遺忘權(刪除權)、管理權、支配權、使用權、收益權等。1
此外,規范的行業倫理守則是行業健康發展不可或缺的條件。增加算法透明性和建立成熟的倫理守則有助于算法相關技術的健康發展。算法推薦技術在新聞傳播領域的運用使得新聞倫理需要約束的范圍擴展到相關的技術人員、算法工程師。總體來說,新聞專業主義的核心價值訴求依然能成為構建新的倫理規范的內核所在。此外,還要將人工智能倫理中的相關原則吸納進對算法推薦技術的管理中。目前國內人工智能領域缺少統一的、公認的行業規范,雖然有少數幾家公司在監管部門的督促下提出了一些可行性方案,但是整體來看,行業自律領域還處于缺位狀態。2019年,歐盟委員會發布了人工智能倫理準則,列出了人的能動性和監督能力、安全性、隱私數據管理、透明度、包容性、社會福祉、問責機制7個確保人工智能足夠安全可靠的關鍵條件。這7個關鍵條件,充分考慮了人的主體地位,尊重基本人權,雖然目前在實操層面可能存在一些困難,但也為我們結合國內實際情況制定規范的算法使用的倫理準則,以及行業和行政干預提供了參考。
此外,還有學者提出,面對倫理困境,相對于道德規范的建構,倫理原則的確立具有更高的學術價值和現實意義。不少研究集中在“社會責任原則”“真實原則”“客觀原則”“公正原則”和“善良原則”的討論上,也有學者提倡應該將“公平、準確、透明、可解釋、可審計、責任等原則”囊括進算法責任倫理體系,認為算法的設計要體現社會公平,考慮社會的多元性和不同的價值觀,考量利益相關者的權益,盡量避免因偏見的數據或偏見的算法設計導致對某一特定群體的歧視。2
3.個人的媒介素養與數字素養
媒介素養指受眾對媒介信息的解讀、批判和使用能力。在受眾作為內容產消者(Prosumer)的當下,研究者指出,公眾媒介素養應該包括媒介使用、信息生產、信息消費、社會交往、社會協作和社會參與等在內的素養。3 個性化推薦算法的邏輯起點是迎合受眾的內容偏好,因此,個體對內容的喜愛偏好的低俗化、泛娛樂化也對算法單一價值取向負有不可推卸的責任。在數字化、智能化已經深度嵌入日常生活各個方面的當下,如果受眾個體不具備基本的數字素養,將無法正確地運用以此技術為基礎的產品和服務,容易落入被詐騙、被商業或其他力量操縱的陷阱,因此,數字素養被聯合國認為是數字時代的基本人權。4 媒介素養和數字素養之所以和人權息息相關,是因為人們從媒體環境中獲取和發布信息的過程已經成為個體參與公共生活、表達民主意見的重要途徑。因此,培養受眾個體對內容需求的多樣性、理解能力和批判能力也是保障數字人權的重要層面,它能提升公眾參與公共生活度,促進信息生態和意見環境的良性發展,也會對算法失范行為產生批判制約。
四、結語
總體來說,從數字人權的角度看,算法推薦技術中的兩個環節——個人信息采集和邏輯過濾,分別導致個人信息的隱私權、知情權、被遺忘權受威脅;平等權、“自決權”受侵犯。在這種權利讓渡與濫用中,造成了算法主體和使用者之間關系的不對等,增加了算法歧視、霸權、剝削的風險,也帶來信息安全、信息操縱、信息繭房和極化等方面的擔憂。從行業和社會層面看,算法推薦對內容工作者和受眾整體主體性的削弱,減弱了社會公共性。我們探討算法推薦技術帶來的問題,并非要排斥算法,將其關回潘多拉魔盒中。比起算法本身,我們更加關注算法背后的評價體系、價值導向、設計原則,以此,試圖為算法推薦技術在公共利益和商業利益、個人價值和技術價值之間的平衡尋找更多可能性,從數字人權的角度出發,探索算法推薦技術在新聞傳播領域中規范性、合法性運用的路徑。技術,是新聞權力生成的重要來源之一。不可否認,無論是在以報紙、廣播、電視、雜志為主導的傳統媒體時代,還是算法滲入全民生活的智能傳播時代,“傳播即權力”都需要通過有關傳播的一系列技術來實現,技術一直形塑著傳播內容與傳播主體間的關系。但技術從來只是手段,人才是最終目的。在算法推薦技術的發展中,尊重人的主體地位,尊重人權價值,有助于我們加深對這一問題實然性的理解和應然性的建構。
A Legal Ethical Reflection on Personalized Algorithmic
Recommendation Technologies
KUANG Wenbo
Abstract: The emergence of algorithm recommendation technology makes the traditional gate-keeping power centered on editors partially migrate to the main body of algorithm creation. The algorithm-centered “technology cluster” is to a certain extent endowed with powers such as information collection, recording, filtering, classification, push, and storage. However, the motivation behind these powers and the results of their implementation are not all ethical. The issues of information cocoon, data misuse, and algorithmic black boxes pose different degrees of threats to the individuals right to privacy, right to information, right to equality, and right to be forgotten. The application of algorithm recommendation technology in the field of journalism has brought about the collision of technical logic and news logic, the export of commercial and capital values, and brought new dilemmas to digital human rights and public values. ?Accordingly, the paper starts from the perspective of legal ethics, takes rights as the logical starting point, approaches from the prior values of freedom, justice, privacy, autonomy, and human dignity in digital human rights, and reinterprets the impacted ethical core in issues such as algorithmic black box and information cocoon. Furthermore, the paper also clarifies the threats to the rights of individuals, industries and society caused by algorithmic recommendation technology in the intelligent communication environment, reflects on the reasons of this status quo. Finally, the paper attempts to propose feasible solutions and suggestions, advocates the regulation of algorithm technology with human rights value, and attaches importance to human values and respects human subject position in the development of algorithmic recommendation technology.
Key words: digital human rights; legal ethics; algorithmic discrimination;privacy violation
(責任編輯:蘇建軍)