王寅輝 張晨
摘要:隨著人工智能的發展,大數據與算法已滲透到人們生活的各個方面,從便利性的角度而言,它為人們的生活創造了進行信息篩選的便捷條件;但從另一個角度來說,算法使得大眾獲取信息質量的差距變得越來越大,人對自身的社會定位與走向也會間接受到禁錮,面臨著成為“算法囚徒”的風險。對此,文章采用文獻資料法,從大眾的認知、判斷與決策被圍困,勞動被操控,隱私被消解這三個方面展開論述,在正確認識算法社會本質的基礎上,分析算法社會存在的“囚徒”風險,得出規避算法風險的具體路徑。文章旨在更好地應對算法社會中存在的挑戰,為人們認識算法社會提供一個新的思路與視角,以此促進數據算法向更好、更綠色的方向發展,為人們打造風清氣朗的網絡空間,也使算法與數據為受眾提供更健康的系統服務。
關鍵詞:智媒時代;算法社會;“算法囚徒”;囚徒風險;算法治理路徑
中圖分類號:TP301.6 文獻標志碼:A 文章編號:1674-8883(2022)17-0001-03
互聯網作為一種新興技術,其出現使受眾在信息獲取層面發生了翻天覆地的變化;在生活層面,人們利用互聯網技術的直接鏈接性,產生了線上支付、網上購物等便捷的生活方式。這些借助算法與數據產生的新的生活方式,慢慢由影響受眾個體生活的表層轉變為逐步滲透到社會運作的方方面面,例如“信息繭房”、不同系統的手機上打車價錢不統一、大數據殺熟等現象,已經屢次引起公眾注意。究其本質而言,這些事件的背后無一不與算法的運作直接掛鉤。數字化時代形成的算法系統已潛移默化地將觸角延伸到大眾生活的各個角落,因此深入了解算法社會本質及其操作調控所形成的影響具有重要的意義。
當前,算法已經成為各項新興技術研發與成型的血脈,沒有算法的介入,智能技術便失去了發展的地基,與時代發展潮流相逆。英國文化研究學者西爾弗斯通認為,對技術的使用是一種馴化的過程,人與技術兩者是相互建構、相互塑造、再造以及相互改變的。數據與算法由人創造,給人的生產與生活帶來構架上的變革,自然也能反向影響人們的生活規律,其中最為突出的表現便是帶來了人工智能時代深刻的“算法焦慮”,甚至對用戶進行了更深層次的馴化[1]。大眾生活的各個領域已經呈現出算法是其運作的基礎,人們在享受算法帶來的便利的同時,也必須正視其帶來的風險與挑戰。算法是否會使人們對信息的思考與行動變得狹隘,是否會使人們陷入“囚徒”的陷阱,這都是目前需要正視的風險問題。基于此,本文試圖在現有研究成果的基礎上,探究智媒時代人們被算法圍困的風險,并提出相應的對抗風險的基本建設建議。
(一)認知、判斷與決策的圍困風險
在互聯網提供的海量信息空間里,信息充斥在人們生活與工作的各個領域。面對由個體組成的大眾,滿足個人的個性化信息需求成為當下各大信息提供者追求的目標。針對現代信息社會這一典型特征,算法技術借助信息內容個性化推送的形式呈現出來。這種個性化推送在滿足大眾信息需求、提供一對一服務的過程中,也逐步限制了大眾接收信息的范圍與種類,使大眾沉浸在自己所喜愛的信息海洋中,進行自我麻醉,放任自我淹沒在表層信息和通俗化娛樂之中,把一些具有實際效用、繁雜、需要思考的信息拒之門外,從而生活在由自身與算法構建的“信息繭房”中,降低人們對信息的敏銳度,容易使個人在認知新事物的基礎階段受到阻礙,逐步弱化思考能力。對此,韓炳哲認為,一個因熟悉事物組成的世界是一個再無新知可學的世界。個性化發展到極致,就可能會改變人們對世界和自己的認知。這也是數字化的全聯網和全交際并未使人們更容易遇見他者的原因[2]。
個性化推送看似為人們在超載的信息流中獲取有效信息提供過濾服務,進一步提升了信息處理效率,但從另一方面來看,它在一定程度上也使人們被個性化服務“牽著鼻子走”,在已熟知的世界中不斷循環往復,無法注入新知。與此同時,大眾在不斷被單一化的、同性質的場域中進行談論,差異化的提議被視為異己,沉默于統一的個性化環境里,使得正確、系統的判斷難以形成。現代信息環境所倡導的信息自由,無疑是希望通過信息的自由流動促成不同層次人群之間的信息連接,促進各類型的場域之間進行對話交流。因此,數據與算法的應用不應陷入某一層面的極端服務,要保持向個性化與社會整合的雙重目標同時前進的步調[3]。
算法技術的應用不僅會影響大眾對信息的認知與判斷,同時其影響也深刻地體現在一些行業的決策當中。在內容生產方面,算法通過計算得出的排行榜、熱搜榜等榜單在某種意義上決定了內容生產者未來的生產方向和相關主題[4]。伴隨著算法技術的不斷發展,在就業、生產與消費等領域的重要決策都可能會受到算法的影響。
從認知、行為與判斷這三個層面來看,算法是一把“雙刃劍”,一方面,它能夠立足于過去,對現在以及未來的需求進行數據性分析,提供最優質的服務;另一方面,算法能夠提供多大程度的便捷,便會促使大眾出現相應程度的惰性與禁錮。由此,大眾便會逐步困于算法陷阱當中,弱化自身思考的能動性,無法真正勘破存在于屏幕背后的算法規則,進而淪為算法的“囚徒”。
(二)勞動的被操縱風險
數字經濟的發展帶動經濟社會發生了一系列的變化,伴隨數字技術在各個領域的廣泛應用,數字勞動作為一種新型勞動形式應運而生。人們被日益量化的評價機制捆綁,如外賣平臺利用送餐時間、顧客滿意度等束縛外賣騎手逐漸陷入對自我的規訓,收集與分析騎手數據,并將結果反作用于騎手以形成勞動秩序[5]。由此可見,平臺算法在對數字勞動群體的影響中也扮演了重要的角色。算法不僅局限于勞動層面,平臺利用算法機制要求外賣員必須以良好的服務態度來凸顯消費者的地位,并將評價決策權交到了消費者手中,使外賣員隨時面臨被監管、被投訴的可能,進一步實現對其勞動的規訓[6]。
消費者看似擁有了至高無上的“權力”,實際上是將平臺與騎手之間的矛盾悄無聲息地轉嫁到用戶與騎手之間[7],這一點從近些年頻頻出現的外賣員由于害怕超時被打差評而出現意外的各種案例中就可以看出,平臺挑起了矛盾卻躲在背后,讓外賣員與消費者承擔后果。與傳統勞動相比,數字勞動的克扣更加隱蔽,它更傾向于在不施加任何外力壓迫的情況下實現勞動者自己對自我的不斷規訓。
作為一種新型勞動形式,數字勞動不像傳統勞動那么具體,它沒有實際的形狀和感覺,因而不易察覺。在功績社會中,功績主體處于一種強制的自由狀態,自由與約束同時體現在他們身上。因此,數字勞動的異化在所難免。勞動異化的過程也就是勞動者實現對自我的規訓、逐漸喪失主體地位的過程。如近些年常常聽到的一個熱詞“內卷”,在超訓社會中人們以一種過度積極的狀態投入歇斯底里的工作之中,勞動主體既是“主人”也是普通勞動者,因此,在沒有外界刺激的情況下,人們也能照常進行規訓。
在抖音、快手等短視頻平臺,算法通過點贊、轉發量來激勵用戶進行內容生產,并把這些數據納入量化評價體系,無形之中實現了對用戶的規訓。最初用戶是在閑暇之余,在分享欲的推動下進行內容生產,而后在平臺算法的規訓下,內容生產者在各種榜單數據、流量的刺激下不斷進行更新創作,娛樂時間與工作時間難以區分,這也是數字勞動的一個顯著特點。進入超資本主義時代后,資本家不再通過強制手段剝削勞動者,而是采用一種更加隱蔽的方式讓他們主動將個人休閑時間異化為資本積累的時間。
由此可見,勞動者并沒有從過去的資本壓力中解放,算法只是將其隱藏在平臺背后,并且較之前的程度更甚。勞動者被算法制定的評價機制束縛,真正成為一個“勞動‘囚徒”。
(三)隱私的消解風險
大數據時代,人們生活的各個細節都處于平臺算法的計算之中,這帶來的一個重要影響便是個體喪失了主體判斷與選擇的權力和能力,逐步淪為數據算法的“奴隸”。隨著手機等移動終端設備的普及,人們可以隨時隨地分享個人觀點及日常生活,于是對個人隱私泄露問題的關注度日益上升。在人們追求個性化的需求之下,平臺算法不斷迭代更新,與此相關的竊取個人數據隱私的手段越來越隱蔽,個體在獲得個性化體驗的同時也面臨一定的隱私消解風險。在央視3·15晚會上,大量有關網絡安全隱私的問題被曝光,如智聯招聘、獵聘等招聘平臺并未采取有效手段保護求職者的個人信息,導致大量簡歷流入不法分子手中,這些侵權問題的背后暴露出的是商業平臺運行的霸權邏輯,而這套邏輯之所以成立,或許與現代人的全面數字化有關。
一般來說,平臺收集的“用戶數據”是指“人”產生的數據,但如今平臺的數據搜集手段已經不再僅僅局限于“人”,與用戶相關的各種物體甚至環境都可以成為用戶畫像分析的重要依據。人們對健康生活的追求催生了智能體脂秤、智能手環等穿戴設備,這些設備通過傳感器貼身記錄人體的各項隱私數據,對個人數據的采集更加深入,一些人們不愿意暴露在外的身高、體重、疾病等隱私數據都可以被采集到。至此平臺對用戶的個人畫像數據更加豐富多元,對個人畫像的準確度也大大提高,人們的個性化體驗越來越好,但這也意味著個人隱私數據的保護面臨巨大的風險挑戰。
智媒時代,個體享受的數據便利與算法帶來的各種風險是協同而來的。人們要想獲得更加精確的個性化服務,就必須出讓自己的部分數據,甚至需要將自己進行一定程度的數據化。隨著對個體隱私權利的關注度不斷升高,有關個體隱私權和被遺忘權的討論也被提上日程。當人們醉心于數據算法帶來的巨大便利的時候,往往會忽略其中隱藏的隱私泄露風險,很多用戶在數據隱私的保護方面越來越力不從心,權利的讓渡似乎是必然的選項。算法收集的海量數據確實為人們的日常生活提供了便利,但其背后蘊藏的風險也悄無聲息地入侵了人們的生活,而個體可能感知不了這些風險的存在。大多數人對自身所擁有的各項數據權利并不清楚,即使他們認識到數據的被遺忘權,也并不能阻攔數據最后的泄露,依靠個體的力量與算法平臺對抗無異于螳臂當車。平臺運用強制手段將個體數據化,以此來為個體提供個性化服務甚至成為當今算法社會的普遍事實。
由此可見,算法已經滲透到人們生活的各個方面,人們對外界事物的認知都依賴于算法,人們已經生活在一個由算法建構的世界之中。算法決定了個人認識世界的寬度與廣度。不斷優化更新的算法在無形之中控制了人們的決策活動,并促使個體投入更深層的自我剝削。人的隱私也在算法的入侵下不斷消解。
(一)加強數據建設,提升用戶素養
在現代化的信息數據建設與推送過程中,新媒體借此形成的個性化推送模式,為使用媒介的大眾量身定制了一套獨屬于個體的信息數據整合流程。其主要作用是在一定程度上提升大眾對信息獲取與處理的效率,因此也就對大眾自身所需要具備的數據素養提出了更高的要求。
如果作為獲取信息便利的受益者,在提高數據素養方面的意識較弱,便會過度沉溺于信息洪流的表面,將自身禁錮在單一個性化的信息牢籠里,對事物的綜合認知與處理產生偏差。
因此,受眾在接收媒介傳播與推送信息的同時,要有對信息進行深層梳理與思考的意識和習慣,不能僅僅停留于所接觸內容的表面。此外,在個性化的信息數據推送模式下,受眾也要具備接觸多類型、多角度內容的了解能力,保證自身對信息的了解是系統全面的。只有在此情況下,大眾才能真正發揮算法數據的正確效用,把握正確利用信息的方向,對數據進行更深層次的挖掘。
(二)平臺遵守相關法律法規,完善隱私安全保護機制
面對全社會對數據安全保護的訴求,平臺作為控制算法運行的主導者,應主動承擔起社會責任,遵守相應的網絡安全法與隱私保護條例。可以邀請第三方安全評測機構定期進行檢查,查漏補缺,并重視對個人數據庫的維護。與此同時,平臺也要加強內部管控,開展全平臺數據安全培訓,對用戶敏感信息進行加密處理,提高網絡安全防護能力。
(三)政府加大平臺監管力度,加強信息倫理規范
在數字技術蓬勃發展的今天,人們的數據隱私安全問題日益凸顯,出讓隱私以換取便利的情況越來越普遍,因此制定適當的信息倫理規范是很有必要的。信息科技時代,誰掌握了信息,誰就能主導發展,對數據安全的保護甚至比技術更加重要。政府應當制定并采取相應的監管措施,對平臺濫用、出賣用戶信息的行為進行監督,切實保護好人們的數據隱私。在新出臺的《中華人民共和國民法典》第六章“隱私權和個人信息保護”中,針對個人信息主體的權利和信息處理的安全與保密都給出了新的規定。通過法律手段來約束治理數據隱私泄露或濫用的問題是有效的。
算法數據的廣泛應用為各主體按照大眾的喜好進行信息推送創造了極大的便利條件。在以后算法技術運作的過程中,要正確認識算法的獨特優勢,更要認清隱藏在算法背后的風險挑戰。對此,要從受眾、平臺與政府三個方面進行適當的規范與管制,才能充分發揮算法技術的效用,創造一個健康的算法社會。
參考文獻:
[1] 蔣曉麗,鐘棣冰.智能傳播時代人與算法技術的關系交迭[J].新聞界,2022(1):118-126.
[2] 韓炳哲.他者的消失[M].北京:中信出版集團,2019:4-5.
[3] 彭蘭.算法社會的“囚徒”風險[J].全球傳媒學刊,2021,8(1):3-18.
[4] 黃淼,黃佩.算法馴化:個性化推薦平臺的自媒體內容生產網絡及其運作[J].新聞大學,2020(1):15-28,125.
[5] 陳龍.“數字控制”下的勞動秩序:外賣騎手的勞動控制研究[J].社會學研究,2020,35(6):113-135,244.
[6] 孫萍.“算法邏輯”下的數字勞動:一項對平臺經濟下外賣送餐員的研究[J].思想戰線,2019,45(6):50-57.
[7] 劉戰偉,李嬡嬡,劉蒙之.平臺化、數字靈工與短視頻創意勞動者:一項勞動控制研究[J].新聞與傳播研究,2021,28(7):42-58,127.
作者簡介 王寅輝,碩士在讀,研究方向:媒介經營與管理。張晨,碩士在讀,研究方向:媒介經營與管理、戰略傳播。