摘要:人類正在加速進入以數據為原料、以算法為引擎、以算力為支撐的算法社會。虛擬領域不只是物理世界的鏡像,它呈現出新的樣態,可劃分為私人領域、公共領域以及公私疊加復合領域。算法協同虛擬領域治理,賦予用戶更多交流機會與展演平臺,推進敏捷治理。與此同時,算法加速迭代使得算法權力泛化侵占私人領域的權利,算法規則進化破壞公共領域,算法邏輯強化模糊公私邊界。完善算法問責,規范算法賦權與限權,提升公眾算法素養,是算法協同虛擬領域治理發揮協同效能的必要選擇。
關鍵詞:算法權力;虛擬領域;協同;公共決策權;算法素養
中圖分類號:G206" " " " " " 文獻標識碼:A" " " "文章編號:1003-8477(2024)05-0066-09
一、問題的提出
人類正在加速進入以數據為原料、以算法為引擎、以算力為支撐的算法社會。“算法基于海量數據運算配置社會資源,直接作為行為規范影響人的行為,輔助甚至取代公權力決策”, [1](p63)廣泛滲透到人類生產與生活的方方面面,包括虛擬領域。虛擬領域主要是相對于現實物理世界而言的。自亞里士多德將物理世界劃分為私人領域與公共領域以來,私人領域由界定家庭、鄰里和社交之類非正式關系的領域屬性,慢慢拓展并伴隨“私人的即政治的”女權運動登上政治舞臺。哈貝馬斯認為:“公共領域最好被描述為一個關于內容、觀點,也就是意見的交往網絡;在那里,交往之流被以一種特定方式加以過濾和綜合,從而成為根據特定議題集束而成的公共意見或輿論……是在交往行動中產生的社會空間。”[2](p446)技術的發展打破了哈貝馬斯用以劃分公私領域的交往形式標準。社會不斷技術化和技術不斷社會化加速了私人領域與公共領域的融合,引發私人領域公共化、公共領域私人化,致使公私模糊領域日益增多。
學界關于虛擬領域與物理世界關系的認識,經歷了從最初的將虛擬領域與物理世界嚴格區分,到將虛擬領域視為物理世界的投射,再到認為虛擬領域與物理世界相互融合的轉變過程。隨著算法的深度介入,虛擬領域呈現出新的樣態,至少可劃分為私人領域、公共領域以及公私疊加復合領域。已有算法治理研究,從法治、倫理、經濟、管理等視角切入,用物理世界的規則凝視虛擬領域,缺少在算法社會中形成算法文化的情境,對虛擬領域進行本體論意義上整體而具體的分析。此外,需要進一步思考的問題是虛擬領域的私人領域與公共領域治理是否可以繼續沿用物理世界的規范,公私疊加復合領域的治理規范是否是私人領域與公共領域治理規范的總和?解答這兩個問題的關鍵在于理清算法作用于虛擬領域的機制。
算法主要通過三個步驟層次對虛擬領域產生影響。第一層是算法設計者編寫決策代碼,不斷輸入數據使算法自主學習;第二層是企業在其平臺部署算法應用;第三層是算法根據大數據進行自主學習生成決策規則調配社會資源。擁有自主學習與決策功能的算法不是純粹的技術,而是異化為支配人的權力的新興主體。[1](p63-75)第一層次和第二層次可以找到明確的責任人,因此可以進行相應的法律規制。但是第三層次算法的不透明性引發的信息裁量權的不確定性,使得算法對虛擬領域的影響變得復雜多變,難以預測其對個人權利與公共權力的具體影響。算法使得虛擬領域治理面臨著不同于物理世界的治理環境。一是算法成了人類生產與生活必備的外生性能力, [3](p32)進入政治生活領域,成為人類的代理人。二是算法帶來了社會結構的變化,基于大數據與機器深度學習的算法技術導致私人領域、公共領域以及公私疊加復合領域全面模糊化。不同的治理環境,使得虛擬領域的治理不能完全沿用物理世界的治理方式,公私疊加復合領域的治理規范也不等于私人領域與公共領域治理規范的簡單相加。
以數字化進程為參照,中國虛擬領域的治理經歷了從內容治理、人本治理再到數據治理的發展階段。這與中國互聯網的內容數字化、個人數字化、大眾數字化和社會數字化四個層層推進的發展階段相適應。[4](p26-42)在1990年代Web1.0階段與2000年代Web2.0的內容數字化階段,虛擬領域治理更多指的是虛擬公共領域的內容治理,表現為規范互聯網發展和運用的共同原則、規范、規則、決策程序和方案。[5](p48)在2010年代移動互聯的個人數字化、大眾數字化階段,互聯網與手機結合后所帶來的各類服務使得虛擬領域的治理開始關注個人隱私權等私人領域的問題,個體成為數字時代的公民,人本治理取代內容治理。然而,在2020年代智能物聯階段,“人”的主動性和能動性陷入大數據驅動的算法權力旋渦,數據治理成為虛擬領域治理的關鍵。
本文所關注的虛擬領域治理,指的是因數據流動、數據安全等造成的對涉及私人領域、公共領域以及公私疊加復合領域的個人權利與公共權力的侵害的治理。以數據為基礎的算法參與構筑并真實影響虛擬領域,是探討虛擬領域治理的切入口。虛擬領域的治理既不能忽視算法的存在及其功能,亦不能對算法頂禮膜拜,放棄對算法的規訓。算法協同成為解決這一難題的可能選擇。協同指的是兩個或者兩個以上的不同系統共同協作、協調同步、合作互惠。[6](p5)算法協同虛擬領域治理,將技術與環境相結合,創設新的治理模式,使得千差萬別的系統從無序變為有序,達到整體功能倍增的協同效應。抖音短視頻社交平臺(以下均簡稱“抖音”)是算法驅動與運用的具體場域,其用戶既有個人又有公共權力部門,覆蓋幾億網民,儼然構建了一個虛擬世界。抖音涵蓋了算法深度嵌入的三大虛擬領域,存在部分侵害個人權利與公共權力的失序狀況,能夠反映算法協同治理的機理及問題。在算法權力不斷擴張的情勢下,聚焦抖音,挖掘發揮算法協同虛擬領域治理的功能,剖析算法為虛擬領域治理帶來的風險挑戰,為引導算法善用提供可能性借鑒。
二、算法協同虛擬領域治理的功能
人類對數字技術的追逐源于數字紅利。算法對虛擬領域治理發揮著“破壞性創設”影響。[7](p13)一方面,物理世界的治理規范不再適應虛擬領域的復雜性需求;另一方面,算法技術的“加速主義”革命,在推動人類社會政治文明發展進步方面發揮基礎性作用。算法協同虛擬領域治理,賦能用戶更多交流機會,搭建展演平臺,在構建系統化的治理體系、包容性的治理主體、共享性的治理資源過程中推進敏捷治理。
(一)算法協同創設交流機會
算法是將復雜問題簡化的技術工具。抖音官方宣傳語是:“抖音讓每一個人看見并連接更大的世界。鼓勵表達、溝通和記錄,激發創造,豐富人們的精神世界,讓現實生活更美好。”只要有手機與網絡,用戶簡單操作即可自由進入開放的虛擬領域。抖音從最初鎖定青年群體到2021年上線長輩模式擴展至“銀發族”,2023年9月又推出地方方言自動翻譯成文字的功能,通過技術迭代升級將以往被忽視的群體納入平臺,構建了包容性的治理主體,賦予用戶更多交流機會。個性推薦算法的使用也使交流更為充分。從私人領域來看,信息嚴重超載遭遇個人信息系統容納量有限性制約,個性化信息消費成為必然。算法協同智能推薦系統,通過過濾推薦、內容推薦、關聯規則推薦等技術,為用戶進行“信息瘦身”,建構個人知識庫,為不同個體之間的交流提供較為充分的信息。從公共領域來看,建立在海量數據基礎上的算法因其更低的“偏見”而更受信任,加大了用戶對算法滲透其中的信息處理、生活決策與行為選擇等決策的信任,提高了溝通交流效率。
算法技術在虛擬領域的廣泛應用并不必然筑起“信息繭房”。國內既有研究主要聚焦于“信息繭房”的概念辨析而非實證檢驗,將美國政治語境下的“繭房”比喻內化并遷移至概括當代中國網絡媒介傳播缺少多樣性的特征。[8](p65-78)國外學者針對“信息繭房”的相關研究存在理論與經驗層面的矛盾,現有研究對網絡媒體的類型分類多以媒體的單方面屬性和單向線性傳播為基準,忽略用戶的媒介使用維度。[9](p1-14)社交媒體的核心要素在算法技術的介入下發生生態變遷,其功能從“內容”向“連接”的發展,漸趨于場所與通道。網絡媒介平臺成為平臺的“供”與用戶的“需”互構形成的思想市場。根據用戶連接的開放與否以及傳播結構的水平或垂直將網絡媒介歸納為三類:以微信為代表的熟人社交型,影響私人領域;以微博為代表的公共討論型,影響公共領域;以個性化推薦類新聞產品、短視頻App為代表的垂直傳播類型,對私人領域與公共領域均有影響。抖音屬于垂直傳播型。
垂直傳播型的平臺不產生顯著的“筑繭”或“破繭”效應。微信和人人網等熟人社交型媒體的用戶,較難掙脫原有人際關系下的社交表演,低匿名性也使得“關系市場”下的熟人社交媒體存在顯著“筑繭”效應。不同于熟人社交型媒體,知乎、豆瓣、果殼、微博、論壇等公共討論型媒體的用戶,在“趣緣”主導和匿名規則之下傾向于觀點先行,用戶的消費需求主要是信息及觀點的表達與交流,增強了多元觀點的呈現與流動,助推了跨意識形態的聯結,產生顯著“破繭”效應。新聞門戶、短視頻App等垂直傳播型的用戶難以形成圈層下的觀念共振,且算法推薦內容的淺表化難以影響個體深層的政治社會觀念,不產生顯著的“筑繭”或“破繭”效應,更多的是在私人領域、公共領域以及二者之間創設了遠遠多于物理世界的交流機會,建構一種新型社會資本。
(二)算法協同搭建展演平臺
算法被廣泛應用于經濟、文化、政治等領域,為人類營造了新的生存環境,尤其是新的交流環境。深諳算法技術的社交媒體平臺,為包括個人及政治團體在內的用戶提供了展演的“舞臺”。“展演”由美國社會學家戈夫曼提出的“印象管理”和“擬劇理論”衍生而來,指的是個人或政治團體將自我視為“演員”,以他人為“觀眾”,以動作和環境作為“舞臺”進行自我展演,從而塑造出特定的自我形象。[10](p95)抖音不僅為個人用戶,同時也為包括國資委新聞中心、共青團中央、公安部網絡安全保衛局等眾多公共機構提供了展演機會。抖音不僅生產娛樂、搞笑、秀“顏值”、秀舞技等私人化的內容,同時也為傳播社會主義核心價值觀、青少年科普等公共產品提供了舞臺。抖音通過搭建“互動儀式鏈”和放大隱喻效應,運用“零距離”反復推送策略以及“去展演”直播將后臺前臺化的方式,規避傳統媒體中介作用帶來的展演機會的有限性,提高目標受眾的認可度,構建虛擬領域交流的實在展演空間。
私人領域借助社交媒體平臺獲得了再生。通過展演,一方面,個人的困難、訴求、快樂、悲傷等在抖音上得到釋放與回應。私人領域的問題借助抖音被吸納到公共領域而被公開化,引發社會普遍關注,有利于維護個人權利。另一方面,與公共性相關的私人心態借助抖音成為社會客觀現象,擴大了私人領域的再生產。抖音顛倒了物理世界私人領域與公共領域之間的關系,通過為個人提供交流機會以及個人可以自由表達對公共事務的態度,使與公共性問題相關的主觀內心化現象客觀化。這一客觀化現象在虛擬領域表現為異質性信息消費與多元化觀點交流,在此過程中用戶以自身的信息數據換取算法便利,獲得舒適生活。
公共領域借助社交媒體平臺培育了更多的公眾。通過展演,一方面,抖音搭建了公共協商的空間。個體成為公眾的關鍵在于超越自身利益關注社會公共性問題。算法推送相關議題,社會公眾通過點贊、關注、轉發的操作使得該議題能夠積聚大多數用戶的意見與建議,個體借此能打破個人立場的禁錮,轉而從維護公共利益的視角推進該議題所涉社會問題的討論。另一方面,抖音客觀呈現了結構性社會群體差異。不同地域、不同職業、不同階層的用戶通過發表關于公共問題的看法,其看法進入公共協商領域,表達了個體的利益訴求,個體也就轉變成為社會公共事務的積極參與者與決策者,少數個體更是因此積聚社會資本成為民意的代表。比如普通老百姓亦可以通過網絡積累社會資本成為意見領袖。[11](p64-74)
(三)算法協同激活治理資源
第四次科技革命在全面變革現代人類生產方式、生活方式以及思維方式的同時,也使算法與數據、算力、智能化解決方案一起成為國家治理的四類新興治理資源。其中,智能化解決方案是在具體治理情境下,融合數據、算力和算法提出的集成化解決方案。作為治理資源的算法是形成集成化解決方案的關鍵因素。算力是推進數字治理的新型基礎設施,通過及時感知、匯聚和存儲社會經濟、政治、文化等各方面的海量數據,為數字治理提供充分“養料”,從而進一步優化算法,驅動和牽引數字經濟與數字社會同步演化,為快速精準提供智能化治理方案實現敏捷治理提供基礎治理資源。[7](p13-26)
算法協同推進敏捷治理的運行機制在于多元治理主體與治理資源的有效協同。伴隨技術賦權與廣泛的網絡連接,虛擬領域的治理主體由內容治理與人本治理階段的政府一元主體,逐漸演變為兩大治理主體圖景:一是政府內部的跨層級、跨地域、跨系統的整體協同;二是政府與市場主體、社會大眾的協同。[7](p14)其中,在第二種圖景中,市場主體可以影響政治,社會大眾既可影響政治,也可以影響經濟,私人領域與公共領域的邊界日益模糊。兩大治理主體圖景訴求一個包容性的治理生態,共享多元治理資源是激勵多元治理主體有效協同的動力機制。抖音正是基于對多元主體差異的重視,算法協同使其在某些議題上擁有比物理世界更廣泛的民眾基礎。除此之外,抖音還通過自主設置議題,發揮多元主體的治理力量。比如抖音聯合中央電視臺、新華網等官方主流媒體舉辦大型紀念活動,助力發揮社會主義核心價值觀引領作用。
算法推進敏捷治理的真正落地在于增進對虛擬領域的社會認同。抖音的發展除了商業運作,還因其遵循了算法秩序。算法秩序指的是國家在算法運行過程中建構社會秩序,規范社會行為,用戶基于對國家的認同而認可虛擬領域的治理邏輯。算法秩序蘊藏著國家公權力的意志與意圖,是虛擬領域治理合法化的內隱規范,規避了虛擬領域的霍布斯式的“自然狀態”,將算法的技術理性上升為價值理性。一方面,算法秩序賦予公眾平等的地位,積極認可其差異性和獨特性。這種認可意味著共識和差異并不是決然對立的,對決策而言二者同等重要,從根本上營造了尊重自由的私人領域。另一方面,算法秩序引導公眾參與公共領域的治理。算法所創設的交流與展演機會,提供了一種民主決策的結構,將個人意見上升為國家意志,引導公眾為了共同體的未來而積極參與公共領域的建設。這樣產生的國家意志是民眾自行討論的結果,決策在很大程度上得到民眾的認可和支持,增進了公眾對國家的認同。
三、算法協同虛擬領域治理的風險診斷
在算法協同治理過程中,算法賦能虛擬領域治理也潛藏著一些弊端和風險。在充滿不確定性、流動性、復雜性與模糊性的烏卡時代,這些風險使虛擬舞臺充滿希望卻又布滿挑戰:算法權力泛化可能使交流突破底線,侵占私人領域的權利;算法規則進化可能演化為對展演的解構,破壞公共領域的秩序;算法邏輯強化可能模糊治理的公私邊界,使多元治理陷入危機,使抖音陷入由資本、權力和權利構成的算法政治“弱三角”關系,[12](p45-46)導致抖音治理的無政府狀態。這意味著算法協同治理面臨種種限度,需要進行有效識別。
(一)算法權力泛化侵占私人領域的權利
私人領域的權利主要是指隱私權,包括信息隱私、空間隱私、自決隱私等。算法作為一種技術,在現實中表現為一種“偽中立性”的“資本化的技術權力”。 [13](p24)資本的社會權力利用算法為其合理性論證,算法借助資本不斷進行算法權力的再生產。在抖音等虛擬場域,算法日益攫取技術與社會的雙重權力,算法權力呈泛化之勢。泛化的算法權力侵入私人領域,背離治理初衷,引發不可控的風險。
1.用戶的隱私權被控制
算法權力泛化帶來的首個潛在風險是人全面數據化后帶來的信息隱私安全問題。泛化的算法權力與資本、政治形成互構關系,以更加隱秘的方式參與到人的數據化中,大大提高了虛擬空間的治理效率。表面上,抖音生產碎片化短視頻的模式,降低了用戶觀看的門檻,也降低了用戶參與的門檻。實質上,抖音用戶門檻與隱私披露成反比關系,門檻的降低意味著隱私披露風險增大,即使是單純的觀看行為,沒有點贊、評論、轉發等主動參與行為,算法也可以根據數字痕跡識別個體用戶的使用偏好,并進行智能化推送和關聯,無形中擴大了可分享的隱私范圍。2019年某法學博士起訴抖音在沒有其授權的情況下,過度讀取其手機通訊錄,侵犯其個人隱私。1娛樂主義思潮的盛行客觀助長了大量抖音用戶主動生產或提供個人數據,如“曬”生活、分享經驗、自我表達。這種行為表面看帶來一些便利,但所“曬”內容大多涉及個人敏感信息,信息朝向不確定的未來無限敞開,以獨特的壓縮方式讓隱私超出控制范圍,用抵押未來的方式換取當下生活的便利。不確定性風險以“交流”之名被加速搜集。
2.私人領域獨立性遭到消解
私人領域被侵犯是算法權力泛化帶來的另一風險。私人領域的獨立性關乎人們生活質量的高低。在虛擬領域,“時空虛化”使算法輕易突破私人領域的“封鎖”,個人行為會被瞬間鎖定、瞄準,成為被他者凝視的對象。抖音龐大活躍的用戶群體既是消費者又是數據的生產者,用戶的雙重身份內隱著私人領域獨立性的易解構性。一是使私人空間被無意識打開。抖音算法以“關注”之名掩蓋侵犯私人領域之實,滲透到從日常行蹤到工資消費等私人生活的各個領域。二是私人活動被干擾。抖音短視頻的精準推送建立在掌握個人隱私基礎上,這意味著普通個人的活動處于全透明的全景監視狀態。三是私人領域陷入數字鴻溝。抖音預設了平臺與用戶之間的不對等性。算法技術的高復雜性和頻繁迭代性,使得普通用戶很難具備相應的知識儲備,獲得平等參與權。對弱勢群體而言,標簽化現象進一步加速其被邊緣化的趨勢。
3.個人成為算法的“囚徒”
算法對人的“囚禁”是算法權力泛化侵犯“自決”隱私的后果。算法“囚禁”是指算法對信息的過度篩選所造成的人的認知、判斷、決策與社會地位等可能會受制于算法的狀態。[14](p3-18) 抖音使個人“自決”形同虛設。一方面,抖音算法推薦越精準,對人的監控也就越全面。技術宰制使個體行為方式潛移默化地趨向同質化,扼殺人的想象力和創造力。另一方面,抖音算法的娛樂供給越“到位”,用戶對算法的依賴也就越強。人的身體、情感、認知等都依賴算法的調控,逐漸喪失個人的主體性,淪為算法的囚徒。以“自由思想”為引擎的算法發生異化,導致人的自由的雙重缺失:一是消極自由的缺失。“新媒體所傳播的內容,實際上限制了接收者的反應……剝奪了言論和反駁的機會。”[15](p196)二是積極自由的缺失。算法正在以驚人的速度改變著人們的認知和判斷,“大眾傳媒塑造出來的世界所具有的僅僅是公共領域的假象。即便是它對消費者所保障的完整的私人領域,也同樣是幻象”。 [15](p196-197)人的認知通道被關閉,個人選擇權和決定權易手于算法,形成算法與人之間的“隱性契約”,并被系統性反復使用。
(二)算法規則進化解構公共領域的秩序
算法運行有其規則,這些規則在數據模型的自我迭代升級中愈發不為物理世界所理解,形成不透明性的規則。算法規則在虛擬領域的量化與執行,尤其是進入公共領域的傳播秩序格局,它所倚重的是算法能夠根據數據積累進行自我修正和進化。算法規則進化是一把“雙刃劍”,對公共領域的生成、運行產生積極效果的同時,產生破壞性效應。作為注意力經濟的受益者,抖音以提供“奪人眼球”的短視頻等方式,通過娛樂笑話、時事評論等介入作為政治行動的、社會輿論的、經濟活動的、意識形態的公共領域,再造了不同于物理世界的公共領域的新規范。大量短視頻以“狂歡”沖擊“展演”,使用戶在娛樂沉迷中助推公共領域秩序的解構。
1.算法規訓公眾表達破壞公共領域的公共性
算法規則規訓公眾表達。公共領域的公共性首要的是順暢、有效的公眾表達。抖音的虛擬公共領域,“作為政治和經濟影響的媒介,其作用發揮越大,它的政治功能就越弱,從而被偽私人化了” 。[15](p201)在抖音構造的公眾“視聽狂歡”中,狂歡更像是網民發泄情緒、宣泄私憤、制造謠言的“意見”喧囂。資本的逐利本質操控算法,“激勵”狂歡;政治力量介入技術,“利用”狂歡。技術憑借其強大反向力作用于政治與資本,最終使得公眾表達成為一種由技術、資本與政治三者所定義的失去理性的工具式話語。作為互聯網底層運行邏輯的算法賦權了公眾表達,卻與政治、資本形成合圍,反過來瓦解了公眾表達。被抖音算法青睞的信息會獲得大量關注,而被抖音算法屏蔽的信息則可能被淹沒。算法規訓使得公眾表達力量進一步弱化,在算法的加持下,公眾“失真”和“失語”,經過算法考量的公共性成為局部的、虛假的“弱公共性”。
2.算法無意識嵌入社會形成對公共決策的“強”占
算法規則進化引發算法無意識“強”占公共決策。算法無意識是“技術無意識”的升級版,算法嵌入社會,控制民眾思想,形成對公共決策的“強”占。科學的公共決策離不開人民群眾充分行使其當家作主的權利。作為現象級平臺,抖音擁有形成決策民主的數據優勢,“算法民主真正應該達到的目標是,通過技術來促進民眾的實質參與,進而實現人民主權這一基本價值”。 [16](p23)然則算法的無意識嵌入,一方面通過算法瞄準生產無知的網民。算法通過數據分析識別用戶的政治立場和觀點,實現資訊的精準投放。在程序循環中,民眾的認知、情緒、判斷力最終被算法左右。另一方面通過算法肢解生產無能的網民。抖音算法鎖定用戶圈層,用戶只能與興趣觀點相近的群體互動,導致“巴爾干化”1。用戶被推送肢解在價值觀迥異的狹小圈層,對其他視而不見,無法形成具有公意的決策,公共決策只能越來越依賴于算法。
3.算法壟斷使得算法擁有更多的決策權
算法規則進化助推決策權的算法轉移。算法并不滿足于對公共決策權的“強”占,而是通過算法進一步掌握話語權和規制權,構建漸具吞噬國家、社會和公民的力量的“算法利維坦”。[17](p95-102)這是資本與權力、技術相互勾連形成的合力作用的結果。一方面,公共權力對掌控數據的壟斷平臺的依賴性與日俱進;另一方面,壟斷平臺憑借技術壟斷,形成無所不在的強大影響力,并慢慢滲入政府體制,進而影響公共決策的制定。隨著話語權向平臺集中,算法壟斷使得平臺成為試圖引導一切的“看不見的手”。對抖音而言,這種決策權的轉移是隱性的,更多的是通過規則設定進行數據壟斷隱秘實現。
(三)算法邏輯使公私界限模糊化
算法邏輯的本質在于用技術取代人。算法對私人領域與公共領域或明或暗地雙重介入,“導致的后果是公共領域與私人領域的邊界消弭,公民權利讓渡給算法權力”。[17](p99)當算法進入身體、意識等私密領域以及人們日常生活空間,公私邊界開始消融,產生交叉領域。“在這個交叉區域,國家化的社會領域和社會化的國家領域相互滲透,……公眾本身只是偶爾被納入這一權力的循環運動之中,而且目的只是為了附和。” [15](p201) 抖音顯然制造了這樣的交叉區域。算法賦權大眾以治理主體地位已然成為“悖論”。
1.破壞隱私邊界擾亂治理秩序
算法邏輯強化使算法對數字化個人無限收集,破壞了隱私邊界。任何治理都是有邊界的,數字治理的有效性和持續性依賴于合理界定其邊界 。[18](p24-28)美國學者桑德拉·佩特羅尼奧(Sandra Petronio)提出“隱私邊界”的概念,用以描述人際傳播中個人所能控制的私人信息范圍。[19](p311-335)破壞隱私邊界,就會擾亂社會治理秩序。抖音作為隱私空間的管理平臺,一方面,通過設置昵稱、虛擬頭像等加強對用戶隱私的保護;另一方面設置“格式化的”煩瑣冗長的隱私條款,用戶選擇局限于“同意”或“不同意”。如果選擇“不同意”,意味著不能注冊;如果選擇“同意”,且想了解內容,則需要耗費極大精力閱讀條款,對普通用戶形成挑戰。絕大部分抖音用戶直接選擇“同意”,并不細致閱讀。通過這樣一種悖論性功能設置,抖音合法謀取了隱私邊界相關的所有權、管理權等權力,用戶則在算法超越邊界的隱私無限采集中喪失了自身的權利。
2.破壞普遍性規則助長網絡非理性
治理離不開可操作性的普遍性規則。公共性原則是區分私人領域與公共領域的普遍性規則,公共領域的構建離不開對公共性原則的堅持。平臺的資本逐利本性力求破除一切空間壁壘,不斷推進私人領域公共化與公共領域私人化。抖音的運行機制,一方面,消解了公共議題的距離感和威權感,為私人領域公共化創造了條件。比如,2017年人民日報、新華社等官方主流媒體相繼入駐抖音,主流話語混合親民性的玩梗、網絡熱詞,呈現積極的“網絡化”特征,滿足了公共議題私人化的需要。另一方面,抖音助長了網絡非理性,推進了公共領域私人化,瓦解了公共性原則的普遍性。抖音參與門檻低,幾億網民魚龍混雜。有些網民通過暴力語言釋放自我消極情緒,滋生網絡民粹主義。隨著公私界限的不斷模糊,非理性因素肆意滋長,普遍性規則遭遇瓦解之困。
3.破壞公眾批判性使公共領域墮入部落化
算法邏輯強化破壞公眾批判性使公共領域重新墮入部落化。哈貝馬斯曾擔心專業對話、公開討論等會變成電臺和電視上的明星節目,用來收取門票,公共批判就淪為了商品,[15](p191)若公共領域承擔起廣告的功能,公共領域也將因不再具有批判性而失去公共性。波茲曼也曾預言,在娛樂至上的年代,“我們的政治、宗教、新聞、體育、教育和商業都心甘情愿地成為娛樂的附庸”。[20](p4) 在加速社會,吸引用戶注意力的泛娛樂主義在抖音比較盛行,批判性淪為泛娛樂的犧牲品。“去批判性”看似使網民獲得休閑的需要得到滿足,但從長遠看,卻有使公共領域重新墮入部落化的風險。算法時代公共領域的部落化是算法權力支配著蒙昧的網民,極大禁錮人們的思想,并在反復的信息傳播中演變為算法霸權。
四、算法協同虛擬領域治理的算法善用路徑
算法協同虛擬領域治理的風險,主要源于算法兼具技術與社會屬性及算法介入治理過程中權力的擴張。構筑以算法善用為核心的虛擬領域治理,需要在算法設計與算法運用兩個環節進行規制,在兩個環節所涉及的制度與技術等硬性規定層面、社會與個人等文化軟性規定層面協同推進,完善算法問責體系,規范算法賦權與限權,強化價值引導,提升算法素養,實現算法善用。
(一)制度層面:完善算法問責體系
完善算法問責是應對算法風險的重要著力點。從制度層面規范責任體系是應對虛擬領域復雜多變治理情景的前提。算法作為新型治理資源,并非虛擬領域治理的權威實體。互聯網企業作為實體,是虛擬領域治理的主體,應承擔主體責任。壓實互聯網企業的主體責任,需要互聯網企業結合自身實際,重新審視算法的合理使用范圍,避免算法濫用向惡,使其回歸協同治理的技術性地位。一是堅持“自責”與“他責”相協同,加強自我審核與他者凝視。抖音制定了一整套審核工具和審核程序,如“排雷小助手”對內容實時審核,規避“深度偽造”“數據投毒”。算法“自責”的透明度與平衡商業機密有著千絲萬縷的聯系,為算法“他責”留下適用空間。尤其是對平臺在“發言者”與信息“編輯者”之間自由切換、逃避責任的行為予以規制。虛擬領域不是法外之地。算法“他責”,即確立政府監督者地位,監督算法平臺切實履行相關法律法規,并制定預防性的問責制度,給予公眾批判權,保障個人權利與公共決策權。“自責”與“他責”相結合,既是算法邏輯運行的內在要求,也是虛實共生的現實選擇。
二是堅持過程問責與結果問責相統一。面對私人領域與公共領域的侵權行為與公共性侵蝕行為,抖音算法要重視過程問責,從治理目標、算法缺陷預測及防范、算法監管與責任機制、算法信任危機預測及規避等等,從源頭、審核、監管、影響等全過程予以規制。伴隨深度學習的神經網絡層數和參數的不斷增加,通過代碼形式呈現的“算法黑箱”并不為普通大眾所理解,社會公眾及大多數監管部門只能從算法決策輸出的結果判斷算法的可靠性。[21](p92-99)結果問責對算法生產和使用者提出明確的跳出技術和過程本身的歸責要求,成為尋求算法協同虛擬領域治理責任的關節點。
(二)技術層面:規范算法賦權與限權
算法風險源自算法權力的擴張。算法作為新質生產力的重要因素,發揮撬動歷史發展的杠桿作用,將給人類社會的生產方式、生活方式以及思維方式帶來巨大變化。算法協同虛擬領域治理帶來諸多風險可概括為算法權力界限問題。預防與降低算法權力侵害風險,須規范算法賦權與限權。一方面,對算法負責任的公私權力進行賦權。算法賦權抖音以用戶可接收與可接受的泛娛樂化形式,生動闡釋“什么是”以及“如何捍衛”私人權利,轉換公共權力部門嚴肅專業話語敘事,搭建了“個人—企業—政府”的有效溝通渠道。這類負責任的權力應予以擴大。
另一方面,對算法決策無限擴張至私人領域與公共領域進行限權。算法在賦能抖音短視頻發揮極大傳播效應的同時,將用戶視為可計算、可預測、可控制的客體而非主體,演變為一種受資本權力支配的平臺私權力。在平臺私權力、個人私權與公共權力三方權力的博弈中,平臺私權力有超越后二者的趨勢,引發虛擬領域底層邏輯的變革。堅守人的思考能力與公共機構的決策能力是虛擬領域治理的底線,也是算法決策止步的“紅線”。對涉及司法、醫療、社會救助、教育等公共領域的算法運用進行限權。面對算法權力擴張衍生的公私疊加復合領域的治理盲區,立法滯后而傳統法律制度難以企及,以底線思維作為治理原則,既包容多元允許發展,又設置禁區防止盲目發展。實名制是落實算法限權的重要方式。實名制指的是用戶以真實身份或可辨身份從事網絡活動。抖音要求粉絲數量達50萬,且發布“涉及時政、社會、金融、教育、醫療衛生、司法等內容的自媒體”賬號須授權實名認證。在實名認證基礎上進行場景化監管,重點關注惡性賬號及匿名暴力評論的惡劣影響,懲戒分明。
(三)社會層面:強化價值觀引導
算法系統不是純粹的技術,而是一套表征為技術的文化。在技術批判理論家安德魯·芬伯格看來,實體理論否認技術的中立性并認為技術構成了一種新的文化體系,這種新的文化體系將整個社會世界重新構造成一種控制的對象。[22](p5-6)算法協同虛擬領域治理除了硬核的制度設計和技術規范,還需要軟性適宜的算法文化的有機融合。“具有政治功能的公共領域不僅需要法治國家機制的保障,它也倚賴于文化傳統和社會化模式的合拍,倚賴于習慣自由的民眾的政治文化。”[15](p29)一是推廣尊重個性自由與文化公共性的算法文化。在推薦算法的普遍使用過程中,遵循公私領域的界限,尊重私人領域的個人權利,引導個體自由全面發展。在技術進步與文化公共性之間構建互促機制,用社會主義核心價值觀引導資本支配的“流量至上”價值觀,使得為博取關注的無底線的虛假信息、炒作信息、低俗娛樂信息等無法展演,給予服務于公共利益的賬號更多機會,為社會主義核心價值觀的生產與再生產提供空間。
二是糾正流行的算法決策優越性的算法文化。讓算法服務于人類是人類設計、運用算法的初衷。然則,算法依據大數據與機器的深度自我學習,彰顯出極強的工具理性,讓人類對其產生信任與依賴。算法決策優越于人類決策的算法文化得以形成,在個體生活、公共領域治理中流行開來,日益成為規范人類行為的隱性邏輯。算法協同虛擬領域治理,需要糾正流行的算法決策優越性的算法文化,讓算法回歸技術輔助的位置,在物理世界與虛擬世界同等強調人類的自主性,共同構建一個不被算法格式化的世界。
(四)個人層面:提升算法素養
算法文化引導算法向善歸根結底取決于作為主體的人及其算法素養。算法素養是與算法社會相匹配,既能享受算法帶來的便利拓展能力,又能識別與反抗算法控制的素養,[23](p13)提升算法協同虛擬領域治理的算法素養,在于提高算法的設計開發者和使用者善用算法公私并舉的能力。一是提升“情理相宜”的算法素養。虛擬領域是一個理性與情感交織互構的空間。數據理性與人文情感互補,情有理的成分,理同樣需要情的關照;強調共理意味著發展與進步,強調共情意味著包容與尊重。通過進行算法社會所需要的情理思維培養和算法風險教育,達到公共性之“理”與私人性之“情”相平衡的理想治理情境,實現情理相宜。
二是培養“公私并置”的算法素養。虛擬領域具有極強的流動性,顛覆了物理世界從空間劃分公私邊界的規則。算法社會需要培養從時間的流動性劃分公私邊界的思維,識別公私疊加復合領域,培育兼顧時空的“公私并置”的算法素養。“公私并置”是指在不違反法律道德的前提下,堅持權利與權力規范的公私內容,謀求公共利益的最大化,實現對虛擬領域的動態管理。一方面,堅持以人為本保障個人權利不受侵犯。算法實踐要有人本主義精神,不能用“和稀泥”的思維以及“大公無私”的規則,消解公私疊加復合領域中個體“最消極的自由”。另一方面,維護共享空間的公共精神。公私疊加復合領域意味著這是新共享空間的增長點。算法協同須排除“以私背公”的思維對新生長點的擠壓,同時防止算法權力對新空間的部落化企圖。
參考文獻:
[1]張凌寒.算法權力的興起、異化及法律規制[J].法商研究,2019,(4).
[2][德]哈貝馬斯.在事實與規范之間——關于法律和民主法治國的商談理論(修訂譯本)[M].童世駿,譯.北京:生活·讀書·新知三聯書店,2003.
[3]邱澤奇.算法治理的技術迷思與行動選擇[J].人民論壇·學術前沿,2022,(10).
[4]方興東,金皓清,鐘祥銘.中國互聯網30年:一種全球史的視角——基于布羅代爾“中時段”的“社會時間”視角[J].傳媒觀察,2022,(11).
[5]王明國.全球互聯網治理的模式變遷、制度邏輯與重構路徑[J].世界經濟與政治,2015,(3).
[6]胡正榮,王天瑞.系統協同:中國國際傳播能力建設的基礎邏輯[J].新聞大學,2022,(5).
[7]孟天廣.數字治理生態:數字政府的理論迭代與模型演化[J].政治學研究,2022,(5).
[8]虞鑫,王金鵬.重新認識“信息繭房”——智媒時代工具理性與價值理性的共生機制研究[J].新聞與寫作,2022,(5).
[9]陳昌鳳,仇筠茜.“信息繭房”在西方:似是而非的概念與算法的“破繭”求解[J].新聞大學,2020,(1).
[10]史安斌,潘晉怡.社交媒體平臺展演:智媒時代政治傳播的新路徑[J].青年記者,2023,(1).
[11]崔凱,劉德寰,燕熙迪.草根意見領袖網絡社會資本累積路徑研究——基于網絡美食社區“下廚房”網絡爬蟲數據的分析[J].新聞記者,2020,(2).
[12]張愛軍.算法政治“三角”關系的構建:穩定性邏輯與可能性建構[J].天津行政學院學報,2023,(3).
[13]鄧伯軍.人工智能的算法權力及其意識形態批判[J].當代世界與社會主義,2023,(5).
[14]彭蘭.算法社會的“囚徒”風險[J].全球傳媒學刊,2021,(3).
[15][德]哈貝馬斯.公共領域的結構轉型[M].曹衛東,王曉玨,劉北城,等,譯.上海:學林出版社,1999.
[16]高奇琦,張鵬.從算法民粹到算法民主:數字時代下民主政治的平衡[J].華中科技大學學報(社會科學版),2021,(4).
[17]張愛軍.“算法利維坦”的風險及其規制[J].探索與爭鳴,2021,(1).
[18]管兵.數字治理的多重邊界[J].浙江學刊,2023,(5).
[19]Petronio S.Communication Boundary Management: A Theoretical Model of Managing Disclosure of Private Information between Marital Couples[J]. Communication Theory,1991,(4)
[20][美]尼爾·波茲曼.娛樂至死[M].章艷,譯.桂林:廣西師范大學出版社,2004.
[21]譚九生,范曉韻.算法“黑箱”的成因、風險及其治理[J].湖南科技大學學報(社會科學版),2020,(6).
[22][美]安德魯·芬伯格.技術批判理論[M].韓連慶,曹觀法,譯.北京:北京大學出版社,2005.
[23]彭蘭.如何實現“與算法共存”——算法社會中的算法素養及其兩大面向[J].探索與爭鳴,2021,(3).
責任編輯" "賈曉林