999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

社交媒體用戶參與算法風險治理的影響因素研究

2025-05-01 00:00:00孟璽李慶霜霍帆帆
現代情報 2025年5期

摘 要: [目的/ 意義] 探討社交媒體用戶參與算法風險治理的影響因素, 有助于提升我國算法風險治理效果, 完善多元共治的算法治理體系。[方法/ 過程] 基于刺激—機體—反應(SOR) 模型框架, 整合社會認知理論和感知價值理論, 根據2 313份問卷調查數據開展實證研究。[結果/ 結論] 研究結果表明, 在總效應模型中, 算法素養、政府規制與平臺算法責任正向顯著影響用戶參與治理意愿, 政府規制是影響最大的刺激因素。加入感知收益和感知風險中介變量后, 算法素養、平臺算法責任通過感知收益與感知風險的部分中介作用對用戶參與治理意愿產生間接影響; 政府規制通過感知收益與感知風險的完全中介作用對用戶參與治理意愿產生間接影響。研究發現, 感知收益的中介作用比感知風險更加顯著。研究結論為完善我國算法風險治理體系提供了理論參考, 對激勵用戶參與以實現算法風險多元協同共治具有積極的實踐指導意義。

關鍵詞: 算法素養; 政府規制; 平臺算法責任; 用戶參與; 風險治理

DOI:10.3969 / j.issn.1008-0821.2025.05.006

〔中圖分類號〕G252. 0 〔文獻標識碼〕A 〔文章編號〕1008-0821 (2025) 05-0049-17

隨著我國數智技術的發展和社交媒體用戶算法意識的提高, 算法風險治理問題受到了廣泛關注。黨的二十大報告強調, 提高防范化解重大風險能力,嚴密防范系統性安全風險, 同時加快建設數字中國的決策部署, 而加強算法風險防范與治理研究符合國家安全的戰略需求與戰略導向。算法風險治理,其本質在于多主體對算法主體在算法應用過程中所產生的風險行為進行引導、調節、管理的協同共治過程[1] 。這與主張保障用戶權利、關注用戶價值偏好、規制算法權力、推行算法善治的我國算法治理價值體系有著深刻的內在聯系[2] 。政府算法風險治理越來越多地接受用戶的參與, 以回應用戶對更好算法服務的強烈需求。因此, 用戶參與算法風險治理具有內在規定性。

在堅持以人民為中心的價值取向下, 激勵用戶參與以實現多元協同共治, 成為我國算法風險治理的題中之義。然而, 政府算法風險治理面臨若干嚴峻問題以及由此折射出諸多用戶參與治理的挑戰。首先, 由于信息繭房現象的發生或用戶自身算法素養限制, 使得用戶參與算法風險治理的價值取向尚未得到系統傳遞[3] 。其次, 平臺算法責任弱化, 責任邊界難以界定, 算法黑箱、技術失控等現象出現,造成用戶參與受阻, 陷入協同治理困境。最后, 政府規制落實與異化現象, 導致用戶個人隱私保護不力等現象出現, 從而降低對參與算法風險治理的決心。國家互聯網信息辦公室等九部委制定了《關于加強互聯網信息服務算法綜合治理的指導意見》,強調要堅持多元共治, 構建治理機制健全、監管體系完善、算法生態規范的算法安全綜合治理格局[4] 。在我國不斷加大算法風險治理的社會背景下, 深化對社交媒體用戶參與算法風險治理行為意愿內在影響因素的研究, 以充分調動平臺用戶參與算法風險治理積極性, 具有一定的理論與現實意義。

當前, 已有研究大多回答了算法風險治理內涵(What)和算法風險治理措施(How)兩大問題, 而鮮有立足用戶(Who)視角, 探究用戶參與的激勵機制。事實上, 作為算法應用的主體和算法推薦的受眾, 社交媒體用戶這一角色值得被關注。社交媒體用戶不僅是算法的受益者和算法平臺的價值共創者,同時也是我國多元共治算法治理體系的重要參與主體。目前我國算法應用面臨包括用戶隱私侵犯、平臺算法歧視、形成信息繭房和價值偏向等多重困境,單靠政府單方面的管控, 難以解決當前算法風險治理問題, 需要平臺、公眾的多元參與以構建算法風險協同治理的新模式。因此, 本文基于刺激—機體—反應(Stimulus-Organism-Response, S-O-R)理論框架, 整合社會認知理論和感知價值理論, 探究用戶參與算法風險治理的理論邏輯與提升路徑, 主要回答以下問題: 社交媒體用戶算法風險治理參與意愿受到哪些關鍵要素的影響; 這些要素如何協同激發平臺用戶參與算法風險共治意愿, 以提升算法治理水平、促進算法治理高質量發展。

1 文獻綜述

1. 1 算法風險相關研究

1. 1.1 算法風險類型及成因研究

關于算法風險類型及成因, 張濤等[5] 指出, 要重點關注算法黑箱、算法缺陷、算法操縱這三類算法安全風險隱患。溫鳳鳴等[6] 從算法技術的黑箱性質、輸入算法模型的數據質量以及個體隱私數據缺乏明晰的保護邊界3 個方面總結算法風險的成因。周穎玉等[7] 基于算法倫理的視角, 提出了隱私邊界模糊、用戶隱私彌漫、信息異化蔓延、虛假信息泛濫和數據生態失衡五類算法風險。Arora A 等[8] 從算法偏見、數據殖民主義和邊緣化3 個方面探討了人工智能引發的算法風險。Wu X[9] 認為, 算法的自動化決策會帶來算法異化和歧視的風險。

1. 1. 2 算法風險識別研究

算法風險識別是算法風險規制的前提。張海柱[10] 從治理工具、治理主題和治理情境的角度對算法治理中的不確定風險進行了識別。任蓉[11] 從數據安全與算法歧視層面對算法嵌入社會治理的風險形態進行了識別, 包括數據濫用侵害隱私安全、自主決策減損政府公信、代碼至上危及社會民主和算法偏見損害社會公平。程雪軍[12] 從算法權力風險、算法黑箱風險以及算法歧視風險3 個方面對金融科技平臺的算法風險進行了識別。Hasan A 等[13] 聚焦對算法道德風險和算法偏見的識別與評估, 以期最大限度地降低算法風險。

1. 1. 3 算法風險治理研究

算法風險治理是一項復雜的社會系統工程, 已有研究從法律法規、行政制度、技術、管理等方面對算法風險治理措施進行探討。張濤等[5] 通過事前評估、事中監管、事后問責的手段建立算法治理框架, 從總體安全視角實現算法規制的良性循環與協調發展。溫鳳鳴等[6] 認為, 算法治理應從優化算法技術、構建智能算法善治體系和加強多元主體協商共治路徑進行規制。孫清白[14] 針對人工智能算法的應用風險, 提出技術規制和權力規制二元策略。程堯等[15] 提出, 從數據源頭以及算法技術自身兩方面入手, 通過法律規定的形式規范行政監管機構以及行業自律建設。Wu X[9] 指出, 為了規制自動算法決策帶來的風險, 首先要堅持人的主體地位意識, 在此前提下提高算法決策的透明度。Nitzberg M 等[16]強調, 算法治理要采取多元化的方法, 以確保算法技術符合社會的需求和價值觀。

1. 2 社交媒體用戶參與算法風險治理相關研究

用戶參與是指用戶積極和負責任地參與組織發展的行為, 通過充分挖掘隱性知識和潛在需求, 系統性參與設計解決方案, 在創新創意發展中發揮了重要作用[17] 。用戶和算法絕不是相互獨立的存在,算法塑造著用戶的信息環境, 影響用戶感知, 而用戶也會主動調整、塑造自身所處的信息環境進而影響算法的改變[18] 。馬騰飛[19] 指出, 算法治理應朝著更加開放和創新的方式展開, 增強社會參與性。袁靜等[20] 認為, 吸引用戶參與隱私風險共治, 有利于推進政府開放數據的有效利用和價值實現。王琳琳[21] 認為, 算法控制模式非中心化與算法控制力集中化傾向的矛盾可以通過公眾參與化解。宋亞輝等[1] 強調, 為了確保用戶能夠有效參與算法風險治理, 必須構建一個系統性的權利保障鏈, 確保用戶權利得到強化保護和有效救濟。Selbst A D 等[22] 提出, 人工智能算法風險治理需要研究人員、監管機構和社會公民各類主體廣泛參與, 以共同尋求多元且參與性強的治理方法。Birhane A 等[23] 提出, 將公眾參與用于算法改進, 以提高算法的安全性、合法性。

1. 3 相關研究述評

現有算法風險治理相關研究主要圍繞算法風險成因、風險識別以及治理措施展開, 關注的核心對象集中在政府。縱觀現有相關研究, 以下3 個方面尚值得進一步探討: 第一, 現有研究多以理論分析為主, 少有揭示前因變量對用戶參與算法風險意愿轉化過程的研究, 且基于大樣本統計的定量研究較為匱乏。第二, 未能從不同認知要素的組合框架對用戶參與政府算法風險治理意愿的影響因素進行探討。根據社會認知理論, 個體行為是環境因素與個體認知共同作用的結果[24] 。因此, 有必要聚焦用戶認知和外部環境, 如平臺、政策深入探究用戶參與行為的內在機制。第三, 用戶的算法風險感知對其參與治理行為意愿可能存在風險認知悖論以及與研究結論不一致的現象。風險認知悖論是指公眾個體高風險認知與低預防性準備行為的負相關關系[25] 。根據風險應對行為理論, 用戶在網絡中遭遇算法風險時, 會有不同程度的風險感知、評估與應對行為[26] 。根據宋艷等[27] 構建的模型, 風險感知對公眾參與意愿起顯著的負面影響。而董倩等[28] 研究得出, 風險感知對公眾網絡參與意愿具有正相關關系。用戶感知的算法風險究竟是抑制還是促進其參與算法風險治理意愿? 本文將對其進行進一步考察。

據此, 本文試圖解釋以下研究問題: 第一, 基于社會認知理論, 對社交媒體用戶參與算法風險治理意愿的驅動因素進行探索。第二, 對前置因素與用戶參與算法風險治理意愿之間可能存在的介導機制做出解釋。具體采用大規模問卷調研進行實證研究, 以期吸引更多社交媒體用戶與政府、平臺互動,增進政府算法風險治理過程的有效性和透明度, 以及完善我國多元共治的算法治理體系提供理論依據。

2 理論基礎與研究假設

2. 1 理論基礎

目前, 用戶參與治理意愿領域中所用的主要理論包括態度—情境—行為理論、信任理論、自我決定理論、計劃行為理論和刺激—機體—反應模型等。其中, 刺激—機體—反應模型在個體受到環境刺激進而影響其行為意愿方面具有較強的解釋力, 被廣泛應用于預測用戶參與意愿方面的研究[29-30] 。該理論模型通過個體主觀感受或情緒的變化分析影響其行為意愿的因素, 為剖析社交媒體用戶參與算法風險治理的行為意愿提供了普適性的指導框架。同時,該模型還需要依據行為情境融入與環境刺激相關的前因變量以及拓展影響用戶內部感知的中介變量。社會認知理論認為, 個體認知和環境因素在其行為意愿決策中發揮著重要作用[24] 。因此, 個體認知和環境因素逐漸成為用戶參與治理行為意愿時的關鍵因素。將社會認知理論中強調的個體認知因素與環境因素作為刺激—機體—反應模型中的刺激因素,以此開展社交媒體用戶參與算法風險治理行為意愿研究將更具針對性。此外, 感知價值理論強調個體感知風險和感知收益的內部心理特征, 它們都會影響用戶的參與治理意愿。本研究從社交媒體用戶角度, 引入刺激—機體—反應模型作為理論框架, 結合社會認知理論、感知價值理論展開研究, 有助于從用戶的個體認知與環境刺激、內部感知形成以及行為意愿的過程視角分析社交媒體用戶參與算法風險治理意愿的影響因素。

2. 1. 1 S-O-R 理論框架

刺激—機體—反應模型由Mehrabian A 等[31] 提出, 主要用于解釋個體對環境刺激的認知反應如何影響其后續行為。其中, 刺激變量指影響個體行為意愿的外部環境; 中介變量指個體情感內化; 反應變量指個體的行為意愿。龔艷萍等[32] 基于S-O-R理論, 專注于研究短視頻應用的用戶群體, 深入探討了享樂屬性和社交屬性在驅動用戶參與行為方面的影響及其內在作用機制。潘濤濤等[33] 將社會支持作為“刺激” (S), 情緒作為個體的“機體內化”(O), 探究了在線健康社區用戶“行為反應” (R)的機理過程。本文中的行為意愿(R)指社交媒體用戶參與算法風險治理意愿。用戶參與算法風險治理是指用戶基于自身的算法風險感知, 作為治理主體直接或間接參與到政府算法風險治理決策、管理和監督的過程。

2. 1. 2 社會認知理論

社會認知理論(Social Cognitive Theory)由Ban?dura A[24] 提出, 強調人的認知、環境和行為三者既相互獨立又互為因果的動態互惠關系。社會認知理論常被用來研究用戶參與的影響因素, 如華鈺文等[34]通過社會認知理論, 研究了鄉村用戶參與數字素養教育意愿的影響因素。吳金紅等[35] 借助社會認知理論, 對用戶在大數據眾包活動中的參與意愿及其影響因素進行了深入研究。

本文借鑒參考社會認知理論相關研究文獻的觀點, 從用戶認知、環境因素兩方面構建理論模型的前因變量。社會認知理論強調用戶認知要素在塑造其行為意愿過程中起到的影響作用。用戶算法素養的提升有助于促進其對算法風險的認識、增強批判性態度并促進參與算法風險治理[36] 。此外, 社會認知理論還強調環境感知會對個體認知內容產生影響[37] 。基于社會認知理論, 本文引入政府規制和平臺算法責任作為環境要素。據此, 本文將社交媒體用戶的算法素養、政府規制和平臺算法責任視為外部刺激。其中, 算法素養是用戶算法思維和算法風險防御能力所具備的一種意識、技能與知識綜合素養[38] ; 政府規制是一種兼具激勵性與約束性的政策環境因素, 政府可以通過行業發展指導政策對算法風險進行治理; 平臺算法責任通過算法主體盡職盡責、算法技術價值嵌入、算法生態互動治理與算法問責監管強化等途徑, 將其算法責任轉化為現實。

2. 1. 3 感知價值理論

感知價值理論由Zeithaml V A[39] 于1988 年提出, 主要用于分析個體對客觀事物的價值判斷及決策行為過程。研究者多采用感知收益和感知風險權衡視角展開研究, 該視角的核心在于個體如何權衡感知到的風險與利益, 進而影響其行為選擇。感知收益和感知風險是從微觀層面剖析個體價值選擇與決策行為的重要變量。郝森森等[40] 認為, 用戶基于感知價值會做出是否披露以及以何種方式披露個人信息的決策。胡劍等[41] 以開源創新社區平臺用戶為研究對象, 分析了感知收益和感知風險對其知識共享行為的影響。

本文借鑒相關研究, 通過感知收益和感知風險來解釋算法風險治理中用戶價值感知和行動選擇。算法感知風險主要是指用戶因算法技術的應用而感知到的不確定性及后果嚴重性[42] 。本文中, 感知風險是指平臺用戶在自身算法素養、政府規制以及平臺算法責任的刺激下, 感知到算法引發的社會風險、國家安全風險和倫理風險等一系列風險。結合彭麗徽等[43] 的研究, 本文將感知收益定義為平臺用戶在自身算法素養、政府規制以及平臺算法責任的刺激下, 能夠感知到算法提供的多重實際利益, 諸如使用時的舒適體驗、有效解決實際問題以及各種愉悅的感官享受。

2. 2 研究假設與模型構建

2. 2. 1 模型構建

本文以S-O-R 理論模型為框架, 以用戶算法素養、政府規制、平臺算法責任3 個維度作為外部刺激因素(S), 以感知價值(包括感知收益和感知風險)作為有機體的情感內化(O), 以用戶參與算法風險治理意愿作為個體的反應因素(R)。因此, 本文構建的研究模型如圖1 所示。

2. 2. 2 研究假設的提出

1) 算法素養與感知價值、參與治理意愿的關系。算法素養是用戶在與算法交互的過程中, 利用算法以及算法所驅動的社會技術系統來滿足個人需求的能力和應對算法風險的能力[44] 。Cotter K 等[45]研究提出, 個體的差異會導致人們算法認知的不同,繼而重新創造了數字鴻溝。Hargittai E 等[46] 發現,個體的算法認知會激發不同的算法情感態度。張紅春等[47] 指出, 算法素養較低的公眾對算法黑箱的認知和了解存在顯著不足。由于無法理解算法背后的程序、標準與邏輯, 公眾對于人工智能技術的信任度降低, 從而可能減弱其參與算法治理的意愿。因公眾對于算法知識與經驗的差異, 算法素養低的普通民眾甚至無法理解何為智能技術, 這會導致公民參與算法治理行為的弱化、分化[48] 。

具備一定算法知識的用戶常常感知到算法帶來的如獲得有用信息、節約時間等便利[45] 。用戶在使用抖音等算法平臺獲得有用的信息提升自我的同時,也希望能脫離現實獲得放松, 甚至會反向利用算法檢索信息的高效性[49] 。用戶感知到算法應用帶來的顯著收益, 提高了對算法應用的滿意度和信任感,可能更愿意參與到算法風險治理中來。然而, 用戶也擔心面臨算法風險威脅。張惠舒等[44] 認為, 用戶對內容推薦算法邏輯的理解水平受其對算法的感知程度的影響, 理解內容推薦算法較深的用戶在使用短視頻平臺時會保持較為批判的態度。許加彪等[50]指出, 通過增強用戶算法素養能提高其防范算法風險的能力, 避免用戶淪為技術的客體和附庸。萬曉榆等[51] 發現, 公眾對安全風險感知的增強, 能夠促進其作為第三方力量有效地參與到安全治理中。因此, 提出如下假設:

H1a: 算法素養正向影響社交媒體用戶參與算法風險治理意愿

H1b: 算法素養正向影響社交媒體用戶的感知收益

H1c: 算法素養正向影響社交媒體用戶的感知風險

H4a: 感知收益在算法素養與社交媒體用戶參與算法風險治理意愿之間起中介作用

H5a: 感知風險在算法素養與社交媒體用戶參與算法風險治理意愿之間起中介作用

2) 政府規制與感知價值、參與治理意愿的關系。王曉楠等[52] 指出, 環境規制能夠促進公眾環境治理參與意愿提高, 環境政策知曉度越高, 公眾參與環境治理的意愿就越強。荊玲玲等[53] 認為, 在政府參與和規制下的政務短視頻, 提升了公眾參與社會治理的熱情。具體到算法風險治理領域, 本文將政府規制界定為政府采取約束、激勵等規制手段緩解算法風險, 以協調算法應用與用戶利益保障之間的關系。一方面, 政府通過算法風險宣傳教育、數字技術培訓等規制措施, 提升用戶對政府算法善治理念的共識, 從而增強其風險治理參與意愿。楊學科[54] 認為, 政府部門可通過算法問責機制規制算法風險, 這一機制能顯著增強用戶對算法決策的信任和安全感。謝永江等[55] 指出, 政府應該采取法律規制手段, 強化算法使用人的義務與用戶的權利, 合理界定算法的權力邊界, 讓用戶感受到在使用算法過程中的收益。另一方面, 政府通過制定算法條例、落實算法責任、明晰數據確權等約束手段, 加大監管力度, 防止算法黑箱、算法歧視等技術異化現象的產生而降低用戶對算法風險的感知程度。胡瑾[56]指出, 在算法推薦新聞領域, 政府倡導并推動的公眾參與式監管機制, 有效降低公眾對算法風險的擔憂和疑慮。溫鳳鳴等[6] 以歐美國家經驗為借鑒, 發現通過構建和完善算法倫理準則與法律, 可以對社會治理中算法應用可能帶來的倫理風險進行防范和規避, 從而降低公眾對于算法風險的感知程度。根據保護動機理論, 用戶基于風險感知可能會更積極主動地參與到算法風險治理中來, 進而保護自身利益。基于此, 提出如下假設:

H2a: 政府規制正向影響社交媒體用戶參與算法風險治理意愿

H2b: 政府規制正向影響社交媒體用戶感知收益

H2c: 政府規制負向影響社交媒體用戶感知風險

H4b: 感知收益在政府規制與社交媒體用戶參與算法風險治理意愿之間起中介作用

H5b: 感知風險在政府規制與社交媒體用戶參與算法風險治理意愿之間起中介作用

3) 平臺算法責任與感知價值、參與治理意愿的關系。結合肖紅軍[57] 、匡文波等[58] 的研究, 本文將平臺算法責任定義為平臺在使用算法技術時,對算法的設計、開發、部署和應用過程中所承擔的社會責任和倫理義務, 包括確保算法的公正性、透明性、安全性、合規性, 并考慮到算法對用戶、社會和環境可能產生的積極和消極影響。科學合理的平臺算法責任機制可以有效協調用戶與平臺的利益關系, 促進用戶積極地進行平臺使用、信息共享等行為。肖紅軍等[59] 研究發現, 平臺的社會責任感知對用戶參與平臺治理具有顯著的促進效應。在算法責任方面, 平臺通過定期發布詳盡的算法合規審計報告, 有效引導公眾對算法價值的深入認知, 同時深化了用戶對算法潛在風險的全面理解[60] 。因此,平臺算法責任的履行會在一定程度上影響用戶對算法風險和算法價值的感知, 進而影響用戶參與算法風險治理行為。

一方面, 平臺基于算法向用戶推送全面均衡的內容結構, 保護用戶隱私信息, 構建完善的隱私泄露維權通道, 引導用戶群體形成信任、互惠的平臺氛圍。用戶在使用算法平臺過程中, 感知到平臺算法符合社會道德倫理、規范和價值, 從而增強用戶的感知收益。王仙雅等[61] 指出, 算法平臺的社會責任治理對用戶使用算法平臺過程中的滿意度和認同感具有顯著正向影響, 用戶獲得感知收益, 進而可以促進其社會責任參與意愿。Wynn M 等[62] 強調,平臺積極履行數字責任, 加強用戶的隱私和數據保護, 提升用戶安全感, 增強用戶對算法正面效益的感知, 能夠有效促進用戶在數字環境中積極參與和互動。

另一方面, 平臺通過提高算法透明度、公開度和可解釋性履行算法責任, 確保所有用戶都能清晰理解算法的運作原理。通過消除任何潛在的隱藏議程和條件, 滿足用戶對算法運作機制的全面知情需求, 使用戶能夠直觀感知并準確評估算法可能帶來的風險[63] 。許可等[60] 指出, 平臺的算法責任實踐會促使用戶對算法風險高度關注, 使其在算法推薦便利與算法風險間做出取舍。隨著平臺不斷履行其算法責任, 用戶對算法風險的認知不斷提高, 其參與算法治理的意愿隨之增強。因此, 提出如下假設:

H3a: 平臺算法責任正向影響社交媒體用戶參與算法風險治理意愿

H3b: 平臺算法責任正向影響社交媒體用戶感知收益

H3c: 平臺算法責任正向影響社交媒體用戶感知風險

H4c: 感知收益在平臺算法責任與社交媒體用戶參與算法風險治理意愿之間起中介作用

H5c: 感知風險在平臺算法責任與社交媒體用戶參與算法風險治理意愿之間起中介作用

4) 感知價值與參與治理意愿的關系。隨著風險感知程度的不斷增加, 用戶參與算法風險治理的意愿就會增強。梁昕等[64] 通過研究提出, 公眾對人工智能的風險感知可能影響到技術接納和公眾參與。陳強強等[65] 認為, 算法天生帶有偏見且缺乏對自己偏見的反思與糾偏, 公眾能感知到這種算法歧視風險, 并認為對算法歧視的治理勢在必行。KappelerK 等[66] 指出, 互聯網用戶感知到被監視和信息扭曲風險后, 會積極采取自助策略參與治理, 以應對這些風險。

已有研究表明, 用戶的感知收益對其參與風險治理意愿有正向顯著影響[67] 。用戶感知算法帶來的個性化信息服務收益能促進其更積極、廣泛地參與到算法治理中來[68] 。Lee M K 等[69] 通過構建集體參與式算法治理框架, 發現用戶可能因為感知到算法帶來的便利性和效率, 認為參與算法治理能夠產生積極影響。因此, 本文做出如下假設:

H4: 感知收益正向影響社交媒體用戶參與算法風險治理意愿

H5: 感知風險正向影響社交媒體用戶參與算法風險治理意愿

3 數據收集

3. 1 問卷設計與量表選擇

問卷調查中所有測量題項均改編自成熟量表,并結合研究的實際情境進行適當改編, 從而保證了內容效度。調研問卷包括3 個部分: 第一部分是調研背景說明, 對算法風險參與治理的調研背景進行介紹說明。第二部分是人口統計變量調研, 收集內容包括性別、年齡段、教育背景、職業、月收入水平、使用算法平臺的時間以及每日使用算法平臺的時長。通過了解調研對象的基本統計信息來最大限度避免偏差。第三部分是主體內容, 包括算法素養、政府規制、平臺算法責任、感知收益、感知風險和參與算法風險治理意愿共6 個維度, 采用李克特7級量表, 具體量表題項及來源如表1 所示。遵循“主成分分析” “最大方差” 等原則對預調研數據進行探索性因子分析, 剔除系數值小于0. 7 及共線性較高的題目, 保證6 個公因子的提取。調整部分題項表達, 以確保問卷內容邏輯通順, 表達清晰,最終形成本研究的正式問卷。

3. 2 問卷數據收集

本次調研由課題組與“風鈴系統” 合作開展,調研采取配額抽樣, 按照城市/ 年齡兩項要求回收樣本。調研覆蓋了國內4 個超一線城市(北京、上海、廣州和深圳)以及鄭州、西安、寧波等11 個城市。由于18 歲以下群體不具備充分的問卷填寫能力, 調研對該年齡段的人群進行了壓縮。本次調研累計回收樣本3 056份, 剔除問卷答案前后邏輯不符、選項完全相同、答題時間過短等無效樣本后,最終得到有效問卷2 313份, 有效回收率為75. 7%,滿足結構方程模型樣本數量要求。樣本描述性統計分析結構如表2 所示, 其中男女比例均衡, 分別為34. 9%和65. 1%, 大多數受訪者年齡在30 ~ 39 歲之間, 占比60. 1%, 且受訪者主要是以企業和政府事業單位人員為主, 其次是個體人員和學生, 分別占比70. 7%、8. 9%、8. 5%和5. 4%。64. 9%的受訪者每日使用算法平臺的時長在1~3 小時; 使用算法平臺在6~10 年的人群占比最多, 為45. 2%。

3. 3 共同方法偏誤檢驗

由于自變量和因變量來自單一數據源, 本文采用“Harman 單因子檢驗法” “因子模型比較法” 進行共同方法偏誤檢驗。首先, Harman 單因子檢驗結果顯示6 個因子的特征根值均大于1, 且未旋轉前得到了首個因子的解釋方差為31. 778%, 小于臨界值40. 0%, 符合測量標準[81] 。其次, 比較了單因子模型和六因子模型(算法素養、政府規制、平臺算法責任、感知收益、感知風險和參與治理意愿),結果表明, 六因子模型顯著優于單因子模型(Δχ2 /Δdf = 571. 271, p < 0. 001, ΔCFI = 0. 314, ΔTLI =0. 340, ΔRMSEA=-0. 089), 再次表明測量中不存在明顯的共同方法偏誤。

4 數據分析

4. 1 信效度檢驗

對2 313個樣本進行信度和效度檢驗。使用組合信度(CR)和Cronbachα 系數檢驗測量結果的一致性或穩定性, 即信度檢驗。本研究采用SPSS26. 0軟件計算出2 313個樣本中各變量的Cronbachα 和CR 值均大于0. 8, 表明問卷具有較高信度。

通過內容效度和區分效度進行效度檢驗。首先,在內容效度方面, 本研究量表的測量題項主要參考現有的研究文獻, 并根據研究主題進行適當改編,通過預調研進一步校正了題項內容, 因此具有較好的內容效度。其次, 采用平均方差抽取量AVE(Av?erage Variance Extracted)法進行區分效度檢驗, 利用AMOS24. 0 進行驗證性因子分析。由表3 與表4可知, 量表中每個測量題項的標準因子載荷均大于0. 6, 所有潛變量的AVE(平均方差抽取量)均大于0. 5, 組合效度CR 值均大于0. 8, 各變量的AVE 平方根(對角線值)均大于變量間相關系數, 表明潛變量的區分效度較好。此外, 本文進行了多重共線性檢測, 所有測量項的方差膨脹因子(VIF 值)都在3 以下, 小于標準參考值10, 說明不存在多重共線性[82] 。

4. 2 假設檢驗

本文構建兩個結構方程模型, 并運用AMOS24. 0軟件對樣本進行了5 000次Bootstrap 抽樣方法假設檢驗。首先構建總效應模型(模型1)檢驗算法素養、政府規制和平臺算法責任對參與算法風險治理意愿的直接影響, 如圖2 所示; 其次, 加入感知收益和感知風險兩個中介變量構建模型2, 檢驗雙重中介效應, 如圖3 所示。加入中介變量前后的兩個結構方程回歸模型的擬合優度指標, 如表5 所示。吳明隆[83] 指出, 卡方自由度比值易受到樣本數量的多寡而波動, 應綜合考慮其他判別指標。本文樣本量屬于大樣本數量, 可能存在卡方膨脹結果, 除卡方自由度比未達到小于5 的標準以外, 總效應和中介效應模型的各項指標均在可接受范圍內, 具有較好的擬合度。

4. 2. 1 總效應檢驗

總效應檢驗是中介作用檢驗的基礎和前提, 檢驗不納入中介變量時, 自變量對因變量的直接影響作用。如表6 和圖2 所示, 模型1 檢驗結果表明,在控制性別(男性=1, 女性=2)、年齡、教育背景、月收入水平的情況下, 人口統計變量中教育背景與月收入水平對參與算法風險治理意愿產生正向影響,即社交媒體用戶學歷越高, 月收入水平越高, 其參與治理意愿越強烈。算法素養(β =0. 180, p<0. 001)、政府規制(β =0. 264, p<0. 001)和平臺算法責任(β =0. 222, p<0. 001)正向影響用戶參與算法風險治理意愿, 假設H1a、H2a、H3a 得到驗證。用戶參與算法風險治理意愿的R2 =0. 350(>0. 200), 表明模型的解釋力較強[82] 。

4. 2. 2 中介效應檢驗

在進行中介效應檢驗之前, 首先采用Bootstrap抽樣方法進行路徑系數檢驗。如表7 和圖3 所示,從圖3 中可以看出: ①算法素養與感知收益、感知風險均顯著正相關(β =0. 143, p<0. 001; β=0. 196,p<0. 001), 政府規制與感知收益顯著正相關(β =0. 450, p<0. 001), 政府規制與感知風險顯著負相關(β =-0. 223, p<0. 001), 平臺算法責任與感知收益、感知風險均顯著正相關(β = 0. 179, p<0. 001;β =0. 177, p<0. 001), 假設H1b、H1c、H2b、H2c、H3b、H3c 均得證。②從模型內縱向比較結果來看,政府規制對感知收益、感知風險的影響明顯大于算法素養和平臺算法責任(0.450>0.179>0.143, -0.223 >0. 196>0. 177), 換言之, 從絕對值來看, 政府規制處于基礎和主導地位。③中介變量感知收益(β =0. 523, p<0. 001)和感知風險(β =0. 121, p<0. 001)分別正向顯著影響用戶參與治理意愿, H4、H5 得證, 加入感知收益和感知風險后, 作為刺激來源的算法素養(β =0. 079, p<0. 01)、平臺算法責任(β =0. 104, p<0. 01)與用戶參與治理意愿間的直接關系依舊顯著, 政府規制(β = 0. 059, p>0. 05)與用戶參與治理意愿的直接關系不再顯著。

為進一步檢驗感知收益和感知風險的中介作用, 采用Bootstrap 中介效應檢驗法進行檢驗。將Bootstrap 樣本數設為5 000, 采用極大似然法進行取樣, 置信區間選擇為95%, 通過Bias-Corrected進行置信區間估計。中介效應檢驗可通過觀察有偏校正置信區間, 如果區間不包括0, 則效應顯著。中介檢驗得出通過Bias-Corrected 法在95%的置信區間下的水平值如表8 所示。根據Zhao X S 等[84]的研究, 間接效應顯著的前提下, 直接效應顯著則為部分中介, 直接效應不顯著則為完全中介, 因此得出以下結論:

1) 感知收益中介算法素養、政府規制以及平臺算法責任與社交媒體用戶參與算法風險治理意愿間的正向關系; 感知收益對算法素養(β = 0. 075,SE=0. 021, 95%CI[0. 036,0. 119])、政府規制(β =0. 235, SE=0. 033, 95%CI[0. 173,0. 300])、平臺算法責任(β = 0. 093, SE = 0. 026, 95%CI[0. 040,0. 146])與用戶參與算法風險治理意愿的間接效應均顯著, 其中算法素養、平臺算法責任與用戶參與算法風險治理意愿的直接效應顯著, 存在部分中介效應; 政府規制的直接效應不顯著, 存在完全中介效應。因此, H4a、H4b、H4c 均成立。

2) 感知風險中介算法素養、政府規制、平臺算法責任與社交媒體用戶參與算法風險治理意愿間的關系; 感知風險對算法素養(β =0. 024, SE=0. 006,95%CI[0. 013,0. 036])、政府規制(β =-0. 027, SE=0. 007, 95%CI[-0. 043,-0. 015])、平臺算法責任(β =0. 021, SE=0. 006, 95%CI[0. 011,0. 036])與用戶參與算法風險治理意愿的間接效應均顯著, 其中算法素養、平臺算法責任與用戶參與算法風險治理意愿的直接效應顯著, 存在部分中介效應; 政府規制的直接效應不顯著, 存在完全中介效應, H5a、H5b、H5c 均成立。

5 結論與討論

5. 1 研究結論

本文綜合S-O-R 理論框架、社會認知理論和感知價值理論建立了研究框架, 采用大規模問卷調研的方式對提出的假設進行了驗證, 證實了算法素養、政府規制和平臺算法責任是影響社交媒體用戶參與算法風險治理意愿的重要因素。

1) 總效應模型(圖2)中, 算法素養、政府規制和平臺算法責任能夠提升用戶參與算法風險治理意愿。其中, 政府規制是影響最大的刺激因素(β =0. 264>0. 222>0. 180)。加入感知收益和感知風險后, 社交媒體用戶參與算法風險治理意愿的R2 值從總效應模型的0. 350 增加到雙重中介模型的0. 500,驗證了用戶對算法的綜合價值評價對其參與算法風險治理意愿的作用。同時, 在中介效應模型(圖3)中, 政府規制對用戶參與算法風險治理意愿的影響不再顯著(β =0. 059, p=0. 144>0. 050), 這是因為作為刺激源的算法素養、政府規制和平臺算法責任一方面通過感知收益提升用戶對參與算法風險治理的認同, 另一方面通過感知風險促使用戶為減輕風險而積極參與算法風險治理, 即存在著兩條中介路徑共同影響算法素養、政府規制和平臺算法責任與用戶參與算法風險治理意愿間的正向關系。因此,激發用戶算法收益感知并減輕其算法風險感知, 能夠有效促進其算法風險治理參與意愿。

2) 算法素養(β =0. 143, p<0. 001)、政府規制(β =0. 450, p<0. 001)和平臺算法責任(β = 0. 179,p<0. 001)均顯著正向影響感知收益, 除政府規制(β =-0. 223, p<0. 001)負向影響感知風險外, 算法素養(β =0. 196, p<0. 001)和平臺算法責任(β =0. 177, p<0. 001)顯著正向影響感知風險。總體上,政府規制對感知收益和感知風險的影響作用最大(βGR =0. 450+ -0. 223 >βAL = 0. 143+0. 196>βPAR =0. 179+0. 177), 可能的解釋是相較于算法素養和平臺算法責任, 政府規制的權威性和強制性增強了公眾對政策執行和算法公正性的信任度, 進而對感知收益和感知風險產生更顯著影響。政府規制的權威性使得政府的決策具有較高的公信力, 進而對感知收益產生積極促進作用; 而強制性保障了規制的嚴格執行, 有效遏制了違規行為的發生, 進一步縮減了用戶的潛在風險感知。此外, 3 種前因變量對感知收益的影響作用最大(βPB =0. 143+0. 450+0. 179>βPR =0. 196+ -0. 223 +0. 177), 說明個體、政府與平臺都充分發揮了各自職能, 對提升用戶對算法平臺的信任和滿意度具有重要作用, 共同促進了用戶的正面感知收益[85] 。

3) 感知收益和感知風險顯著正向影響用戶參與算法風險治理意愿。從量化檢驗結果看, 感知收益的中介作用(β =0. 523)比感知風險(β =0. 121)更加顯著。反映了用戶在選擇參與算法風險治理時,更易受感知收益吸引而非單純為風險所驅動。這種結果說明, 增加用戶對算法的正面感知(如提升算法的透明度和可解釋性、為用戶提供個性化服務、強化政府規制和平臺責任等)將更有效地激發其參與意愿。因此, 在算法風險多元治理中, 應該更加注重發揮感知收益的中介作用和傳遞機制。圖3 中,除了政府規制, 算法素養和平臺算法責任對用戶參與算法風險治理意愿的直接影響顯著。該結論表明,本研究構建的研究模型具有合理性, 用戶的感知價值在算法素養、政府規制和平臺算法責任與用戶參與算法風險治理意愿之間可能發揮一定效果的中介作用, 說明社交媒體用戶主體是基于對算法平臺環境使用過程中所獲得收益和風險感知, 進而對參與算法風險治理進行總體評估。

4) 中介效應模型(圖3)中, 感知收益和感知風險在算法素養、政府規制、平臺算法責任與用戶參與算法風險治理意愿之間發揮雙重中介作用。感知收益和感知風險在算法素養和平臺算法責任與用戶參與算法風險治理意愿之間起到部分中介作用,在政府規制與用戶參與算法風險治理意愿之間的關系起到完全中介作用。具體來看, 感知收益在政府規制與用戶參與算法風險治理意愿之間的中介效果較為突出, 均明顯大于其他中介效果(β = 0. 235>0. 093>0. 075)。在算法素養、政府規制、平臺算法責任與用戶參與算法風險治理意愿的中介關系中,感知收益與感知風險的共同中介能力(效應值絕對值之和) 分別為0. 099、0. 262、0. 114, 其中政府規制(β =0. 262)通過感知收益與感知風險的共同中介作用影響用戶參與算法風險治理意愿的效果最為明顯, 這也與結論(1) 中“政府規制是最大的刺激源” 相呼應。感知收益與感知風險在政府規制與用戶參與算法風險治理意愿之間起到完全中介作用, 說明政府規制并不能直接提升用戶參與算法風險治理意愿, 必須通過感知收益與感知風險的共同中介作用實現。這一結論有效解釋了“政府規制失靈” 的現象, 即用戶囿于經濟人理性的利己動機, 為追求個人利益最大化而導致偏離最大化公共利益目標。只有通過政策規制有效地降低用戶的感知算法風險, 提升感知收益, 確保政策措施與用戶需求相契合, 實現政策與民意的和諧統一, 才能有效提升用戶參與算法風險治理意愿。

5. 2 理論貢獻

本研究從社會認知理論視角重構了社交媒體用戶參與算法風險治理影響機制。算法風險治理用戶參與的研究視角大多集中于用戶[86] 或平臺[87] 。本文從社會認知理論出發, 綜合考慮用戶—政府—平臺三維度前因變量, 從用戶、政府與平臺角度完善了社交媒體用戶參與算法風險治理意愿內在機制,深化了用戶參與治理的前置因素研究。

本研究拓展了感知價值理論應用情境, 將起源于營銷學領域的感知價值理論拓展至算法風險治理情境。一方面, 驗證了感知收益和感知風險對用戶、政府與平臺前置因素與用戶參與算法風險治理意愿關系的介導作用; 另一方面, 通過橫向比較發現,感知收益中介路徑的效應量大于感知風險中介路徑的效應量, 為后續比較不同路徑下用戶參與算法風險治理意愿影響機制及其作用效果奠定了基礎。

5. 3 研究啟示

通過實證研究, 本文得到以下研究啟示:

第一, 加強政府規制引導, 為用戶賦權。盡管政府規制對用戶參與算法風險治理意愿的直接效應不顯著, 但會通過感知收益與感知風險的介導作用間接影響用戶參與風險治理意愿。因此, 在算法風險治理實踐中, 政府規制應以提升用戶感知算法價值、降低算法潛在風險為導向, 整合構建權威性規制引導機制和強制性規制監管機制的耦合體系。一方面, 加強政府的引導規制, 重視“算法黑箱” “算法歧視” 等技術異化現象對社交媒體用戶的“無感傷害”, 促進算法公開透明, 明確算法責任主體, 加大為用戶賦權的力度, 避免用戶成為“沉默的大多數”。具體可通過加強政民對話機制, 設置用戶參與評估和算法決策透明反饋機制, 充分發揮我國算法治理的引導性政策規制優勢, 以政策規制紛繁復雜的算法實現多方參與的算法善治。另一方面, 針對算法潛在風險提供強制性規制, 應完善算法治理問責機制, 將用戶輿論反饋與解決方案納入算法治理績效考核體系中并設立合理的懲罰閾值。通過優化平臺算法監督機制等相關政策體系, 制約平臺算法權力的擴張, 提高用戶算法主張, 形成政府與平臺、用戶的良性互動。

第二, 提高用戶算法素養, 為用戶賦能。研究結果顯示, 算法素養對用戶感知收益和感知風險均有顯著影響, 用戶所具備的算法素養將會影響其參與算法風險治理的意愿。因此, 采取更為有效的措施提升用戶的算法素養, 對我國算法風險多元協同治理的實現具有重要意義。目前, 秉持的以平臺義務為主、個體賦權為輔的治理路徑, 對用戶的算法素養提出了更高要求[36] 。實現普通用戶對算法的社會性監督, 需從教育與制度層面加強用戶算法素養的培訓, 通過學校教育、社會培訓以及在線學習等多種方式普及相關算法知識, 增強用戶對算法的理解和掌控能力。政府、平臺應加強用戶的算法素養教育, 家庭內部應通過代際反哺盡量縮小算法鴻溝。此外, 應通過官方媒體或網絡途徑對諸如推薦算法帶來的隱私安全風險等事件進行宣傳, 加強對低收入、低學歷群體算法意識的宣傳, 重視算法素養提升的必要性, 從而增強用戶與算法平臺互動的能力以及對平臺算法進行監督的社會責任感。

第三, 監督平臺算法責任落實, 為平臺賦責。研究表明, 平臺算法責任對用戶參與算法風險治理意愿的直接效應最大, 且對感知收益與感知風險具有直接正向影響作用。研究結果解釋了平臺能夠通過深化履行算法責任的程度來提升用戶主動參與算法風險治理的意愿。一方面, 平臺應突出自身的社會屬性, 強化算法責任, 提升用戶的算法風險感知,將用戶置于平等的算法權益格局中。例如, 在確保自身商業利益的基礎上, 做好算法規則的透明化和公開化[88] ; 可通過建立平臺算法自治機制、成立平臺算法監督協會、第三方算法合規審計等方式, 定期推行平臺算法責任落實監督機制; 支持公眾監督,定期公開算法評估報告, 深化算法透明化實踐。另一方面, 通過構建負責任的平臺算法提升用戶的感知價值。可以通過主動規制算法技術風險、積極承擔社會責任的方式獲得社會信任, 減少來自政府與公眾的懷疑[89] 。作為負責任的平臺算法, 應建立完善的用戶維權渠道, 形成全鏈路的用戶保護機制,深化參與者對平臺的認可與信任; 提升平臺數據利用的價值, 有效減少“過濾氣泡” 以提升用戶的體驗感和滿意度, 激發用戶參與算法風險治理的意愿。

本文還存在一定的局限性: 第一, 研究采用橫截面數據, 在驗證感知收益與感知風險的中介影響時可能沒有縱向數據得出的結論更為可靠, 未來可考慮采用縱向設計從時間順序性和個體間的相關性進行研究。第二, 進一步對算法素養、政府規制和平臺算法責任影響用戶參與算法風險治理意愿的不同權重進行分析, 包括對這些因素進行更為深入的實證分析, 以進一步解讀用戶參與算法風險治理意愿影響機制的邊界條件。

參考文獻

[1] 宋亞輝, 陳榮昌. 整體治理: 算法風險治理的優化路徑[J]. 學習與實踐, 2022 (7): 35-45.

[2] 孟天廣, 李珍珍. 治理算法: 算法風險的倫理原則及其治理邏輯[J]. 學術論壇, 2022, 45 (1): 9-20.

[3] 張守信, 張洋. 信息推薦算法對青年主流價值認同的影響及治理策略[J]. 中國編輯, 2024 (3): 40-46.

[4] 中華人民共和國國家互聯網信息辦公室. 關于印發《關于加強互聯網信息服務算法綜合治理的指導意見》的通知[EB/ OL].[2024-11-15]. https:/ / www.cac.gov.cn/2021-09/29/ c_1634507915623047.htm.

[5] 張濤, 馬海群. 智能情報分析中算法風險及其規制研究[J]. 圖書情報工作, 2021, 65 (12): 47-56.

[6] 溫鳳鳴, 解學芳. 歐美社會治理中算法應用的倫理風險與規制路徑研究[J]. 西南民族大學學報(人文社會科學版), 2023,44 (9): 130-139.

[7] 周穎玉, 柯平, 劉海鷗. 面向算法推薦倫理失范的人機和諧生態建構研究[J]. 情報理論與實踐, 2022, 45 (10): 54-61.

[8] Arora A, Barrett M, Lee E, et al. Risk and the Future of AI:Algorithmic Bias, Data Colonialism, and Marginalization [J]. In?formation and Organization, 2023, 33 (3): 100478.

[9] Wu X. Legal Governance of Discrimination Risks in AlgorithmicAutomated Decision Making [J]. The Frontiers of Society, Scienceand Technology, 2023, 5 (1): 050113.

[10] 張海柱. 算法治理中的不確定風險及其應對[ J]. 科學學研究, 2024, 42 (9): 1800-1807.

[11] 任蓉. 算法嵌入政府治理的風險及其防控[ J]. 電子政務,2021 (7): 31-41.

[12] 程雪軍. 馴服算法利維坦: 金融科技平臺算法風險的系統治理機制[J]. 經濟學家, 2023 (11): 110-119.

[13] Hasan A, Brown S, Davidovic J, et al. Algorithmic Bias and RiskAssessments: Lessons from Practice [J]. Digital Society, 2022, 1(2): 14.

[14] 孫清白. 人工智能算法的“公共性” 應用風險及其二元規制[J]. 行政法學研究, 2020 (4): 58-66.

[15] 程堯, 蔡一軍. 人工智能背景下算法演進的風險及其法律規制———以域外模式為視角[J]. 山西大同大學學報(社會科學版), 2020, 34 (2): 33-39.

[16] Nitzberg M, Zysman J. Algorithms, Data, and Platforms: TheDiverse Challenges of Governing AI [J]. Journal of European Pub?lic Policy, 2022, 29 (11): 1753-1778.

[17] 曹雨佳. 政府開放數據生態鏈中的用戶參與機制———以加拿大政府數據開放實踐為例[ J]. 情報理論與實踐, 2021, 44(6): 18-27.

[18] 查道林, 蔣智慧, 曹高輝. 信息系統用戶感知算法焦慮的內涵及其結構維度研究[J]. 情報科學, 2022, 40 (6): 66-73.

[19] 馬騰飛. 基于數據主權視角的算法治理: 進展、困境與路徑[J]. 信息資源管理學報, 2023, 13 (6): 48-61.

[20] 袁靜, 劉曉媛, 臧國全. 用戶參與共治: 政府開放數據隱私風險治理的新思路[J]. 圖書情報知識, 2022, 39 (6): 101-112.

[21] 王琳琳. 政策導向下算法控制法律風險及其治理[ J]. 警學研究, 2022 (1): 76-96.

[22] Selbst A D, Boyd D, Friedler S A, et al. Fairness and Abstrac?tion in Sociotechnical Systems [C] / / Proceedings of the Conferenceon Fairness, Accountability, and Transparency, 2019: 59-68.

[23] Birhane A, Isaac W, Prabhakaran V, et al. Power to the People?Opportunities and Challenges for Participatory AI [C] / / Equity andAccess in Algorithms, Mechanisms, and Optimization, 2022: 1-8.

[24] Bandura A. Social Cognitive Theory: An Agentic Perspective [J].Asian Journal of Social Psychology, 1999, 2 (1): 21-41.

[25] Wachinger G, Renn O, Begg C, et al. The Risk Perception Para?dox—Implications for Governance and Communication of NaturalHazards [J]. Risk Analysis, 2013, 33 (6): 1049-1065.

[26] 鄧勝利, 段文豪, 夏蘇迪. PADM 視角下算法推薦服務風險的用戶應對行為研究[J]. 圖書情報工作, 2023, 67 (2): 14-22.

[27] 宋艷, 陳琳, 李琴, 等. 人工智能倫理風險感知、信任與公眾參與[J]. 科學學研究, 2022, 40 (7): 1153-1162, 1171.

[28] 董倩, 趙迎紅. 疫情風險治理中公眾網絡參與意愿的影響因素研究[J]. 傳播與版權, 2022 (5): 53-57.

[29] 黃偉鑫, 畢達天, 楊陽, 等. 平臺特征對跨社交媒體UGC 信息分享行為的影響機理研究[J]. 現代情報, 2024, 44 (2):115-129.

[30] 鐘琦, 曲冠橋, 唐加福. O2O 外賣價格促銷策略對消費者購買意愿的影響研究[J]. 中國管理科學, 2024, 32 (2): 254-264.

[31] Mehrabian A, Russell J A. An Approach to Environmental Psy?chology [M]. The MIT Press, 1974.

[32] 龔艷萍, 曹玉, 李見. 短視頻應用的特性對用戶參與行為的影響: 心理參與的中介作用[J]. 情報科學, 2020, 38 (7):77-84.

[33] 潘濤濤, 呂英杰. 在線健康社區中基于SOR 模型的用戶參與行為影響因素研究[J]. 情報資料工作, 2022, 43 (2): 76-83.

[34] 華鈺文, 陳雅, 王錳, 等. 我國東部鄉村用戶對數字素養教育參與意愿研究———以江蘇省Z 市為例[J]. 圖書情報工作, 2023,67 (15): 56-66.

[35] 吳金紅, 陳強, 鞠秀芳. 用戶參與大數據眾包活動的意愿和影響因素探究[J]. 情報資料工作, 2014 (3): 74-79.

[36] 倪萬, 郝春梅. 算法素養在用戶參與平臺虛假新聞治理中的價值與作用[J]. 中國出版, 2024 (6): 3-9.

[37] Bandura A. Social Foundations of Thought and Action: A SocialCognitive Theory [ M]. Englewood Cliffs: Prentice-Hall, 1986:23-28.

[38] 劉英莉. 人工智能時代的用戶算法素養模型研究[ J]. 圖書館, 2024 (6): 39-45.

[39] Zeithaml V A. Consumer Perceptions of Price, Quality, and Val?ue: A Means-End Model and Synthesis of Evidence [ J]. Journalof Marketing, 1988, 52 (3): 2-22.

[40] 郝森森, 許正良, 鐘喆鳴. 企業移動終端App 用戶信息隱私關注模型構建[J]. 圖書情報工作, 2017, 61 (5): 57-65.

[41] 胡劍, 戚湧. 開源創新社區用戶知識共享行為影響因素研究———基于SEM 與fsQCA 的實證分析[J]. 情報科學, 2023, 41 (9):59-68, 77.

[42] 劉春年, 袁燦, 易嵐. 社交平臺算法風險內容特征及其貝葉斯關聯性[J]. 情報理論與實踐, 2023, 46 (7): 76-86, 97.

[43] 彭麗徽, 李賀, 張艷豐, 等. 用戶隱私安全對移動社交媒體倦怠行為的影響因素研究———基于隱私計算理論的CAC 研究范式[J]. 情報科學, 2018, 36 (9): 96-102.

[44] 張惠舒, 趙宇翔, 宋士杰. 信息弱勢群體算法素養的形成機理與影響因素———以短視頻平臺為例[J]. 圖書情報知識, 2024,41 (2): 127-137.

[45] Cotter K, Reisdorf B C. Algorithmic Knowledge Gaps: A New Ho?rizon of (Digital) Inequality [J]. International Journal of Commu?nication, 2020, 14: 745-765.

[46] Hargittai E, Jennrich K. The Online Participation Divide [ M].The Communication Crisis in America, And How to Fix It. NewYork: Palgrave Macmillan US, 2016: 199-213.

[47] 張紅春, 宋洪. 從排斥到包容公眾: 參與式政府算法治理的邏輯與進路[J]. 貴州大學學報(社會科學版), 2023, 41 (2):33-44.

[48] 譚九生, 楊建武. 人工智能嵌入政府治理的倫理風險及其防控[J]. 探索, 2021 (2): 126-138.

[49] 吳彬, 張召璇. 用戶對短視頻平臺算法推薦的感知研究———以抖音為例[J]. 杭州電子科技大學學報(社會科學版), 2024,20 (2): 27-35.

[50] 許加彪, 付可欣. 智媒體時代網絡內容生態治理———用戶算法素養的視角[J]. 中國編輯, 2022 (5): 23-27.

[51] 萬曉榆, 龍宇, 蔣婷. 公眾參與、政府監管與移動應用安全治理動態演化研究[J]. 運籌與管理, 2018, 27 (11): 50-60.

[52] 王曉楠, 張永芬. 物質供給、社會資本對公眾參與環境治理意愿的影響路徑[J]. 環境社會學, 2024 (1): 23-45, 231-232.

[53] 荊玲玲, 舒龍奇. 政務短視頻推動公眾參與社會治理現狀及優化探究[J]. 經濟研究導刊, 2024 (4): 122-125.

[54] 楊學科. 論智能互聯網時代的算法歧視治理與算法公正[J].山東科技大學學報(社會科學版), 2019, 21 (4): 33-40, 58.

[55] 謝永江, 楊永興, 劉濤. 個性化推薦算法的法律風險規制[J].北京科技大學學報(社會科學版), 2024, 40 (1): 77-85.

[56] 胡瑾. 技術不確定性下算法推薦新聞的倫理風險及其法律規制[J]. 重慶大學學報(社會科學版), 2022, 28 (3): 230-241.

[57] 肖紅軍. 構建負責任的平臺算法[J]. 西安交通大學學報(社會科學版), 2022, 42 (1): 120-130.

[58] 匡文波, 王天嬌. 社交媒體算法推薦傳播邏輯與平臺社會責任[J]. 上海交通大學學報(哲學社會科學版), 2023, 31 (5): 1-12, 21.

[59] 肖紅軍, 陽鎮, 姜倍寧. 平臺企業社會責任感知會激勵用戶參與平臺治理嗎?———基于網絡效應的邊界條件與反思[J]. 經濟與管理研究, 2023, 44 (3): 72-88.

[60] 許可, 程華. 算法悖論與制度因應———基于用戶算法應用感知的實證研究[J]. 山東大學學報(哲學社會科學版), 2022 (6):84-96.

[61] 王仙雅, 吳珍. 平臺型企業的社會責任治理能提升用戶響應嗎?———基于短視頻平臺的調查研究[ J]. 大連理工大學學報(社會科學版), 2024, 45 (2): 48-58.

[62] Wynn M, Jones P. Corporate Responsibility in the Digital Era [J].Information, 2023, 14 (6): 324.

[63] 姜雨峰, 黃斯琦, 潘楚林, 等. 企業數字責任: 數字時代企業社會責任的理論拓展與價值意蘊[J]. 南開管理評論, 2024,27 (3): 245-258.

[64] 梁昕, 劉天穎. 自動化行政裁量中算法風險感知的特征與演化研究———基于網絡輿情的大數據分析[ J]. 公共行政評論,2024, 17 (1): 45-65, 197.

[65] 陳強強, 張碧云. 公眾參與算法歧視治理: 一項技術民主化研究[J]. 科學學研究, 2025, 43 (3): 507-513.

[66] Kappeler K, Festic N, Latzer M, et al. Coping with AlgorithmicRisks [J]. Journal of Digital Social Research, 2023, 5 (1): 23-47.

[67] Jiang G Y, Yang W Q, Zhang N. Effect of Perceived Risks,Perceived Benefits and Regulatory Events on Users Supervision In?tention Towards E-Hailing Platforms: A Mixed Method [J]. Jour?nal of Information Science, 2022: 01655515221128422.

[68] 匡文波. 算法治理: 網絡空間治理的新挑戰[J]. 人民論壇,2023 (19): 64-68.

[69] Lee M K, Kusbit D, Kahng A, et al. WeBuildAI: ParticipatoryFramework for Algorithmic Governance [J]. Proceedings of the ACMon Human-Computer Interaction, 2019, 3: 1-35.

[70] 易明, 傅航, 劉繼月. 信息繭房背景下基于應對理論的App 用戶持續使用意愿研究[J]. 情報資料工作, 2023, 44 (4): 66-76.

[71] 石文華, 劉麗杰, 冉華, 等. 算法道德責任: 一個互聯網企業社會責任新構面[J]. 北京郵電大學學報(社會科學版), 2022,24 (6): 28-38, 99.

[72] 楊栩, 連志鳳. 企業數字責任、數字信任與企業高質量發展[J]. 中國軟科學, 2023 (1): 145-155.

[73] 高麗華, 楊新雨. 重拾媒介屬性: 互聯網平臺社會責任的構成維度[J]. 現代傳播(中國傳媒大學學報), 2024, 46 (1):149-160.

[74] 于麗衛, 孔榮. 政府規制如何影響農戶綠色創業意愿? ———基于有調節的中介效應模型[J]. 干旱區資源與環境, 2022, 36(4): 8-14.

[75] 朱紅根, 葛繼紅. 政府規制對農業企業綠色創業影響的理論與實證———以江西省農業龍頭企業為例[ J]. 華東經濟管理,2018, 32 (11): 30-36.

[76] 蔣其發, 郭淑華. 人居環境治理中社會資本對村民參與行為的影響研究[J]. 中國農業資源與區劃, 2024, 45 (1): 177-189.

[77] 臧國全, 韓夢馨, 張凱亮. 說服知識管理視角下的個人信息披露意愿影響因素研究[J]. 情報理論與實踐, 2021, 44 (9):43-49.

[78] 劉亞麗, 范逢春. ChatGPT-AIGC 用戶風險感知維度識別與治理研究———基于扎根理論的探索性分析[J]. 情報理論與實踐,2024, 47 (3): 121-129.

[79] Oni A A, Oni S, Mbarika V, et al. Empirical Study of User Ac?ceptance of Online Political Participation: Integrating Civic Volun?tarism Model and Theory of Reasoned Action [J]. Government In?formation Quarterly, 2017, 34 (2): 317-328.

[80] Park M J, Choi H, Kim S K, et al. Trust in Governments So?cial Media Service and Citizens Patronage Behavior [J]. Telemat?ics and Informatics, 2015, 32 (4): 629-641.

[81] Podsakoff P M, MacKenzie S B, Lee J Y, et al. Common MethodBiases in Behavioral Research: A Critical Review of the Literatureand Recommended Remedies [ J]. Journal of Applied Psychology,2003, 88 (5): 879-903.

[82] Hair Jr J F, Hult G T M, Ringle C M, et al. A Primer on Par?tial Least Squares Structural Equation Modeling(PLS-SEM) [M].Los Angeles: Sage Publications, 2014.

[83] 吳明隆. 結構方程模型: AMOS 的操作與應用(第2 版) [M].重慶: 重慶大學出版社, 2017.

[84] Zhao X S, Lynch J G, Chen Q M. Reconsidering Baron and Kenny:Myths and Truths About Mediation Analysis [J]. Journal of ConsumerResearch, 2010, 37 (2): 197-206.

[85] 關萍萍. 政府—平臺—用戶: 構建一體兩翼短視頻優化治理體系[J]. 中國出版, 2019 (13): 36-39.

[86] Huang Y K, Cao X C. Calling on the Third-Party Privacy ControlInto Algorithmic Governance Framework: Linking Users PresumedInfluence with Control Agency Theory [J]. International Journal ofPublic Opinion Research, 2023, 35 (4): edad036.

[87] Zheng X L, Zhou G, Zeng D D. Platform Governance in the Eraof AI and the Digital Economy [J]. Frontiers of Engineering Man?agement, 2023, 10 (1): 177-182.

[88] 熊義剛, 南嶺, 李鉉, 等. 平臺企業算法治理新格局研究[J].特區實踐與理論, 2024 (3): 36-41.

[89] 王洋, 閆海. 生成式人工智能的風險迭代與規制革新———以ChatGPT 為例[J]. 理論月刊, 2023 (6): 14-24.

(責任編輯: 郭沫含)

基金項目: 中國人民公安大學中央高校基本科研業務費基金項目“ 公安大數據智能分析過程中算法風險與規制研究” ( 項目編號:2024JKF21); 2024 北京高等教育本科教學改革創新項目“數智化賦能視角下思政案例云平臺師生價值共創教學創新模式研究” ( 項目編號:202410041002)。

主站蜘蛛池模板: 久久综合五月| 高清不卡毛片| 成人福利在线视频免费观看| 九九九久久国产精品| 人人爽人人爽人人片| 免费jjzz在在线播放国产| 看你懂的巨臀中文字幕一区二区| 国产成人亚洲无码淙合青草| 国产精品香蕉在线观看不卡| 国产成人成人一区二区| 一本色道久久88| 免费无码网站| 女人av社区男人的天堂| 国产成人亚洲日韩欧美电影| 蜜臀av性久久久久蜜臀aⅴ麻豆 | 成人国产一区二区三区| 国产成人综合在线观看| 精品1区2区3区| 无码精品一区二区久久久| 日韩123欧美字幕| 日韩精品久久无码中文字幕色欲| 看国产毛片| 漂亮人妻被中出中文字幕久久| 91热爆在线| 国产日韩精品一区在线不卡 | 国产成人高清亚洲一区久久| 亚洲最猛黑人xxxx黑人猛交| 青青青草国产| 丰满的少妇人妻无码区| 国产在线自揄拍揄视频网站| 91探花在线观看国产最新| 国产91麻豆视频| 亚洲V日韩V无码一区二区| 欧美黑人欧美精品刺激| 高清精品美女在线播放| 国产精品99一区不卡| 国产成人一区在线播放| 亚洲国产成人久久77| 亚洲成a人片77777在线播放| 日韩精品高清自在线| 国产精品尤物铁牛tv| 性欧美在线| 夜夜操狠狠操| 免费A∨中文乱码专区| 第一页亚洲| 国产精品极品美女自在线网站| 亚洲欧美在线综合图区| 天天综合网色| 欧美成人亚洲综合精品欧美激情| 高潮毛片无遮挡高清视频播放| 亚洲AV人人澡人人双人| 一级毛片网| 亚洲AV无码乱码在线观看裸奔| 久久青草精品一区二区三区 | 亚洲无卡视频| 国产精品免费p区| 国产欧美精品午夜在线播放| 国产粉嫩粉嫩的18在线播放91| 在线网站18禁| 欧美日韩国产在线观看一区二区三区| 日韩精品无码免费专网站| 久久久久久久久亚洲精品| 国产噜噜噜视频在线观看| 婷婷色丁香综合激情| 亚洲一级色| 中文字幕亚洲无线码一区女同| 伊人久久福利中文字幕| 中文字幕人妻av一区二区| 中字无码av在线电影| 国产成人一二三| 欧美精品v| 第一页亚洲| 999国产精品永久免费视频精品久久| 狠狠色综合久久狠狠色综合| 亚洲国产日韩在线成人蜜芽| 久久久久国产精品免费免费不卡| 成人av手机在线观看| 亚洲成a人片| 久久精品aⅴ无码中文字幕 | 久久久久88色偷偷| a级毛片免费看| 国产无吗一区二区三区在线欢|