999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

數字中國背景下算法決策的社會信任機制研究

2021-10-31 05:30:12黎夢兵
理論導刊 2021年10期

摘 要:算法決策已成為建設數字中國的一項基礎性技術。由于算法決策系統的復雜性和科技依賴性等特征,在決策過程中容易引發隱私泄露風險、算法決策錯誤風險、算法偏見風險和聲譽風險等算法風險,使用戶面臨不確定的算法決策環境。算法風險會引發公眾對算法決策的信任危機,產生算法恐慌情緒并可能導致算法污名化,進而阻礙數字中國的進程。應對算法決策的信任危機,理念層面,要明確算法決策的技術理性;規制層面,要提前規避算法決策的風險;聲譽層面,要為算法決策正名,實現算法“去污名化”;用戶層面,要營造一個良好的算法用戶環境,以構建算法決策的社會信任機制。

關鍵詞:數字中國;算法決策;算法風險;社會信任

中圖分類號:C91

文獻標志碼:A文章編號:1002-7408(2021)10-0090-06

作者簡介:黎夢兵(1992-),男,土家族,湖南張家界人,湘潭大學法學院博士研究生,研究方向:社會信任、算法治理。

一、數字中國背景下算法決策的普適性

“算法”一詞原指使用數字進行加、減、乘、除的方法?,F代意義上的算法決策是指以海量數據為基礎,進行自我運算、學習,以提供備選決策的過程,其運算模式可以理解為“輸入數據——輸出結果”的輸入輸出模型,算法決策的結果多用來進行具體事物的管理,并可以實現社會資源的配置。相對于人類決策或借助其他數理工具決策而言,算法決策具有其不可替代的優勢,如應用場景豐富、適應能力強、計算精準程度高等,能夠在復雜環境下執行大量復雜的任務,包括信息安全加密、用戶偏好推薦、風險預測、結果分析、深度偽造和系統優化等,能夠大幅節約時間和提升工作效率[1]。

《中華人民共和國國民經濟和社會發展第十四個五年規劃和2035年遠景目標綱要》[HTF](以下簡稱《綱要》)提出要加快數字化發展,建設數字中國,明確了通過數據要素推進網絡強國建設的宏觀目標。算法決策作為大數據時代智能決策的基礎,將對生產方式、生活方式和治理方式產生重要的影響。在數字中國環境下,算法逐漸運用于社會生活的各個場景,從信息精準推送到智能路線導航,從預測治安風險到輔助法官量刑,算法可以適用于新聞、教育、醫療、執法、金融、社會保障等不同領域,并發揮著越來越重要的作用。

科學技術成為國家強盛的基礎,通過創新引領高質量發展是我國未來的發展趨勢。第四次工業革命以來,世界范圍內的許多國家都開始注重以信息產業主導經濟發展,大數據、人工智能、量子信息、物聯網、區塊鏈等新興信息技術逐漸成熟,應用場景逐漸豐富,而算法決策成為這些新興信息技術的重要紐帶,可以說沒有算法決策,信息技術發展將寸步難行。在算法決策的作用下,新興數字信息技術不斷推陳出新,逐漸發揮技術群的系統作用和規模效應,以此衍生的數字經濟成為經濟增長的新動力。世界各國紛紛借助“技術東風”,調整優化經濟結構,以實現經濟發展速度穩步提升。

十九大以來,中國大力推動數字技術與實體經濟深度融合,算法決策作為重要的基礎性工具,逐漸成為我國發展數字經濟和共享經濟的技術支撐。然而,算法在給社會生活帶來便利的同時也引發了一系列社會問題,算法規制逐漸成為社會科學領域的研究熱點。在大數據時代,各類信息都可通過數據化途徑儲存,數據成為信息與社會利益的載體。換言之,大數據時代將面臨處理海量數據的難題,由于處理海量數據所需的算力超出傳統計算工具的能力范圍,這便意味著社會資源的分配權力從人工轉向算法,而基于數據所進行的算法決策則成為一種事關社會公眾利益消長的社會建構。“這使得算法逐漸脫離數學工具的角色,并與數據資源結合成為重要的新興社會力量?!盵2]可見,大數據時代算法決策已經成為一項普適性技術,并逐漸超越其技術范疇,具備了社會屬性。

二、算法決策的風險表征

隨著人類社會從弱人工智能階段向強人工智能階段過渡,算法自動化決策存在的局限性逐步顯現,也引發了諸多問題,如“算法霸權”“信息繭房”效應以及“算法殺熟”現象等,而算法人為“操縱”等風險將妨礙數據主體的人格尊嚴及經濟利益等合法權益[3],進而引發算法自動化決策風險。隨著一系列算法妨害案例的出現,如針對罪犯再犯概率的預測系統出現種族歧視、谷歌算法操縱排除競爭、電商營銷中的算法殺熟以及深度偽造的假新聞等等,對算法決策的不信任逐漸成為普遍的社會現象,一時間“談算法色變”。

大數據時代的算法決策較為特殊,因此算法決策的風險表征亦更為隱晦。一是算法的公開和透明程度較低,容易形成“算法黑箱”;二是算法的復雜程度較高,其工作原理難以被社會公眾所理解;三是算法結果具有不可預測性,算法結果的科學性依賴于算法設計、數據量及監管等多重因素,實踐中算法設計要考慮一定的隨機性,這意味著算法結果難以預測;四是算法結果不可控性,由于算法決策多應用于海量數據的處理,需要針對某一類特殊情形而及時、精準及多次輸出特定結果,這便意味著算法決策需要針對不特定主體及情形多次輸出類型化的結果,而一旦出現算法妨害,往往會引發不可控的算法決策危機。

在大數據時代,隨著算法應用場景更廣,各行各業可以提供更加豐富的源數據,數據采集主體更為廣泛。算法決策過程涉及到數據采集者、算法設計者及算法使用者等主體。由于算法技術本身的特殊性和算法使用過程的不確定性,致使算法自身可能存在缺陷,使技術的公正性、合理性和可行性達不到要求。對于一般公眾而言,算法決策往往具有較強的科技背書特征或監管機構背書特征,要么被科技外觀所隱藏,不被理解;要么被自動視為中立的、權威的、科學的。因此,在數據采集者、算法設計者和使用者之間存在算法認知的鴻溝,容易引發算法決策的風險。如圖1所示,算法決策系統涉及多重主體,從源數據輸入到輸出算法決策的過程中,存在隱私泄露、算法決策錯誤、算法偏見和算法聲譽等算法風險。

其一,隱私泄露風險。算法系統運行立足于大量的基礎數據,其輸出結果的準確性以足夠全面的樣本為基礎,因此算法系統往往需要采集、掌握或存儲大量數據信息。這一過程可能存在過度搜集數據的情形,如大量收集個體的敏感數據或企業的涉密信息,引發數據隱私保護問題。由于個體和一般企業無法突破“算法黑箱”,處于相對弱勢的地位,而互聯網企業可以利用其優勢地位逐漸形成“技術割據”,加劇了互聯網企業和其他主體之間的強弱對比,導致算法系統中主體地位不平等[4],出現隨意流轉、買賣數據等現象,造成隱私數據泄露等危機。

其二,算法決策錯誤風險。由于算法本身是一種計算程序,盡管可以通過自我學習進行優化,但算法決策系統的科學性受到設計缺陷、源數據的體量、決策程序等客觀因素影響,難免出現錯誤的結論。如新聞媒體算法決策錯誤,在信息傳遞過程中根據“用戶畫像”推薦大量虛假新聞,不僅不利于應急管理,反而會引發公眾的恐慌。

其三,算法偏見風險。由于算法決策系統可能被人為操縱,導致決策過程存在偏見因素,使得算法系統重復輸出不公平、不合理的結果。算法偏見存在于算法設計和運行的每一個環節,包括算法設計者的偏見、輸入數據的偏見和算法局限的偏見[5]。算法歧視主要表現為輸入相同而結果不同或輸入不同而結果相同,進而引發“針對種族、性別、年齡、消費及弱勢群體的算法歧視”[6]。算法偏見的存在是導致算法信任危機的主要成因之一。

其四,算法聲譽風險。在數字中國建設過程中,算法決策應用將進一步推廣,影響社會的方方面面,其中還包含了公共事業管理、新聞媒體、醫療、教育乃至司法裁判等公共利益領域,良好的聲譽對公共利益領域而言至關重要,也是獲取公眾信任,實現社會穩定的壓艙石[7]。算法的科學決策是新時期我國實現社會治理能力現代化的必然要求,但如若算法妨害導致算法聲譽受損,乃至出現“算法決策污名”,則必然影響公共事業管理,不利于社會穩定,造成社會多重信任危機。

三、算法決策信任危機

算法決策本身存在著“黑箱”“信息繭房”等特質,其高度不確定性易造成“算法恐慌”“算法污名”等問題。因此,社會公眾對算法決策易于產生的不信任情緒,進而導致算法決策的信任危機。

(一)算法決策風險的社會放大

按照風險的社會放大理論,如果某項危機受到社會公眾強烈關注時,基于各種機制,有關算法決策的風險可能會在風險傳導過程中被放大[8]。這種風險放大表現為社會公眾的強烈風險感知,并逐步演變為用戶對算法風險的憤怒情緒。具體而言,算法決策風險的社會放大一方面會導致算法污名,使公眾無差別地不信任算法決策,妨礙算法決策的社會效果;另一方面也會影響算法決策的合理使用進程,不利于算法技術本身的革新。

在互聯網時代,算法等新興技術借助互聯網平臺定向推送感性化的信息進而導致謠言的泛濫,“是一種利用群眾情緒極化謀求流量及利益從而掩蔽真相,破壞網絡傳播秩序,阻礙主流價值傳播及輿論引導的時代現象”[9]。這造成了算法決策的“后真相”現象,算法決策的實際危害已然顯現。學者多以選民投票為例證實“后真相”社會的算法妨害,其實現模式為:“第一步,根據已掌握的數據隱私群分選民,形成有不同偏向的群體;第二步,通過算法決策實現精準的信息推送,構筑‘信息繭房;第三步,通過精心選擇、制作內容以搭售操控者意圖,引導選民群體投票?!盵10]算法決策的“后真相”特質不僅成為部分群體操縱選民投票的方式,更是社會層面算法決策信任危機的重要原因之一。

隨著互聯網和移動智能終端的進一步普及,信息的“點擊量”“關注度”“轉發率”等指標可以轉化為經濟利益。為攫取更多利益,傳統媒體和新媒體在傳遞信息過程中,往往會迎合用戶偏好對既定的事實進行加工或渲染,導致信息的傳遞過程中其經濟價值、娛樂價值及獵奇價值優先于真實價值,算法針對用戶偏好的定向推送則會加深這種偏見,如出現迎合用戶口味的“深度偽造”短視頻,鑒偽難度更高、影響更為深遠[11]。在事實被澄清后,會出現信息的反轉,而大量的反轉信息和反轉新聞會持續沖擊主流意識形態的價值共識,導致社會公眾對算法決策和定向推送的普遍懷疑,進而引發算法污名化現象。

算法決策污名是指不特定主體形成的針對算法決策的一種不合理負面評價,造成算法決策普遍的負面形象。在算法決策模型中,社會信任是不同群體價值共識得以形成的社會基礎,這種信任可以節約社會資本。但算法決策“后真相”會引發針對算法等新興技術的污名,在反轉信息的不斷證實下,污名的影響范圍將不斷擴大,導致付出信任的成本大于不信任造成的損失。在互聯網、自媒體所主導的虛擬“賽博空間”之中,“算法等技術污名”的妨害進一步放大,在這種不信任基礎上,社會公眾的判斷和決策將脫離科學事實的理性證據和高尚道德的感性情愫,形成一種泛化且武斷的不信任判斷,最終引發針對算法決策等技術的社會信任危機。

(二)算法決策信任危機的表征

盧曼認為:“熟悉與信任是吸收復雜性的互補方式?!盵12]對于具備復雜性外觀的算法技術,算法決策信任危機將打破原有的熟悉機制,使復雜性簡化困難重重。熟悉機制可分為傳統群體層面的人際信任和社會宏觀層面的系統信任,與之對應,算法決策的信任危機亦可分為人際信任危機和系統信任危機。

就算法決策人際信任危機而言,隨著算法逐漸改變用戶的傳統生活狀態,公眾形成算法依賴,這沖擊了傳統的人際信任基礎——相同地域范圍內熟人社會。在算法決策的影響下,公眾獲取信息的渠道多元、內容復雜繁多,但所獲取的信息具有一定用戶偏好,持續反復的偏好信息會強化公眾對“特定事實”的認知,甚至形成偏見,進而導致公眾在個性定制的碎片化信息中強化個人認知而不信任其他人,引發人際信任危機。

就算法決策系統信任危機而言,由于算法決策的普遍性和“黑箱”特質,很多用戶不知道其利益是否為算法所影響,會產生對算法決策的泛化恐慌情緒。換言之,在日常社會生活中,用戶會形成一種“它為什么這么懂我”式的疑問,不知道生活場景中有沒有算法,不知道算法在何處,不知道算法是否科學及不知道如何救濟等。在這種多維不確定性情緒主導下,公眾會對整個算法決策系統產生懷疑。算法決策系統信任的確立依賴于算法制度監管體系,算法決策的系統信任具有提高社會活動效率、節約交往或交易成本等重要作用。在監管措施不夠完善的情況下,由于算法決策缺乏必要的安全外觀,用戶對算法損害救濟缺乏信心,導致對算法決策的不信任擴大至對算法決策及監管體系的不信任,此時懷疑情緒演變為系統的不信任,增加達成合作或交易的社會成本,形成算法系統信任危機。

四、算法決策社會信任機制的構建

世界各國都意識到算法決策的風險,并采取了相應措施,從立法實踐等方面關注涉及到算法決策的個人信息保護、數據保護等內容。如2018年歐盟《通用數據保護條例》生效,被稱為“史上最嚴數據保護條例”,明確算法決策者應當以合法、合理和透明的方式處理個人數據等。我國立法也回應了算法決策風險,如《網絡安全法》《數據安全法》《信息網絡傳播權保護條例》等法律法規,以及《個人信息保護法》草案大多提到要約束算法自動決策,強調個人信息保護等。但是,針對算法決策的爭議卻愈演愈烈,并逐漸形成信任危機。算法決策通過技術進行綜合決策是一個社會建構的過程,法律是其中較為重要的一環,但并非唯一一環。基于此,如圖2所示,在數字中國背景下,應對算法信任危機不僅要立足于法律規制,還應以算法風險防治為核心,不斷修復算法等新興信息技術的信任鏈條并形成信任閉環,最終構筑算法決策系統的社會信任機制。

(一)算法理念更新:技術理性

技術信任以技術理性為基礎,在算法決策過程中,算法使用者不僅要考慮算法技術的應用功能,還要考慮通過算法進行決策的目的正義、過程公正以及結果正當。盡管每一次技術的迭代、更新都會在帶來便利的同時引發風險和不確定性,但這種不確定性也間接促使技術自身的革新,推動技術配套制度體系逐漸完善。申言之,技術風險與技術理性之間存在一種伴生關系,由技術風險促成技術理性不僅是技術推陳出新的規律,也是技術信任的必然要求。

算法決策的社會信任需要樹立算法技術理性,具體可從合理、動態、規范和價值等方面展開。首先,算法決策技術要符合技術合理性要求。合理要求技術使用達到價值期許,算法決策原理具備科學性、可行性和可操作性,算法決策規范有效。其次,算法決策技術需要動態調整。技術是使用者意愿的具象化,具有統籌多重抽象可能性的作用,這近似一個創造理想的過程,因而算法技術需要不斷調整、更新和完善,“算法技術發展中伴隨而來的各種風險可以通過增強技術可靠性以及開拓技術周邊措施的方式來增加公眾信任”[13]。因而算法決策技術要符合技術原理,借助科學技術規律動態應對算法決策風險。再次,從算法決策的規范視角而言,由于技術本身不具備價值評判,因此應對算法決策風險要強化技術創造者、使用者及監管者等參與主體的行為規制。要發揮法律、道德、市場等多重規制機制作用,使算法決策公開、公正及可責,這也是算法決策社會信任機制的重要抓手。最后,就算法決策技術理性的價值層面而言,要體現對算法決策用戶的終極關懷,并以此為出發點,促使技術創造者和使用者形成高度自律的道德約束體系,促使監管者形成高度完備的監管體系,這種技術理性價值也成為算法決策系統信任的最優形態。

(二)算法規制提前:風險預防

算法決策風險是算法決策信任危機的主要誘因,針對算法決策過程中可能存在的隱私泄露、算法決策錯誤、算法偏見和算法污名等風險,要通過法律規制實現風險的防治。而區別于算法決策產生危害后再行處理的“末端反應機制”,算法決策風險的應對需要提前,在事前階段就采取有效的風險預防措施。這種風險預防不僅可以從實然層面降低算法決策風險,還可使算法決策監管者樹立積極應對的形象,增加公眾的信心。

然而,在風險社會,絕對的風險預防是無法達到的。換言之,我們無法逃避在日常生活中面臨各式各樣的風險,形成“在未知之中決策、監管、工作及生活”的狀態。因此,并非所有算法決策風險都需要采取預防措施,要實現技術革新與風險預防的動態平衡。一方面,算法決策風險需要被懷疑到一定程度,以合法權益受到威脅的可能性、緊迫性及破壞性為限度,此時風險的法律規制需要采取謹慎的態度,將合理審查作為風險預防措施的適用前提。另一方面,要依據算法風險特征靈活選取所采取的風險預防措施,在采取風險預防措施所獲得的成效與放棄的利益之間進行權衡,如算法決策涉及到國家秘密等敏感信息,造成的損害難以挽回,對此無論需放棄多少利益都要嚴格采取風險預防措施。

算法決策風險預防要從風險識別、風險溝通及應急管理等層面開展,并在制度層面予以回應,如監管者與互聯網企業合作,建立算法決策風險評估制度及算法決策突發事件后評估機制等。首先,算法決策風險識別,是指在算法決策系統設計、輸入、運算及輸出的全過程中,運用各種方法或技術持續地辨識不同時間節點的各種算法決策風險。其次,風險溝通是算法決策公開透明的要求之一,要及時與用戶之間傳遞風險信息。最后,應急管理是發生算法決策妨害之后的沖突協調預案或措施,如對某些特殊領域使用算法決策“白名單”制度,即為了保障該領域的信息安全,只有那些被證實不存在風險的算法決策才可以被使用。

公眾對風險高度關注且本能存有恐慌情緒,實踐中多依據其社會生活經驗進行感性的危機判斷,因此社會信任的程度與信心相關[14]。盡管算法決策風險較為隱蔽,但風險預防的出現使得風險規制提前,讓算法用戶獲取足量有效的風險信息,掌握風險辨別的手段,實現算法決策的透明化和公開化??梢?,風險預防可以增強公眾對風險監管的信心,消解負面的風險感知,形成理性的風險認知,因而風險預防是算法決策社會信任機制的關鍵。

(三)算法決策正名:“去污名化”

算法決策的“污名化”會加深用戶的恐慌,“去污名化”則成為算法決策社會信任機制構建的重點。從污名化的產生來看,用戶對于算法決策的恐慌往往并非基于直接利益損害,而是基于害怕、從眾等情感所形成的認知。為應對公眾對算法決策所形成的非理性判斷,防止風險的社會放大,需要去除算法決策的污名化標簽。首先,算法決策污名化源頭的管控。在自媒體時代,大量有關算法偏見、算法歧視的報道獲得了公眾的關注,對公眾而言算法“看不見、摸不著”,較為復雜晦澀,這加強了公眾對算法決策的反感或恐懼,并逐漸形成了算法不好的認知模式。因此,要從源頭改善這種負面形象,通過算法解釋實現公開、透明;此外在信息傳遞時,使用簡明扼要、直觀的表述方式表達算法決策,消除用戶對算法的恐懼,淡化對算法決策的負面情感認知。其次,保障算法決策技術本身的安全。批判性與建構性是辯證統一的,算法決策的正面形象立足于算法技術本身的安全可靠,這要求通過法律、道德等不同約束體系建構算法決策技術的監督體系,形成相對安全的算法決策系統。要強化監管部門對算法決策的監管,結合技術特征形成專業的算法監管主體,如借助第三方主體參與算法決策風險評估等,構筑精細化、場景化的算法決策監管框架,形成全面的算法監管體系。這種“家長式”的監管體系不僅是算法決策風險防治的需要,更是塑造算法良好形象的最有力措施。最后,加強對算法決策污名化信息傳播的管控與引導。媒體在污名化信息傳播中起到至關重要的作用,尤其是近年來流行的短視頻、微信公眾號等新媒體渠道,具有無可替代的信息傳播優勢。技術的“雙刃劍”特性使新媒體同樣為算法決策污名信息的管控與引導提供了便利,要通過媒體渠道積極宣傳算法知識,介紹算法決策的功效及作用等,讓公眾通過學習算法決策的知識,自主判斷算法決策風險,并建立起算法決策風險的理性認知。

(四)用戶環境優化:社會信任

由于算法決策人際信任危機和系統信任危機是同步出現的,算法決策的社會信任機制構建便需要關注人際信任與系統信任的協調問題,這就需要營造一個信任的算法環境。此時多數公眾認為社會上大多數人和技術都是值得信任的,從而在實現人際信任和制度信任相互配合、彼此平衡下,達成算法決策社會信任鏈條的閉環效應。

算法決策的社會信任環境立足于算法技術理性、算法風險預防及算法聲譽正名,同時要體現對算法決策用戶的價值關懷,著眼于用戶的多樣性需求,系統全面地加強算法決策環境優化。一是關注用戶的“生理需求”。算法與信任結合多集中在算法決策具體操作層面,如算法決策不僅要符合用戶的偏好,更要保障算法決策的正確性,避免產生負面影響而導致用戶放棄算法系統。二是關注用戶的“安全需求”。確保用戶使用算法系統是安全可靠的,避免隱私泄露等安全風險,同時算法決策往往會對用戶利益消長產生直接或間接影響,合法權益的保障是獲取信任的最基礎要素。三是關注用戶的“知情需求”。要突破“算法黑箱”“信息繭房”等。在算法決策等全新的決策模式中,信息、新聞、商品和服務的虛擬性和隱蔽性更強,因此要完善算法公開、算法解釋等制度,并通過法律制度予以保證,如在未來的《個人信息保護法》等立法中對此進行相應的規范。四是關注用戶“尊重需求”。算法決策系統要尊重用戶,建立起制度化溝通機制,充分尊重受眾的情緒。五是關注用戶“參與需求”。在大數據時代,算法決策逐漸為行政監管所吸納和運用,算法決策并不意味著公眾參與權利的讓渡或放棄,同傳統決策機制充分重視公眾參與一樣,算法決策同樣需要關注公眾參與,并不斷創新參與方式來保障公眾參與權。

結語

在數字中國建設中,算法決策是建設數字經濟、數字社會及數字政府的重要工具。然而,在風險社會,算法決策又不可避免會帶來不確定性,這種不確定性沖擊了當前的社會信任機制。作為一項技術,算法決策存在于數字中國的每一個場景,自然也得到了公眾、企業、監管機構乃至全社會的關注,一時間算法偏見、算法歧視及算法風險規制成為理論研究的寵兒。通觀技術風險規制的理論研究范式,其核心是對掌握技術、使用技術的“人的規制”,社會信任在這種規制體系之中既是目的也是手段。在未來的數字中國建設中,我們要強化技術的社會建構,在擁抱技術革新的同時營造社會層面的信任機制,以避免“馬拉火車式”的荒誕。

參考文獻:

[1] 劉友華.算法偏見及其規制路徑研究[J].法學雜志,2019(6)∶55-56.

[2]張凌寒.算法權力的興起、異化及法律規制[J].法商研究,2019(4)∶63-75.

[3]解正山.算法決策規制:以算法“解釋權”為中心[J].現代法學,2020(1)∶179-182.

[4]呂炳斌.個人信息權作為民事權利之證成:以知識產權為參照[J].中國法學,2019(4)∶44-60.

[5]LEPRI B, OLIVER N.Fair, transparent, and accountable algorithmic decision-making processes: the premise, the proposed solutions, and the open challenges[J]. Philosophy and technology,2018(4)∶611-627.

[6]汪懷君,汝緒華.人工智能算法歧視及其治理[J].科學技術哲學研究,2020(2)∶101-103.

[7]孫建麗.算法自動化決策風險的法律規制研究[J].法治研究,2019(4)∶108-117.

[8]珍妮·X.卡斯帕森,羅杰·E.卡斯帕森.風險的社會視野:公眾、風險溝通及風險的社會放大[M]. 童蘊芝,譯.北京:中國勞動社會保障出版社,2010∶92.

[9]郭明飛,許科龍波.“后真相時代”的價值共識困境與消解路徑[J].思想政治教育研究,2021(1)∶54-55.

[10]肖冬梅.“后真相”背后的算法權力及其公法規制路徑[J].行政法學研究,2020(4)∶3.

[11]黎夢兵,吳勇.新媒體的社會信任問題研究:基于“深度偽造”短視頻視角[J].理論月刊,2020(12)∶81-84.

[12]尼古拉斯·盧曼.信任:一個社會復雜性的簡化機制[M]. 翟鐵鵬,李強,譯.上海:上海世紀出版集團,2005∶22.

[13]張欣.從算法危機到算法信任:算法治理的多元方案和本土化路徑[J].華東政法大學學報,2019(6)∶27.

[14]張璇,伍麟.風險認知中的信任機制:對稱或不對稱?[J].心理科學,2013(6)∶1333-1338.

【責任編輯:張亞茹】

主站蜘蛛池模板: 少妇精品在线| 国产欧美日韩18| 国产情侣一区二区三区| 亚洲精品自在线拍| 老色鬼欧美精品| www.99在线观看| 美女一区二区在线观看| 中日韩一区二区三区中文免费视频| 亚洲中文字幕精品| 亚洲欧美在线精品一区二区| 亚洲永久色| 国产精品欧美激情| 国产自在线播放| 福利视频一区| 欧美午夜视频在线| 午夜电影在线观看国产1区| 高清国产va日韩亚洲免费午夜电影| 亚洲第一黄片大全| 欧美专区在线观看| 在线国产欧美| 国产swag在线观看| 毛片大全免费观看| 精品国产网| 欧美在线视频不卡| A级毛片无码久久精品免费| 九九热视频精品在线| 55夜色66夜色国产精品视频| 国产亚洲欧美另类一区二区| 91区国产福利在线观看午夜| 黑人巨大精品欧美一区二区区| 久久久噜噜噜| 午夜国产不卡在线观看视频| 人妻中文久热无码丝袜| 亚洲av成人无码网站在线观看| 日本午夜网站| 欧美国产另类| 青青草国产一区二区三区| 国产日韩欧美中文| 亚洲国内精品自在自线官| 人妻免费无码不卡视频| 啦啦啦网站在线观看a毛片| 日韩欧美国产三级| 国产日韩精品一区在线不卡| 国产午夜看片| 国产精品综合久久久| 国产综合网站| 91麻豆精品视频| 欧美在线导航| 一级毛片免费不卡在线| 久久婷婷五月综合97色| 精品一区二区三区无码视频无码| a色毛片免费视频| 国产美女免费| 狠狠做深爱婷婷综合一区| 免费AV在线播放观看18禁强制| 亚洲码在线中文在线观看| 久久99国产综合精品1| 污网站免费在线观看| 中国精品自拍| 人妻一本久道久久综合久久鬼色| 国产性生大片免费观看性欧美| 国内熟女少妇一线天| 国产成人一区二区| 日韩精品无码免费一区二区三区| 国产精品尤物铁牛tv| 人妻中文久热无码丝袜| 国产精品久久久久久久久久久久| h网址在线观看| 中文字幕av一区二区三区欲色| 四虎成人精品| 国产亚洲视频播放9000| 精品国产女同疯狂摩擦2| 全午夜免费一级毛片| 欧美成人亚洲综合精品欧美激情| 综1合AV在线播放| 久久久久中文字幕精品视频| 视频二区欧美| 超薄丝袜足j国产在线视频| 国产激情无码一区二区免费| 亚洲国产精品日韩专区AV| 欧美精品另类| 久久精品人妻中文系列|