The Social Construction of Al Risks from the Perspective of Framing Theory: An Analysis Based on Event News Text Mining
AbstractThroughtheframing strategies,the mediaconstructesocialmeaningofartificial intelligence (AI)risks,shaping public perceptionand influencing policyresponses.Clarifying the theme characteristics and emotional expressions in AIriskreportingcan provide theoretical supportand empirical evidence for improvingAIrisk governance.This paper, groundedinframing theory,proposesathree-dimensionalanalyticalmodelof“Scope-Perspective-Tone”andemploys naturallanguageprocessing techniquesincludingLDAtopicmodeling,sentimentanalysis,andlinguisticambiguitydetectionto systematicallexamineAIrisk news texts,uncovering themechanismsandevolutionof mediaframing inthis context.Itturnsout theframingofAIriskinthenews hasshiftedfromafocusontechnicalissues—suchasdata privacyand algorithmicbiasinearlieryears—tobroadersociopoliticalconcerns inrecentyears,includingalgorithmicdiscrimination, election interference,andpsychologicalmanipulation.Distincttypesofmediaoutletsdemonstratesignificantdierences inreporting stanceand focal points,reflecting theconstructionof diverse perspectives inriskcommunication.Moreover, the media generalltends toadoptnegative emotional tonesandemploy vague orhedging language,whichamplifies publicanxietyandalertnessregardingAIrisks.Researchshows thatmediaarenotmerelyconduitsofinformationbutactive agents in shaping the social meaning of AI-related risks.
KeywordsAI risk; framing theory;LDA;sentiment analysis;risk evolution
人工智能(ArtificialIntelligence,AI)技術在醫療、教育、金融、交通和司法等領域的廣泛應用,不僅顯著提升了工作效率,還推動了技術創新[。然而,AI技術的快速發展亦伴隨著諸多潛在風險,如數據隱私泄露、算法歧視、虛假信息傳播與自動化決策失誤等[2]。這些風險不僅關系到個體權益的保障,也可能對社會穩定與公共政策制定產生深遠影響[3]。
人工智能風險具有高度的不確定性和系統性,正如UlrichBeck在“風險社會\"理論中所指出的那樣,當代社會中許多風險不再源自自然,而是源于現代科技自身的發展,其本質是一種被建構、被感知、被傳播的技術風險[4]。換言之,風險并非僅僅是一個客觀存在的實體,而是在媒體話語、公眾認知與文化語境中共同生成的社會現象。因此,AI風險的呈現不僅反映出技術本身的問題,更體現出媒體如何在社會語境中賦予其意義與影響力。
新聞媒體作為重要的信息傳播主體,借助其特定的報道方式與敘述框架,在塑造公眾對AI風險的認知、引導社會討論方向和政策議程方面發揮著關鍵作用。媒體如何“框定”AI相關事件,即通過特定的視角、語言與解釋邏輯呈現風險信息,直接影響受眾對人工智能技術的理解方式、情緒反應和應對態度。近年來,關于AI風險的報道日益增多,但媒體在風險敘事中究竟聚焦哪些議題、其報道重點是否隨時間演變而變化,以及是否通過情緒化敘述強化特定風險框架,這些問題尚缺乏系統性的實證分析。
本研究以框架理論為指導,構建了“范圍-視角-色彩”三維分析框架,以刻畫媒體在AI風險報道中所采取的敘事策略和價值立場。在此基礎上,結合LDA主題建模與情感分析等文本挖掘方法,對2013年-2024年有關人工智能風險的新聞報道文本進行了系統性分析,揭示了不同類型風險事件在媒體報道中的框架結構、主題演化路徑與情感傳播特征,拓展了框架理論在新興技術風險傳播研究中的應用維度,并深化了對技術風險社會建構機制的理解。一方面,本研究有助于揭示媒介在塑造公眾對新興技術風險認知過程中的關鍵角色,推動框架理論向非傳統議題拓展;另一方面,在人工智能日益滲透于社會治理、教育傳播與倫理辯論等多個領域的背景下,厘清媒體話語中AI風險的建構邏輯,亦可為政府制定監管政策、推動媒體責任規范化提供重要的理論支持與現實參考。
1相關研究
1.1 人工智能風險
人工智能技術的快速發展引發了廣泛關注,尤其是其潛在風險問題已成為學術界[5]和政策制定者探討的重點[。Turchin和Denkenberger提出針對全球范圍的人工智能災難性風險分類框架,并指出不同階段的AI發展可能引發不同類型的災難[7]。特別是在技術高速演進的背景下,AI系統可能造成大規模的社會危害,甚至存在人類對自主AI系統失控的風險。在信息服務與圖書館領域,AI系統可能引發隱私泄露、算法偏見、數據安全與倫理透明性等問題。王旭等指出智慧圖書館面臨技術性壓力與系統性安全風險,需構建動態防御機制8。在新聞傳播與內容創作領域,生成式AI可能加劇虛假信息傳播,模糊作者責任。楊洋洋分析了AIGC引發的輿情情緒波動,指出負面認知易被情感放大[9]。在醫療與金融等高敏感行業,AI的不透明決策過程與模型偏差可能會對生命安全與經濟穩定造成嚴重影響。Bengio等強調了通用人工智能若失控可能帶來災難性后果[10]。在法律與倫理層面,Novelli等指出當前AI風險分類仍缺乏針對具體行業的情境適配性,難以支撐有效監管[]。此外,AI技術還可能加劇勞動力替代,導致就業結構性失衡,引發社會不穩定。
然而,當前治理機制尚難以有效應對這些復雜挑戰,AI安全研究的進展亦明顯滯后于其技術發展速度[12]。因此,多個研究呼呼應從行業場景出發,構建具有針對性的風險感知與治理體系,實現技術發展與風險控制的平衡。一些學者建議借鑒其他高風險技術的治理經驗,并結合技術研發和適應性治理機制,以降低AI的潛在威脅[13]。蘇文成等構建了人工智能風險體系及其模塊化評價指標,從技術、倫理、法律和社會等多個維度系統性地評估AI風險[14]。這一研究為人工智能風險的定量分析和治理策略提供了基礎,也為政策制定者提供了決策依據。在人工智能治理框架的構建方面,美國NIST發布《Artificial IntelligenceRisk Manage-ment Framework:Generative Artificial IntelligenceProfile》,旨在為AI技術的開發、部署及使用提供指導,以確保其安全性和可信性,并強調治理機制需具備靈活性,以適應不斷變化的技術環境[15]。歐盟《ArtificialIntelligenceAct》旨在對人工智能技術的應用進行規范化管理,重點圍繞數據公開透明、監督機制以及責任認定體系等方面建立相應準則,以切實保障民眾的基本權益不受侵害[16]
除了技術治理和政策框架,AI風險的社會認知與傳播機制亦值得關注。媒體作為信息傳播的重要渠道,在塑造公眾認知及影響政策制定方面發揮關鍵作用。然而,現有研究主要集中于技術風險分類、治理框架及政策監管,對AI風險在新聞報道框架中的演變研究相對不足。
1.2框架理論
框架理論(FramingTheory)作為傳播學研究的核心理論之一,其發展歷程經歷了從社會學基礎到傳播學應用的轉變。Goffman最早提出“框架分析”概念,用以解釋如何借助既有經驗結構解讀事件[17]。Entman進一步深化了框架概念,強調框架是通過“突出某些信息,使其在交流文本中更為顯著”[18]
在國家形象建構方面,框架分析揭示了媒體如何通過選取特定敘事資源與結構策略,影響國際輿論圖景。安珊珊和梁馨月分析了美國主流媒體在“一帶一路\"報道中的框架對立,進一步揭示了國際傳播中“框架競爭\"的敘事博弈格局[9。在國際背景下,Clark與Nyaupane的研究表明,西方媒體在\"過度旅游”議題中傾向于選取負面框架,進一步激化了公眾對旅游目的地的負面認知,體現出媒體對國家形象建構的深層影響[20]。框架策略亦深受媒體屬性與受眾定位影響。張錦儀與張光輝指出,自媒體“差評\"通過人格化敘事增強科學傳播親和力[21]。李建偉與付盛凱則發現中央與地方媒體在自然災害報道中展現出不同的情緒引導與議題重構方式[22]。Park等對美國校園槍擊案的分析進一步揭示了西方主流媒體在種族框架上的系統性偏向,其通過“心理問題”與“暴力犯罪”的雙重標準建構,不僅反映了媒體立場,也暴露出深層的結構性偏見[23]
框架理論還被用于剖析虛假信息傳播機制與輿論治理策略。王國華等通過分析“上海女孩逃離江西農村\"事件發現,謠言往往通過事實重組與情感動員構建\"可信框架”[24]。侯欣潔與王燦發則探討人民網\"求真\"欄目在辟謠中如何利用\"組合求證”提升信息可信度,提示主流媒體在數字輿論場中運用話語調控策略[25]。在民族議題報道中,湯天甜觀察到“譴責分裂”與“政府關懷”的雙框架策略[26]。Msughter等以尼日利亞身份沖突為背景,發現媒體在報道中對沖突雙方進行不同框架選擇,直接影響公眾對責任歸屬與沖突正當性的認知[27]。這些研究共同表明,框架選擇不僅反映媒體立場,更影響著社會認知的分化與整合。
框架理論已形成較為成熟的研究體系,并在多元議題和傳播場景中展現出較強的解釋力與適應性。然而,已有研究仍存在以下不足:其一,研究多集中于個別事件或短時間段報道,缺乏對跨事件、長時段新聞語料的系統性比較分析;其二,大多數框架研究仍依賴人工編碼與定性歸類,難以應對大規模語料處理與量化驗證需求;其三,新聞報道中的情緒表達與議題結構往往被割裂分析,缺少對主題、情感、態度之間互動關系的整體性揭示。
2研究設計
2.1 研究框架
框架理論強調媒體并非中立傳遞信息的通道,而是通過有選擇地強調、組織與呈現特定信息元素,構建意義結構,從而影響公眾對事件的認知與情感判斷[28]。尤其在風險傳播的語境下,框架不僅決定“公眾看見什么”,而且更深層次地引導“公眾如何看”。在人工智能等前沿技術迅猛發展的背景下,相關風險的不確定性、高技術性和社會關聯性使得媒體框架成為公眾理解AI風險的關鍵中介。新聞框架就如一扇特別構建的\"窗”[29],透過它,公眾不僅接收到信息,也在媒體建構的語境中被引導理解風險的嚴重性、歸因方式與應對態度。
本研究在繼承傳統框架理論基礎上,提出從“范圍-視角-色彩\"三個維度重新闡釋媒體在人工智能風險報道中的框架建構機制:“范圍\"強調議題選擇、主題演化所呈現的報道邊界與關注重心;“視角\"關注特定媒體的立場與報道角度;“色彩”聚焦媒體在情緒表達和語言策略中賦予風險的情感傾向與不確定性表達,旨在揭示媒體如何通過框架策略建構人工智能風險的話語現實。
從“范圍-視角-色彩”三維視角出發,本研究首先借助LDA主題建模技術對大規模新聞語料進行分析,識別人工智能風險報道中的潛在主題,提取高頻議題范疇,并通過時間序列可視化手段展示其演化趨勢,從而揭示報道“范圍”的演變路徑與議題設定邏輯。其次,分析不同類型新聞來源所涉主題及其差異,揭示媒體在風險建構中的“視角”差異與立場取向。隨后,運用情感分析模型對報道進行傾向性分類,劃分出正向、負向與中性三類情緒,分析媒體在不同框架下為風險賦予的“色彩”屬性。最后,通過識別報道文本中的模糊限制性語言,進一步剖析媒體如何利用語言策略建構風險的不確定性語境,豐富其敘事彈性與公眾解讀空間(研究框架見圖1)。
2.2 數據來源與預處理
本研究所使用的數據來源于AIRiskRepository(人工智能風險存儲庫),該數據庫首次嘗試系統性整理、分析并提取人工智能風險框架,將其整合為一個公開可訪問、結構完整、可擴展且分類清晰的風險數據庫[30]。AIRiskRepository匯集了近年來國內外與AI相關的風險事件,包括自動駕駛事故、深度偽造技術濫用、人工智能倫理爭議及政策監管動態等。每一個人工智能風險事件包括簡介、新聞報道等。關于風險事件的新聞報道數據主要來自《華盛頓郵報》《紐約時報》《衛報》BBC、CNN等。
為深入探究主題演化的動態軌跡,本研究采用時序滑動窗口法對新聞數據集進行階段性劃分。鑒于早期新聞數據量較少,為保證各時段數據的可比性與分析的有效性,選取近12年(2013年-2024年)的新聞數據作為分析對象。去掉重復數據,共獲得新聞報道3977件。將研究時段劃分為六個連續的雙年區間:2013年-2014年、2015年-2016年、2017年-2018年、2019年-2020年、2021年-2022年以及2023年-2024年,以此構建具有時序連續性的分析框架,從而系統考察主題演化的動態特征與規律(見圖2)。
3研究結果與分析
3.1AI風險報道的議題構成與演化趨勢
3.1.1人工智能風險主題分布
LDA(LatentDirichletAllocation)是一種基于貝葉斯推斷的主題模型,能夠從文檔集合中自動發現潛在主題,由詞、主題和文檔三層結構組成[31],廣泛應用于主題探索、知識組織、學術評價、情感分析等領域[32]。它假設每篇文檔是多個主題的概率分布,而每個主題由詞匯以多項式分布的方式生成[33]。在應用LDA時,主題數量(K)的選擇至關重要[34]。結合主題一致性得分和困惑度曲線確定最佳主題數量,最終得到不同時間窗口下的主題分布情況(見表1)。
人工智能風險的主題主要集中在數據隱私、安全、倫理、公平性、社會治理以及行業應用等多個維度,反映出人工智能技術在不同情境下可能帶來的系統性挑戰。從數據與隱私的角度來看,AI數據泄露、濫用及歷史信息篡改問題揭示了算法驅動的個人信息控制權和透明度缺失的風險。倫理與公平性方面,司法決策偏見、算法歧視、商業定價不公等問題凸顯了人工智能在社會正義和公平競爭中的潛在失衡。社會與政治風險則表現為人工智能對信息傳播、社交媒體操控、選舉干預及心理影響的滲透,可能加劇公眾認知偏差和民主治理困境。安全與犯罪領域,AI武器化、深度偽造、詐騙及安防誤判等風險展現了人工智能在安全防護與攻擊性應用中的雙刃劍效應。行業應用層面,自動駕駛、醫療AI、教育AI等技術的不確定性和誤判可能引發廣泛的社會后果。



這些主題共同勾勒出人工智能技術在\"技術-社會-倫理-治理\"交叉領域的深層次風險結構,呼應了其作為一項通用技術在不同社會系統中的適應性挑戰和長期影響。從框架理論的視角來看,這些主題并不僅僅是對客觀風險全貌的被動呈現,而且是媒體在信息篩選與組織過程中,主動構建出的“觀察邊界”。也就是說,媒體通過選擇性聚焦某些議題、忽略或淡化其他風險面向,從而設定了公眾通過新聞報道所能“看見\"的范圍。這一框架的\"邊界\"決定了人工智能風險圖景中哪些內容被突出展示,哪些則被邊緣化或隱藏,最終塑造出一個帶有媒體選擇痕跡的“風險景觀”。議題組織的方式同樣具有建構力,不同的議題組合邏輯與敘事順序,賦予事件不同的結構重點與意義導向,從而影響公眾對風險問題的整體理解與優先關注。
3.1.2人工智能風險主題熱度
根據特定日期內所有文檔的平均主題權重分布[35繪制出人工智能風險主題熱度圖(見圖3)。由于每篇文檔的主題權重總和為1,熱度圖能夠直觀反映各主題在不同年份的相對關注程度。并進一步呈現出人工智能風險各主題在不同時間段的關注強度變化,灰度梯度用于量化關注度,從而揭示出人工智能風險在不同歷史階段如何被媒體選擇性地凸顯與弱化。
從整體趨勢來看,媒體在構建人工智能風險議題時體現出明顯的優先級排序。不同主題在不同時期成為核心關注,背后不僅反映出具體技術形態的發展演進,也關聯著特定歷史節點上的典型事件與社會政策背景。
2013年-2014年,AI隱私泄露風險獲得最高關注。這一時期正值大數據技術加速興起,智能終端廣泛普及,個人數據成為商業競爭的重要資產,媒體對\"技術侵犯個人權利\"的問題展開系統性關注。谷歌街景車通過WiFi竊取用戶數據事件與Facebook操控用戶情緒實驗相繼曝光,暴露了企業濫用數據的深層機制。這些事件不僅激發公眾對算法行為邊界的反思,也促使歐美國家加快數據保護立法進程,如推動歐盟的《通用數據保護條例》(GeneralDataProtectionRegulation,GDPR)制定。媒體報道多聚焦在算法行為的隱蔽性與數據權力的不對等分布,將技術對個體權利的結構性挑戰上升為公共輿論焦點。除上述高關注議題外,AI司法偏見在同期獲得中等以上關注,表明技術開始進入公共治理系統,引發公眾對司法程序正義的反思。美國COMPAS算法被揭示對黑人被告評分偏高事件,凸顯出訓練數據偏倚如何轉化為制度性歧視風險。這類報道不僅聚焦結果偏差,更開始探討算法嵌入公共決策系統后對權力運行邏輯的影響。

2017年-2018年,社交媒體中的AI操控與推薦風險的關注度顯著上升。這一轉向反映出媒體意識到人工智能已從技術系統過渡為信息傳播機制的核心嵌入者。YouTube的“艾莎門”事件揭示了推薦算法在激勵機制驅動下呈現的內容扭曲與道德滑坡問題。Facebook在2016年美國大選期間因其推薦系統被操縱傳播虛假新聞而廣受批評,推動“信息繭房”“認知操控”等概念進人輿論場。媒體報道不僅止于技術運作邏輯,更開始引入社會心理與傳播理論,強調算法如何改變個體認知結構和群體分化路徑。
2019年-2020年,AI數據濫用與侵權風險上升為輿論焦點,呈現出對平臺治理合法性與技術監管體系的系統性審視。ClearviewAI非法抓取人臉數據的事件在全球范圍引發監管風暴,揭露AI企業繞過用戶知情同意獲取數據的灰色空間。而亞馬遜AI招聘系統對女性求職者的歧視則暴露出數據偏見如何在模型學習中持續放大。此階段,媒體的報道更強調算法治理的制度化困境,即如何建立技術透明度、可問責機制和監管協調機制,構建\"數據權力失控”的議題框架。
2021年-2022年,AI自動駕駛技術風險顯著增大,體現出AI從虛擬空間向現實世界廣泛部署所引發的安全性與倫理責任問題。特斯拉Autopilot引發的系列交通事故促使美國國家公路交通安全管理局(NHTSA)啟動正式審查,引發“責任歸屬”與“人機協同邊界”的輿論討論。與此同時,社交平臺的內容治理機制也引發廣泛批評,虛假信息的泛濫暴露出平臺在算法治理中面臨的效率與正義沖突。
2023年-2024年,算法歧視與倫理風險獲得持續性報道。不同于早期對個案偏見的關注,媒體逐漸將視角擴展至系統性偏見的生成機制及其社會后果。美國醫療AI系統在非裔患者治療推薦中具有顯著偏差,英國移民系統AI誤判非英語母語者,以及OpenAI模型在性別角色分類上的偏見,構成了一組結構性風險的代表案例。此類報道已不再局限于揭示算法結果的偏差,而更強調技術嵌入制度中的“不平等再生產”作用。
相較而言,智能家居AI安全漏洞、工業AI自動化安全風險、金融AI算法交易風險及AI選舉干預等議題,雖然在技術上已具備實際影響力,但在媒體呈現中整體處于“低關注\"狀態。原因可能在于其社會影響尚未集中爆發,或傳播門檻較高,不易激發公眾共鳴。但需指出,這些邊緣議題在特定社會事件驅動下具有轉化為主流風險主題的潛力,特別是在AI加速部署于關鍵行業與政策場景的背景下,其媒介可見度有望快速上升。
總體來看,人工智能風險報道中最受關注的核心議題包括:數據權利與隱私保護、平臺算法對認知結構的操控、技術治理與制度問責困境、司法系統中的程序公正挑戰,以及現實世界中的技術安全與倫理歸屬問題。媒體在議題建構中并非被動接受技術變革,而是通過有意識地選擇事件、強調后果、嵌入框架,將人工智能塑造成一種\"社會性風險”,這一過程反映出其對技術發展所伴生的不確定性與制度張力的深度參與。
3.1.3AI風險的主題演化分析
為系統揭示不同歷史階段媒體報道中主題的語義延續性與演化特征,本研究引入基于詞向量的主題相似性度量方法。首先使用Word2Vec算法對整個語料構建統一的詞向量語義空間,從而捕捉詞語之間的深層語義關聯。隨后,對于每一時間窗口內由LDA模型生成的各主題,提取其Top-20關鍵詞,并基于詞向量計算這些關鍵詞的平均向量表示,作為該主題的語義嵌入向量。接著,通過計算不同時期主題間詞向量的余弦相似度,識別相鄰時間窗口中語義上具有連續性的主題,并設定相似度閾值(0.4)以篩選語義延續性較強的主題對。在此基礎上,構建主題演化路徑圖(見圖4),以可視化的方式呈現人工智能風險報道中各主題的動態變化軌跡。該方法有效融合了LDA主題模型的結構可解釋性與詞向量模型的語義表達能力,能夠在不依賴人工標注的前提下,量化主題在時間序列中的延續與轉化過程。

人工智能風險主題的演化呈現出清晰的階段性特征和漸進式發展趨勢。從2013年-2014年到2023年-2024年的十余年間,媒體所建構的風險敘事核心經歷了從技術性缺陷向社會性結構失衡的顯著轉變。在早期階段,主流框架聚焦于AI系統的“系統性故障”與“工具性偏差”,如司法決策中的誤判、人臉識別系統的不穩定等,風險往往被歸因于技術本身的不成熟或算法能力的局限。這類敘事以“責任歸因框架”為主,強調的是風險事件背后的技術失誤與工程瓶頸。
隨著AI技術加速嵌入社會生活,媒體敘事逐漸轉向“結構性不公\"與“倫理缺位\"框架。算法歧視、數據濫用、平臺操控等議題的興起,標志著AI風險已不再是“中性工具的異常表現”,而成為“權力再生產機制的一部分”。如在算法招聘、金融信貸等場景中,AI決策已表現出深度嵌人社會評價體系的趨勢,媒體報道也隨之強調其在“制造不平等”中的作用邏輯,轉而建構出以制度批判為導向的風險敘事框架。
同時,政策與制度環境的變化亦深刻影響了主題的延續與擴展。如2018年《通用數據保護條例》(GDPR)的實施,使得\"數據隱私\"類風險主題從個人維度迅速擴展到\"數據主權\"\"平臺權責”與\"監管正當性”等更廣闊的治理層面;而2022年美國《人工智能權利法案》藍圖文件的出臺,則進一步推動了“算法公平性”議題向立法維度的演進。這種從微觀技術性風險向宏觀制度性治理的語義拓展,表明媒體在風險構建過程中不僅在報道“事件”,更在參與“建構公共議題的意義框架”。
當前,人工智能風險報道已進入一個多維度、多議題交織的復雜階段。媒體對AI風險的描述與解釋不再依賴于單一框架,而是借由道德框架、歸因框架與解決框架等多種結構,系統性地組織風險話語。這種話語建構的多重性,反映出媒體在技術變革語境下對人工智能風險意義的持續重塑。因此,從框架理論來看,人工智能風險主題的演化不僅是議題本身內容的變化,還反映了媒體在不同階段所采取的風險敘事框架的策略調整。通過風險敘事邏輯與意義建構策略,不斷生成社會認知圖式與公共理解路徑的過程。
3.2AI風險報道來源媒體與視角建構
新聞來源對新聞媒體報道的可信度有很大影響,新聞不一定代表真相,但新聞報道代表了由相應新聞來源決定的真相[36。通過統計各新聞來源報道數量與主題分布,可以發現,不同媒體在議題選擇與報道重心方面表現出顯著的立場傾向與關注差異。
3.2.1媒體分布與議題覆蓋
通過對新聞來源進行統計分析,可以看到不同媒體對AI風險的關注度及其覆蓋的議題范疇(部分媒體的數量分布與相關風險主題見表2)。《衛報》《紐約時報》《華盛頓郵報》、TheVerge等媒體在報道數量上占據主導地位,成為AI風險話語的核心報道來源。這些媒體不僅在數量上占據優勢,而且覆蓋的風險類型也極為廣泛。涉及的風險主題包括AI數據隱私泄露、AI人臉識別風險、醫療AI診斷失誤、AI司法決策偏見、AI生成虛假新聞等,體現了這些媒體在風險議題上的全面性。相比之下,其他一些媒體則在報道數量和風險主題的覆蓋面上相對較少。

3.2.2 媒體屬性與議題偏好差異
不同類型的新聞來源在報道AI風險時展現出明顯的立場傾向和關注重點。技術類媒體,如《科技藝術》《連線》、TheVerge,更多聚焦于AI技術本身的問題,如算法濫用、隱私泄露和技術漏洞等。這些媒體傾向于采用批判性敘事方式,揭示技術本身存在的潛在風險與系統性問題。傳統主流媒體,如《紐約時報》《華盛頓郵報》、BBC,則更注重人工智能在社會制度、倫理規范以及公共治理中的角色。他們頻繁報道涉及AI對司法、公民權利、政府決策等方面的影響,展現出一種將科技發展與社會責任緊密結合的報道取向。商業媒體,如BusinessInsider、Forbes,關注的議題更傾向于市場風險,如金融AI、商業算法操控與AI競爭倫理等問題,這些報道關注的是技術與市場力量的關系,分析其對商業環境的潛在影響。此外,以通俗傳播為導向的平臺,如DailyMail、FoxNews、Vice,則強調AI技術的倫理失控、深度偽造和心理操控等潛在威脅,往往通過引發情緒反應來吸引讀者的關注。
3.2.3新聞來源的框架視角建構作用
新聞來源不僅僅是信息的出發點,更在根本上決定了風險報道的\"視角\"設定一一即媒體選擇從何種立場、以怎樣的價值取向來觀看與呈現人工智能風險。在框架理論的語境中,這種“視角\"正是框架建構的一個環節,它不僅影響報道內容的呈現方式,也深刻塑造著新聞話語的傾向性與導向性。不同類型媒體由于其政治立場、專業背景、受眾定位及組織目標的差異,在AI風險問題上展現出不同的觀察角度與敘事邏輯:主流精英媒體往往從制度批判與公共治理角度切入,將人工智能置于法治、公民權利與社會規范的大背景中加以審視;技術媒體則更聚焦技術本身的邏輯漏洞與系統性隱患;而商業媒體則傾向于從市場競爭與經濟倫理視角,揭示AI技術在資本邏輯驅動下的濫用風險。這些差異化的“視角”不僅決定了公眾看見的是哪一面“風險”,更在無形中引導了他們如何認知、解釋并回應這些技術帶來的挑戰。因此,新聞來源作為框架中“觀看的位置”,不僅是傳播路徑的起點,更是意義建構的關鍵樞紐。
3.3AI風險報道的情緒傾向與語言策略分析
3.3.1AI風險新聞的情感傾向分析
本部分運用情感傾向分析方法,探討媒體對人工智能風險報道的態度偏向及其在議題建構中的潛在傾向性。情感分析是一種找出文本中表達觀點極性的方法,在本研究中,指的是一篇新聞文章。情感分析可分為監督學習和無監督方法[38]。監督方法使用標注數據訓練分類模型,而無監督方法基于單詞極性推斷文本情感,通常通過累計單詞極性確定整體情感傾向[39]。
根據訓練好的主題模型計算得出每個新聞文檔的主題,基于詞典的方法將其劃分為正面、中性和負面三類,以量化媒體在AI風險報道中的情緒表達模式。通過計算不同AI風險主題的情感極性分布(見圖5),揭示媒體在AI風險議題建構過程中的認知框架,為理解風險傳播中的媒體角色提供實證依據。
人工智能風險報道的情感傾向分析顯示,媒體在構建AI議題時呈現出明顯的負面偏向。絕大多數AI風險主題的負面報道數量遠超正面報道,尤其是涉及倫理安全和社會影響的議題,如AI生成虛假新聞、自動駕駛技術風險和算法歧視等,負面情感占比均超過 70% 。這種報道傾向表明,媒體更傾向于扮演\"風險警示者”的角色,通過強調AI技術可能帶來威脅和挑戰來吸引公眾關注。這種敘事框架可能會強化公眾對AI的恐懼和抵觸情緒,進而影響社會對AI技術的接受度和相關政策制定。
值得注意的是,不同AI應用領域的情感傾向存在差異。在教育、醫療等具有明確社會價值的應用場景中,雖然負面報道仍占多數,但正面報道的比例相對較高,呈現出一定的平衡性。這種差異化的報道策略可能反映了媒體對AI技術雙重性的認知一既看到其變革潛力,也警惕潛在風險。特別是在AI就業替代這樣的爭議性議題上,正負面報道數量接近平衡,表明媒體對該議題的討論更為多元。這種相對客觀的報道方式有助于讓公眾形成更為全面的認知。

從框架理論的視角來看,媒體在AI風險報道中所體現出的情緒傾向,正是其賦予新聞敘事以“色彩\"的過程。這種“色彩化\"的傳播策略,不僅為信息披上了情感基調的外衣,也直接影響了公眾對人工智能技術的風險認知與情緒共鳴。情緒傾向作為框架的一部分,并非中立反映事實,而是通過語詞選擇、敘事語氣與主題聚焦等手段被嵌入新聞文本中,構成影響受眾態度的重要機制。因此,媒體在構建人工智能風險圖景的過程中,不僅在\"報道什么”與“如何呈現”上發揮作用,更在“賦予何種情感色彩”上深刻介人,進而共同塑造了AI技術在公眾眼中的意義圖譜與社會心理基礎。
3.3.2AI風險新聞的語言特征分析
為進一步揭示AI風險報道語言表達的模糊性與謹慎性,本研究引入“模糊限制語”分析視角。模糊限制語最早由G.Lakoff提出,用于指代那些使表達變得模棱兩可的詞語,這些詞語傳達了不確定性和暫時性的觀點[40]。通過模糊限制語詞典[41](部分模糊限制語見表3),對新聞文本中相關詞匯的出現頻率及占比進行量化分析,從而評估報道語言的確定性與態度強度。模糊語占比越高,通常意味著報道態度越溫和、立場越謹慎。
各類人工智能風險主題的模糊語占比大致分布于0.041-0.057之間,表明媒體在報道AI風險事件時普遍采用了相對謹慎、模糊的措辭,以維護客觀性和避免過度煽動風險情緒(見圖6)。然而,不同風險類型之間的模糊語占比呈現出一定差異,顯示出媒體在面對具體議題時存在差異化的話語風格與報道策略。
模糊語占比最高的主題包括“金融AI算法交易與市場操控風險”“智能家居AI安全漏洞與黑客攻擊風險\"“AI司法決策偏見風險”“政務AI決策失誤與偏見風險”。此類議題往往涉及系統性風險、復雜的算法機制或高度敏感的公共治理問題,信息來源的不確定性與事件結果的難以預測性,使媒體更傾向于采用模糊性措辭以維持報道的中立性與審慎性。這種語言策略有助于在信息尚未完全明朗化的情況下減少責任歸屬的風險,并避免導致公眾過度恐慌。


相比之下,一些主題的模糊語使用頻率處于中等水平,如“AI倫理失控與責任缺失風險”“AI就業替代風險”“預測AI的社會公平風險”等。這類議題通常處于技術與社會價值沖突的交界地帶,媒體在報道中既需要表達對潛在風險的關注,又需避免絕對性判斷,因而使用適度模糊的語言以實現立場的平衡和論述的開放性。
部分主題的模糊語占比相對較低,如\"AI數據濫用與侵權風險”“安防AI誤判與傷害風險”“AI武器化與自動化戰爭風險”等。這類風險往往涉及個人隱私、生命安全與戰爭等高度敏感領域,公眾情緒易受波動,因此媒體更傾向于采用直接、強烈的表達方式,明確指出潛在危害。這種低模糊度的語言風格有助于強化報道的風險指向性,激發公眾關注和道德共鳴,也反映出媒體在某些議題上的批判立場與價值判斷。
模糊限制語作為量化新聞文本語言表達強度和態度傾向的重要指標,能夠揭示媒體在人工智能風險報道中的話語策略與風險傳播意圖。媒體在面對不同類型AI風險議題時,通過調節語言的模糊程度,展現出在風險意義建構中的策略性角色。語言模糊性的運用,不僅構成風險報道的話語風格特征之一,也反映出媒體如何在權威性與客觀性之間尋求話語平衡,從而影響公眾對人工智能技術的風險感知與社會議程的構建。
4結語
本研究以大規模新聞語料為基礎,結合LDA主題建模、情感分析與語言模糊性識別等方法,揭示出人工智能風險報道在主題構成、媒體立場、敘事策略等方面的多層次特征,旨在豐富技術傳播語境下的風險傳播研究路徑,獲得了諸多研究發現。
在“范圍”維度上,研究發現媒體對人工智能風險的報道展現出高度的議題設定功能與明顯的優先級劃分,體現了議題邊界構建的主觀能動性。通過對時間序列語料的分析可見,AI風險報道呈現出由技術層面向社會結構層面逐步過渡的演進邏輯。早期報道集中于數據隱私泄露、算法故障和自動化誤判等“工具理性\"層面的技術風險,而隨著技術應用深入,媒體關注的風險主題轉向平臺算法操控、信息繭房、算法歧視、教育倫理等“制度性\"“結構性\"社會問題。這一議題結構的演化不僅反映了技術從邊緣走向核心、從封閉走向嵌入的過程,也顯示出媒體在風險想象與公眾議程建構中的主動作為。媒體通過議題選擇、信息篩選與框架設置,不斷重構人工智能風險的“觀察邊界”,在塑造公眾關注焦點的同時,也間接參與了風險社會的規范秩序建構。
在“視角”維度上,研究表明不同類型新聞來源在人工智能風險報道中展現出多元化的立場立點與敘事取向,體現出框架理論中的“觀看位置”機制。主流綜合媒體普遍采取“宏觀制度視角”,強調技術治理、法律監管與社會責任,構建AI風險的“系統性困境\"敘事;科技專業媒體則以“技術內部視角\"解構算法機制、數據訓練與模型偏差,突出AI風險的工程可控性與結構復雜性;財經商業媒體則立足“市場視角”,將人工智能風險框定為技術資本之間的博弈與倫理沖突,如在“AI裁員”\"算法不公平\"議題中聚焦企業責任與商業合規壓力;而通俗大眾媒體更傾向于“情緒化視角”,常以感官性語言和災難化敘事放大AI的不確定性與危險性。這種立場與視角的分化不僅反映出媒體背后的話語利益訴求,也體現出AI風險在不同社會語境下的話語再生產邏輯,對公眾的認知建構和情緒感知產生深遠影響。
在“色彩\"維度上,研究表明AI風險報道整體呈現明顯的負面情緒偏向,同時在語言策略上大量使用模糊限制語,展現出報道中對不確定性與語義開放性的精細調控。尤其在涉及系統性風險、倫理爭議或治理空白的議題中,模糊語言的運用構建了一種“認知緩沖地帶”,既避免了立場過激所帶來的爭議風險,又為報道保留了解釋空間與再敘事的可能。這種語言策略與情緒傾向的協同作用,最終形塑出一套特定的\"風險話語風格”一以負面情緒牽引為導向,輔以模糊措辭平衡不確定性,以維持報道的傳播張力與社會影響力。
本研究在理論上細化并拓展了傳統框架理論,提出“范圍-視角-色彩”三維分析模型,從議題設定、立場體現到語言表達三個層面系統刻畫了媒體在技術風險報道中的框架建構路徑。相比以往對框架的宏觀描述,該模型具有更強的解釋力與操作性,豐富了框架理論在技術傳播與風險傳播語境下的適用維度。然而,仍存在若干局限與未來拓展空間:報道樣本主要來源于新聞媒體,尚未涵蓋社交媒體平臺的風險話語體系;框架理論雖然有效解釋了新聞文本的組織邏輯,但對于AI風險傳播中的受眾反饋機制、平臺算法干預機制等仍有待深入探討。
參考文獻:
[1]任嬌菡,王,初景利.智慧圖書館:從認知到實踐[J].圖書館建設,2023(6):113-121.
[2]王芳,朱學坤,劉清民,等.生成式人工智能研究進展[J].圖書與情報,2024(4):45-64.
[3]丁曉蔚,蘇新寧.基于區塊鏈可信大數據人工智能的金融安全情報分析[J].情報學報,2019,38(12):1297-1309.
[4][德]烏爾里希·貝克,約翰內斯·威爾姆斯.自由與資本主義[M].路國林,譯.杭州:浙江人民出版社,2001
[5]黃崑,徐曉婷,黎安潤澤,等.近5年圖情SSCI期刊人工智能倫理研究文獻分析與啟示[J].現代情報,2021,41(6):161-171.
[6]張濤,馬海群.智能情報分析中數據與算法風險識別模型構建研究[J].情報學報,2022,41(8):832-844.
[7]TurchinA,DenkenbrgerDClasificationof globalcatastrophicsksonectedwitharticialintellgnceJ]Aiamp;ociety,2020,35(1):147-163.
[8]王旭,程光輝,趙鴻玉,等.技術性壓力視角下智慧圖書館人工智能風險防控體系研究[J].圖書館學研究,2024(7):56-69.
[9]楊洋洋.基于人工智能生成內容的輿論風險感知與驅動機制研究[J].情報雜志,2025,44(6):149-157,137.
[10]BengioY,intonG,YaoA,etal.ManagingextremeAIisksamidrapidprogressJ].Sience,4,84(698):84845.
[11]NovelliC,CasolariF,RotoloA,etal.TkingAIrissseriously:anewaessmentmodelfortheAIAct[J]AIamp;SOCIETY,2024,39(5):2493-2497.
[12]羅梓超,李榮,劉如,等.預見性情報視角下生成式人工智能安全風險感知實踐探究[J].情報理論與實踐,2025,48(4):64-71.
[13]劉曉麗,崔文波,張濤.生成式人工智能視域下情報分析算法風險多重治理機制研究[J].圖書與情報,2024(5):77-84.
[14]蘇文成,洪舒悅,盧章平,等,潘穎.人工智能風險體系與模塊化評價指標構建實證研究[J].情報雜志,2025,44(1):136-145,154.
[15]AI,Niticialintellgeneisageetaeok(A)]Uhtp://ubssostub/t2023:100.
[16]VealeM,uiderveBorgesiusFDemystifyingthDraftEUrtificialInteligenceAct—Analysingthegood,teadndteunclear elements of the proposed approach[J].Computer Law Review International,2021,22(4):97-112.
[17]GoffmanE.Frame analysis:Anessayon the organizationof experience[M].Harvard UniversityPress,974.
[18]EntmanRM.Framing:TowardclarficationofafracturedparadigmJ].Joualofommunication993,43(4):5-8.
[19]安珊珊,梁馨月.美國新聞報道框架建構下的\"中國形象”——美國主流媒體\"一帶一路\"峰會新聞報道框架解析[J].哈爾濱工業大學學報(社會科學版),2018,20(2):82-88.
[20]Clark C,NyaupaneGP.Overtourism:Ananalysisofitscoveragein themediabyusingframingtheoryJ].TourismReviewIn-ternational,2020,24(2-3):75-90.
[21]張錦儀,張光輝.框架理論視角下自媒體科學傳播的優化路徑研究——以微信公眾號“差評\"為例[J].新聞愛好者,2023(5):39-41.
[22]李建偉,付盛凱.框架理論視角下中央與地方媒體自然災害報道對比分析——以《人民日報》《河南日報》對河南特大
暴雨報道為例[J].新聞愛好者,2022(8):25-27.
[23]ParkSYHolodyKJ,ZhangXRaceinmediacoverageofshoolshotings:Aparalelaplicationoframingtheorydttribute agenda setting[J].Journalismamp; Mass Communication Quarterly,2O12,89(3):475-494.
[24]王國華,吳丹,王戈,等.框架理論視域下的虛假新聞傳播研究——基于\"上海女孩逃離江西農村\"事件的內容分析[J]. 情報雜志,2016,35(6):56-64.
[25]侯欣潔,王燦發.框架理論視域下“涉謠報道”\"證偽\"研究——以人民網\"求真\"欄目為例[J].新聞與傳播研究,2013, 20(6):101-107,127.
[26]湯天甜.媒體報道框架與程式化的民族風險報道——基于《人民日報》民族風險事件報道的實證研究(2000-2014)[J]. 西南民族大學學報(人文社科版),2015,36(11):172-177.
[27]MsughterAE,GarbaS,RabiuAB.FramingTheoryPerspectiveofIdentityandNarrativesofConflictinNigerianMediaJ]. Indian Journal of Mass Communication and Journalism,2023,1(2):1-5.
[28]SenocakE.Aframingtheory-basedcontentanalysisofaTurkishnewspaper’scoverageofnanotechnologyJ].Jouralof Nanoparticle Research,2017,19(7):255.
[29]RoosvallA.Gaye Tuchman(1978)MakingNews:A Studyin theConstructionofRealityM]//Clasics in MediaTheoryRoutledge,2024:227-241.
[30]SlateryPeriAK,GrundyEAC,talTheaiisrepository:Acomprehensiemetareview,atabase,ndtaooyf risks fromartificial intelligence[J].arXiv preprint arXiv:2408.12622,2024.
[31]BleiDNgAJrdanMLatentDrichletlocationJ]JouralofacineLearingResearch,,3(1)99.
[32]張東鑫,張敏.圖情領域LDA主題模型應用研究進展述評[J].圖書情報知識,2022,39(6):143-157.
[33]胡澤文,韓雅蓉,王夢雅.基于LDA-Word2vec的圖書情報領域機器學習研究主題演化與熱點主題識別[J].現代情報, 2024,44(4):154-167.
[34]許海云,武華維,羅瑞,等.基于多元關系融合的科技文本主題識別方法研究[J].中國圖書館學報,2019,45(1):82-94.
[35]胡麗云,唐莉.美國科研誠信與安全政策的LDA主題模型分析[J/OL].科學學研究,1-22[2025-03-12].https:/doi.org/ 10.16192/j.cnki.1003-2053.20250227.001.
[36]LinjingC.Astudyonthetheoreticalframeworkofdiscourseanalysisofchina’sresponsetoSinoUStradefrictionsJAGE Open,2022,12(1):21582440221086656.
[37]RieisJ,deSouzaFdeMeloPV,talBreakingthenews:FirstimpressionsmatterononlinenewsC//Procdingfthein ternational AAAI conference on web and social media.2015,9(1):357-366.
[38]王芳,朱宏智,朱健剛.我國社會組織政策主題與態度演化動因研究[J].現代情報,2022,42(7):3-21.
[39]MustoC,SemeraroG,PolignanoM.A ComparisonofLexicon-basedApproaches for Sentiment Analysisof Microblog Posts[C]//DART@AI*IA.2014:59-68.
[40]LAKOFFGHdges:astudyinmeaningcriteriaandthelogicoffuzzyonceptsJ]JoualoflosopicalLogic,97,(4): 458-508.
[41]CHOIE,TANC,LEEL,etal.Hedgedetectionasalenson framing intheGMOdebates:apositionpaper[J].arXivpreprint arXiv:1206.1066,2012.
[42]陳明珠,謝群.新冠肺炎疫情外宣新聞報道的模糊限制語研究——以People's Daily為例[J].湖北經濟學院學報(人文 社會科學版),2020,17(9):100-103.
作者簡介:劉清民(1993-),男,博士研究生,研究方向:自然語言處理、政府數據治理;王芳(1970-),女,、教授,博士生導師,研究方向:知識發現、政府信息資源管理。