◎朱 艷 劉銘宸
(東北農業大學,黑龍江 哈爾濱 150006)
“網絡文化安全是國家文化安全的最主要形態之一,是國家安全諸多變量中的最重要因素[1]。”在AI 出現之前,傳統的網絡文化監測主要通過計算機數據挖掘技術,運用特定的計算機程序搜集互聯網上的信息,經過文本分析技術,提取文本中的關鍵信息,并與數據庫中的信息進行匹配,來判斷是否存在網絡文化安全問題。
這一種監測模式依賴于存有已知威脅和相關關鍵詞的數據庫。把抓取的數據與存有已知威脅和相關關鍵詞的數據庫進行對比。當找到匹配項時,系統會觸發警報。雖然這種方法對已知威脅有效,但對新的和未知的威脅不適用。此外,這一種模式還可能會產生大量誤報,一旦合法流量恰好與已知威脅具有相似的特征,就可能被標記為惡意的,很多時候需要依賴于人工判斷,由專職或兼職人員承擔起網絡文化安全問題的巡查與監測的責任,通過對重點網站、重點論壇進行日常監測,及時發現網絡文化安全問題。
隨著我國互聯網產業的快速發展,網絡空間的信息數量呈現爆發態勢。目前,我國網民數量位居世界第一,而且每年以千萬級的數目增長。網絡空間公眾意見數量與密度的爆發式增長,使得通過傳統方法來監測網絡文化安全的模式越來越難以為繼。
當下,AI 算法介入網絡文化安全風險預警主要體現在借助數據挖掘、聚合與清洗,通過技術模型計算風險概率和發生路徑,分析判斷網絡文化安全風險是否出現。相比傳統的網絡文化預警方法,基于AI 的解決方案在網絡文化預警中具有明顯優勢。
人工智能不僅具備精密計算能力和強悍算法,更是可以24 小時持續提供網絡信息的核查、定位、追蹤、監管和治理,徹底改變了網絡安全問題的處理方式。例如在網絡意識形態風險防控中,人工智能技術能夠全天候收集、整理、歸類數據,并借助語義、語音和視覺識別技術對內容進行有效識別,通過數據模型深度分析,精準得出反主流意識形態的話語、圖像及視頻的特征,從而在第一時間防止日益隱喻化的反主流意識內容擴散和傳播,利用算法實時監測識別出潛在網絡違法者的應用不勝枚舉。
首先,AI 算法技術的運用有效提高了分析網絡信息的效率。傳統的網絡文化安全監測中,安全分析師經常面臨著篩選大量日志、警報和報告以識別潛在威脅的挑戰的問題。面對當前的互聯網規模,傳統的網絡監管模式顯得費力耗時。相比之下,AI 算法可以快速處理和分析大量數據,有效地識別和優先處理潛在風險。例如監測網絡文化安全事件時,通過“不良網絡文化形成模型”可以對不良網絡文化類型進行有效識別,并通過對網絡內容的情感分析與流量變化,追蹤輿情變化,利用大數據模型來判斷群體情感,來判斷某一網絡群體的情感傾向,及時對相關內容進行限流、刪帖,減少相關信息在網絡上傳播,阻絕不良網絡文化的擴散與蔓延,減輕甚至避免不良網絡文化對于現實的影響。
其次,在準確性方面,AI 利用先進的機器學習算法構建語料模型,可以更準確識別出網絡文化安全威脅。傳統的網絡文化安全監測依賴存有已知威脅信息和關鍵詞數據庫來識別威脅,很難識別隱喻化的威脅信息和新興網絡文化安全信息,AI 則顯著提高了準確性。例如2021 年,日本學者用機器學習的方法,對一款社交類游戲進行分析,在不監測聊天內容的情況下,僅基于聊天次數、聊天對象、聊天時間等基本信息,就能較為精準地識別出潛在網絡違法者,并預測出違法行為的大概時間[2]。
隨著數字化程度不斷加深,網絡文化安全已經不再只包含網絡空間內的“言論”,更包含更廣意義上的文化概念、文化現象與文化安全。
近年來,隨著大數據和人工智能的發展,國內外有不少研究人員利用文本分析法進行用戶身心健康評估。如Meta的自殺預警系統使用人工智能技術對海量數據進行梳理,尋找有自殺傾向的人。
在國內,僅2023 年第二季度,抖音就利用人工智能技術,發現并報警救助安撫用戶773 人,處理慫恿、教唆他人實施極端行為的不當視頻2.7 萬條。在弱勢群體方面,日均對未成年用戶過濾內容20 萬條,處置80 多萬條對中老年人用戶騙取互動的違規視頻,發出近7 萬次風險提醒。知乎平臺的算法機器人“瓦力”能在0.3 秒內識別判斷內容是否為不友善、答非所問、陰陽怪氣等多種需被折疊的答案[3]。
在網絡文學領域,AI 技術已經深度嵌入網絡文學生態,不僅在內容審核方面深度運用于網絡文化安全的監測,在文本審校上,AI 技術可以輔助編輯迅速檢索文本,實現網絡文學文稿的批量審核、修改和冗余章節的刪除等任務,有效提升了網絡文學的作品質量。
除了可以預測網絡攻擊威脅、提高危機事件的預測與管理能力,AI 算法在保障金融安全、提高金融監管有效性和精準度、推進社會治理智能化建設、提供有效網絡安全防護手段等方面均有不俗建樹。
盡管目前AI 大模型在網絡安全領域的應用面臨在很多挑戰,但毋庸置疑的是,AI 助力網絡文化安全風險預警邁向智能化安全的新階段已經開啟。未來5 至10 年,網絡安全市場將成為技術創新的戰場,智能化、數據隱私保護、多維度防御等趨勢將推動網絡文化安全預警領域向更高的水平邁進,為數字世界的安全提供更加堅實的保障。
2021 年12 月31 日,中央網信辦印發《互聯網信息服務算法推薦管理規定》,文中明確提出了算法推薦服務機制對于網絡文化安全的責任。任何技術的應用都有其運營的必要場景,隨著治理客體、治理對象發生變化,在法律賦權的情況下,AI 算法干預和介入網絡文化風險預警的技術條件已經成熟。筆者認為,若要更好地發揮AI 算法在網絡文化安全預警領域的作用,需要在監管主體、監管內容、監管方式三方面進行發力。
實踐證明,水平再高的硬件技術也不敵機構重疊、職能交叉的管理“盲區”。近年來,我國不斷推動網絡文化安全治理工作,目前具有網絡文化安全監管職責的部門就有十幾家之多,但是職責交叉和重疊問題依舊突出,這大大降低了網絡文化安全治理的效率。建設跨平臺、跨部門的統一預警平臺,可以在很大程度上填補這一漏洞,更好地發揮人工智能技術的治理效能。
當下,國內網絡文化安全監測數據孤島問題較為突出,表現在各網絡文化安全監管平臺之間數據互通不暢,跨平臺數據流動流程繁瑣。作為網絡信息傳播監管的絕對主體,相關部門應努力推動建立能夠促進人工智能正向效能釋放的跨平臺、跨部門的統一預警平臺,這不僅有利于各部門掌握涉及部門本身的網絡文化安全信息,有利于更好地掌握涉及本部門的網絡安全問題情況,還可以避免各部門各自為戰,為進一步加強治理提供大數據支持。以文化產品審批為例,如能構建涉及多部門的全國統一的審批平臺,不僅能建立權力清單,加快審批流程,持續推進文化領域“放管服”改革,大大減少文化產品審批時間,更有利于網絡文化的繁榮。
網絡安全問題發展快、影響范圍廣,要想充分發揮人工智能技術賦能網絡安全預警的作用,需要各主體共同參與。不妨借鑒西方國家的做法,建立政府、企業、公民多方參與的行業自律協會,對于新變化、新問題,及時通過行會公約進行約束,充分發揮行業自律協會的作用,建立起溝通政府、互聯網企業、個人三方的橋梁。構建相關主體相互配合、協同聯動的有效運行機制,及時處理網絡文化安全領域的新問題、新變化,保障人工智能賦能網絡文化安全預警的平穩、有序、長效發展。
2020 年3 月1 日,《互聯網信息內容生態治理規定》正式實施,我國初步確立了黨委領導、政府管理、企業履責、社會監督、網民自律的多主體協同參與網絡安全治理體系。《國家網絡空間安全戰略》《互聯網信息服務管理辦法》等法律法規不斷出臺,網絡安全法律體系逐漸完善[4]。與此同時,立法質量上仍顯不足,并存在一定程度上的滯后性。有學者認為,2021 年頒布的《個人信息保護法》雖然因日趨嚴重的個人信息泄露而產生,然而它更多著力于規制信息服務者對用戶索要信息公開許可的情況,對人工智能領域產生的問題缺乏進一步的研究[5]。這在一定程度上反映出網絡安全法規滯后的現實縮影。
此外,由于多部門分別具有管理網絡文化安全問題的職責,制定相關政策的背景與目的存在較大差異,這使得部分法律法規的標準存在一定差異,甚至出現了自相矛盾的情況,影響了立法效能的有效釋放。網絡文化安全的相關標準特別是事先審查標準的不一致和界定模糊,不僅導致同一款產品需要重復審查、修改,更有甚者一些平臺為了免責,審查時層層加碼,從重從嚴,導致大量網絡文化內容無法通過審查,這種情況在醫療科普等領域尤為明顯。這不僅打擊了網民創作積極性,更極大地制約了網絡文化的生產和繁榮。
在具體實踐中,審查標準的不一致和界定模糊的問題在敏感詞設置方面表現較為突出。雖然對于敏感內容的界定有總體的指導精神,但涉及的具體詞語詞匯需要從上至下的各級平臺自行掌握。為了免責,各類平臺紛紛采取了更加嚴苛的監管方式,一封了之,一禁了之,矯枉過正的情況屢見不鮮。因此,作為監管主體,政府部門要在現有網絡信息傳播領域法律法規的基礎上,根據形勢發展需要,研究出臺人工智能技術應用于網絡信息傳播領域的專項法規、規章,明確邊界和規范,從而切實引導網絡平臺正確使用人工智能技術。
人工智能在網絡安全治理方面擁有廣闊發展前景,但同時也存在技術風險,如可生成文本技術帶來的虛假信息泛濫、算法推薦技術加劇認知偏倚、信息繭房等問題日益得到關注。近年來,個人信息泄漏事故頻發更是引發社會不安,讓人們對人工智能的信任度大打折扣。算法偏見是影響網絡文化安全治理的重要問題,有學者認為:“算法并非完全價值中立的技術,算法偏見是社會偏見在人工智能時代的產物。算法偏見不僅背離了公平公正的新聞職業規范、挑戰了用戶知情權和信息選擇權,還會解構社會共識,引發輿論風險等[5]。”
算法推薦技術具有一定的意識形態屬性,影響著網絡空間內的信息把關機制、信息傳播秩序和輿論場格局,加劇了傳播學理論視角下的“把關人離場”效應、“信息繭房”效應和“沉默的螺旋”效應,導致網絡主流意識形態面臨主導力式微、凝聚力式微和引領力式微的風險。
從個體權利看,算法技術可能侵犯個體的話語權利,形成技術對主體社會生活的僭越。從技術監管看,“算法推薦的利用若不受監管,將會對主流意識形態傳播、網絡信息環境和用戶的價值觀念帶來沖擊”[6]。從信息把關出發,算法推薦下,把關人缺位,使得信息的客觀真實性、價值導向性無法得到保證。從輿論導向看,算法推薦缺乏對信息內容的適宜度和尺度的嚴格規范,導致缺乏正確價值導向的垃圾資訊充斥網絡空間,破壞網絡輿論生態。
為了化解算法偏見下的傳播壁壘,一方面,需要優化算法推薦技術本身,改進單一化的信息模型,豐富算法模型信息挑選的維度,在滿足個性化需求的同時,增加多樣信息和公共議題的供給,以促進社會多元主體之間的對話。加強主流價值觀對技術的牽引,反對在技術把關上單向度地遵循“唯熱度”論的資本邏輯,注重加強鑒定內容的專業性、權威性和真實性等,凸顯技術把關的公共性、價值性。創新應用人工智能、云計算、大數據等多樣化的信息技術,精準溯源用戶個性“信息繭房”的成因,發掘當下用戶“繭房”中缺失但又十分重要的信息內容。
另一方面,要建立“人機協同”的把關機制,要防范單向度技術把關模式下的風險,在優化技術把關的基礎上,加強人工審核信息,尤其加強對信息內容意識形態導向性審核,發揮人工把關的價值糾偏作用,保證信息分發的真實性、有效性和導向性,強化主流價值守望。以人為本,優化算法推薦模式,建構“人機共融”的預警體系,會帶來以往無法實現的網絡防御的新水平。
AI 無法輕松搞定所有網絡風險,但在有效提高現有網絡安全和數據保護程序方面潛力無限。根據Marketsand Markets的報告,全球網絡安全中的AI 市場規模預計將從2020 年的88 億美元增長到2026 年的382 億美元,預測期間的復合年增長率為23.3%。2023 年10 月,人工智能國際治理領域發生的最重要事件之一,是在第三屆“一帶一路”國際合作高峰論壇上,習近平主席宣布中方《全球人工智能治理倡議》提出的以人為本、智能向善等原則。在推動人工智能技術服務于網絡文化安全治理的實踐中,只有堅持以人為本,充分尊重個人信息知情權、同意權,保護個人隱私權,保障充分自主決策權等,才能更好地發揮人工智能的技術優勢,以管理工具的變革推動網絡文化安全的提效,使公眾充分享受到數字化與人工智能帶來的便利。
未來,隨著社會數字化程度進一步加深,人工智能技術效能在網絡空間中進一步釋放,美國等西方國家進一步升級對我國技術封鎖,如何應對“技術邊緣化”帶來的國家網絡文化安全風險,以及敵對勢力濫用通用人工智能技術對我國展開滲透等安全風險,成為整個國家和社會深入研究的新課題。為此,需要更加重視人工智能賦能文化安全的基礎理論研究,強化研判人工智能發展趨勢,以供決策者完善國家網絡文化安全新防護機制的頂層設計。只有如此,才能在國際競爭中掌握主動權,加強對不斷演變的網絡安全威脅的防御能力。