[摘 要] 運用人工智能技術(shù)保障網(wǎng)絡(luò)意識形態(tài)安全是打贏網(wǎng)絡(luò)意識形態(tài)斗爭的必然要求,對建設(shè)具有強大凝聚力和引領(lǐng)力的社會主義意識形態(tài)具有重要意義。人工智能賦能網(wǎng)絡(luò)意識形態(tài)安全的內(nèi)在邏輯可以從技術(shù)研發(fā)、技術(shù)運用和技術(shù)監(jiān)管三個層面展開。在人工智能技術(shù)研發(fā)層面:堅持以人為本原則,滿足受眾獲取主流意識形態(tài)內(nèi)容的需要;堅持公開公正原則,縮小受眾接收主流意識形態(tài)的貧富差距;堅持道德責任原則,劃定網(wǎng)絡(luò)主流意識形態(tài)安全的倫理底線。在人工智能技術(shù)運用層面:精準識別反主流意識形態(tài)內(nèi)容,防止削減主流意識形態(tài)認同力;有效預測網(wǎng)絡(luò)意識形態(tài)風險走向,避免消解主流意識形態(tài)引領(lǐng)力;助力創(chuàng)新主流意識形態(tài)傳播形式,切實提升主流意識形態(tài)傳播力。在人工智能技術(shù)監(jiān)管層面:明晰人工智能監(jiān)管責任主體,為網(wǎng)絡(luò)意識形態(tài)安全強化主導力量;確立人工智能監(jiān)管道德規(guī)范,為網(wǎng)絡(luò)意識形態(tài)安全扎緊倫理藩籬;健全人工智能監(jiān)管法律法規(guī),為網(wǎng)絡(luò)意識形態(tài)安全筑牢法治屏障。
[關(guān)鍵詞] 人工智能;網(wǎng)絡(luò)意識形態(tài)安全;主流意識形態(tài);傳播力;倫理規(guī)范
[DOI編號] 10.14180/j.cnki.1004-0544.2023.09.005
[中圖分類號] D64" " " " " " " " " [文獻標識碼] A" " " " " " [文章編號] 1004-0544(2023)09-0046-08
基金項目:國家社科基金2019年度一般項目“改革開放以來高校思想政治理論課教材內(nèi)容體系演進邏輯及基本經(jīng)驗研究”(19BKS170)暨同名中央高校基本科研業(yè)務(wù)費項目(JAG200037)。
作者簡介:曹洪軍(1968—),男,中國礦業(yè)大學馬克思主義學院副院長、教授、博士生導師;孔晶晶(1993—),女,中國礦業(yè)大學馬克思主義學院思想政治教育專業(yè)博士生。
馬克思指出:“如果從觀念上來考察,那么一定的意識形式的解體足以使整個時代覆滅。”[1](p170)維護意識形態(tài)安全對于確保馬克思主義的指導地位、維護國家的長治久安具有重要意義。黨的二十大報告明確指出,要“牢牢掌握黨對意識形態(tài)工作領(lǐng)導權(quán),全面落實意識形態(tài)工作責任制……加強全媒體傳播體系建設(shè),塑造主流輿論新格局”[2](p43-44)。當下,網(wǎng)絡(luò)空間已經(jīng)成為各種勢力和思潮交鋒的重要陣地,一旦處理不好,網(wǎng)絡(luò)安全甚至會成為我國意識形態(tài)安全的“阿喀琉斯之踵”。為此,習近平總書記特別指出,要“更加重視運用人工智能、互聯(lián)網(wǎng)、大數(shù)據(jù)等現(xiàn)代信息技術(shù)手段提升治理能力和治理現(xiàn)代化水平”[3](p115)。筆者將從技術(shù)研發(fā)、技術(shù)運用和技術(shù)監(jiān)管三個層面入手,深入探究人工智能賦能網(wǎng)絡(luò)意識形態(tài)安全的內(nèi)在邏輯,以期為更好發(fā)揮人工智能在社會主義意識形態(tài)建設(shè)中的作用提供參考。
一、確立人工智能賦能網(wǎng)絡(luò)意識形態(tài)安全的研發(fā)原則
雖然人工智能技術(shù)本身并不一定直接體現(xiàn)人的價值觀,但其本質(zhì)是對人的思維的模擬、延伸和擴展,其設(shè)計動機和價值指向取決于技術(shù)研發(fā)者的道德決策和價值理念。因此,在研發(fā)之初我們就必須考慮人工智能倫理問題,確立人工智能賦能網(wǎng)絡(luò)意識形態(tài)安全的價值指向。
(一)堅持以人為本原則:滿足受眾獲取主流意識形態(tài)內(nèi)容的需要
馬克思指出,“人是全部人類活動和全部人類關(guān)系的本質(zhì)、基礎(chǔ)”[4](p118)。任何社會活動都應以人為本,人工智能技術(shù)的研發(fā)也不例外。“以人為本”是人工智能技術(shù)研發(fā)應當遵循的核心原則,也是統(tǒng)領(lǐng)各個層級倫理原則的基點和最高倫理原則。當前學界圍繞人工智能的“以人為本”原則展開了一系列討論,得出了以下結(jié)論:其一,在倫理價值取向方面,人工智能的設(shè)計、研發(fā)必須尊重人的主體性,維護人的完整人格和基本尊嚴,確保人的主導性地位;其二,在技術(shù)的研發(fā)方面,應始終圍繞人的需求展開,根據(jù)人的現(xiàn)實需求提供更合乎人性的產(chǎn)品和信息,防止人工智能朝著漠視人的需求甚至威脅人類安全的方向發(fā)展;其三,針對技術(shù)研發(fā)中的風險,應發(fā)揮人的主動性,主動辨別人工智能技術(shù)中潛藏的意識形態(tài)風險,將其扼殺于萌芽狀態(tài)之中,而不是聽之任之。人工智能技術(shù)雖然在當今時代不斷發(fā)展,功能日趨強大,在工作效率和精準度方面優(yōu)于人類,但在情感、創(chuàng)造力和發(fā)展力等方面始終無法與人類相提并論。只有人才有能力開展社會實踐活動,維護網(wǎng)絡(luò)意識形態(tài)安全以及人與技術(shù)之間的倫理道德關(guān)系。因此,人工智能無法取代人的主體性地位,且其研發(fā)和設(shè)計始終應將實現(xiàn)人的全面發(fā)展作為價值追求,任何對人類產(chǎn)生危害的人工智能都不應被研發(fā)和使用。
傳統(tǒng)意義上的主流意識形態(tài)傳播,更重視“傳者本位”,側(cè)重于深耕內(nèi)容,往往采取“一刀切”模式,而忽略了受眾的真實需求。在人工智能技術(shù)的研發(fā)中堅持“以人為本”原則,能夠以用戶需求為先,將用戶需求與社會主流文化、價值導向以及法律制度深度結(jié)合。立足于“善智”的設(shè)計動機能夠?qū)⒅髁饕庾R形態(tài)內(nèi)容熔鑄于技術(shù)之中,通過構(gòu)建技術(shù)的意識形態(tài)框架調(diào)節(jié)人的思想和行為,從而滿足人們對主流意識形態(tài)的現(xiàn)實需要。人工智能時代,受眾對于信息的需求具有差異化的特點:在內(nèi)容篇幅上,有的受眾喜歡提綱挈領(lǐng)式的簡要信息,有的受眾則偏愛內(nèi)容詳盡的理論分析;在語言特點上,有的受眾偏好學理性、邏輯性強的文字,有的受眾則更喜歡通俗、接地氣、充斥著最新網(wǎng)絡(luò)流行語的文章。在這樣的背景下,遵循“以人為本”原則的人工智能能夠?qū)⒅髁饕庾R形態(tài)內(nèi)容的傳播與受眾個體差異相結(jié)合,既能保障技術(shù)與意識形態(tài)的雙向安全,實現(xiàn)技術(shù)與意識形態(tài)的共生共贏,又能滿足人們對主流意識形態(tài)內(nèi)容的差異化需求。人工智能中的機器學習指向的是憑借計算機模擬或再現(xiàn)人類學習活動:“機器學習致力于研究如何通過計算的手段,利用經(jīng)驗改善系統(tǒng)自身的性能,其根本任務(wù)是數(shù)據(jù)的智能分析與建模,進而從數(shù)據(jù)里面發(fā)掘出有用的價值。”[5](p95)簡言之,機器能夠依托大數(shù)據(jù)技術(shù)或以往的經(jīng)驗模仿人的學習能力,在探索中揭示規(guī)律,并依據(jù)規(guī)律對未來進行推測。可利用機器學習分析對比識別到的受眾特征,形成不同的聚類特征,進而借助算法推薦技術(shù),將符合受眾特征的主流意識形態(tài)內(nèi)容進行分眾化傳播。長此以往,人們對主流意識形態(tài)的興趣將日益濃厚,并在潛移默化中提高對于主流意識形態(tài)的認同度。
(二)堅持公開公正原則:消減用戶接收主流意識形態(tài)的貧富差距
“公正”被亞里士多德視為“德性之首”[6](p130),在當下是“以人為本”原則得以踐行的基本價值遵循,能夠維系人與技術(shù)之間的道德關(guān)系。人工智能研發(fā)中的“公開公正”原則,是人們在信息共享方面的道德期待,是在網(wǎng)絡(luò)空間維護合法權(quán)益、避免網(wǎng)絡(luò)糾紛的基本準則,是網(wǎng)絡(luò)意識形態(tài)安全的重要保障。2021年發(fā)布的《新一代人工智能倫理規(guī)范》指出:在人工智能的研發(fā)規(guī)范中,既要增強安全透明,提升透明性、可解釋性、可理解性、可靠性和可控性,也要避免可能存在的算法和數(shù)據(jù)的偏見歧視,努力實現(xiàn)人工智能系統(tǒng)的普惠性、公平性和非歧視性。遵循公開公正的基本原則,一方面可以在一定程度上減少網(wǎng)絡(luò)中威脅意識形態(tài)安全的各種不平等、不公正的現(xiàn)象,避免因個人矛盾引發(fā)網(wǎng)絡(luò)意識形態(tài)風險;另一方面能夠避免對特定的個人或群體產(chǎn)生技術(shù)歧視和技術(shù)偏見,確保每個用戶都被公平對待,有利于維護網(wǎng)絡(luò)空間的公平正義,構(gòu)建和諧穩(wěn)定的網(wǎng)絡(luò)意識形態(tài)環(huán)境。
在網(wǎng)絡(luò)意識形態(tài)領(lǐng)域中,對人工智能進行“公正的制度設(shè)計”具有重要意義。一方面,“公正的制度設(shè)計”能夠破除人工智能“黑箱”的模糊性,保障信息的公開、透明,有利于提升用戶對人工智能的信任度,打破信息傳播的物理界限,并開辟新的話語表達時空場域。包括“數(shù)字貧困者”等弱勢群體在內(nèi)的每一個人都應擁有通過人工智能接觸主流意識形態(tài)內(nèi)容的機會,這有助于維護“數(shù)字貧困者”信息平等的合法權(quán)益,有利于縮小主流意識形態(tài)內(nèi)容獲取方面的“貧富差距”,從而實現(xiàn)信息傳播的“共同富裕”。另一方面,“公正的制度設(shè)計”可以有效減少對數(shù)據(jù)以及算法的濫用和誤用現(xiàn)象,防止算法的不道德或不合法運用。“公正的制度設(shè)計”可以防止因算法權(quán)力的濫用而形成的“信息繭房”“回音室效應”“過濾氣泡”等負面效應,及其引發(fā)的決策失誤和社會不公等現(xiàn)象。它也可以有效遏制“資本的邏輯”的侵略擴張與橫行霸道,規(guī)避人工智能被不法分子和境外反動勢力掌握的風險。它還可以防止技術(shù)邏輯消解人的主體性思維,避免由不良輿論引發(fā)的網(wǎng)絡(luò)意識形態(tài)風險。
(三)堅持道德責任原則:劃定網(wǎng)絡(luò)主流意識形態(tài)安全的倫理底線
“道德責任”是人工智能研發(fā)中的重要倫理原則,也是“以人為本”原則的邏輯延伸。研發(fā)出安全可靠的人工智能不僅需要精湛的技術(shù)水平,還需要道德的引領(lǐng)和規(guī)制。著名技術(shù)批判理論家安德魯·芬伯格將關(guān)于技術(shù)本質(zhì)的理論界定為兩類——工具論和實體論。工具論認為,工具技術(shù)是價值中立的,不負載任何價值;而實體論則認為,技術(shù)是獨立于人而存在的實體,具有價值負載性。一些技術(shù)哲學家沿用了實體論的觀點,認為技術(shù)人工物能被賦予道德調(diào)節(jié)的價值。拉圖爾認為,應當將倫理道德熔鑄于技術(shù)設(shè)計的過程中,通過構(gòu)建技術(shù)的道德框架調(diào)節(jié)人的行為。維貝克認為,技術(shù)作為人與世界的中介具有道德調(diào)節(jié)的作用,應在技術(shù)研發(fā)的具體實踐中嵌入抽象的倫理因素。密勒認為,技術(shù)研發(fā)者可將道德規(guī)范內(nèi)嵌于技術(shù)之中,為解決道德問題提供實質(zhì)性的幫助。福格倡導用計算機產(chǎn)品影響和調(diào)節(jié)人的行為。總之,將道德理念嵌入技術(shù)的研發(fā)環(huán)節(jié),發(fā)揮技術(shù)對人的行為和決策的道德引導作用,是學術(shù)界的共識。
在人工智能技術(shù)研發(fā)中以道德責任原則賦能網(wǎng)絡(luò)意識形態(tài)安全,應圍繞“良芯”和“良心”兩個維度展開。“良芯”意味著要為“機芯”嵌入人工智能道德算法,立足于“善智”的設(shè)計動機賦予人工智能以主流價值導向的“腳本”,使其成為有道德的技術(shù)。在人工智能的研發(fā)設(shè)計中,應融入人類的價值觀念和倫理思想,賦予技術(shù)以與人類相類似的責任感、羞恥感、同理心等道德情感,為其注入“善”的元素,用道德準則來審視與引導技術(shù),使其遵循為人類服務(wù)以及保障人類安全的倫理準則,確保技術(shù)行為符合主流意識形態(tài)的價值導向,避免機器脫離人的控制引發(fā)異化風險。如此,人工智能在篩選信息時,能夠依據(jù)道德評判標準,精準識別并剔除反主流意識形態(tài)的異質(zhì)性信息,加大主流意識形態(tài)內(nèi)容的供給力度,維護網(wǎng)絡(luò)意識形態(tài)安全。“良心”意味著人工智能研發(fā)人員需具備深厚的道德修養(yǎng),避免非道德的惡意設(shè)計,使人工智能技術(shù)的研發(fā)能夠為人類帶來福祉,造福于社會。人工智能設(shè)計和研發(fā)的主體是人,研發(fā)者的價值觀念和行為準則直接影響技術(shù)及其相關(guān)產(chǎn)品的發(fā)展走向,研發(fā)者肩負著不容推辭的道義責任。在研發(fā)中堅持道德責任原則,有助于界定人工智能的技術(shù)邊界,保證研發(fā)不僭越道德底線,確保人工智能發(fā)展的正確方向,并利用人工智能為人們設(shè)定主流意識形態(tài)情境,保障網(wǎng)絡(luò)意識形態(tài)安全。
二、明確人工智能賦能網(wǎng)絡(luò)意識形態(tài)安全的作用維度
人工智能可以依托自身的各項技術(shù)完成自我學習和自我調(diào)適,從而在網(wǎng)絡(luò)意識形態(tài)安全中發(fā)揮作用。借助人工智能精準識別反主流意識形態(tài)的內(nèi)容,有效預測網(wǎng)絡(luò)意識形態(tài)發(fā)展走向,主動創(chuàng)新主流意識形態(tài)傳播形式,有助于防止削弱主流意識形態(tài)認同力,避免消解主流意識形態(tài)引領(lǐng)力,切實提升主流意識形態(tài)傳播力。
(一)精準識別:避免反主流意識形態(tài)內(nèi)容的擴散
“無人不網(wǎng)”的時代已經(jīng)來臨,媒體格局、信息傳播、輿論生態(tài)都發(fā)生了巨大改變,每個人都可以在網(wǎng)絡(luò)平臺中自由表達個人見解和訴求,不同社會思潮的交鋒和意識形態(tài)斗爭也在所難免。彌散在網(wǎng)絡(luò)空間的反主流意識形態(tài)呈現(xiàn)出“泛文化”的趨勢,在層層偽裝下不遺余力地宣揚拜金、庸俗、利己等非道德的價值觀念。它以現(xiàn)實利益為誘餌,利用網(wǎng)絡(luò)特點介入社會熱點事件,煽動部分價值定力弱的網(wǎng)絡(luò)用戶,“通過無限溯源、無限放大、線索演繹等途徑形成廣泛的社會動員”[7],弱化主流意識形態(tài)的認同力。傳統(tǒng)的意識形態(tài)安全治理主要依靠實證數(shù)據(jù),具有相對局限性和滯后性,無法應對網(wǎng)絡(luò)空間中復雜嚴峻的形勢。
面對這種情況,人工智能的自然語言處理和計算機視覺技術(shù)能夠精準篩選和識別出風格迥異的反主流意識形態(tài)內(nèi)容,在提升人工智能篩選網(wǎng)絡(luò)信息的實效性中發(fā)揮重要作用,使隱蔽性極強的反主流意識形態(tài)內(nèi)容無所遁形。其一,自然語言處理包含自然語言理解和自然語言生成兩個部分,研究的是實現(xiàn)人與計算機之間采用自然語言相互作用的方法。自然語言理解是指機器具備理解包括語音和文本在內(nèi)的人類自然語言的能力。通過對文本中話語的解析,計算機不僅能夠理解話語的表面意思,還可以辨別、解析、判定話語中蘊藏的深層次含義與內(nèi)在的價值傾向。自然語言生成指計算機像人一樣具有表達和寫作功能,能夠依據(jù)關(guān)鍵信息自動生成高質(zhì)量的文本,將文本的內(nèi)在表述轉(zhuǎn)化為自然語言,把非語言的格式數(shù)據(jù)轉(zhuǎn)化為人類可以理解的語言格式,從而縮小人與機器之間的溝通鴻溝。據(jù)此,可建立反主流意識形態(tài)話語的語義特征庫,發(fā)揮自然語言處理技術(shù)的文本分類、情感分析功能,搜集、整理、歸納、分析出反主流意識形態(tài)話語所具備的特征,及時更新語義特征庫的內(nèi)容,實時將網(wǎng)絡(luò)中出現(xiàn)的話語內(nèi)容與語義特征庫中的樣本內(nèi)容進行智能比對,由此判斷網(wǎng)絡(luò)信息所具備的價值傾向,及時準確辨析和處理網(wǎng)絡(luò)空間中的反主流意識形態(tài)話語。其二,計算機視覺技術(shù)指計算機具備和人類視覺系統(tǒng)相等同的功能,具有觀察和識別的能力,能夠快速捕捉、整合、解析網(wǎng)絡(luò)空間中傳播的圖形、動畫、視頻等,并利用識別和測量的能力進行圖形處理。據(jù)此,可建立反主流意識形態(tài)圖像和視頻的模式庫,發(fā)揮計算機視覺的圖像識別、圖像搜索、圖像分類功能,深入挖掘潛藏的不良圖像和視頻,實時將網(wǎng)絡(luò)空間中的圖像和視頻與模式庫中的數(shù)據(jù)進行比對,計算出兩者的相似程度,從而在短時間內(nèi)篩選出反主流意識形態(tài)的內(nèi)容,避免其擴散傳播。總而言之,以強算力、智能算法為核心的人工智能,能夠?qū)A啃畔⑦M行資源整合、數(shù)據(jù)分析和動態(tài)監(jiān)測,挖掘其中蘊藏的規(guī)律,預判網(wǎng)絡(luò)空間中意識形態(tài)的發(fā)展動向,精準識別網(wǎng)絡(luò)中的反主流意識形態(tài)內(nèi)容,并將其從信息資源庫中剔除。因此,我們應采用“以技術(shù)反制技術(shù)”的思路,充分發(fā)揮人工智能的技術(shù)優(yōu)勢,實現(xiàn)技術(shù)與人的同向發(fā)力,在宣揚主流意識形態(tài)話語的同時監(jiān)測和過濾異質(zhì)化意識形態(tài)內(nèi)容,扮演好主流意識形態(tài)“安全衛(wèi)士”的角色,為提升主流意識形態(tài)的認同力提供強大的技術(shù)支持。
(二)有效預測:判斷網(wǎng)絡(luò)意識形態(tài)的風險走向
網(wǎng)絡(luò)空間存在著過度娛樂化、碎片化乃至低俗化信息隱匿傳播的問題,在潛移默化中沖擊著用戶的價值理念,引發(fā)用戶的非理性情緒,導致輿情“噴涌”,影響網(wǎng)絡(luò)意識形態(tài)安全的風險走向,暴露出一系列新的問題。其一,輿論風向難以掌控。受資本邏輯的影響,網(wǎng)絡(luò)平臺在信息分發(fā)中遵循“流量為王”的原則。部分平臺為了獲得更多點擊量,將奪人眼球的虛假信息推送給受眾,在此過程中人工智能加快了虛假信息的流動,引發(fā)“病毒式傳播”,為網(wǎng)絡(luò)輿論增加了不可控因素。其二,意識形態(tài)操縱風險。近年來,國際局勢緊張,資本主義意識形態(tài)與社會主義意識形態(tài)的較量日益復雜化和尖銳化,境外敵對分子插手意識形態(tài)論爭,意圖破壞我國國家安全的陰謀昭然若揭。部分資本主義國家以智能算法為武器,借助網(wǎng)絡(luò)的隱蔽性和交互性暗中搜集我國情報,有組織、有目的地培養(yǎng)“社會公知”,公開發(fā)表各種反主流意識形態(tài)的錯誤言論。這些國家還利用深度偽造技術(shù)編織謊言,強勢地向我國發(fā)起文化入侵和價值觀滲透,使各種影響意識形態(tài)安全的危險因素滲透進網(wǎng)絡(luò)空間,企圖將意識形態(tài)領(lǐng)域殖民地化。其三,網(wǎng)絡(luò)意識形態(tài)風險預警監(jiān)測不足。網(wǎng)絡(luò)用戶的言論往往具有主觀色彩,容易被錯誤的思想和觀點誘導,“泛文化”“偽文化”等“意識形態(tài)泡沫”搭乘人工智能技術(shù)的“便車”,呈現(xiàn)出指數(shù)級裂變的傳播態(tài)勢,致使網(wǎng)絡(luò)意識形態(tài)風險無法被預警監(jiān)測。許多苗頭性、傾向性的問題難以在第一時間被解決和處理,網(wǎng)絡(luò)意識形態(tài)風險走向的掌握難度升級。維護網(wǎng)絡(luò)意識形態(tài)安全,不僅要具備解決問題的能力,更要具備預防問題的意識和防范風險的能力。當前,先問題后解決是我國網(wǎng)絡(luò)空間治理中存在的困境之一。
對此,人工智能中的機器學習有望化被動解決為主動預判,預測意識形態(tài)風險,判斷其發(fā)展走向,將影響網(wǎng)絡(luò)意識形態(tài)安全的因素從“無形無跡”轉(zhuǎn)變?yōu)椤坝雄E可循”。感知風險發(fā)展態(tài)勢是維護網(wǎng)絡(luò)意識形態(tài)安全最基本、最基礎(chǔ)的工作,正如習近平總書記所言:“維護網(wǎng)絡(luò)安全,首先要知道風險在哪里,是什么樣的風險,什么時候發(fā)生風險,正所謂‘聰者聽于無聲,明者見于未形’。”[8](p93)機器學習助力網(wǎng)絡(luò)意識形態(tài)風險防控主要體現(xiàn)在以下幾點:其一,全面掌握網(wǎng)絡(luò)中的輿論風向。機器學習能夠?qū)崟r監(jiān)測用戶閱讀、點擊、互動等數(shù)據(jù),從網(wǎng)絡(luò)流行語、符號等隱喻信息中快速敏銳地察覺到用戶的“敏感點”,構(gòu)建出多維立體的分析模型,及時掌握網(wǎng)絡(luò)熱點,全天候全方位研判網(wǎng)絡(luò)用戶的思想動向和網(wǎng)絡(luò)輿論風向的變化。其二,有效監(jiān)測網(wǎng)絡(luò)中隱匿的意識形態(tài)話語風險。機器學習能夠整理歸納并分析網(wǎng)絡(luò)中關(guān)于熱門問題的討論內(nèi)容和狀態(tài),深入挖掘網(wǎng)絡(luò)話語背后的隱藏含義,快速判定發(fā)布者的真實意圖和價值傾向,并據(jù)此預測可能會發(fā)生的意識形態(tài)風險,最大限度地消除威脅網(wǎng)絡(luò)意識形態(tài)安全的風險因素。其三,及時化解意識形態(tài)風險。在預測可能出現(xiàn)的意識形態(tài)風險之后,人工智能可以根據(jù)監(jiān)測的結(jié)果將風險細分為不同等級,依據(jù)等級發(fā)出不同的預警信號。如此,工作人員便可根據(jù)風險的大小開展具有前瞻性和針對性的風險化解工作,實現(xiàn)對網(wǎng)絡(luò)意識形態(tài)風險的靶向治理,提升網(wǎng)絡(luò)意識形態(tài)安全治理的精度和效度。
(三)助力創(chuàng)新:豐富主流意識形態(tài)的傳播形式
馬克思指出:“理論在一個國家實現(xiàn)的程度,總是取決于理論滿足這個國家的需要的程度。”[9](p11)隨著時代進步和社會發(fā)展,具備嚴肅性、崇高性特點的主流意識形態(tài),必須跟隨時代的腳步不斷創(chuàng)新傳播方式,在傳統(tǒng)的宏大敘事之外加入接地氣的敘述方式,提升自身對于大眾的吸引力。傳統(tǒng)意義上的主流意識形態(tài)創(chuàng)新主要聚焦于深化理論內(nèi)容的科學性,更為關(guān)注的是意識形態(tài)理論的真理性及其實效性,而對主流意識形態(tài)傳播形式的創(chuàng)新有所忽視。在人工智能時代,意識形態(tài)理論與現(xiàn)實之間的關(guān)系包含復雜的主體認同問題。這提醒我們,不僅要強調(diào)創(chuàng)新主流意識形態(tài)的內(nèi)容之維,也要注重創(chuàng)新主流意識形態(tài)的傳播之維。換言之,即便意識形態(tài)理論本身蘊藏豐富的真理性和科學性,倘若被缺乏吸引力的傳播形式所包裹,其鋒芒就會被掩蓋,從而無法發(fā)揮出強大的凝聚力和引領(lǐng)力。為此,我們除了要繼續(xù)在主流意識形態(tài)理論內(nèi)容上下功夫,還要在其傳播形式上做文章,豐富主流意識形態(tài)內(nèi)容的敘事方式,將抽象宏大的理論轉(zhuǎn)化為符合人們生活實際的具象感知,滿足不同情景下用戶的差異化需求。維護網(wǎng)絡(luò)意識形態(tài)安全不能只著眼于防御系統(tǒng)的構(gòu)建,更要主動進擊,化被動為主動。
人工智能打破了傳統(tǒng)信息傳播的單向度模式,改變了傳統(tǒng)信息二維平面式的呈現(xiàn)方式,為用戶營造出三維沉浸式的體驗氛圍,有利于創(chuàng)新主流意識形態(tài)的文化形象,豐富傳播方式,擴大傳播范圍。借助人工智能精準把握用戶需求,為用戶智能化推薦“私人定制”的內(nèi)容,針對性、策略性地引導輿論走向,能夠切實提升主流意識形態(tài)的傳播力。其一,利用數(shù)據(jù)挖掘技術(shù)拓展主流意識形態(tài)的傳播廣度。數(shù)據(jù)挖掘技術(shù)能從多元海量數(shù)據(jù)中挖掘出隱含的、具有潛在價值的信息,有助于在繁雜的網(wǎng)絡(luò)信息中定位蘊含主流價值導向的信息,并結(jié)合受眾喜好,利用算法推薦技術(shù)精準推送契合受眾需求的內(nèi)容,強化人工智能對契合主流意識形態(tài)內(nèi)容的篩選和推送功能。其二,利用AI語音合成、虛擬形象生成和虛擬形象驅(qū)動技術(shù)的共同作用提升主流意識形態(tài)的傳播效度。可通過虛擬主播(如曾亮相熒屏的“康曉輝”“小小撒”“朱小訊”等AI主播)輸出主流意識形態(tài)傳播的內(nèi)容,為受眾提供立體化、具象式的沉浸學習場景,吸引受眾眼球,激發(fā)受眾的探索欲望。其三,利用算法推薦增加主流意識形態(tài)的傳播深度。算法推薦是為解決特定問題而被輸入機器的一系列步驟,它能夠基于內(nèi)容、協(xié)同、效用、知識、關(guān)聯(lián)的規(guī)則,綜合考量用戶的個性特征、信息偏好、心理特點,實現(xiàn)對用戶的“畫像”,進而推薦符合用戶個人特征的個性化內(nèi)容。可通過算法推薦系統(tǒng)的編寫、設(shè)計和把控,設(shè)計出一套包含量化、質(zhì)化評價指標且適用于算法推薦的信息價值觀評價體系,使其在審核信息的過程中有效評估內(nèi)容的意識形態(tài)屬性,并優(yōu)先推送具備主流意識形態(tài)屬性的正能量內(nèi)容,剔除消極的異質(zhì)性內(nèi)容。
三、完善人工智能賦能網(wǎng)絡(luò)意識形態(tài)安全的監(jiān)管制度
人工智能的技術(shù)賦權(quán)與約束機制之間的不對等可能會導致技術(shù)失控,誘發(fā)“技術(shù)利維坦”風險。為了避免“技術(shù)利維坦”的出現(xiàn),必須明晰人工智能監(jiān)管責任主體,健全人工智能監(jiān)管法律法規(guī),確立人工智能監(jiān)管道德規(guī)范,更好地發(fā)揮人工智能賦能網(wǎng)絡(luò)意識形態(tài)安全的作用,以確保人工智能朝著安全、健康、可控的方向發(fā)展。
(一)明晰人工智能監(jiān)管責任主體,為網(wǎng)絡(luò)意識形態(tài)安全強化主導力量
算法推薦技術(shù)所具備的隱蔽性、專業(yè)性以及模糊性等特點與人的主觀情感、認知偏見、價值選擇的結(jié)合,使人工智能的運用可能產(chǎn)生歧視、“殺熟”和誤用風險,給網(wǎng)絡(luò)意識形態(tài)安全帶來巨大的挑戰(zhàn)。此外,人工智能具有多元化的治理主體和監(jiān)管責任主體,各方面都面臨著未知,難以用單純的線性思維實現(xiàn)對人工智能的靶向治理和監(jiān)督。為了充分發(fā)揮人工智能賦能網(wǎng)絡(luò)意識形態(tài)安全的重要作用,政府部門作為人工智能監(jiān)管的主力軍,應制定切合實際的對策以解決技術(shù)帶來的意識形態(tài)風險,最終構(gòu)建出以政府為主導、多元主體協(xié)同的監(jiān)管格局,做到舉旗定向,為網(wǎng)絡(luò)意識形態(tài)安全指明路徑。
其一,充分發(fā)揮政府的管理和協(xié)調(diào)作用,加強對人工智能領(lǐng)域的引導和規(guī)范。政府要發(fā)揮主動性,為人工智能的創(chuàng)新應用提供指導,聚焦數(shù)據(jù)管理、共享開放、數(shù)據(jù)應用、授權(quán)許可、風險管控、安全和隱私保護等方面,規(guī)范人工智能的算法推薦范式,探索多主體協(xié)同監(jiān)管機制。從管理學、社會學、心理學、哲學、倫理學等學科展開多角度的闡釋和研究,提升人工智能的可解釋性、透明性和安全性,為網(wǎng)絡(luò)意識形態(tài)安全打造可信任的人工智能。其二,劃分企業(yè)應承擔的職責范圍,明確企業(yè)的監(jiān)管責任和義務(wù)。政府應提高企業(yè)在運用人工智能技術(shù)過程中的規(guī)制要求,增強企業(yè)運用和監(jiān)督人工智能技術(shù)的自覺性,確保人工智能賦能網(wǎng)絡(luò)意識形態(tài)安全的合法性、合理性和正當性,加強人工智能技術(shù)的可控性,避免誘發(fā)網(wǎng)絡(luò)意識形態(tài)危機。此外,企業(yè)要提升自身的監(jiān)管能力,通過發(fā)現(xiàn)、識別、評估和解決風險等環(huán)節(jié),在人工智能出現(xiàn)異常情況時快速采取干預措施,縮短意識形態(tài)風險從發(fā)現(xiàn)到解決的時間。其三,個人作為人工智能的使用者,應通過合理使用人工智能的產(chǎn)品和服務(wù)來監(jiān)管人工智能。個人應避免對人工智能的誤用濫用和違規(guī)惡用,避免使用人工智能造成對他人合法權(quán)益的侵害。此外,個人也可以積極參與人工智能倫理治理實踐,主動向監(jiān)管機構(gòu)反饋人工智能產(chǎn)品與服務(wù)中出現(xiàn)的技術(shù)安全漏洞、政策法規(guī)真空、監(jiān)管滯后等問題,協(xié)助監(jiān)管機構(gòu)發(fā)現(xiàn)問題、解決問題。
(二)確立人工智能監(jiān)管道德規(guī)范,為網(wǎng)絡(luò)意識形態(tài)安全扎緊倫理藩籬
法律法規(guī)的制定要基于現(xiàn)實生活,且立法過程較為復雜,具有一定的滯后性,而道德規(guī)范具有一定的預設(shè)性和先導性。因此,要明確人工智能監(jiān)管的道德規(guī)范,引導和規(guī)范相關(guān)人員的思想和行為,為網(wǎng)絡(luò)意識形態(tài)安全扎緊倫理藩籬。“道德判斷的基礎(chǔ)能夠而且應當是建立在合乎理性的道德原則以及健全的經(jīng)過細致推理的論據(jù)之上的。”[10](p21)可信賴的人工智能必然要具備這樣一種道德觀念:技術(shù)是為人所用的工具,而非傷害人類的武器;技術(shù)是增進人類福祉的手段,而非社會動蕩的誘因。為此,《新一代人工智能發(fā)展規(guī)劃》指出,要“加強人工智能相關(guān)法律、倫理和社會問題研究,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架”[11](p37)。由此可見,對人工智能的監(jiān)管而言,“德治”和“法治”同樣重要。就目前形勢而言,以道德規(guī)范約束人工智能是可行且必要的。在法律法規(guī)完備、成熟之前,應當制定科學合理的倫理規(guī)范體系對人工智能的應用加以引導,避免處于道德底線之下、法律紅線之上的“灰色行為”以及惡性事件的發(fā)生。系統(tǒng)的人工智能道德規(guī)范是對法律規(guī)范的必要補充,是維護網(wǎng)絡(luò)意識形態(tài)安全的必由之路。
其一,就技術(shù)研發(fā)者而言,應為其制定道德規(guī)范和行為準則,自上而下地完善人工智能監(jiān)管的倫理道德規(guī)范。人工智能的運行有特定的技術(shù)邏輯和運行規(guī)則,技術(shù)自身不具備彌補價值缺陷的功能,這就要求技術(shù)研發(fā)者在算法設(shè)計中適時嵌入主流價值觀。因此,要通過開展道德講堂、文化講堂等活動,引導人工智能技術(shù)研發(fā)者形成內(nèi)在的道德自覺,促使其自覺將主流意識形態(tài)內(nèi)容轉(zhuǎn)變?yōu)榧夹g(shù)語言,并運用于技術(shù)的研發(fā)之中,確保其研發(fā)的技術(shù)符合道德規(guī)范和社會公共利益。其二,就網(wǎng)絡(luò)用戶而言,要發(fā)揮道德調(diào)節(jié)功能,完善與行為相關(guān)的評價機制。應建立網(wǎng)絡(luò)道德規(guī)范體系及社會輿論評價機制,并以此作為評價網(wǎng)絡(luò)用戶行為的準則,激勵網(wǎng)絡(luò)用戶的正向行為,使其能夠遵循正確使用技術(shù)工具、進行健康的網(wǎng)絡(luò)交往、不傳播違法犯罪信息等基本行為規(guī)范。其三,就相關(guān)從業(yè)者而言,應加強倫理監(jiān)督和管理,規(guī)范人工智能的使用界限和范圍。可制定行業(yè)準則,利用教育引導、行為養(yǎng)成、制度保障等方式,將人工智能道德規(guī)范內(nèi)化為相關(guān)從業(yè)人員心靈深處的價值準則,增強平臺和相關(guān)互聯(lián)網(wǎng)企業(yè)的技術(shù)倫理意識,確保從業(yè)人員具備自覺維護主流意識形態(tài)安全的良心。
(三)健全人工智能監(jiān)管法律法規(guī),為網(wǎng)絡(luò)意識形態(tài)安全筑牢法治屏障
人工智能在賦能網(wǎng)絡(luò)意識形態(tài)的同時,可能對法律道德、公平正義層面產(chǎn)生破壞性影響,誘發(fā)網(wǎng)絡(luò)意識形態(tài)風險,因此必須加強對人工智能的法治化管理。網(wǎng)絡(luò)空間不是法外之地,針對人工智能技術(shù)運行的內(nèi)在缺陷引發(fā)的網(wǎng)絡(luò)意識形態(tài)安全問題,要以加強頂層設(shè)計為切入點,提供法律制度的硬性保障,織密法治之網(wǎng),為網(wǎng)絡(luò)意識形態(tài)安全提供堅實的制度支撐。黨的十八屆三中全會審議通過的《中共中央關(guān)于全面深化改革若干重大問題的決定》指出:“堅持積極利用、科學發(fā)展、依法管理、確保安全的方針,加大依法管理網(wǎng)絡(luò)力度,加快完善互聯(lián)網(wǎng)管理領(lǐng)導體制,確保國家網(wǎng)絡(luò)和信息安全。”[12](p84)法律法規(guī)的制定是維護網(wǎng)絡(luò)數(shù)據(jù)安全的前提,加強對人工智能的法治化管理,可以在制度層面有效遏制網(wǎng)絡(luò)意識形態(tài)風險的生成。為防止技術(shù)的反噬和異化,我國已建立網(wǎng)絡(luò)法治體系的基本框架:在關(guān)鍵信息基礎(chǔ)設(shè)施保護層面,出臺了《中華人民共和國網(wǎng)絡(luò)安全法》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》等一系列法律法規(guī);在互聯(lián)網(wǎng)信息內(nèi)容管理層面,出臺了《互聯(lián)網(wǎng)新聞信息服務(wù)管理規(guī)定》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》《互聯(lián)網(wǎng)用戶公眾賬號信息服務(wù)管理規(guī)定》等。盡管如此,關(guān)于人工智能的網(wǎng)絡(luò)立法仍有待進一步加強和完善。2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》指出,要為人工智能建立完善的法律法規(guī)體系[11](p36)。加強對人工智能的法治化管理,有助于促使網(wǎng)絡(luò)這一“最大變量”轉(zhuǎn)變?yōu)橐庾R形態(tài)安全的“最大增量”。
其一,應加強對人工智能技術(shù)運用的立法工作,填補與彌合技術(shù)規(guī)制的空白與間隙,確保人工智能技術(shù)運用的立場與主流意識形態(tài)保持一致。加強立法可以有效打擊和處罰運用人工智能竊取用戶數(shù)據(jù)和隱私、濫用技術(shù)權(quán)力的行為,確保在合法范圍內(nèi)運用人工智能分析、判斷和預測網(wǎng)絡(luò)用戶的行為。習近平總書記明確指出:“要抓緊制定立法規(guī)劃,完善互聯(lián)網(wǎng)信息內(nèi)容管理、關(guān)鍵信息基礎(chǔ)設(shè)施保護等法律法規(guī),依法治理網(wǎng)絡(luò)空間,維護公民合法權(quán)益。”[8](p34)這為加強人工智能技術(shù)運用的立法工作提供了方向遵循。應為互聯(lián)網(wǎng)企業(yè)、網(wǎng)絡(luò)平臺、相關(guān)從業(yè)者和網(wǎng)絡(luò)用戶制定出具有系統(tǒng)性、專項性的具體法律規(guī)范,明晰人工智能技術(shù)運用的法律界限,保證人工智能在法律允許的范圍內(nèi)最大程度發(fā)揮賦能網(wǎng)絡(luò)意識形態(tài)安全的效用。其二,完善網(wǎng)絡(luò)意識形態(tài)安全法治保障體系。應把人工智能與網(wǎng)絡(luò)意識形態(tài)安全的規(guī)律相結(jié)合,以網(wǎng)絡(luò)空間主權(quán)原則、共同治理原則、網(wǎng)絡(luò)安全與信息化發(fā)展并重原則為指引,構(gòu)建出科學合理、內(nèi)容完善、契合人性且適用性強的網(wǎng)絡(luò)意識形態(tài)安全法治體系,確保人工智能在作用于網(wǎng)絡(luò)意識形態(tài)安全的過程中始終沿著正確的軌道發(fā)展。其三,建立系統(tǒng)完備的網(wǎng)絡(luò)法治教育制度體系。“法律要發(fā)揮作用,需要全社會信仰法律。”[13](p721)可通過開展網(wǎng)絡(luò)法治教育課堂、經(jīng)典案例講解、網(wǎng)絡(luò)法律知識有獎問答等活動,有效促使網(wǎng)絡(luò)用戶形成懂法、守法、用法的意識,促進虛擬人格與現(xiàn)實人格的統(tǒng)一,使用戶在虛擬世界中也能成為理性人,為網(wǎng)絡(luò)空間意識形態(tài)安全創(chuàng)設(shè)良好的法治環(huán)境。
參考文獻:
[1]馬克思恩格斯文集:第8卷[M].北京:人民出版社,2009.
[2]習近平.高舉中國特色社會主義偉大旗幟 為全面建設(shè)社會主義現(xiàn)代化國家而團結(jié)奮斗——在中國共產(chǎn)黨第二十次全國代表大會上的報告[M].北京:人民出版社,2022.
[3]習近平談治國理政:第3卷[M].北京:外文出版社,2020.
[4]馬克思恩格斯全集:第2卷[M].北京:人民出版社,1957.
[5]李德毅.人工智能導論[M].北京:中國科學技術(shù)出版社,2018.
[6][古希臘]亞里士多德.尼各馬可倫理學[M].廖申白,譯.北京:商務(wù)印書館,2003.
[7]閻國華,韓碩.熱點事件網(wǎng)絡(luò)評議衍生意識形態(tài)風險的路徑與防范[J].中國礦業(yè)大學學報(社會科學版),2022(1).
[8]習近平關(guān)于網(wǎng)絡(luò)強國論述摘編[M].北京:中央文獻出版社,2021.
[9]馬克思恩格斯選集:第1卷[M].北京:人民出版社,2012.
[10][美]理查德·A.斯皮內(nèi)洛.世紀道德:信息技術(shù)的倫理方面[M].劉鋼,譯.北京:中央編譯出版社,1999.
[11]新一代人工智能發(fā)展規(guī)劃[M].北京:人民出版社,2017.
[12]習近平談治國理政:第1卷[M].北京:外文出版社,2018.
[13]十八大以來重要文獻選編:上[M].北京:中央文獻出版社,2014.
責任編輯" "羅雨澤