隨著人工智能內在功能的延伸和應用范圍的擴大,其深遠影響已對思想政治教育帶來前所未有的機遇和挑戰。智能算法作為人工智能的核心技術,以其強大的文本生成、數據處理和資源推送能力,極大地豐富教學手段與效果,為學生提供個性化的學習體驗。然而,思想政治教育應用人工智能會伴隨著認知孤島現象的出現以及數據泄露風險的增加。鑒于此,探索應對這些問題的教育供給機制和技術治理模式,對于推進人工智能在思想政治教育的科學應用具有重要意義。
雖然人工智能可以促進資源傳播和消息流通,但是容易在思想政治教育過程中引發思維認知上的問題。一方面,算法趨同強化信息繭房。人工智能通過預訓練海量數據來創新思想政治教育方法,然而,其缺乏自我意識和主體意向,僅依據預設的算法和程序進行數據處理、知識生產和智能交互。在此過程中,算法傾向于根據用戶偏好推送信息,導致師生陷入信息繭房,難以接觸到多元化的觀點和信息。另一方面,算法鎖定效應導致認知惰性。雖然智能算法能夠優化教育流程,提高教育內容的針對性和吸引力,但過度依賴算法會導致師生喪失自主思考和學習的能力。這種“方法反噬目的”的現象,即教育手段的進步反而阻礙教育目標的達成,削弱師生在思辨學習和思維訓練上的自主性和創造性。長此以往,將導致師生在知識學習和信息處理上產生惰性,影響其批判性思維和創造力的發展。
隨著人工智能的廣泛應用,不可避免地殘留大量的文本數據和個人隱私。由于智能算法的“技術黑箱”存在,會引發數據泄露風險。其一,算法主導存在數據隱患風險。由于人工智能缺乏足夠的事實判別和價值判斷能力,數據源中的虛假或篡改信息可能未經篩選即進入數據處理流程,導致數據失真。這不僅影響教育質量和效果,還會誤導學生,造成認知上的錯誤認知。若算法設計或安全措施存在漏洞,則會給商業資本或外部勢力可乘之機。他們會利用系統漏洞竊取私密數據或植入錯誤言論,實施技術控制和價值輸出。其二,多源異構數據的關聯處理引發隱私放大效應。智能算法能夠自動收集、關聯和分析師生的文字、語言和圖像信息,形成高度關聯的數據網絡。在此過程中,師生的個人隱私會無意間被揭露。由于算法學習和智能決策的非透明性,這些數據存在被濫用于商業目標的風險。值得注意的是,隨著人工智能技術的不斷進步,學生隱私的關聯和推導可能會逐漸超出可控范圍,進一步加劇非預期的隱私泄露風險。
為應對算法趨同所衍生的信息繭房效應,教師應積極應用數據分析和智能算法工具,洞察學生的需求偏好。基于此,實行反向教育內容供給策略,精心引入與學生既有認知和價值觀念有所差異的教育資源,從而激發學生的好奇心與求知欲。一方面,將人工智能與算法素養納入課程體系之中,通過開設“算法倫理與信息素養”課程,培養學生對算法推送內容的理性認識,讓他們意識到信息來源的局限性,并提升內容獲取和甄別能力。同時,組織多樣化的學術講座、實踐活動及跨學科交流,鼓勵學生跳出固有思維框架,深入思考、廣泛探討,逐步形成自己獨立的見解和判斷。另一方面,更新教育資源供給庫,積極引入前沿的學術成果、多元文化視角及跨學科知識。通過智能推薦系統與專家人工篩選的雙重機制,實現個性化學習路徑與多樣化知識庫的深度融合,為學生打造一個既精準又廣闊的學習空間。在這個空間里,學生能夠自由穿梭于各類信息之間,接觸并理解不同主題、不同視角的知識內容,從而有效拓寬視野,強化其獨立思考與綜合判斷的能力,從根本上防范并克服信息繭房帶來的負面影響。
面對算法主導的運作機制,不僅要充分發揮人工審核的作用,將智能算法及其運算邏輯置于可控范圍,防止其在思想政治教育領域進行資本邏輯范圍內的技術控制、話語操縱和價值輸出的行為,還要對所在應用領域進行系統性和全面性的審查和把關,對于明顯帶有錯誤和不正傾向的數據、圖像和視頻,及時進行警告、制止和否決。更重要的是,須將主流意識形態、道德價值的人文精神、倫理要求和原則底線轉化為計算機代碼,形成“規范算法”。其中包括開發技術系統的源代碼、編碼法律規制的計算機程序以及建立數學表達模型,以此實現規范的技術化約束,確保主流價值引領算法的設計和使用。通過采集算法行為數據,設置效果評估指標,運用統計、分析、預測、防控和異常檢測系統,對算法的狀態數據和決策結果進行全過程監測和計算檢驗,識別算法失控或被濫用的風險。一旦識別到算法失誤、運算出錯、數據泄露等問題,應立即進行預警提示、干預處理、修復防護,以確保個人信息和隱私數據的完整性與安全性,實現監管與治理的智能化、規范化。
(作者單位:廣西師范大學馬克思主義學院)