摘 要:生成式人工智能建立在大語言模型和文本編碼基礎上,依賴數(shù)據(jù)訓練和算法技術,其中算法技術、數(shù)據(jù)模型、價值傾向等因素會影響信息傳播的科學性,容易出現(xiàn)內(nèi)容錯構、信息泛濫和算法操縱等問題,引起網(wǎng)絡空間輿情與倫理失范,危及我國主流意識形態(tài)安全。我們要優(yōu)化算法技術邏輯、完善立法監(jiān)管機制和推動我國人工智能自主創(chuàng)新,有效地防范生成式人工智能對網(wǎng)絡空間意識形態(tài)領域構成的風險與挑戰(zhàn),穩(wěn)固網(wǎng)絡空間政治生態(tài)穩(wěn)定。
關鍵詞:生成式人工智能;意識形態(tài)風險;網(wǎng)絡安全治理
[中圖分類號]G641 [文獻標識碼]A [文章編號]1674-9618(2024)05-0058-05
*基金項目:本文系國家社科基金重大研究專項“網(wǎng)絡空間統(tǒng)一戰(zhàn)線鑄牢中華民族共同體意識研究”(項目編號:21VMZ008)階段性成果。
以生成式人工智能為代表的新技術便利了人們的生活,拓寬了人們的知識邊界,但也對網(wǎng)絡意識形態(tài)安全、數(shù)據(jù)安全、個人信息安全等方面構成極大挑戰(zhàn)。在網(wǎng)絡空間意識形態(tài)話語權爭奪日趨白熱化的時代背景下,生成式人工智能將成為引導公眾輿論的工具和手段。揭示生成式人工智能的意識形態(tài)風險表征,剖析其意識形態(tài)風險成因以及探究其意識形態(tài)風險的治理路徑,對于我國網(wǎng)絡安全治理具有重大意義。
一、生成式人工智能的意識形態(tài)風險表征
生成式人工智能的數(shù)據(jù)來源可靠性和真實性在很大程度上決定了其內(nèi)容的質(zhì)量。當前,資本主導下的信息技術帶有強烈的政治屬性,其偽中立性使得生成式人工智能的訓練數(shù)據(jù)存在數(shù)據(jù)污染和算法偏見等問題,容易引發(fā)內(nèi)容錯構弱化意識形態(tài)認知效果、信息泛濫擠壓意識形態(tài)傳播空間、算法技術操縱意識形態(tài)傳達導向等意識形態(tài)風險。
(一) 內(nèi)容錯構弱化意識形態(tài)認知效果
生成式人工智能具有文本整合、生成的強大功能,但距離真正實現(xiàn)精準地理解物理世界仍有一定的差距。生成式人工智能可能存在模擬失范、錯判錯構的風險,其內(nèi)容錯構具體表現(xiàn)為自然語言處理存在偏見、生成內(nèi)容操縱網(wǎng)絡輿論和人機關系異化等問題,引發(fā)弱化主流意識形態(tài)的消極影響。
首先,生成式人工智能的自然語言處理存在偏見性和歧視性。“生成式人工智能依靠大規(guī)模的數(shù)據(jù)訓練,當數(shù)據(jù)訓練的樣本采集不充足時模型訓練會產(chǎn)生歧視傾向。”[1]生成式人工智能在自主學習中不可避免地含有錯誤陳述、事實歪曲的數(shù)據(jù),進而在自主決策中造成內(nèi)容錯構。在網(wǎng)絡空間中信息傳播的高度交互,促使虛假信息、錯誤材料加速蔓延和擴散,容易誤導人工智能技術使用者的認知。
其次,生成式人工智能操縱網(wǎng)絡輿論導向。生成式人工智能通過細化精準畫像、預判輿論導向和設置意識形態(tài)議題等方式,傳播涉及大量意識形態(tài)的內(nèi)容。意識形態(tài)話語權爭奪“既有人與人之間的爭奪,也有人與被人操縱的生成式人工智能程序之間的爭奪”。[2]網(wǎng)絡空間具有虛擬性、匿名性的特點,生成式人工智能通過控制大量的虛假賬號,不斷地傳遞含有引導性、虛構性的信息,并在特定的時間點或敏感事件中進行“集中爆發(fā)”,擴大不實言論的傳播范圍,進而引導和操縱網(wǎng)絡輿論導向。
再次,生成式人工智能導致人機關系異化。生成式人工智能可以模擬、延伸和拓展人的行為,滿足其個性化需求,機器表現(xiàn)出接近物理世界的思考,形成“沉浸式”的人機互動模式。使用者在人機互動中強化對錯誤內(nèi)容的認知,消解、弱化主流意識形態(tài)的權威,這在一定程度上加劇了意識形態(tài)的分裂和科技倫理的撕裂。“虛”“實”混淆的信息過于逼真、生動、連貫,容易造成受眾在虛擬空間和物理世界之間的認知混淆,使之無法在真實的物理世界中找到依據(jù)和支撐,進而誤導人們對想象空間和真實世界的感知。同時,受眾對人工智能技術的依賴性增加,對生成的內(nèi)容信任度增加,將會減弱其探求物理世界規(guī)律的積極性和主動性。
(二) 信息泛濫擠壓意識形態(tài)傳播空間
生成式人工智能具有行為智能和思維智能的特點,通過深化學習作出自主決策,表現(xiàn)為“機器思考”。在生成式人工智能下,每個人都是信息的集成者和傳播者,信息生產(chǎn)的成本降低、效率提高,這加劇網(wǎng)絡空間信息冗余繁雜、真假難辨。在網(wǎng)絡空間中,部分受眾的信息素養(yǎng)較低,責任感和道德感淡化,他們肆意創(chuàng)作和傳播含有惡意造謠、顛倒是非的內(nèi)容,擠壓正確、有效信息的傳播空間。
首先,冗余信息壓制有效信息。生成式人工智能具有使用門檻低、個體自由度高的特點,降低了信息創(chuàng)作、傳播門檻和成本,加之受眾的信息素養(yǎng)參差不齊,辨識信息真?zhèn)蔚哪芰^低,這在一定程度上加劇了網(wǎng)絡空間虛假信息的傳播范圍和力度。同時,在網(wǎng)絡空間信息傳播中,大部分受眾對娛樂化信息的關注度高于對主流意識形態(tài)內(nèi)容的關注度。網(wǎng)絡空間中存在大量無效、失真、泛娛樂化的內(nèi)容,引發(fā)信息傳播中的“劣幣驅(qū)逐良幣”現(xiàn)象,致使主流意識形態(tài)的傳播空間受到擠壓。
其次,廣泛傳播的內(nèi)容取代正確信息。根據(jù)“沉默的螺旋”理論,不同個體的意見在少量的“聲音”中不斷趨于沉默,進而追隨主導性、廣泛性的意見。生成式人工智能可以通過人為操縱、控制輿論導向,生成誤導性、錯誤性的內(nèi)容,形成“強有力”的意見以“說服”大眾。
再次,信息傳播內(nèi)容含有意識形態(tài)信息導向。“傳授一種空洞的語言是不可能的,傳授語言的過程本質(zhì)上就是傳授意識形態(tài)的過程。”[3]互聯(lián)網(wǎng)已經(jīng)成為意識形態(tài)斗爭的主陣地、主戰(zhàn)場、最前沿。當前,發(fā)達國家的生成式人工智能研發(fā)能力較強,在信息傳播的博弈中占據(jù)技術優(yōu)勢。在分析國際政治局面、政治人物形象、政治事件視角等方面,生成式人工智能所獲取的數(shù)據(jù)是基于西方話語體系進行篩選和分析,其生成內(nèi)容在潛移默化中對受眾的政治立場、價值傾向產(chǎn)生一定的影響,不利于我國主流意識形態(tài)安全。
(三) 算法技術操縱意識形態(tài)傳達導向
數(shù)據(jù)洞察的解讀往往負載著各種價值觀。生成式人工智能存在算法模型不透明、算法推薦歧視和價值取向偏離等問題,敵對勢力可能操縱網(wǎng)絡空間意識形態(tài)傳達導向,進而影響國際傳播態(tài)勢和政權斗爭。
首先,算法模型存在不透明性。生成式人工智能通過算法技術和數(shù)據(jù)訓練將輸入的文本材料轉化為文本和視覺相結合的呈現(xiàn)方式。然而,受眾不了解其數(shù)據(jù)來源、分析方法及程序運行機制,因此難以洞悉生成式人工智能內(nèi)容輸出的決策邏輯,這造成視覺模擬過程和結果的事實解釋性缺失的結果,使受眾受到錯誤信息的影響。在使用生成式人工智能的過程中,受眾發(fā)現(xiàn)生成的內(nèi)容存在錯誤信息,但是難以對生成式人工智能的算法程序進行修改和反饋。
其次,算法推薦存在歧視性。生成式人工智能對受眾的活動數(shù)據(jù)進行追蹤、抓取和分析,精準地繪制用戶畫像,洞悉用戶偏好,并有針對性地向用戶推送含有意識形態(tài)內(nèi)容的信息,進一步引導受眾的認知。在算法技術加持下,大量同質(zhì)化的內(nèi)容不斷加深受眾對相關信息的印象,形成“信息繭房”“信息窄化”等現(xiàn)象,它們潛移默化地影響受眾的理性判斷和政治行為,結果導致意識形態(tài)話語權爭奪形勢復雜化。
最后,算法設計存在價值偏見。“人工智能技術如同刀槍,武器本身沒有善惡之分,關鍵取決于使用它的人想實現(xiàn)怎樣的目的。”[4]生成式人工智能的算法技術是人為進行程序設計和運行的,其政治立場和文化背景會滲透到算法機制中,生成的內(nèi)容不可避免帶有一定的價值傾向和政治態(tài)度。在網(wǎng)絡空間的國際傳播場域中,掌握生成式人工智能核心技術的西方國家會贏得更多話語權,控制網(wǎng)絡空間的傳播格局和輿論生態(tài)。新的技術鴻溝拉大網(wǎng)絡空間意識形態(tài)話語權差距,逐步形成不利于我國網(wǎng)絡空間意識形態(tài)安全的國際傳播態(tài)勢。
二、生成式人工智能的意識形態(tài)風險成因
目前,西方國家在人工智能技術研發(fā)上相對領先,掌握技術霸權。當前在網(wǎng)絡空間中蔓延和傳播的含有西方意識形態(tài)偏見的內(nèi)容,在生成式人工智能的“技術加工”下,可能產(chǎn)生“算法黑箱”、信息數(shù)據(jù)來源不明、文化產(chǎn)品價值偏見等意識形態(tài)風險。
(一) 算法層面:訓練建構存在“算法黑箱”
生成式人工智能在網(wǎng)絡空間中介入意識形態(tài)傳播,不斷地影響和重塑國際傳播態(tài)勢,這種現(xiàn)象被稱為“算法利維坦”。隨著生成式人工智能技術的發(fā)展,不同行業(yè)、領域?qū)ζ湟蕾囆詴絹碓綇姡祟惿鐣⒊蔀樗惴夹g與意識形態(tài)高度糅合的社會,生成式人工智能掌握的數(shù)據(jù)也會隨之不斷增加,這將對社會各方面發(fā)展帶來巨大的影響。生成式人工智能存在“黑箱效應”,不僅體現(xiàn)在其數(shù)據(jù)收集和分析的不透明性,還體現(xiàn)在不同國家、行業(yè)和領域之間技術發(fā)展的不均衡性。
一方面,數(shù)據(jù)訓練過程不透明。生成式人工智能的自主決策和判斷是否有正確的客觀指標和倫理道德等參數(shù),目前仍存在爭議。生成式人工智能的自我學習系統(tǒng)具有不可預測性和不確定性,難以揭示和分析算法模型是否存在算法失當和失靈的問題。人工智能的深度偽造識別技術參差不齊,監(jiān)測內(nèi)容的真實性、準確性仍有待提高,這容易混淆受眾的認知,消解主流意識形態(tài)的話語權威。
另一方面,不同國家技術發(fā)展不均衡。“算法的社會本質(zhì)就是一種權力。”[5]不同國家由于經(jīng)濟實力的差異,在關鍵核心技術、人工智能技術研發(fā)投入的資金成本、人力成本上都存在較大差距。不均衡的技術發(fā)展容易形成“算法黑箱”,從而引起國際政治局勢不穩(wěn)定,沖擊意識形態(tài)話語權的建構,甚至引發(fā)群體性沖突事件。當前,在人工智能技術發(fā)展上,美國領先中國、歐盟和英國,成為頂尖AI模型的主要來源地,其牢牢掌握著網(wǎng)絡空間話語的主導權。在網(wǎng)絡空間意識形態(tài)話語權爭奪的背景下,“算法黑箱”摻雜著地緣政治和話語權擴張,侵擾著我國網(wǎng)絡空間主流意識形態(tài)安全防線。
(二) 數(shù)據(jù)層面:信息數(shù)據(jù)來源不全面
“人工智能高度依賴大規(guī)模數(shù)據(jù)來實現(xiàn)訓練和進化,因而人工智能數(shù)據(jù)安全問題是人工智能安全發(fā)展的關鍵問題。”[6]當前,生成式人工智能的數(shù)據(jù)庫以西方話語體系為基礎,直接輸出含有西方意識形態(tài)導向的內(nèi)容,可能加速西方價值觀的傳播。
一方面,生成式人工智能把西方話語體系作為相當一部分數(shù)據(jù)庫來源的基礎。在人機互動過程中,算法模型不斷地學習和追蹤受眾的個人信息,針對受眾特點進行算法推薦,并讓用戶在同質(zhì)信息中不斷強化認知。西方國家在人工智能技術上存在霸權,生成式人工智能的數(shù)據(jù)來源建立在西方話語體系之上,以西方價值觀去分析受眾的問題。在對待生成式人工智能的態(tài)度上,大部分受眾對人工智能的信任感較強,主動接受機器的自主決策,逐漸失去自主思考的能力,困于算法編織的“信息繭房”而顛覆原有的價值觀,從而逐漸認同西方價值觀。西方價值觀不斷地滲透和充斥在網(wǎng)絡信息傳播中,誘發(fā)我國主流意識形態(tài)消解、撕裂的風險。
另一方面,生成式人工智能存在“數(shù)據(jù)壁壘”。國家之間基于數(shù)據(jù)安全、網(wǎng)絡安全等方面考慮,涉及敏感內(nèi)容的數(shù)據(jù)往往不公開、不互通,由此造成“數(shù)據(jù)壁壘”,形成“數(shù)據(jù)孤島”。在不同國家、領域和行業(yè)中,生成式人工智能的數(shù)據(jù)訓練不完全互聯(lián)互通、質(zhì)量參差不齊、信息使用設限,機器自主決策的認知依據(jù)存在不完整性、片面性和單一性的缺陷,這一問題導致生成的內(nèi)容存在失真和誤差。數(shù)據(jù)偏見和算法歧視下生成的內(nèi)容不可避免地帶有一定的局限性,影響受眾形成正確的認知。網(wǎng)絡空間中失真的信息如果得不到有效的監(jiān)控和過濾,將不利于社會的進步和發(fā)展。
(三) 人為層面:文化產(chǎn)品具有價值偏見
“人工智能的政策制定、研發(fā)規(guī)劃、應用實施等階段都不可避免地反映了相關主體的價值觀。”[7]人工智能運行過程并非完全自主管理、自主學習,在數(shù)據(jù)抓取、算法操作和認知決策等過程中仍需要人為因素的參與。人為因素通過控制和調(diào)整算法技術影響受眾的認知、判斷和行為選擇,通過非常規(guī)手段生成具有攻擊性、破壞性的信息,從而干預和影響社會的政治穩(wěn)態(tài)。技術人員的價值傾向、企業(yè)的利益和平臺的訴求滲透在算法程序和數(shù)據(jù)訓練中,容易造成內(nèi)容的偏頗。生成式人工智能已然成為西方國家實現(xiàn)話語霸權、顛覆他國的工具。
一方面,資本邏輯控制生成式人工智能的價值取向。資本具有逐利性、擴張性,以利益最大化為根本追求目標,它可以為謀取利益鋌而走險。在市場經(jīng)濟的逐利本性驅(qū)動下,生成式人工智能的服務商平臺、企業(yè)和開發(fā)者傾向于開發(fā)“吸睛”內(nèi)容以賺取流量。生成式人工智能以“流量”、娛樂化為導向生成內(nèi)容,缺少對內(nèi)容質(zhì)量、道德底線的把控,造成個人利益凌駕于倫理道德之上的不良現(xiàn)象。受眾對嶄新形式表達的作品予以更大的關注和喜愛,代替了對邏輯性、政治性話語的關注和思考,泛娛樂化、低級趣味的內(nèi)容影響著主流意識形態(tài)的傳播,潛移默化地消解主流價值觀。
另一方面,地緣政治導致新的“算法權力”。程序算法帶有設計者和開發(fā)者的價值傾向和政治態(tài)度,且在技術操縱上可能引發(fā)新的信息生產(chǎn)方式變革,這不利于國家之間平等地交流和對話。生成式人工智能通過對個人信息進行追蹤和分析,可以獲取其價值取向、政治觀點、行為動向等數(shù)據(jù),并通過深度偽造技術對這些數(shù)據(jù)加以曲解和傳播。生成式人工智能基于大量數(shù)據(jù)分析和預測網(wǎng)絡輿論輿情和民意動態(tài),生成帶有特定的價值觀念和政治偏見的內(nèi)容,對受眾進行精準引導和干預,引發(fā)不同意識形態(tài)的個體、群體之間的理解障礙、情緒對立甚至群體沖突。
三、生成式人工智能意識形態(tài)風險治理
在大數(shù)據(jù)時代,生成式人工智能是不可逆轉的歷史發(fā)展潮流。我們既要順應歷史發(fā)展規(guī)律,又要推動智能技術不斷發(fā)展完善,從優(yōu)化算法技術邏輯、完善立法監(jiān)管機制和推動我國人工智能技術創(chuàng)新發(fā)展等方面著手,有效地化解生成式人工智能意識形態(tài)風險。
(一) 優(yōu)化人工智能算法技術邏輯
技術手段是優(yōu)化和檢測生成式人工智能內(nèi)容傳播的主要工具。我們要通過協(xié)調(diào)工具理性與價值理性、提高大模型運行的透明度以及拓展機器學習的廣度和深度,推動生成式人工智能內(nèi)容更加符合社會倫理道德,促進網(wǎng)絡空間正向信息傳播。
首先,我們要協(xié)同工具理性與價值理性。工具理性是以功利性目標為追求的思想認識和行為選擇,而價值理性是以社會發(fā)展、人的進步為長遠目標的思想認識和行為選擇。在技術研發(fā)動機上,我們要堅持科技為社會進步和人的全面發(fā)展作出貢獻,發(fā)揮技術的正面作用。在研發(fā)主體上,我們要對網(wǎng)絡服務商和技術人員加強主流價值觀引導,提高其社會責任感和服務意識,從而提高生成式人工智能自主決策的合理性和規(guī)范性。
其次,技術部門要提高算法技術和數(shù)據(jù)模型運行過程的公開透明度。加強受眾的操作技能培訓,增進對人工智能技術運行原理的基本了解,有助于提高其甄別真?zhèn)文芰托畔⑺仞B(yǎng)水平。加強對內(nèi)容生成中運行和自主決策過程的解讀,減少平臺與受眾之間的信息不對稱,有利于提高受眾對生成式人工智能的信任感和接受度。
最后,開發(fā)者要拓展數(shù)據(jù)訓練的廣度和深度。生成式人工智能囊括受眾的范圍之廣、數(shù)量之多,在人機互動中不斷產(chǎn)生新的數(shù)據(jù)。數(shù)據(jù)積累是動態(tài)發(fā)展的過程,機器的自主學習也是一個不斷深化的過程。受眾是存在認知差異的主體,生成式人工智能需要根據(jù)不同主體、平臺和其他學科等多維度的經(jīng)驗數(shù)據(jù)和復合數(shù)據(jù)進行學習和拓展,提高其生成內(nèi)容的準確度。同時,管理部門要建立健全生成式人工智能的協(xié)調(diào)運行機制,促進數(shù)據(jù)訓練不斷地進行深度學習,主動識別和糾正數(shù)據(jù),提高內(nèi)容的可靠性和穩(wěn)健性。
(二) 完善人工智能立法監(jiān)管機制
面對生成式人工智能與社會融合愈加深入,科學技術與意識形態(tài)的聯(lián)系愈發(fā)緊密的客觀現(xiàn)實,國家必須完善人工智能立法監(jiān)管機制,界定和規(guī)劃好人工智能技術發(fā)展的“紅線”與“底線”。“如果堆砌數(shù)據(jù)與算力而缺少有效約束,AI脫域的嚴重程度馬上就會凸顯。”[8]完善生成式人工智能的立法監(jiān)管機制,相關部門需要細化技術倫理規(guī)則、建立嚴格的生成內(nèi)容評估制度和提高受眾信息辨識能力,以推動人工智能技術規(guī)范、可持續(xù)發(fā)展。
首先,立法部門要細化技術倫理規(guī)則。“人工智能倫理原則向制度規(guī)則的硬化是人工智能可操作化的必經(jīng)環(huán)節(jié)和重要組成部分。”[9]立法規(guī)制是對生成式人工智能發(fā)展框架下的法律責任、社會責任的設定和分配,人工智能應合乎道德原則、遵守法律法規(guī),堅持科技的“以人為本”原則。在數(shù)據(jù)安全治理上,國家應加強數(shù)據(jù)庫加密、限制訪問權限和數(shù)據(jù)可追蹤范圍,防范化解數(shù)據(jù)安全的風險。在人類命運共同體理念下,各個國家、民族和地區(qū)應共同完善和遵守生成式人工智能的倫理規(guī)則,并建立一個由各國代表組成的跨國合作組織加以監(jiān)管和執(zhí)行。
其次,監(jiān)管部門要建立生成內(nèi)容評估制度。國家應借助自然語言處理、數(shù)據(jù)清洗和內(nèi)容篩選等技術手段加強對內(nèi)容真?zhèn)蔚臋z測,界定和監(jiān)測隱蔽性更強的“敏感詞”范圍,提高傳播內(nèi)容的質(zhì)量,讓人民接受準確而正能量的信息。同時,監(jiān)管部門要建立內(nèi)容評估制度和質(zhì)量懲獎機制,對劣質(zhì)、觸及紅線的內(nèi)容嚴厲打擊,對優(yōu)質(zhì)、正能量的內(nèi)容優(yōu)先推送。
再次,宣傳教育部門要完善外部制約機制。受眾是使用生成式人工智能的主體,國家和社會需要對受眾進行教育、培育,以提高其批判性思維,幫助其科學辨別內(nèi)容的真?zhèn)巍疫€應加強生成式人工智能的內(nèi)外部監(jiān)管機制。一是建立由政府牽頭,企業(yè)、平臺、社會群體等多主體參與的生成式人工智能監(jiān)管組織,按照相關的法律法規(guī)及內(nèi)容評估程序?qū)ι傻膬?nèi)容進行動態(tài)監(jiān)測,并定期向政府部門反饋。二是政府內(nèi)部多部門加強協(xié)同管理,建立有效的溝通機制,預防和管控失真信息的傳播,維護網(wǎng)絡空間意識形態(tài)安全。
(三) 推動人工智能技術自主創(chuàng)新
習近平總書記強調(diào):“在互聯(lián)網(wǎng)這個戰(zhàn)場上,我們能否頂?shù)米 ⒋虻泌A,直接關系我國意識形態(tài)安全和政權安全。”[10]人工智能作為社會經(jīng)濟發(fā)展和未來產(chǎn)業(yè)的關鍵技術,不僅涉及“硬實力”比拼,還關乎“軟文化”建設。唯有推動人工智能技術自主創(chuàng)新,才能維護我國網(wǎng)絡意識形態(tài)安全。當前,提高我國生成式人工智能技術的自主創(chuàng)新和研發(fā)能力,要加強人才隊伍建設,加大資金扶持力度,堅持“走出去”和“引進來”相結合的道路。
首先,組織和人力資源部門要加強人才隊伍建設。人才隊伍是生成式人工智能技術研發(fā)的關鍵和基礎。在生成式人工智能技術研發(fā)上,高校教育和研究機構要加強培養(yǎng)具有多學科融合、深厚專業(yè)知識和高超技術能力的人才隊伍。此外,國家要創(chuàng)造良好的就業(yè)環(huán)境,吸引世界各地的優(yōu)秀人才共同研發(fā)和推進我國生成式人工智能技術的發(fā)展。
其次,政府要加大資金扶持力度。政府應通過專項資金扶持、政策傾斜等方式,鼓勵我國生成式人工智能企業(yè)的發(fā)展,鼓勵企業(yè)進行產(chǎn)業(yè)科技創(chuàng)新,突破“卡脖子”技術。同時,政府要為企業(yè)發(fā)展創(chuàng)造良好環(huán)境,通過建設人工智能創(chuàng)新集聚區(qū),鼓勵不同行業(yè)、領域的企業(yè)聯(lián)合創(chuàng)新,推動多平臺、多場景的垂直式發(fā)展,從而提高我國生成式人工智能自主創(chuàng)新能力。
再次,“走出去”和“引進來”相結合,強化國際合作交流。在合作與交流平臺構建上,國家要主動搭建國際合作平臺,利用好“一帶一路”形成國際人工智能科技交流的“通道”,建立健全人工智能國際合作體制機制,共同推動人工智能技術發(fā)展。此外,國家還應鼓勵專業(yè)人才積極參與國際間科技交流,以獲取更多有關生成式人工智能技術創(chuàng)新的資訊。
參考文獻:
[1]桂韜,奚志恒,鄭銳,等.基于深度學習的自然語言處理魯棒性研究綜述[J].計算機學報,2024,(01):90-112.
[2]向征.“黑鏡”中的對壘:生成式人工智能背景下網(wǎng)絡意識形態(tài)風險與防范[J].社會科學戰(zhàn)線,2024,(04):18-24.
[3]俞吾金.意識形態(tài)論[M].北京:人民出版社,2009:2.
[4]王蘇靜,渠繼鵬,唐楠.從ChatGPT到AIGC:人工智能重塑千行百業(yè)[M].北京:電子工業(yè)出版社,2023:249.
[5]喻國明,楊瑩瑩,閆巧妹.算法即權力:算法范式在新聞傳播中的權力革命[J].編輯之友,2018,(05):5-12.
[6][9]李仁涵.人工智能與國際準則[M].上海:上海三聯(lián)書店,2022:8,65.
[7]李仁涵,黃慶橋.人工智能與價值觀[M].上海:上海交通大學出版社,2021:35.
[8]蔡恒進,蔡天琪.類人意識與類人智能[M].武漢:華中科技大學出版社,2024:156.
[10]中共中央宣傳部,中央國家安全委員會辦公室.總體國家安全觀學習綱要[M].北京:學習出版社,2022:65.
(責任編輯:畢秋)