文/闕天舒 張紀騰
作為新一輪科技革命和產業變革的核心驅動力量,人工智能技術的發展與應用在為社會提供強大發展動力的同時,也對國家安全治理造成了一系列影響。人工智能技術能夠基于進化賦能的實踐應用,從傳統安全、非傳統安全以及兩者間的重疊領域,為國家安全提供更為有效的維護和保障機制。人工智能技術的應用也存在著超出預期設想的可能性。因此,對于國家安全而言,人工智能的創新性蘊涵了高度的戰略價值,但其演進路徑的不確定性則帶來了相應的風險。而全面評估人工智能技術對國家安全治理帶來的機遇與挑戰將是解決這一技術安全悖論的關鍵所在。
本輪人工智能技術發展熱潮建立在圖形處理器通用計算高性能運算架構所形成的計算資源與移動互聯網興起所產生的大量數據的基礎之上,而在這兩者的催化下又形成了基于套嵌式的多層次模式識別的深度學習算法。在“數據、算力與算法”三者的共振下,人工智能就逐漸進化為一種能夠進行自我學習、自我推理以及自我適應的技術,并具備以近乎“人類思維”處理復雜問題的能力。
人工智能技術具有通用目的性、自我學習與進化、開源性、系統性和數字性依賴等特性。根據技術解決問題的能力可以將人工智能技術分為針對特定任務而設計和訓練的弱人工智能和具備足夠的智能解決不熟悉問題以及通用化應用能力的強人工智能。
由于人工智能的廣泛應用將對交通、醫療、教育、法律、金融、傳媒等諸多社會領域產生巨大影響,因此,多數研究將人工智能視為第四次工業革命的引領性技術,也將這次革命稱為“智能革命”。當然,目前的人工智能發展成果主要集中在弱人工智能域內,并且在一些重難點問題上仍舊無法形成實質性的突破。與此同時,盡管人工智能已經形成了一定的先期能力優勢,但這一技術發展的范式遷移必然有一個過程,并且人工智能所造成的社會影響既有其內生的不確定性,又有外部延遞的模糊性。
根據國家安全的主要關注領域,可以將人工智能在國家安全中的應用范式分為傳統安全與非傳統安全兩個方面。傳統安全領域主要關注人工智能在軍事力量與戰略對抗中的威脅性使用與控制,非傳統安全領域則主要關注人工智能在經濟、政治和文化等社會領域中的應用與規范。
第一,從傳統安全來看,人工智能的軍事化應用將推動形成新的軍事能力和戰略博弈模式。人工智能可以更為完整地還原全部戰場信息,并據此全盤推演和模擬分析作戰策略的預期結果。同時,人工智能就能夠推動傳統的指揮模式向智能化指揮與控制機制轉變。此外,人工智能還將推動無人化、智能化武器的大規模應用,并催生諸如算法戰、意識戰等新型戰略對抗方式。當然,人工智能技術應用的全質性還使其能夠同多種物質力量相結合,進而在態勢感知、威脅分析、策略生成以及攻防對抗等方面形成更為有效的作戰能力。因此,人工智能不僅能夠通過強化物理效能、生物效能或者重塑武器能量來源、作用原理等純粹的技術層面來影響戰爭形態,還能從戰略決策與作戰指揮等主體選擇層面來推動戰爭形態變革。當前人工智能技術的軍事化應用多數仍停留在以信息技術和精確打擊武器為核心的“初智”階段,但如果伴隨著技術的突破,人工智能也有可能推動戰爭從“精確化”向“智能化”轉變,使其躍升為以整合多項技術為支撐的“高智”階段。
第二,從非傳統安全來看,人工智能技術能夠為各類社會風險的應對提供更為有效精準的預測、感知和糾錯機制。人工智能技術的嵌入將統合安全防護中的“預測、防御、檢測與響應”來構建一種自適應安全架構。在此基礎上,人工智能便能夠構建相應的模型來捕捉各類風險因子的作用路徑及推斷其發生的概率,并根據當前的分析結果主動快速地選擇應對策略。目前,人工智能技術已在經濟安全、醫療保護、環境安全、網絡安全、能源安全、打擊恐怖主義和跨境犯罪等諸多領域得到較為廣泛的應用。
總的來看,人工智能基于進化賦能的實踐應用在國家安全治理中存在著一定的技術發展正循環,并且人工智能在傳統安全與非傳統安全兩個領域之間存在著相互支持的作用。因此,人工智能將成為保障國家安全的重要驅動力,而且也將進一步拓展國家安全治理的理念、方式與界域。
人工智能不僅對國家安全及其戰略行為模式具有極強的“破壁效應”,同時這一技術的應用也存在著超出預期設想的可能。具體來看,人工智能技術將從國家戰略競爭的穩定性、社會治理的有序性以及技術應用的穩定性等方面對國家安全產生一定沖擊。
從競爭領域來看,人工智能的軍事化應用將在各個軍事領域內實現全面的擴散,并為非傳統的軍事行動提供更為有效的技術支撐。同時,擁有人工智能技術優勢的一方將在多領域中研發出打擊效用更大與預期風險更低的軍事設備,技術劣勢方則難以用數量疊層或策略戰術等手段進行中和或彌補這一力量差距。
從沖突成本來看,人工智能的軍事化應用降低了戰爭的門檻及其負面效應,即人工智能的軍事化應用不僅能夠實現作戰效率的全方位提高,并且還能夠以無人化的作戰形式來降低可能造成的傷亡,進而將顯著地降低損益、周期、規模以及性質等諸多因素在內的預期成本對于戰爭決斷及其進程的限制。
從核威懾體系來看,擁有人工智能技術優勢的一方能夠對原有不確定的戰略意圖以及復雜的對抗情況進行全景式的智能化分析,并能夠在核威懾的決策上做出更加靈活、準確的戰略判斷與選擇。此外,人工智能所導致的軍事競爭領域的擴大還將催生不對等的戰略威脅手段,技術弱勢方所具備的威懾戰略趨于低效。
因此,各國在人工智能發展上的不對稱性逐步放大為國家安全偏好上的差異性,即技術強國所具備的“積極幻想”的適應性優勢使其更易形成獲取霸權的進攻性需求,技術弱國所處的被動位置則使其形成獲取維護安全的防御性需求。這樣看來,在人工智能軍事化應用的影響下,國家安全的客觀外延性與主觀意向性極有可能發生重疊,進而導致國際體系出現更大的不穩定性與不確定性。
人工智能所推動的生產方式變革將對全球性的整合與現代性的擴散產生一定的限制。人工智能所推動社會生產的自動化與智能化將稀釋發展中國家在勞動力資源上所具備的比較優勢,發展中國家難以通過自身的人口紅利來吸引國際產業的轉移,進而就面臨著外資紅利與全球技術知識外溢的紅利縮減的風險。
人工智能技術的前期研發與布局上本身就需要投入大量的成本,并且其發展初期還存在著“索洛悖論”的難題,即人工智能所推動的社會生產率的提升與技術進步之間存在遲滯,并且勞動生產率的提升難以同步轉化為人們收入的普遍增長和消費成本的普遍下降。因此,人工智能技術創新與應用的高門檻將導致發展中國家面臨“技術邊緣化”的風險。
技術強國憑借自身在人工智能技術上的優勢而成為新的權力中心。這將使得個別技術強國的主觀競爭意愿體現為國家之間的技術競爭現實,進而激化國家間的技術競爭。而過度競爭就會導致人工智能的發展出現更為無序的狀態,尤其是技術割裂所造成技術生態的封閉與失序極易誘發一系列的新生技術風險。因此,人工智能的過度競爭還將催生新的地緣政治風險與技術風險。
人工智能技術的復雜性以及科技企業的優勢將導致后者在相關技術治理準則的制定中擁有相當大的話語權。因此,人工智能在一定程度上將強化資本權力的壟斷地位,其中科技巨頭企業極有可能成為新型的權力中樞。人工智能還將推動新一輪的“溫特爾主義”的形成,即為了保持自身的技術優勢,技術強國與市場結構性權力之間形成一種相互利用與共謀的關系。這些巨頭壟斷地位的強化將對技術創新、產業制造以及社會治理等方面造成極大的擠出效應,并且企業間的商業性競爭上升為國家間的競爭將使得人工智能面臨更多的消極競爭因素。
人工智能將導致依靠勞動密集型產業和依賴信息不對稱而存在的部分行業遭受極大沖擊。這種不平等與不對稱擴大了人工智能所造成的社會各產業間、群體間與階層間在發展能力、資源占有程度與社會影響力等方面的失衡。
數據隱私、數據質量缺陷以及算法平衡價值觀念缺失所導致的算法歧視也是當前人工智能發展急需解決的問題。人工智能技術對用戶隱私的侵權主要表現為個人數據的不當收集、數據收集方濫用、數據二次使用與擴散。數據本身不完整或者存在某種傾向性,算法就可能把數據中的干擾因素或數據噪音進一步放大或固化,進而導致“自我實現的歧視性反饋循環”。這種因數據或算法而導致的歧視,就可能引發種族歧視、性別歧視等社會偏見得到技術性的強化。
從技術外溢風險來看,人工智能技術的成熟以及相關數字資源的開放不僅會催生新的技術擴散風險,而且人工智能本身的技術漏洞也會增加其被攻擊或利用的可能。與此同時,人工智能技術研發的秘密性、分散性與不透明性加大了打擊技術犯罪以及調控技術穩定性的難度,并且人工智能技術應用邊界的模糊性更是加劇了管控技術擴散的難度。從技術內生風險來看,不確定的技術缺陷與安全防護措施的不完善是導致人工智能技術出現這一風險的主要原因。使用者既無法充分理解算法運行的原理,也無法完全掌控智能系統的決策及其實施進程。情感、道德等主觀性因素無法被充分嵌入人工智能的決策機制,基于歷史數據的算法模型對潛在的突發性變化并不具備完全的預判能力與應變能力。
綜上所述,人工智能技術的發展及應用將對國家安全帶來新的挑戰。一方面,人工智能技術的介入將加速新型軍事能力和戰略博弈模式的形成,打破傳統的戰略對抗模式及其博弈的平衡,進而導致國際體系出現更大的不穩定性與不確定性;另一方面,人工智能技術的應用還將拉大國際行為主體間的能力代差,擴大資本壟斷技術與市場的能力,導致社會治理面臨諸如算法歧視、數據壟斷以及隱私保護等問題,并催生一系列“技術恐怖”現象。
對于兼具大國與發展中國家雙重身份的中國而言,人工智能的發展及其應用所帶來的挑戰與機遇是尤為突出的。因此,我們既要緊抓人工智能技術發展的契機,推動、容納和接受這一新興技術的突破和創新,更要處理好這一技術對國家安全所可能造成的風險。
第一,加強人工智能技術的自主性和掌握發展的主動權,構建自主可控、可持續發展的人工智能技術創新體系和應用產業體系。第二,建立更強有力的公私伙伴關系以推動政策與各類社會資本的共同發力,加強技術與產業緊密結合的相互增益和提升人工智能技術發展的可持續性。第三,克服從研發端到部署端的功能孤島,將包容性、開放性等原則充分納入到人工智能技術發展的戰略規劃中,加快技術成果轉移和促進其他前沿技術的共同發展。
第一,加強對數據壟斷、算法歧視、隱私保護以及倫理道德等問題的預判,為人工智能技術的發展制定相應的規范框架。第二,建立諸如技術風險評估機制、災難性風險管理機制和技術錯誤糾正機制等相關可管理安全機制,從算法容錯容侵設計、漏洞檢測和修復、安全配置等方面來增強人工智能技術自身的安全性。第三,提高人工智能技術的可檢驗性來加強技術應用的透明度與信任度,具有高風險的公共領域內則應盡量減少使用具有黑箱特性的人工智能技術。
第一,要加強技術倫理規范性和建構性的統一,通過恰當的技術設計規范和制約實現正面倫理價值的“預防式置入”,將人工智能倫理從抽象準則落實到相應的技術研發與系統設計中。第二,要努力貫徹“以人為本”的技術發展觀,促進科學與人文兩種精神的充分融合與互補,以保證人工智能的人性化轉向。第三,在人工智能技術的發展與國家安全的維護之間保持平衡,避免陷入因泛技術安全化誤區而導致的“技術滯漲”困境。
第一,構建涵蓋技術開發、行業監管和公共治理等在內的成體系化的法律和規范,增強技術風險決策和立法的針對性與可操作性。第二,明確設計者、使用者、監管者之間的權責關系,并將技術應用的公共安全納入現有的監管框架。第三,應搭建起連接“行動者網絡”和“利益相關者”討論與合作的新平臺,努力創造一個政府、技術專家、公眾等多元一體化的治理決策參與機制。
第一,推動國際社會在一些根本性、原則性的規則和倫理上達成共識,力促國際認同技術風險的治理框架和協調一致的治理機制的形成。第二,推動全球分散的、相對孤立的治理程序與要素資源的積極整合,構建以主權國家、非政府組織、市民社會和跨國公司為主體的綜合治理體系。第三,積極推動開展持續、直接、權威的多邊溝通,對于人工智能技術開展合作性與建設性的管理,確保人工智能技術的和平開發和加強對國際性技術風險事故的防范能力。
人工智能在國家安全治理中的應用極易在“界域與有效性”“效能與可靠性”以及“競爭與穩定性”之間出現矛盾。尤其是在因人工智能技術嵌入所導致的力量失衡以及安全格局的轉變下,國家安全極有可能在國家競爭的穩定性、社會治理的有序性與技術應用的穩定性三方面遭受巨大的沖擊。
對于中國而言,如何統籌人工智能技術發展與國家安全治理,并實現這兩者綜合成本的明確化、內部化與協調化將是未來工作的重點之一。在這一過程中,最為重要的仍是保持中國在人工智能技術領域的領先性與自主性,并通過多樣化方式對這一技術發展的潛在風險進行研判和預防。我們也應積極地同各國在人工智能技術的發展上展開深度對話,力促在人工智能的戰略競爭與合作上形成“競爭性共榮”,進而塑造一種能夠推進務實合作和建設性競爭、有效管控技術風險與防范重大沖突的國際秩序。