龍 坤 徐能武
在人工智能軍事應用深刻影響國家安全,甚至可能危及全球戰略穩定的背景下,各方逐步認識到必須高度重視其潛在風險,對人工智能造成的國際安全問題進行全球層面的治理。當前人工智能全球安全治理的基本結構正逐步生成,但仍面臨許多問題。
人工智能技術是一個類似于電力的“通用技術”和“使能技術”,能夠賦能各行各業,并影響全球的政治經濟發展。因而,關于其造成的國際安全問題的治理也必然涉及多個利益攸關方。在人工智能全球安全治理這一議題上,存在著十分多元的治理主體,它們通過磋商談判、積極呼吁、發表宣言等形式推進這一領域的治理進程。
從理論上看,人工智能全球安全治理的對象包括前述人工智能帶來的所有國際安全問題。而在當下的現實發展中,人工智能全球安全治理以對致命性自主武器系統的探討和確立規制為主,究其原因,有以下幾個方面。
總之,當前國際社會已在致命性自主武器系統議題方面達成了11項不具有法律約束力的指導原則,但在戰略穩定、危機管控、自主武器擴散等其他較為緊迫的人工智能全球安全治理領域,相關機制和方案仍暫付闕如。人工智能的全球安全治理的實質性進展有限,仍存在很多需要解決的問題。
第一,在核領域,擁核國家須強化合作,盡快簽訂相關雙邊和多邊軍控協定,禁止將人工智能技術用于核指揮控制系統中,確保人類控制所有核武器發射平臺。核領域對國際安全的影響是最具毀滅性的,攸關全世界的生死存亡,因而管控人工智能在這一領域的風險尤為緊迫。如前所述,將人工智能應用到核武器的預警、控制以及運載系統中,可能會導致意外核風險的升級,對國際戰略穩定造成災難性后果。因此,核大國之間要盡快推進對話,優先對將人工智能應用于核武器系統的行為設定強有力的限制措施,尤其是有核國家間達成由人類嚴格控制核發射決定權的協議,確保人類控制所有核武器發射平臺。這樣才能降低意外核戰爭的風險,避免在沒有人參與的情況下由于機器故障或誤判直接導致核戰爭爆發等災難性場景的出現。由于核武器的極端破壞性,各國必須確保人類嚴格控制核發射決策,同時明確人工智能賦能的無人武器裝備不應用作核運載平臺,避免人類失去對核武器的控制而發生核事故或意外核戰爭。
針對不同自主程度的武器系統及其安全風險,需要采取相應的治理舉措。完全自主的武器系統,應當在國際社會進行預防性禁止,而半自主或其他低自主的武器系統,則應當采取限制措施、測試評估等方式進行風險管控。
人工智能作為科技發展的前沿領域,本質上是全球性的通用泛在技術和先進生產力,其在全球化時代產生的安全風險也必然會波及全球,可能會嚴重威脅戰略穩定,降低戰爭門檻,提高沖突頻率,并給國際恐怖主義大開方便之門,甚至可能誘發超級人工智能的崛起,威脅人類整體安全。要應對人工智能帶來的多重國際安全風險,需要全世界的主權國家、國際組織、跨國公司、全球公民社會等國際關系行為體加強合作,共同參與和貢獻智慧,推動人工智能全球安全治理的進程,使得制度建設和倫理規范跟上人工智能發展演進的速度。作為引領人工智能發展應用的“領頭羊”國家和世界前兩大經濟體,中、美兩國積極承擔這一領域的大國責任尤為重要。當前一段時期,正是管控人工智能國際安全風險的關鍵窗口期,兩國需要強化合作,共同引領人工智能的全球安全治理進程,通過基于風險排序和時間緊迫度的分層治理方式化解安全風險,維護全球戰略穩定。同時,也需充分發揮國際組織和全球公民社會的推動作用,強化主權國家、國際組織、全球公民社會等治理主體的良性互動和相互合作,形成松散耦合的人工智能全球安全治理機制,合力推進這一進程的有序前行。