
李馳江
近年來,人工智能技術得到快速發展和廣泛應用,有效提高了經濟和社會發展的智能水平。與此同時,人工智能日益被視為大國競爭的關鍵技術,隨著美國、俄羅斯等國紛紛出臺人工智能軍事應用相關戰略及政策,并加大無人化和智能化軍事裝備研發和應用步伐,智能化戰爭模式已初現雛形,軍事人工智能的全球治理引發國際社會廣泛關注,相關軍控倡議和進程方興未艾。
2018年,聯合國秘書長古特雷斯在“載軍議程:為了共同未來的安全”文件中指出,人工智能(例如機器學習)賦能的自主武器系統可能產生不可預測和難以解釋的行為,國際社會應對此類武器系統的研發和使用持謹慎態度,各國應努力探討相關政治性或具有法律約束力的措施,并應確保人類對使用此類武器的控制權。自2014年起,聯合國《特定常規武器公約》框架下開啟了“致命性自主武器系統”問題的討論進程,這是目前聯合國框架內為數不多的涉及人工智能軍事應用具體問題的討論進程。
該討論進程迄今已召開八次會議。2014年至2016年,召開了三次非正式專家會議;2017年至2019年,召開了五次政府專家組會議。原計劃于2020年繼續召開政府專家組會議,但受新冠疫情影響只進行了線上非正式討論。上述會議討論了“致命性自主武器系統”涉及的技術特征、法律適用、道德倫理、軍事應用、安全風險、限制措施等議題,達成重要的早期收獲。特別是2019年第八次政府專家組會議協商一致通過報告,并經《特定常規武器公約》締約國會議核準通過,提出了規范“致命性自主武器系統”的11條指導原則,主要包括:國際人道主義法繼續完全適用于所有武器系統,包括致命性自主武器系統的可能開發和使用;人類必須對武器系統的使用決定負有責任;應確保根據適用的國際法在《特定常規武器公約》框架內對發展、部署和使用任何新武器系統問責;發展致命性自主武器系統時,應考慮實體安保、適當的非實體保障、落入恐怖主義團體手中的風險和擴散的風險;風險評估和減少風險的措施應成為任何武器系統新技術的設計、發展、測試和部署周期的組成部分;在《特定常規武器公約》范圍內討論和采取任何可能的政策措施都不應阻礙智能自主技術的進步或和平利用;可在《特定常規武器公約》目標和宗旨范圍內處理致命性自主武器系統領域新技術的問題,力求在軍事必要性和人道主義考慮之間求得平衡,等等。
總體看,各國對于致命性自主武器系統的軍控措施持三類觀點:有的國家主張全面禁止此類武器,有的國家主張部分限制此類武器使用,也有國家反對全面禁止此類武器。與此同時,奧地利等國主張達成具有法律約束力的國際文書;法國等國主張分步走,先達成政治宣言或行為準則,再達成法律文書;美國等國則反對上述主張,提出圍繞現有11條指導原則進一步討論。
除聯合國渠道外,各國政府、產業界、學術界、國際組織等就包括人工智能軍事應用在內的人工智能治理規范和原則進行了廣泛討論并提出諸多建議,旨在保障人工智能發展和應用符合道德倫理要求,減少人工智能應用帶來的潛在安全風險。例如,2019年6月,中國國家人工智能治理委員會發布了“新一代人工智能治理原則——發展負責任的人工智能”,提出“和諧友好,公平公正,包容共享,尊重隱私,安全可控,共擔責任,開放協作,敏捷治理”等八項重要原則。2020年2月,美國國防部正式發布規范人工智能軍事能力發展的“負責、公平、可追溯、可靠和可治理的”五項原則。2020年2月,歐盟發布《歐洲數字戰略》,指出歐盟的人工智能發展基于信任和追求卓越。2020年6月,瑞典斯德哥爾摩國際和平研究所發表《人工智能對戰略穩定和核風險的影響》報告,探討了人工智能軍事應用對戰略穩定和核風險的影響并提出相關建議。
總體看,國際社會都高度關注人工智能軍事應用對國際和平與安全構成的嚴峻挑戰,但是各國對如何應對這些挑戰,特別是減少人工智能軍事應用風險,仍然存在不同看法和優先事項。展望未來,國際社會理應繼續秉持多邊主義精神,共同尋求各方均可接受的解決思路和方案,確保人工智能技術造福人類,并促進國際和平與安全。