方陵生/編譯
軍事機器人自主決定人類生死?
方陵生/編譯

· 隨著人工智能的發展,軍事機器人也將被重新定義。
捷克作家卡雷爾·恰佩克 (Karel Capek)在1920年發表的科幻劇作《羅蘇姆的全能機器人》中,發明了機器人(robot)這一詞語,一開始它們只是在工廠里生產低成本產品的微不足道的機器人,但最后這些機器人殺死人類,導致人種滅絕。由此誕生了一個經久不息的科幻小說題材:機器人失控,變成不可阻擋的殺人機器。20世紀的文學和電影中也描述了大量關于機器人對世界造成毀滅性破壞的情節,好萊塢更是以機器人為主題推出了許多轟動一時的大片,如 《黑客帝國》《變形金剛》《終結者》等。
近年來,隨著科學技術的飛速發展,包括人工智能(AI)和機器人技術的重要進展,加上伊拉克、阿富汗戰爭中無人機與地面機器人的廣泛使用,小說和電影中對機器人的恐懼轉變為對現實的擔憂,人們擔心科幻世界里的可怕景象會變成現實。
世界上的一些軍事強國正在開發智能化程度更高的武器,這些武器都將擁有不同程度的自主能力和強大的殺傷力。短時期內絕大多數智能武器還是由人類遠程控制,人類才是那個 “扣動扳機”的人。但很可能,甚至有人認為不可避免的是,未來的人工智能武器將實現完全自動化操作,成為人類戰爭史上的一個分水嶺:首次由一個芯片和軟件構成的集合體來決定某個人的生死。
因此,毫不奇怪,所謂的“機器人殺手”的威脅開始引發了一場激烈的辯論。爭議雙方各執己見,一些人擔心機器人武器有可能導致一場最終摧毀人類文明的世界大戰;另一些人則認為,精確制導的智能武器實際上可以更大程度地減少戰爭中的人員傷亡,而不是增加傷亡人數。作為聯合國將于12月在日內瓦召開的裁軍會議議題的一部分,一百多個國家將對這一問題展開討論。
去年,一個頗有影響力的人工智能研究團體呼吁禁止“不由人類控制的進攻性自主武器”,使得這場關于機器人的辯論成為新聞焦點。這個研究團體在關于人工智能的一次重要會議上發表的一封公開信中指出,這類武器將導致“全球AI軍備競賽”,用于“暗殺、破壞國家穩定、鎮壓群眾,以及有選擇地消滅某個少數民族群體”。
在這封公開信上簽名的達兩萬多人,其中包括一些名人,如物理學家斯蒂芬·霍金、特斯拉公司總裁埃隆·馬斯克,馬斯克曾于去年給波士頓的一家研究所捐贈了1 000萬美元,該研究所的使命是“維護生命”,對抗有可能出現的惡意人工智能。
組織這次公開信簽名活動的學者有加州大學伯克利分校的斯圖亞特·拉塞爾(Stuart Russell)、麻省理工學院的馬克斯·泰格馬克 (Max Tegmark)和新南威爾士大學的托比·沃爾什(Toby Walsh),發表于IEEE上的一篇網文詳述了他們的觀點,他們設想有可能出現這樣的場景:在黑市上出售的低成本、有著致命殺傷力的微型機器人,可以由某個人匿名部署殺死成千上萬攻擊目標范圍內的人。
他們三位還補充道,“自主武器是一種潛在的大規模殺傷性武器。雖然一些國家或許不會選擇將它們用于這些目的,但對于有些國家和恐怖分子,這類武器卻可能有著他們無法抗拒的吸引力。”
很難認為,一場新的軍備競賽最終創建出的智能、自主、高度可移動性的殺人機器能夠服務于人類,為人類爭取最佳利益。然而,盡管多有爭議,但實際上人工智能武器的軍備競賽已在進行之中。

自主武器的存在已有幾十年歷史,雖然它們的數量相對較少,且幾乎都用于防御目的。一個例子就是美國海軍的“密集陣”(Phalanx)近防武器系統,這是一個由計算機控制、雷達制導的炮擊系統,許多美國海軍船艦上都安裝有這一系統,它可自動探測、跟蹤、評估來襲的導彈和飛機,如果判斷為威脅,就會向其開火,在全自動模式下的時候不需要人工干預。
最近,軍事供應商開發了首個自主進攻型武器,以色列航空工業公司研發的無人機Harpy和Harop能跟蹤到敵方防空系統發出的無線電波,并撞毀它們,該公司稱這種無人機已在全世界范圍內售出。
韓國國防承包商DoDAAM Systems公司也開發出了名為“超級aEgisII”的警衛機器人,該系統裝備的機槍可利用計算機視覺自動探測并攻擊三公里內的目標。據韓國軍方稱,已在與朝鮮交界的非武裝地區對這些武裝機器人進行了測試。DoDAAM Systems公司稱,他們已經將30多套這種系統出售給了其他國家政府,包括中東地區的幾個國家。
目前,這種高度自動化系統的數量已大大超過了像無人機這樣幾乎所有時間都由人類控制的機器人武器,特別是向目標開火的控制權。但一些分析師認為,隨著未來戰爭模式的發展,戰爭武器的自主程度將越來越高。
“戰爭將會非常不同,自動化將起到重要作用,速度是關鍵。”美國華盛頓特區無黨派研究機構的機器人戰爭專家彼得·辛格(Peter W.Singer)說道。根據他預測的未來戰爭場景,將會是無人機之間的空戰,或者是機器人船艦與敵方潛艇之間的遭遇戰,能提供瞬間優勢的武器將決定戰爭勝負,“未來戰爭將會是一種高強度的直接對抗,根本沒有人類介入其中的時間,因為一切將會在幾秒鐘內發生并結束。”
美國軍方對這種新型戰爭已有了一些詳細計劃,但關于機器人系統的武器化方面仍意圖不明。今年三月在《華盛頓郵報》的論壇上,美國國防部副部長羅伯特·沃克(Robert Work)強調了投資人工智能和機器人技術的重要性,他的部分工作是要確保五角大樓能夠跟上最新技術的發展,“戰場上出現越來越多的自主機器系統的趨勢是不可阻擋的。”他說道。
在被問及自主武器的問題時,沃克強調,“美國軍方不會將致命的權限委托給機器,不會讓機器人來決定人類生死。”但關于這個問題他又補充道,“如果面對一個比我們更愿意授權給機器的競爭對手……我們也不得不就保持競爭力做出決定。對這個問題我們目前還沒有清晰的概念,但我們會花很多時間來思考。”
俄羅斯在陸海空戰斗系統的開發上,也都遵循類似的戰略,至少目前都還是在人類的操控之下。俄羅斯的M平臺是一種小型遙控機器人,配備有卡拉什尼科夫步槍和手榴彈發射器,一個類似于美國“魔爪SWORDS”(一種配備了M16和其他武器的地面機器人系統)的武器系統。俄羅斯建造的大型無人戰車Uran-9配備了30毫米榴彈炮和反坦克導彈。去年,俄羅斯還為弗拉基米爾·普京進行了類人軍事機器人的演示。
強調人類對機器人掌控的同時,提高機器人武器自動化程度,對于禁止武器的全自動化是一個重大挑戰。“軍備控制協議很難適用于機器人技術,自主武器系統與非自主武器之間的差異可能只是一行代碼的區別。”耶魯大學倫理和技術專家溫德爾·瓦拉赫(Wendell Wallach)在最近的一次會議上說。
很多時候,當人們聽到“自動武器”時,就會聯想到電影《終結者》。美國新安全中心指導未來戰爭計劃的保羅·沙勒(Paul Scharre)說道,“軍隊使用自主武器似乎是一種終極手段。”他還補充道,更有可能的是,機器人武器的目標不是人,而是一些軍事設施,如雷達、坦克、軍艦、潛艇或飛機等。
目標辨別也是一種挑戰,確定所看到的是你要對付的敵對方目標,是人工智能武器智能化程度的一個重要判別標準。飛機和導彈等移動目標都有可跟蹤的運行軌跡,并確定是否要將其擊落下來。美國海軍船艦上安裝的“密集陣”自主炮陣,以色列的“鐵穹”防御攔截系統都基于這樣的工作原理。但如果目標是人,判斷標準卻要敏感得多,物體和場景識別對于人類來說是再平常不過的事了,而對于機器人來說,即使是在理想條件下,也是一項極其困難的任務。
對于計算機來說,人類形象識別沒有多大困難,即使那人在很隱蔽地移動,但對于人們在做什么?他們的肢體語言和面部表情代表了什么意圖?那人手里舉起的是一支步槍,還是只是一個耙地的耙子?那人攜帶的是一枚炸彈,還是一個嬰兒?程序算法很難理解所有這一切。
沙勒認為,讓機器人武器自主確定目標的努力將會因面對太多的挑戰而半途夭折,制定作戰策略和技術,人類與機器人協同合作將是對安全、法律和道德諸方面綜合考慮的最佳途徑。“軍隊可以投資非常先進的機器人與自動化,但作為安全保障,決定打擊目標時仍然要有人類的介入。因為人類更擅長于適應和靈活處理突發情況或計劃外的新情況,特別是在戰爭時,敵方試圖通過欺騙手段打擊己方系統時。”
因此,像韓國的哨兵機器人DoDAAM對致命的自主權加以限制也就不奇怪了。按照目前的配置,在人類確定目標并給炮塔下達射擊命令之前,機器人是不會開火的。“最初的哨兵機器人有一個自動開火系統,”去年DoDAAM項目的一位工程師對BBC說道,“但是所有的客戶都要求有安全保障,他們擔心機器人有可能犯錯。”
其他一些專家認為,確保自主武器不會犯致命錯誤的唯一方法,尤其是危害到平民的錯誤,就要慎重開發這類武器。“如果我們愚蠢地在戰場上互相殺死對方,如果越來越多的權力被轉交給這些機器,那么我們還能確保它們所做的一切都是符合道德倫理的嗎?”喬治亞理工大學計算機科學家羅納德·阿金(Ronald C.Arkin)說道。
阿金認為,自主武器,就像人類士兵一樣,應該遵循一定的交戰規則以及國際公法中的戰爭法,包括保護平民,以及將武器威力和種類限制在允許范圍內等國際人道主義法。這意味著我們在對機器人的編程中,要考慮以某種道德推理來幫助它們應對不同情況,從根本上區分對與錯,它們需要在軟件編程中有某種道德指南。
過去十年里,阿金一直致力于開發這樣一種指南。他使用機器人倫理學中的數學和邏輯工具,將高度概念性的戰爭法和交戰規則轉變為計算機可以理解的變量和運算符。例如,某個變量規定目標是否是敵人的確定度;某個變量是判斷“是”與“非”的布爾變量,即“允許使用致命武力”或“禁止使用致命武力”的判斷標準。阿金開發的一組算法通過計算機模擬和簡化版的戰斗場景來測試他的方法。
阿金承認,他的這個由美國軍方投資的項目,只是一個概念驗證,而不是實際的控制系統。但盡管如此,他相信測試結果可以表明,戰斗機器人不僅可以遵循與人類必須遵循的相同規則,甚至可以做得更好。例如,機器人使用致命武力時比人類戰士更克制,只有在受到攻擊時才會回擊等。或者,如果附近有平民存在,它們可以完全停火,即使這意味將導致自身被摧毀的后果。另外,機器人也不會像人類那樣,因壓力、沮喪、憤怒或恐懼等負面情緒而導致判斷力受到影響。所以,至少在理論上,機器人士兵將比人類士兵做得更好,在激烈的戰斗中,人類戰士常常會犯一些難以避免的錯誤。
“機器人士兵的出色表現可以挽救更多人類的生命,尤其是一些被困在戰場空間的無辜平民,我們只需要在機器人的使用中給它們一些必要的道德約束。”阿金說道。
當然,毋庸諱言的是,阿金的觀點并沒有得到人們的普遍認同。自主武器的批評者堅持認為,考慮到這些武器存在的可怕性,只有提前禁止才是最為合理的。人權觀察團體負責人瑪麗·韋勒姆(Mary Wareham)在呼吁“停止開發殺手機器人!”的運動中說道,“我們不能指稱某個單一的武器系統為‘殺手機器人’,我們討論的是以多種方式加入戰爭的多種武器系統,我們擔心的是它們的一個共同點,在目標選擇和攻擊功能上缺乏強有力的人力控制。”
聯合國關于致命自主機器人的討論已有近五年歷史,但其成員國至今仍無法起草一份協議。2013年,聯合國人權問題特別報告員克里斯·海恩斯(Christ Heyns)在一份有影響力的報告中指出,在自主武器全面開發之前,世界各國還有寶貴的機會來討論它們的風險。在參加了幾次聯合國會議之后,海恩斯說道,“如果我回頭看,在某種程度上我感覺鼓舞,但是如果往前看,我認為我們會有麻煩,除非我們從現在開始加速采取行動。”
聯合國關于《特定常規武器公約》五年審議大會將于今年12月召開,致命自主機器人的議題將被提上議事日程,但關于自主機器人的禁令不太可能在這次會議上獲得批準。這樣的決定需要所有參與國家達成共識,而事實上,在如何處理未來自主武器大量出現的問題上,各國仍存在根本分歧。
最后,關于“殺手機器人”的爭論似乎更多關乎的是我們人類自身,而不是機器人。像任何其他技術一樣,至少在開始階段,應該謹慎而明智,而不是導致混亂和災難性后果。自主機器人是福是禍,人類必須承擔責任。因此,“自主戰斗機器人是個好主意嗎?”不是個好問題,更好的問法是,“我們確信我們可以信任機器人走進我們的生活嗎?”
[資料來源:IEEE Spectrum][責任編輯:彥 隱]