方宇寧/編譯
科學家談人工智能
方宇寧/編譯

英國BAE系統公司開發的自動化程度極高的無人機“塔拉尼斯”,但仍然需要人類來為它制定作戰決策
●對未來機器人可能存在的風險和擔憂,四位機器人學領域的專家談及了他們的觀點和解決之道。他們分別是伯克利加州大學計算機科學教授斯圖爾特·拉塞爾(Stuart Russell),英國布里斯托爾大學機器人學講師薩賓·赫爾特(Sabine Hauert),斯坦福大學生物醫學和計算機科學教授拉斯·奧爾特曼(Russ Altman)和卡內基-梅隆大學計算機科學教授曼努拉·維羅索(Manuela Veloso)。
人工智能(AI)和機器人領域面臨一個重要的倫理抉擇:對于致命性自主式武器系統(LAWS),我們應該持支持還是反對態度?
要不了幾十年,或在未來幾年里,人工智能和機器人技術的發展,將導致LAWS在技術上的完全可行性——自主式武器系統被稱為自火藥和核武器發明以來的第三次戰爭革命。

斯圖爾特·拉塞爾
自動化武器系統在搜索和瞄準目標時無需人工干預,當針對的目標包括人類在內時,其殺傷力是致命的。例如,配備了多軸飛行器的LAWS可以自行尋找并攻擊敵方戰斗人員。但巡航導彈和無人機除外,這類武器還是要由人類來操控的。
現有的人工智能和機器人組件還可以為諸多功能提供物理平臺,如感知、運動控制、導航、測繪、戰術決策和規劃等,LAWS只是集合了這些功能。例如,自動駕駛汽車技術就是一個很好的證明,包括用于執行城市搜索任務的模擬人類戰術控制的DeepMind DQN學習系統。
美國國防部高級研究計劃局(DARPA)的兩個LAWS項目已在計劃之中。這兩個項目分別為“快速輕型自動化系統”(FLA)和“孤立環境下的聯合作戰系統”(CODE)。前者對微型旋翼飛行器編程后,可在城市環境或建筑物內部執行高速無人飛行任務;后者是正在開發的一種空中無人飛行器,可在敵人的信號干擾或人工通信無法正常進行的情況下,完成包括搜索、鎖定、跟蹤、攻擊、評估反饋等一系列任務。其他國家可能也在進行一些相類似目標的秘密計劃。
而“國際人道主義法”——控制人類戰爭時期攻擊行為的國際法——并沒有對此類技術有任何具體規定(可能仍然是適用的)。根據1949年簽訂的日內瓦公約規定,戰爭中任何的人類攻擊性行為必須要滿足以下3個條件:軍事上的必需性;戰斗人員與非戰斗人員的差別對待;軍事目標與潛在附帶傷害之間價值的平衡。1977年補充的馬爾頓斯條款,其相關規定禁止使用“違反人性和公共良知原則”的武器,一些主觀判斷是當前自主式武器很難或無法做出的。
根據日內瓦《特定常規武器公約》的精神,聯合國舉行了一系列關于LAWS的會議,未來幾年內,可能導致產生一項限制或禁止自主式武器的國際條約,如1995年禁止激光致盲武器的使用,否則LAWS的發展有可能因失控而導致軍備競賽的不可避免。
在4月份舉行的《特定常規武器公約》第三次會議上,我被邀向專家提供證詞,并傾聽了一些國家和非政府組織的發言,德國稱將“生與死的決定完全由自主系統決定”是完全無法接受的,日本稱“沒有開發將人類排除在外機器人的打算,完全自主的機器人有可能犯下謀殺罪行。”而美國、英國和以色列認為沒有必要制定這樣一個條約,因為他們現有的內部武器審核流程,足以確保不會違反相關的國際法。
但幾乎所有加入《特定常規武器公約》的國家都提出了對機器人武器鎖定和攻擊目標的決策進行“有意義人工控制”的必要性。遺憾的是,“有意義”的定義仍有待確定。
爭議包括多個方面。一些人認為,自主武器擁有效率和選擇性方面的優勢,通過自動選擇只針對戰斗人員,可最大限度減少平民傷亡。其他一些人堅持認為,LAWS會降低開戰門檻,在沒有直接面臨危險的情況下發起攻擊。另外,LAWS如果掌握在恐怖分子和其他非政府武裝分子手里,可能會對平民造成災難性的傷亡。
LAWS通過讓機器來選擇攻擊和殺滅的對象,有可能違反保持人類尊嚴的基本原則,例如,它們有可能被指派執行這樣的任務:消滅有“威脅行為”的任何人。
按照LAWS技術的發展軌跡,其最終有可能超出人類控制,凌駕于人類之上。這可能是人們最大的擔心。自主式武器的能力,更多受適用范圍、速度、載荷等物理定律的限制,而非受人工智能缺陷的限制。例如,隨著飛行機器人體積變得更小,其機動能力的增強具備攜帶致命有效載荷的能力,也許攜帶填裝有1克炸藥的錐形物就能夠刺穿人的頭蓋骨。盡管有限制,自主式武器的靈活性和殺傷力仍然會將人類置于死地,這樣的未來不是我們想要的。
因此,從事人工智能和機器人領域的科學家有責任表明立場,正如當年物理學家對于核武器,或生物學家對于在戰爭中使用病原體表明立場一樣。應當召開專門的學術會議進行討論,倫理委員會也應對此展開討論,并在一些專業出版物上發表表明立場的論文。如果什么都不做,就等于表示支持LAWS的繼續開發和使用。
——斯圖爾特·拉塞爾,伯克利加州大學計算機科學教授。

薩賓·赫爾特
媒體的一些炒作性的新聞標題,激起了公眾對機器人和人工智能的過度恐懼或過度期盼兩種極端反應,而一些研究人員則完全中止與媒體和公眾在這方面的溝通。
這些問題是我們無法規避的。廣大公眾,包括決策者、投資者和直接受益于機器人領域發展的利益相關者,他們聽到的大多是片面的討論,或者擔心機器人會搶了他們的飯碗而失去工作,或者擔心人工智能有可能帶來潛在的威脅,考慮是否應該通過制定法律來“掌控”這些目前仍處于假設中的技術。
我和我的同事努力利用一些場合向人們解釋,我們不是在做什么邪惡的事情,我們多年來致力于開發的自動化系統,可以更好地幫助老年人,改善公共衛生保健現狀,讓人們的工作環境變得更加安全、更有效率,還能夠促進人類對太空和海洋的探索。
從事這一領域研究的科學家有責任成為一名信息傳播者,應該充分利用媒體這一公共平臺引導展開相關討論,我們可以探討機器人學和人工智能的最新進展以及限制因素,描繪人工智能發展的圖景,揭開人工智能技術的神秘面紗。我曾經有過通過社交媒體“眾包”設計治療癌癥的納米機器人的經歷,我的第一個博士生就是通過其納米藥物博客發現的。
人工智能和機器人領域需要有與著名評論家溝通的思想領袖——如物理學家斯蒂芬·霍金(Stephen Hawking)和企業家兼發明家埃隆·馬斯克(Elon Musk)——參與到諸如瑞士達沃斯等世界經濟論壇。另外,公眾的參與也有助于資金的籌集,如麻省理工學院(MIT)的辛迪·布雷西亞(Cynthia Breazeal)在開發家用機器人JIBO時眾包集資,募集到了220多萬美元資金。
當然,這種交流也存在不少障礙,包括許多研究人員沒有推特和博客,以及時間限制等。盡管如此,開展機器人和人工智能方面的培訓、支持和鼓勵是必不可少的——由我合作創辦和主持的Robohub.org網站可以提供上述幫助。Robohub建立于2012年,是一個致力于機器人社區與公眾溝通的平臺,提供諸如機器人和人工智方面的速成課程。我們邀請專業的科學傳播者協助相關研究人員推介后者的研究工作,將他們的發言壓縮在5分鐘之內,同時把現場拍攝內容上傳到YouTube。
迄今,我們已經建立了一個匯集大量博客和微博的門戶網站,旨在讓更多的機器人和人工智能愛好者接觸到相關信息和知識。通過這類社交媒體,使研究人員擁有一個能夠展開平等和諧討論的公共平臺。
科學傳播的好處可以列出許多,但這種激勵必須是來自于資助機構或研究機構。麻省理工學院機器人研究員羅德尼·布魯克斯(Rodney Brooks)1986年提出的“包容式體系結構”,是一種可以對環境做出反應的仿生機器人程序。在之后的近30年時間里,他的文章被引用了近10 000次。包括由布魯克斯創辦的再思考機器人公司開發的一段機器人視頻,在一個月時間里就產生了60 000多條評論。這對如今的公共論壇在體現研究成果的影響力方面有助益。
政府、研究開發機構和行業協會都歡迎這類互動,但是每個具體開發項目與公眾的溝通卻是極少,公眾也很少能接觸到。以我看來,全球的人工智能和機器人技術利益相關者,應該拿出預算中的一小部分(比如0.1%)用于與公眾的互動,讓更多的人對該領域的發展有更多的了解。目前很少有促進公共領域內機器人學和人工智能知識普及的努力,這種平衡是急需的。
一個致力于機器人社區與公眾互動的平臺,將吸引公眾介入與他們有切身關系的新一代機器人的討論。同時,我們要防止媒體炒作帶來的對機器人技術和人工智能等相關政策的誤解,這一點是至關重要的。
——薩賓·赫爾特,英國布里斯托爾大學機器人學講師。

美國宇航局的Robonaut 2機器人可用于醫學、工業領域以及空間站的建設

拉斯·奧爾特曼
在生物醫學領域,人工智能不僅有助于科學新發現,還對改變衛生保健現狀具有驚人的潛力。如用于數據分析的人工智能系統在對基因組學、蛋白質組學和代謝組學數據,電子病歷以及監測健康狀態的數字式傳感器數據等進行分類的基礎上重新進行定義。
其中,群分析可以用來定義新的疾病癥狀,將某種疾病從被認為是相同的疾病中分離出來,或找到與其他疾病相類似的潛在缺陷,而模式識別技術能將疾病與最佳治療方法相匹配。例如,我和同事們正在進行的患者群體對調節免疫系統藥物反應的識別項目。
在給病人看病時,醫生可以從虛擬群體數據中尋找與身邊病人相類似的“患者”,用以權衡診斷治療方案。通過這樣的一個系統互動,或結合患者診斷數據和虛擬患者群體中類似病例的數據,醫生可以做出診斷和治療決定。
在具體的運作過程中,我有以下兩點擔憂。首先,人工智能技術可能會凸顯現有醫療體系存在的差距,而要改變這種狀況,則需要創建某種能夠讓所有病人受益的醫療體系。以美國為例,人們享受的是兩種不同層次的醫療護理,在這樣一個兩級醫療體系中,只有特殊群體或那些支付得起費用的人,才能從先進技術和新的醫療體系中獲益。窮人是完全與之無緣的。這既不公正也不公平。而確保人工智能技術帶來益處的公平分配原則,是政府以及技術開發者和支持者共同的責任。
其次,是醫生對高性能人工智能系統輸出數據的理解和解釋能力。對輸出的數據結果,如果不能知其然并知其所以然,大多數醫生是很難接受醫療決策輔助系統得出的某個復雜治療建議的。
遺憾的是,人工智能系統越先進,往往也越難于理解和解釋,如通過貝葉斯分析法直觀顯示基于概率的評估結果。因此,創建人工智能系統的研究人員需要讓醫生、護士和其他相關人員了解并合理使用這些系統。
——拉斯·奧爾特曼,斯坦福大學生物醫學和計算機科學教授。

曼努拉·維羅索
人類是集感知、認知與行動為一體來認知世界的,即人類是通過身體這一天然傳感器來評估周圍世界的狀態:首先用大腦思考,然后制定行動計劃,最后通過四肢來實現目標。我的研究團隊正在嘗試構建能與人類做同樣事情的自主機器人,這樣的機器人由人工傳感器(包括攝像頭、麥克風和掃描器等)、算法和執行控制機構組成。
但是,在能力上自主機器人與人類有著很大的不同。機器人也許可以有知覺能力、認知能力和有限的行為能力,但它們可能無法完全理解某個場景,不能完全識別或操縱所有的物體,也不能理解所有的口頭或書面語言,或順利通過復雜地形。我認為,機器人應該成為人類的助手,而不是取代人類。
為更多地了解機器人和人類是如何協同工作的,在過去3年里,我們與自己研制出來的四個輔助機器人CoBots一起共享實驗室和工作間。這幾個機器人有點像機械講臺,它們有避開障礙物的輪子,可以向不同方向移動;有深度視覺的相機和激光雷達系統;有處理信息的計算機系統和人機交流屏幕;還有可攜帶物件的籃筐。
早前,我們就意識到現實世界環境對機器人的挑戰,CoBots不可能識別出遇到的所有物體,沒有用來開門、拿東西的手和手臂,雖然它們可以通過語音與人類交流,但可能并不能真正識別或理解話的意思。
為此,我們引入了“共生自主”的概念,讓機器人能夠從人類或互聯網上尋求幫助。現今,在我們的實驗室大樓里,CoBots機器人與人類互相幫助,克服了彼此的局限:CoBots可陪同來訪者參觀大樓,或在兩地之間搬運物體,并在這個過程中收集有用的信息。例如,生成精確的空間圖,顯示溫度、濕度、噪音和光線水平,或WiFi信號的強度等。我們需要做的就是幫助機器人開門,按下電梯按鈕和拿取物體等。
但是,機器人與人類的安全共生共存仍需克服一些障礙。我的團隊正在研究如何通過語言和動作使得機器人與人類更容易交流,以及在物體識別、任務執行和目標達成的過程中,機器人與人類如何更好配合等問題。
我們還在研究如何改善機器人的外觀來強化與外界的互動,特別是通過指示燈的顯示來更多揭示機器人的內在狀態。例如,指示燈為黃色,表示機器人正在忙碌;指示燈為綠色,表示機器人處于空閑狀態中。
盡管未來的路還很長,但我相信,如果人類與機器人能夠互助與互補,那么人工智能與機器人將會有一個光明的未來。
——曼努拉·維羅索,卡內基-梅隆大學計算機科學教授。
[資料來源:Nature][責任編輯:則鳴]