編譯 王玥嬌 編輯 徐臻
智識
人類真能派機器人殺人放火嗎?
編譯 王玥嬌 編輯 徐臻

電影《復仇者聯(lián)盟2:奧創(chuàng)紀元》中的人造機器人奧創(chuàng)
一旦錯殺,誰為“殺人機器人”負責?
“殺人機器人”(致命性自主武器系統(tǒng))正站在倫理辯論席上。
簡而言之,他們能夠代替士兵自動殺傷敵人。機器人們由人類遠程操控,發(fā)展至由計算機軟件和傳感器裝置控制,進而全自動執(zhí)行識別敵人、判斷敵情和殺死敵人等任務。
這是對軍方的極大誘惑:無需報酬、不休不眠、沒有情緒且自主執(zhí)行上級命令。最重要的是,即便它們在戰(zhàn)場上大規(guī)模“死傷”,國內民眾也不會感到任何悲痛。

目前,最接近“殺人機器人”的是韓國研發(fā)并開始使用的一款哨兵機器人。它的個頭與3歲孩子相當,重17公斤。這款造價約20萬美元的機器人能識別2千米(白天)和1千米(夜間)以外的人、汽車或樹木,還可探測到4千米(白天)和2千米(夜間)以外的移動物體;能夠盤問10米以內的來客,并在偵測到闖入者時發(fā)出警報。
距離“殺人機器人”真正部署到戰(zhàn)場可能還需要20-30年,但已經引發(fā)對機器人武器軍備競賽的擔心。
“殺人機器人”是否有權處置人類生死?
在所有管理機器人的規(guī)則和道德框架中,最著名的是1942年的阿西莫夫三大定律:機器人不得傷害人類,或因不作為使人類受到傷害;除非違背第一法則,機器人必須服從人類命令;在不違背第一及第二法則下,機器人必須保護自己。
這套規(guī)則在科幻世界規(guī)范著機器人的行為,因為小說設計成所有的“正子腦”都由同一位天才科學家設計出來,別人的設計都失敗了。但在現實世界中,設計和使用機器人的人類才必須成為這種規(guī)則的遵守者。
致力于制定機器人規(guī)則的英國工程和物理科學研究理事會成員喬安娜?布萊森認為:“人類需要建立自身的道德框架,機器人不用。因此人類有必要做出選擇,把機器人放在人的道德框架內才不會殘殺地球上的其他生命。”.