鐘偉
此次事件,之所有引起人們的高度關注,并被缺乏理性地無限放大,主要原因還是在于人們對于自己將來是否會被人工智能所“終結”的擔憂而導致的
7月1日,德國汽車制造商大眾稱,該公司位于德國的一家工廠內,一個機器人“殺死”了一名外包員工。
大眾發言人海克·希爾維格表示,這名員工于6月29日在保納塔爾的工廠內喪生。希爾維格說,死者今年22歲,在安裝靜止的機器人時,被機器人抓住,擠向了一塊金屬板。檢察官已經對事故進行了調查。在西方工廠,發生與機器人有關的死亡事故非常罕見,因為機器人和人之間有安全網籠,防止機器人與人有意外的身體接觸。
這位發言人說:“我們初步的結論是人為失誤,而不是機器人出了問題。機器人一般是按照輸入的程序完成組裝過程中的不同任務,而且是在封閉管制區域內抓取汽車零件進行操作。”據他描述,該名22歲的合同工人當時正在平時用來隔離工作人員和機器人的安全籠內設置機器人的操作程序,事故發生時另一名工人也在場,但因為身處安全籠外而安然無恙。
是“謀殺”還是安全事故
當英國《金融時報》一名記者將這則新聞發布在社交網絡后,立即得到了多次轉發,還引發某些網友對事件不太友好的議論和嘲弄。有人發現這名女記者與電影《終結者》中女主角Sarah Connor(人類反抗機器人領袖的母親)名字非常相似,因而認為此事詭異。與此同時,“機器人殺人案”也似乎成了不謀而合的定論。
機器人“殺死”人無疑是一個令人震撼的消息,似乎意味著《終結者》所預言的機器人開始崛起并與人類為敵進而戰勝人類的故事將成為現實。然而,在事件真相尚未完全調查清楚之前,斷言機器人“殺人”似乎言之過早。機器人殺人,是否意味著“終結者”已經出現?對工業機器人有所了解的人,估計都會給出否定的回答,因為目前最先進的工業機器人也不具備“蓄意殺人”的智能,這只是一次工業事故,將此事件定位為“機器人殺人”,更多的只是“標題黨”博出位的一種行為而已。
而且,涉及機器人的人類死亡事件,其實并不是什么新鮮事。自動化裝備導致的工廠致命事件可追溯至幾十年前,早在20世紀70年代就發生過自動化組裝生產線傷人的事故。
大眾汽車機器人“殺人”事件其實與1981年日本工人發生的意外事故如出一轍。然而34年過去了,“機器人殺人”、“殺手機器人”這樣的描述卻仍未消失。
人工智能vs機器人
此次事件,之所有引起人們的高度關注,并被缺乏理性地無限放大,主要原因還是在于人們對于自己將來是否會被人工智能所“終結”的擔憂而導致的。
已有很多人提出并表達過這樣的憂慮,英國理論物理學家霍金就表示,未來100年內,人工智能將比人類更為聰明,機器人將控制人類。2013年,霍金還與特斯拉CEO伊隆·馬斯克(Elon Musk)共同發表公開信,認為人工智能的發展應受到控制。如果智能機器無法保障安全,人類可能陷入黑暗的未來。
具體而言,人工智能和機器人有什么區別呢?人工智能(Artificial Intelligence,簡稱AI)是研究使計算機來模擬人的某些思維過程和智能行為(如學習、推理、思考、規劃等)的學科,主要包括計算機實現智能的原理、制造類似于人腦智能的計算機,使計算機能實現更高層次的應用。
“機器人”(捷克語Robota)原意是用人手制造的工人。該詞源于捷克作家卡列爾·查培于1920年創作的一部名叫《洛桑萬能機器人公司》的幻想劇中。機器人是自動執行工作的機器裝置。它既可以接受人類指揮,又可以運行預先編排的程序,也可以根據以人工智能技術制定的原則綱領行動。它的任務是協助或取代人類工作的工作,例如生產業、建筑業,或是危險的工作。
因此,人工智能其實就是對人的意識、思維的信息過程的模擬,而人工智能機器人就是像人類一樣具有自我意識的機器人。
機器人“殺人論”
不過,目前工業環境下的機器人和科幻電影中的擬人機器人還是差別巨大的。這種根據專業性功能需要設計出來的工業機器人,沒法和根據美術設計的“恐怖谷定律”設計出來的擬人機器人比親和力。(恐怖谷理論是一個關于人類對機器人和非人類物體的感覺的假設,它在1970年被提出。當機器人與人類相像超過一定程度的時候,他們的反應便會突然變得極為反感。哪怕它與人類有一點點的差別,都會顯得非常顯眼刺目,讓整個機器人顯得非常僵硬恐怖,讓人有面對行尸走肉的感覺。)
此次德國大眾公司出事的這臺機器設備,應該就是工業機器人。該機器設備依賴于特定編程程序指令的控制,而非人工智能的自我控制。在此事件中,更大的可能性是技術員在安裝調試過程中,意外觸碰或啟動了某些工作程序,致使機器人在指令的驅動下,發出一些動作,而這些動作恰巧又撞到并勾起正在范圍內工作的技術人員,由此對其造成了致命的傷害。
在所有關于“機器人殺人”的言論中,我們不難發現:大家都在或有意或無意地將因機械故障導致的安全事故與有意識行為的“殺人”事件混為一談。所謂安全事故,是指生產制造的過程中突然發生的,傷害人身安全和健康的意外事件;而殺人事件則是有意識的,在主觀行為驅動下導致的事故,兩者之間有著本質區別。
如果因此非要給這臺機器設備定個殺人的“罪名”,那估計只能以“陰謀論者”的邏輯,生產這臺機器設備的廠家,在制造的過程中便植入了“殺人”的指令。否則,僅憑當前人類在人工智能方面的技術發展,是很難支撐起“機器人殺人”論調的。
其實,但凡有點生活經歷或經驗的人都知道,機器設備的操作是有風險的。而且,在我們的日常工作和生活中,因人員的操作不當或失誤導致的“機器人殺人”事件時有發生。
“終結者”現階段不存在
若工業機器人是一種工具,一定程度上解放了工人的雙手,那人工智能則是另一種工具,它在一定程度上替代部分腦力勞動,創造更高效的服務業經濟。接下來,人工智能的商業化發展將會引起服務業的重點關注,工業機器人替代人類完成了很多重復勞動、體力勞動、危險勞動等工作,而人工智能的市場價值不只是“替代”關系那么簡單,它除了可以取代一部分基礎工作外,還能為高端工作提供“智力”輔助,其產生的價值和影響都將更為深遠。
但這種影響有大到像諸多電影演繹的那樣,可以超越甚至控制人類的程度嗎?其實,這種發展遠比我們幻想的要慢。
致力于人工智能機器人研究的科學家認為,沒有必要大驚小怪。人工智能領域的學者、中國科學院院士譚鐵牛說過,當前的人工智能有智能沒智慧、有智商沒情商、會計算不會算計。要想造出超越人類智能的機器人,人類在科學研究上還有不小的距離。在看得見的未來,人工智能的整體水平還難以超越人類智能,不足以威脅人類的生存。
2014年,研究人員對世界上53個搜索引擎(人工智能)的智商與人的智商進行了測定比較,結果發現,美國的谷歌搜索智商最高,達到26.5,中國的百度智商次之,為23.5,智商最低的是新西蘭的搜索引擎SearchNZ,為6。但人的智商是,18歲為97,12歲為84.5,6歲為55.5。因此,即便谷歌的高智商也只能相當人類的幼兒,在智商上,智能機器(人)是難以與人為敵并殺死人類的。
未來人工智能機器人是否會“蓄意殺人”,或是奴役人類?業內至少有兩派觀點。一派認為計算機程序無法具備人的理解能力,因此擔心用集成電路、軟件程序等實現的人工智能威脅人類,是杞人憂天。例如,美國哲學家塞爾提出了“漢字屋論證”(也稱“中文房間思想實驗”),試圖證明計算機程序盡管能對各類問題輸出正確的答案,但它并不“理解”這些問題。另一派觀點與之針鋒相對,稱為“強人工智能”,認為計算機程序與人腦思維沒有本質區別,人工智能發展到一定階段后,就具有推理、學習和解決問題的能力,并將擁有自我意識。
一旦擁有了自我意識,智能機器就可能反叛人類。霍金、蓋茨、馬斯克等科技界名人對人工智能的擔憂,正基于此。人造機器真的會如美國奇點大學校長庫茲韋爾預測,在本世紀中葉前超越人類,“進化”成高等智能生命?
如果只是出于這種可能性,就放緩人工智能技術的研發,那便是因噎廢食了。事實上,盡管蓋茨加入了反人工智能陣營,但微軟正在這一極具商業前景的領域投入重金。
“人工智能的冬天”?
因此,與其鼓吹“機器人殺人論”,不如關注一下這次事故后的具體問題以及解讀方式。這類事件以前發生過,以后也還會再發生。盡管安全標準持續提高、人機交互中發生事故的可能性在下降,這種事件也還是會越來越頻繁,因為機器人的數量在不斷增加。
這意味著,對這類事故做適當的解讀是十分重要的。而要做到“適當”,關鍵是要用準確和恰當的語言來描述它們。雖然我們感覺,把德國大眾汽車工廠事故稱為“機器人殺死工人”是合理的——大多數報道也的確這樣做了,但是這樣做卻是在誤導,甚至近乎不負責任。相比之下,把表述改成“員工在機器事故中喪生”要好得多。
誠然,把報道標題改成上面這樣就沒那么抓人眼球了,但這正是問題的關鍵。事實是,不管人們從科幻小說看到并相信的機器人形象可能是什么樣子,也不管機器人在遙遠的將來可能做些什么,我們認識中的“真實意圖”、“情感”和“目的”,現在的機器人還通通沒有。而與最近那些危言聳聽的說法相反,它們在近期也不會獲得這些能力。
汽車工廠中的機器臂,目前并不具備目的、意圖或情感這樣的東西,在短期內也不會有。這些機器人只能以颶風(或者汽車和手槍)“殺”人的方式去置人死地。它們無法像某些動物那樣殺人,更別提人類意義上的“謀殺”了。然而,大多數人看到“機器人殺死工人”時,首先涌入他們腦海的,卻偏偏就是“謀殺”。
堅持要使用正確的表述并不是在咬文嚼字。“機器人殺人”這樣的說法冒著很高的風險。一方面,對機器人毫無根據的恐懼感,可能會導致另一個毫無必要的“人工智能的冬天”出現——技術的開發將不再獲得研究經費。這將會延遲或拒絕掉機器人所能帶給工業和社會的大量好處。
但即使你對機器人帶來的益處不太樂觀,你也仍然應該正視這個議題。因為機器人并沒有責任感,人類才應該為機器人做的事情負責。然而,隨著機器人越來越普遍,人們會越來越覺得它們真的具備自主性和意圖,因為它們看起來似乎有能力并且應該為自己負責。
然而機器人并沒有責任,也沒有負責任的能力。
雖然可能有一天,這些看上去理所應當的事終將成為現實,但在很長很長的一段時間內,這些“看起來是”的觀點還是錯的。現在,我們甚至已經試圖把人機交互分成我們負責的部分和它們負責的部分,這不但引發了讓機器人當替罪羊的危險,而且放過了那些本應負全責的人類設計者、配置人員和用戶。
在大眾汽車的事故中,一位公司發言人稱:“最初結論表明,人為錯誤才是罪魁禍首,而不是機器人的問題。”在其他報道中,則說稱是人為錯誤而非機器人的“過失”或“責任”。這樣的語言其實在暗示,在其他情況下,機器人可能會被認為該為事故負責。
如果是機器人存在問題,那么不管問題是錯誤的材料、失靈的電路板、糟糕的程序還是安裝或操作協議上的不良設計,這個問題仍然會是人為的錯誤。暗示機器人存在“過失”,實際上是在免除真正與需要為機器人事故負責的人類的責任。
機器人的法律問題
除此之外,這起悲劇更多引發的是人們對機器人相關的法律問題的關注。德國檢察官已經對事件展開進一步調查。檢察官也在考慮是否應提出控訴,如果提出,起訴的對象又會是誰。
此外,對大眾工廠出現的這一事件,機器人技術專家們也傾向于與機器人無關。
英國薩塞克斯大學計算機科學與人工智能專業講師布萊·惠特比(Blay Whitby)博士這樣認為:“在當今科技水平下,我們必須明白機器人不應當被‘責怪’,它們尚未擁有相當的決策能力。這次不幸的事故從技術層面和道德層面來說,遇難的機器操作者難免其責,因為事發時他沒有使用安全防護措施。而事故中更復雜的關鍵點在于‘安全防護’是由電腦軟件提供的,那名工人正在設置的過程中,因此機器人出錯也更加情有可原。”他還說:“當今世界自動化程度日益提高,我們將越來越多的決定權交給了各種各樣的機器。記者們應當多關注這類事件,以提高公眾對科技的認知,以及公眾對道德事件的監督。”
英國謝菲爾德大學人工智能和機器人技術專業名譽教授諾埃爾·沙克(Noel Sharkey)則認為:“機器人并不按照自己的意愿行事,除非被輸入了程序,否則不會襲擊人類。工業用機器人有可能非常強大,通常有安全性設計。但是,在操作或編程中肯定也會出現人為錯誤,或者機器失靈,導致發生事故。當機器人技術不斷革新,我們可能會看到更多類似的事情發生。”
顯然,專家們的觀點多傾向于機器人是無辜的。畢竟,目前現實中的機器人的智能程度尚未能完全擺脫人類的操控,那樣的畫面還僅限于電影作品中的遐想。
一方面,智能機器的設計和研發應當更加注重安全性能,防止意外發生,以及盡可能地降低造成人身傷害或財產損壞的風險;另一方面,隨著智能機器的迅速發展和應用,或許我們從未面臨的法律問題將不斷出現,判定相關法律責任的標準和依據需要重新審視和探討。