褚浩宇
(中原工學院,鄭州 450007)
自1962 年第一臺工業機器人在美國誕生,到現在與脫胎于計算機技術的人工智能高度結合,機器人的智能化程度越來越高,實現了自行捕捉、分析、決策、運轉的高自主自治性運作的質的飛躍。智能機器人不但改變了人類的生活、思維及認知,而且展現出更多“人”的特征,其數據捕獲、分析和處理能力不斷發展,并以一種“人”的角色參與到人類生活中,由此也衍生了諸多倫理問題。因此,謹慎對待智能機器人“雙刃劍”特性帶來的問題,思考如何緊握這把“前行利器”并提出針對性策略十分必要。
智能機器人為人類分擔了諸多高風險和高難度的工作。在工業方面,智能機器人接手了大量的簡單重復性工作,在運用和普及率方面呈上升趨勢。在制造業方面,智能機器人替代了越來越多的人工作業。在金融業,智能機器人被逐步運用到銀行與客戶、信貸房貸等互動環節。在醫療方面,智能機器人的應用促使了手術低誤差甚至是零誤差的實現,并且其類“人”性也運用于精神類患者的陪同和治療上。在軍事上,軍用智能機器人的研究和運用仍是時下熱點,如“黑熊”、“獵犬”等軍用智能機器人可幫助人類完成較危險、艱難的任務,其自動化、高運算、實時反饋等優勢成為各國軍事發展的重要內容。在服務業,智能機器人不受人類生理局限以及時間和空間的限制,能為人類創造更多的價值。
智能機器人是對人類的表征行為(包含對人類語言、動作)進行捕獲,通過內設的計算機運算程序,調用適合的預設算法和函數,對捕獲到的信息進行處理、分析并以既定方式對人或周圍行為做出反饋的一類機器。其主要特征有:一是能自主捕獲外在信息;二是具有自主“判定”和“思維”的能力,能對捕獲信息進行獨立的判斷、分析和抉擇;三是能根據預設原則對情景實況做出相應的語言、行動和具體表征上的反饋。
馬克思主義哲學認為意識是人類大腦特有的機能。人類可以能動地改造世界和認識世界,與其他生物的主要區別是人腦具有意識。道德主體包含獨立人格、主體意識、獨立性和能動性。如今人工智能技術發展迅猛,智能機器人的智能化水平也在逐年提高,符號奠基與語義識別技術得到不斷突破,智能機器人在技術足夠發達的情況下能否產生類人的獨立“意識”,這是值得思考的問題。采用邏輯學演繹推理中的三段論推理:R 代表智能機器人,D 代表獨立意識等相關條件,Z 代表社會地位或道德主體性;如果主體R 具有條件D,任何具有條件D 的主體都具有Z,那么主體R也應具有Z。依照目前情況來看,具備條件D 的只有人類。但依照現今人工智能技術的發展速度,在不遠的將來如果智能機器人R 實現足夠智能化并具備條件D,其對社會地位Z 的享有就非常值得人類思考。[1]雖然目前人類對智能機器人的使用大多讓其作為助手和工具無償提供便利和幫助,但當人工智能與智能機器人的發展水平足夠高時,具備了類人的獨立意識與思維判斷能力,那如何對待智能機器人以及給予其何種地位就非常值得我們思考。[2]依照目前的價值判斷,當智能機器人具備了上述能力,人類理應給予智能機器人尊重,但地球生存空間和可用資源有限,若繼續將智能機器人視作工具,這很可能與我們的價值判斷和普世價值觀相違背,我們需要界定這些行為是否會造成新的奴役與壓迫。[3]另外,隨著技術的不斷發展,科學家有望通過“人機結合”方式實現人的“永生”或“強化”。就好比一些影視作品中表現的那樣,當科學發展到能對人類大腦信息進行研究、儲存和轉移的水平,高度智能化的機器人就成了一個可寄宿的客體,人類就有可能脫離肉體的窠臼,實現精神層面的“永生”。但真到了這種程度,這種存在能否被稱為人類還很難說,而且這涉及對人類尊嚴的褻瀆,這種存在是對人類生命的延續還是對人類的囚禁或物種的毀滅有待探討。[4]隨之也帶來諸多問題,如對人類記憶智能機器人的銷毀行徑是否構成現有意義上的謀殺;對機器人的常態化操作是否會變為新的禁錮或囚禁。這種類似甚至超越基因編輯的行為絕不是實現了人類的進化,而是一種病態甚至是對人類異化的危險行徑。
雖然目前智能機器人尚未大范圍投入使用,但按其發展趨勢,我們必須關注其極有可能帶來的價值判斷和責任認定問題。如將智能機器人應用于軍事,顯然人類實時操控所有機器人不太現實,這就需要智能機器人進行自我操作。而根據情景、環境、立場等因素,對目標以及是否符合世界人道主義精神的判定就是擺在人類面前的一大難題。如何不傷及無辜或放棄抵抗的士兵,如何不造成大范圍的冰冷屠戮,如何將其自身陣營立場與人道主義精神相結合,做到與人類主觀識別相同的程度,并有定量的標準或數據來保證其做出精確的價值判斷是十分必要的。[5]智能機器人未來能達到的認知水平和判斷水平尚不可知,在復雜情景條件下捕捉的信息能否支撐其做出完全正確的判斷存在質疑。如恐怖主義者利用威逼、脅迫等方式把無辜者偽裝成敵對目標、陣營立場的傾向性、黑客或恐怖主義的控制入侵等,這些問題人類都難以抉擇,所以作為目前主觀判斷性尚不如人類的智能機器人,在這些問題解決前不應得到大范圍使用。
此外,倘若智能機器人由于各種原因在價值判斷上出現了問題,進行了錯誤的行為并帶來了一系列連鎖反應和后果,這些損失如何追責以及向誰追責也是一大難題。如用于醫用和軍用的智能機器人在未受到人類實時控制或遠程監控下進行自主工作時,其做出的判斷和行動是否可靠應引起重視。醫療機器人對待非麻醉狀態的病人能否正確捕捉病患實時狀態,像人類醫生一樣酌情恰當地溝通、引導等操作;手術中因特殊情況導致病人手術失敗或死亡等情況,責任判定如何劃分。[6]該責任認定就存在是追究機器人的責任進行重構改良或銷毀,還是追究負責操縱監管的操作員,亦或是生產智能機器人的制造者和廠商的難題。這些對象是否負責、負多少責任、如何懲處都是擺在現有人類法律、安全和穩定方面的大難題。
相比人類醫生,人工智能醫療對病人隱私考慮得不太周全。機器醫療會將接觸到的病人信息保存于云端或存儲器,即使人工刪除也有辦法尋回;機器的“保密性”也不像人類一樣存在情感,任何人都有可能獲取,即使有加密措施也不能完全阻止,這樣病人隱私就有可能被非法竊取。同時,智能機器人能捕獲外在信息,并對其進行相應的分析和運算,這勢必會將其捕獲的信息進行保存或儲存至服務器,這些信息就會存在被非法竊取、非正常調取、保密性差、易受攻擊等問題。
智能機器人對社會也存在沖擊。一是對社會公平的沖擊。智能機器人運用在醫療中讓以往難以攻克的領域取得了長足進步,也給諸多病患帶來生的希望,但其受眾仍只是經濟能力較高的小部分人群。人類在發現智能機器人醫學價值的同時,也應考慮如何推廣和普及這項技術,以及在逐步大眾化的過程中可能造成的社會問題。如富人和窮人由于收入水平的差距影響其治愈情況和壽命,導致他們今后的社會競爭加劇,進而造成更大的貧富差距并激化社會矛盾,甚至引起國家和社會的動蕩。此外,對于專業工作如醫療智能機器人的使用也可能使醫生對其精準的數據和高效的運算產生依賴,從而以一種“智能機器人+”的方式降低或削弱行業內技術人員的專業水平和實際操作水準。[7]二是對社會就業的沖擊。智能機器人在簡單重復性工作上相比人類具有極大優勢,很可能完全取代現有大量的流水線工作,進而增加就業壓力。特別是其大量應用于手工業,勢必對傳統手工業者和工廠工人造成沖擊。失業者相比智能機器人處于絕對的弱勢地位,而其再就業也將成為不可忽視的社會問題,諸如社會無業游民增加、失業者心理健康甚至威脅社會治安穩定,這些都是我們在發展智能機器人的過程中不可忽視的問題。
社會倫理標準是不斷發展的,不同時期有不同的倫理標準。評判是否發展和怎樣發展智能機器人應站在歷史的角度,與時俱進地看待。要注重人民群眾才是歷史的主體,從世界“人民”的角度和人類自身的倫理構建出發來評判智能機器人的發展,并建立在人類對其絕對控制之上,在現有研究成果如阿西莫夫三定律、美國《Robot Ethics》等有關智能機器人倫理問題的基礎上積極汲取營養。即使智能機器人發展到具有獨立思考的水平,人類也有方法與手段對其進行控制,如“絕對開關”、“禁令代碼”等強制措施。在緊握這把“雙刃劍”,保證其不傷害人類利益的前提下,適度公正地對待智能機器人,在可控范圍內造福人類。
智能機器人在設計時應考慮其潛在的可能性,將人類可接受的道德價值和倫理規范轉化為智能機器人的技術功能,最大可能壓縮其不可控性和威脅性,使其各項功能的發展符合人類設計的“初心”。同時,遵從道德價值和“倫理物化”的設計方式,在價值判斷設計中,將倫理學觀點從以往的“旁觀者”化為人工智能學科技術設計的“合作者”和“共同體中的醫院”,將道德價值與倫理規范整合嵌入到具體的智能機器人設計過程中,將倫理觀念“外化于物”。[8]另外,技術設計者如科學家、工程師、設計師等更要將道德價值與倫理規范“內化于心”。當前人們在享受科技快速發展帶來便利的同時也逐漸對其發展有了失控的恐慌,因此技術設計者更應牢記其作為技術創造者的責任與使命,時刻銘記發展技術的目的是為了造福人類,從技術的起步、發展階段投入更多關注,引導其潛在的發展方向指向安全化、道德化,規避危害人類的潛在趨勢。加強技術工作者的倫理教育培訓,形成與倫理觀念相契合的知識和思維體系,以達到更高層次的“道德嵌入”。
政府要充分發揮制度與政策的作用,指導智能機器人技術朝著公平、利民的方向發展,不斷提高技術的可行性,并通過適當的動態調整發揮科技政策的推動作用。同時,不局限于理論框架,把目光投向現實世界,善于運用學科結合、社會調研等方法,聽取群眾心聲,了解群眾期待的“好技術”,并利用政策手段約束不良發展態勢,引導其朝正確方向發展,解決其所帶來的社會問題,為科技政策的制定提供倫理基礎和道德辯護。