李 洋 王曉敏 吳 影 周 嵐 劉 星
羅德里克·費斯(Roderick Firth)[1]在1952年提出了著名的理想觀察者理論,該理論主要聚焦于個體道德判斷錯誤所引發的相關問題:個人由于錯誤的道德信仰、缺乏關鍵信息、道德偏見等限制易得出錯誤的道德判斷,從而做出錯誤的道德選擇。因此,設立一個全知全能、公正和無私的理想觀察者,對化解道德沖突十分必要[2]。費斯的理論雖然獨辟蹊徑,但它更類似于一個組織結構,對于人類繁雜的日常道德判斷與道德選擇,理想觀察者角色似乎是不可能實現的。然而,有科學家提出,在某些條件下,我們的認知和道德能力是可以分布在人工智能上的[3],21世紀的人工智能、賽博空間和虛擬現實已經發展到前人無法想象的高度,人工智能具有理解和擴展知識的可能性,可以創建具有人類價值基礎的智能顧問,幫助人類解決道德問題[4]。例如,我們通常無法做出符合自己道德目標的選擇,因為情感和直覺的判斷通常會取代信息的收集、反思和計算[5],而人工智能能夠摒棄人類生理構造中不利于道德決策的部分,更理性、更直接地做出道德判斷。2015年,薩弗勒斯庫(Savulescu)和馬斯倫(Maslen)最早考慮把此想法落實在具體的技術層面,提出了“道德人工智能”理論[6]。
目前討論的人工智能道德顧問是指利用人工智能技術為個體提供適宜的道德建議,把人工智能應用到人類道德生活。一些學者認為,人類生理能力缺陷,有時不可能由后天的道德能力訓練得到改善,因為它通常根植于我們的身體機能中,如低血糖的人更容易發生偏執行為[7]、血清素低下的人更容易使用暴力[8]。因此,人類易受某些情緒的影響而扭曲道德判斷,所以需要一位道德顧問。目前,對道德提升的普遍反對意見是它對行為主體的定義無法達成一致,所以在道德提升方面所做出的科技努力可能面臨挑戰。而提倡“人工智能道德顧問”技術的學者則認為,其面臨的只是一些生物醫學干預的問題,一個為用戶量身定制的道德人工智能不僅可以保持道德價值觀的多元化,而且還可以通過幫助用戶克服其天生的心理局限來增強其自主權,所以道德人工智能比其他形式的生物醫學道德增強更有優勢[9]。
實際上,我們現在已經廣泛使用了某些軟件來輔助我們決策和判斷,例如,智能環境處理器,人性化的嵌入式硬件設備、無縫的移動/固定通信機制、人類自然感覺的界面、可信任性和安全性等。人工智能技術以超越人類自主決策的能力正在逐漸介入甚至取代個體社會的日常事務判斷。所以,在人工智能技術的社會廣泛應用方面,我們可以得到技術社會應用的支持,甚至可以認為它是科技進步和社會發展的自然產物。
正如埃德蒙·羅爾斯(Edmund Rolls)所說,“遺傳”和“學習”在指導我們的行動和意圖以及我們的選擇和情感方面起著關鍵作用。人類是已知的生物系統,顧問們做出的判斷必須與人類做出的判斷在生物學和心理機制上相一致[10]。但是從現實層面看,承認“人非完人”和“注定實現不了道德理想”是發現問題的前提。歷史證明,濫用技術將威脅人類自由[11]。但科技本身是中性的,無關乎道德善惡。因此,科技對人類及環境的責任應完全由人類承擔,在應用人工智能技術和產品時,必須高度警惕其在社會倫理領域中的潛在風險。
在費斯的理論中,理想觀察者雖然具有全知全能、清楚地了解事實和公正的特點,但這樣的理想觀察者也可能是溫和的虐待狂[12],因為我們事先假設了道德合法性的標準,無論使用者是圣徒還是精神病患者,是道德的或是不道德的,是利己主義的還是利他主義的,都會接受被認為合理的道德理論。這就可能導致道德相對主義的偏見產生,主要表現在以下方面。
首先,道德標準的植入偏見。作為新興領域,人工智能道德顧問技術可能面臨立法滯后的不利影響[13],如在《民法》《知識產權法》以及《刑法》等諸多領域[14],不僅缺乏有效的法律規制,而且某些技術的運用還可能會與現行法律沖突。因此,對于人工智能道德顧問設計者來說,為了實現其道德顧問客觀有效并得到社會認可的功能,需要事先植入社會公認的道德標準,而這種道德標準的植入可能缺乏法律規范,是隨意或帶有偏見的。
其次,道德提醒的編程偏見。按照人工智能道德顧問理論,該技術不會使我們更加道德,也不會導致我們更加不道德,它僅僅提供道德判斷和道德選擇的過濾和提醒功能,以限制個體道德選擇的錯誤性結果[12]。然而,這種道德判斷和道德選擇的過濾提醒,它可能忽視了人類道德生活和道德價值觀的多樣性,本身陷入道德相對主義的誤判,甚至導致道德霸權。因為當個體缺乏審視道德意見能力,不明所以地將道德顧問的道德判斷奉為圭臬時,或者當道德顧問意見與個體原有道德標準相左時,長期的道德判斷影響,就可能最終讓使用者陷入道德的無差異化或同一化境地。例如,經過算法的升級換代,人工智能或許可完全繞過人腦固有的思維方式,形成“新智能思維”來模擬人類思維,從而使人類到達自身思維無法觸及的地帶,形成新興技術生命周期“峽谷”[15]。但是,對于絕大多數的智能工具用戶而言,他們不會試圖去了解算法的內在邏輯,加上科技人員很難全面掌握、解釋智能技術在深入學習后的選擇機制,結果形成算法的“黑箱”,特殊情況下還會演進為算法歧視[16]。
最后,道德溝通的價值偏見。一方面,由于人工智能道德顧問的輔助決策功能,它會根據事先設計好的道德標準進行編程和道德判斷對錯提醒,可能與使用者的原有道德價值存在沖突,當使用者進行道德判斷或道德選擇時可能面臨道德困境。例如,該技術的用戶即真正的道德主體想要成為一個無私的人,某些遵循功利主義法則的道德顧問則可能會給出一些常人認為不合理的建議,如捐贈他的大部分財產做公益活動[17]。用戶采納了這個建議,但是他在道德上可能不是完全的功利主義者,那么就意味著用戶執行了一個違背初心的行為。另一方面,在道德異鄉人之間,原本可通過溝通協商的反思平衡的道德活動可能失效。正常情況下,我們的道德原則可能在兩個方面被增強:(1)潛意識激活;(2)認知資源的相對獨立性。正如我們所知道的,直覺和情感通常也是偏見和其他類型的非理性或不道德判斷的來源,它們使我們成為不良的信息處理者或不良的道德判斷者。因此,人工智能道德顧問可使用內置在人們身邊的軟件來監視其神經生理活動,從所謂的“神經反饋訓練”使用戶改變與移情有關的腦區功能[18],從而增強道德情感。但這種生理性的增強可能是永久性的個性改變,導致用戶道德判斷的僵化和模式化,可能從根本上否定其自身的道德基礎,最終使不同道德價值觀的個體溝通無效,威脅人們正常的道德生活。
人工智能道德顧問是否具有道德主體地位涉及基本的概念內涵研究。在法律術語中,主體指的是擁有主觀判斷能力且可以承擔法律責任的人。康德主義者認為,道德主體是指有自我意識和道德認知能力,能夠推理和形成自我判斷,且具有道德選擇和道德行為能力并承擔道德責任的道德行為者[19]。從這個角度出發,只有具有理性思維能力的人才具有道德主體地位。在對人工智能道德顧問技術的假設中,它并沒有具備人類的情感、獨立意識、自由選擇和獨立承擔責任的能力。所以基于以上人類是唯一道德主體的結論,人工智能道德顧問是不可能被稱為道德主體的。雖然也有倫理學家持有不同的觀點,他們相信自然界中不止是人類才具有道德主體地位[20],對道德主體的研究已經從人類擴展到動物甚至是技術人工物。但是人工智能道德顧問無論得到怎樣的完善都不會獲得行為能力,一個沒有行為能力的物體是不可能成為道德主體的[21],所以道德人工智能顧問絕無成為道德主體的可能。那么人類又該如何看待人工智能道德顧問呢?我們何以把一個比我們更聰明、更具有批判思維能力的物體只當作工具?我們如何判定其社會身份呢?
倫理學史中判定道德主體的標準是不一致的[22]。關于人工智能道德顧問在未來是否有可能演變成一個符合這些標準的道德主體,我們暫且懸置不論。人與人之間的道德行為會不會演變為機器與機器之間的道德行為?我們應該思考人類創造了機器,還是機器借由人類而生,從而是否可能成為歷史演進過程中的道德主體。在對道德主體的定義里,要更加細致地分析人工智能帶來的挑戰。而且在智能機器的設計之初就應嵌入道德意識,人工智能科學家和技術人員應該關注智能機器道德模型的構建,要在智能機器設計之初就把“善”的理念嵌入其中,使得人工智能操作系統不僅遵守法律,還要遵守社會道德規范[23]。這無疑是對道德顧問技術的開發提出了更高的要求。
人工智能技術的應用與發展,離不開數據采集與利用,而數據不斷更新與擴張則會引發信息泄露、侵犯隱私的風險。當前人工智能道德顧問以機器學習、深度學習、神經網絡和自然語言處理為特征,可以從數據挖掘中創建數字資料,能在用戶不知情的情況下根據此類資料做出重要決定[24]。針對這個問題,用戶應有權知道人工智能道德顧問在處理其數據時會發生什么,有權不接受對自身將產生不利影響的決定[25]。所以缺乏透明性的機器學習算法標準是有問題的,但是算法透明又是極其難以實現的。這就會導致人工智能道德顧問執行命令時,可能會歪曲用戶面貌或透露用戶的隱私,從而違背用戶對隱私保護的期望,用戶在執行人工智能道德顧問建議的同時也會扭曲他人對該用戶的合理評價。
這里的關鍵問題是,人工智能道德顧問涉及到的信息并非普通的身份信息,而是有關個體行為傾向的隱私信息。大部分人認為機器人與計算機區分的依據是外觀,人們面對機器人有更加強烈的同情情緒,并認為它具有更強的情感能力[26],這是人類可理解的自然反應。但是在人工智能道德顧問的功能預設中,它們可通過影響個體潛意識激活和認知資源改變直覺和情感,從而影響并改善個體道德判斷。在此之前,人工智能道德顧問仍需收集有關個體神經生理活動,完成所謂的“神經反饋訓練”。這種大腦即時性的神經生理狀態,盡管在與即將發生的行為之間具有或然性聯系,但仍具有一定的因果聯系和預征性指征,代表著個體的客觀思想或行為計劃,屬于個人高度隱私信息。
隨著人工智能道德顧問技術的發展成熟和不斷完善,人們對它的接受度可能越來越高,兩者之間的緊密合作和信息互通將進一步加強,人們對人工智能道德顧問在心理上從屬、依戀和可信賴等感覺的增強[27],更多的人可能會接受它們為伙伴而不是工具,并與它們共享豐富的私密生活細節和敏感的個人數據,個體行為隱私問題可能逐漸加劇并愈演愈烈。
目前對人工智能技術的監管訴求主要是關于其算法,思路都大同小異,基本上主張算法要透明和共享[28]。但是,現有算法很難讀懂,即使專業的程序員也要花上很長時間才能看明白[29]。所以,即使通過透明性來監管算法是可實現的,其成本也會很高。而且算法已經成為各個研發公司的核心競爭力,要求算法透明可能對其知識產權保護產生沖突。
但這并非意味著我們對算法監管無能為力,規制理論有新舊之分[30]。對于人工智能道德顧問這樣有廣泛未來市場的技術,我們更應考慮:如果其需要新的規制理論,什么樣的約束條件可以充分發揮技術正向價值的同時不突破道德紅線。從某種意義上講,人的決策過程也是一種算法運算,只不過它遠比機器算法更加復雜和隨機。所以我們可以從人類實踐中看到智能機器監管問題的解決方法,例如,管理者不知道他的下屬們是怎么思考的,但可以通過構建合理的激勵合約,引導下屬努力工作[31];同樣,我們也可以不知道機器是怎么思考的,但可以通過構建合理的激勵合約,正確引導其行為。
漢斯·喬納斯(Hans Jonas)[32]從哲學特別是本體論視角出發,提出對責任的更豐富的需求。他認為責任不僅源于實際需要,更根本地源于生活本身的本體論性質,即源于它本身的目的。喬納斯提出對行為的道德要求,應使行為所產生的影響與現實人類生活的延續相適應。因此,對責任問題的審視要回歸于人,人工智能道德顧問雖然有認知能力但沒有責任承擔能力,也不從人類具體的道德生活獲得自我肯定。所以,人工智能道德顧問是不能作為責任主體的。當然,就算不考慮喬納斯的本體論,我們也可以確立對“責任”應有更深入、更全面理解的必要性[33]。“責任”是一個相關性的概念,不僅與個人屬性有關,而且在團體層面上更有意義。
在個人層面上,認知能力并不一定需要自我意識,而承擔責任則必然需要自我意識[34]。由我們對于這項技術的設想,可以得知它確實作為一種決策主體而存在,是否可以等同于它應該為決策帶來的結果負責呢?當然,我們這里說負責,只是一個簡化的說法。事實上,它無法為自己的行為負責,作為一種產品,讓生產它的人為它負責還是使用它的人為它負責?在其做出一種行為時,它要為該行為負多大責任?如果它對人造成了傷害,它要承擔什么責任?上述問題的答案是或然的,在不同的時代背景下、不同的情境中答案會有所區別。例如,在鐵路普及之后,美國的侵權法發生了很大的改變:行人被要求禮讓火車。這個法規改變的原因在于如果墨守成規堅持“禮讓行人”的社會公序良俗的話,那么鐵路在運營中就需要時刻注意避讓行人,而達不到其高效的目的[35]。所以在考慮人工智能應該承擔多大責任時,我們是否可以采用類似的觀念并做出改變呢?
過去幾十年中,科技高速發展,智能機器人給人類帶來了許多便利,同時也引發了新的社會問題。人工智能道德顧問倡導者的關鍵主張是,頭腦與機器之間沒有區別,因此他們認為機器倫理與人類倫理一樣有可能實現。與專注于圍繞人類使用機器倫理問題的計算機倫理不同[36],機器倫理關注的是機器對人類用戶(也許還有其他機器)行為和交互的倫理性[37]。人工智能道德顧問技術雖然還是空中樓閣,但是實際生活的例子表明,人們在某些情況下的確需要一位“道德顧問”,并且在已有的并得到廣泛應用的技術里面,已經展現出人工智能道德顧問技術實現的可行性。所以人工智能道德顧問技術是否可以開發及應用,在得到倫理學辯護前,仍然值得期待。根據人工智能科學家的觀點,符合機器倫理最終目標的機器將遵循理想的倫理原則[38]。本文從這個最終目標出發,認為人類應該多維度地審視人工智能道德顧問技術面臨的諸多挑戰,在堅守道德紅線的前提下,使其成為一項安全性強、尊重人類道德主體地位、能被有效監管且相關行為權責清晰以及值得用戶信賴的新技術。不過,人類尚且沒有一套萬事皆可行的倫理原則,何以有信心去創造一個接近費斯70多年前設想的“虛構人物”?何以面對可能成為道德決策弱者的局面?這些問題亟待當代思想者、踐行者解答。人類擁有豐富的道德生活,并且具有實施高尚行為的能力。目前來看,人工智能道德顧問不會篡奪或超越人類的道德權威,我們應該做的是承認自身的道德局限性,利用人工智能實現道德主體潛力的最大化。