尹 潔
一直以來,神經倫理和人工智能倫理關注的熱點問題并不重合,前者更為關注諸如藥物增強、大腦干預、神經成像等引發的倫理問題,而后者的問題則更集中在討論諸如機器人權利、算法的透明性、人工智能系統中的偏見等。但一直以來,人工智能的歷史不可避免地與神經科學的歷史糾纏在一起,當代人工智能的術語更是從神經科學和心理學借鑒良多,比如人工神經網絡(artificial neural networks,ANN)[1]和深度神經網絡(deep neural networks,DNN)[2]等。不僅如此,當代技術發展引發的諸多倫理問題出現在這兩個領域的交叉之處[3-4],例如,在臨床神經科學中人工智能技術被使用來提高診斷的精確度;來自臨床的數據可借助機器學習算法被灌輸給人工智能,由此為精神疾病作出自動化的、更為準確的診斷;更為重要的是,一些必要的試驗,可借助于人工智能技術對于大腦機制和過程的模擬,而不再需要使用動物或人類作為受試者,從而避免了一系列相關的倫理問題。
經由人工智能技術所達成的道德增強,正是神經科學和人工智能科學相關技術合并應用背景下產生的倫理問題關涉的核心。當前的精神醫學中,道德增強的應用可被落實到更為具體的領域,即用于改善抑郁癥、焦慮癥、雙相情感障礙甚至精神分裂癥患者的情緒和認知。傳統精神醫學中基于認知行為療法(cognitive behavioral therapy,CBT)的治療成分被整合進入人工智能算法的設計,從而使得特定精神治療用途的聊天機器人(chatbots)得以產生。盡管目前大部分處于商業運營階段,尚未真正被醫院或診所等臨床機構采用,但有基于實證的研究[5]表明,人工智能技術在精神醫學領域的應用前景已初步顯現。近期,由于人們在生活和工作上的壓力增高,聊天機器人Wysa (https://www.wysa.io)的下載量一度激增到200萬次,數字化和人工智能時代的人們在尋求心理幫助和支持的方式上發生了重大的變化。相較于道德生物增強的科幻式遠景而言,精神醫學當中的這種人工智能應用是一種在目前科技條件下較為可行且已具有初步效果的實踐。與本文探討主題相關的是,這種聊天機器人所完成的恰好是一種弱意義上的道德(信息)增強(moral info-enhancement),而非意圖在改變動機上的、強意義上的道德增強。在承認這一精神醫學領域的潛在應用價值基礎上,本文試圖探索更為一般性意義上的道德(信息)增強,尤其是基于所謂蘇格拉底式助手模型的弱道德人工智能,其自身是否隱含著一個悖論,以及這個悖論是否有消除的可能。
為了更好地審視弱道德人工智能,有必要先回顧什么是一般意義上的道德增強,以及為什么在一種強意義上的道德增強面臨諸多挑戰。道德增強,指的是有意地對于一個人的性格、動機或行為等進行道德提升。按照這樣的定義,道德增強不是一個全新的實踐,在日常生活中人們也常常借助于各種方法,諸如道德模范故事的學習和領會、有意識的道德反思等來提升道德品質或行為。但近年來人們對于這一道德增強的興趣主要源自神經科學與技術新進展帶來的沖擊,科學技術的發展使得大腦狀態甚至功能的改變逐漸成為可能,從而給基于生物性改變的道德增強提供了新的契機。但究竟在什么意義上這種實踐是可操作的卻不十分明晰,Shook[6]曾寫道:“沒有一個所謂整合的認知系統來為道德判斷的形成和實施負責,因為可分離的因素比起其他而言,本身在某種程度上更多地被用于一些類型的道德判斷。”言下之意,關于大腦產生道德判斷的機制究竟如何,我們還沒有一個清晰的答案,而一旦我們連這一自身的生理和心理機制都所知甚少,更難以想象的是如何進行道德增強。
不可否認,當今的神經科學和技術發展連同人工智能的進展,確實為人們的未來生活新圖式打開了一扇大門,但盡管人工智能和大數據技術已然在改變甚至改善人類生活,到目前為止現實中技術所處的階段離科幻電影中描述的還很遠,即便在新聞報道中一再看到各種[7]試圖通過對于腦神經的刺激達到某些治療目的的研究,但真正的臨床應用卻較為罕見。這不僅使得人們質疑,究竟關于新興技術,我們是否存在某種認知上的偏差或一種盲目的樂觀自信?換句話說,當我們在談論道德生物增強的各種論證的時候,似乎多數是在談論其本身是否可欲求(desirability),而不是在說它本身是否可行(feasibility)。談論應該做什么和需要做什么的這一趨勢的形成,主要表現為哲學家專注于討論規范性問題,而不是聚焦于科學性問題。遺憾的是,科學細節尚未揭示出有關如何在現實中進行道德生物增強實踐的有用信息。盡管Wiseman[8]相信未來可能會實現道德增強,但他認為現有主流的生物學和神經科學方法(例如采集血樣或使用功能性磁共振成像等)并不能達到這個目標。他寫道:“目前研究道德功能的大腦-還原方法可能本質上無法處理道德功能所涵蓋的一系列復雜現象……因此,如果道德增強愛好者想在通過藥物或其他手段對道德行為和判斷進行神經調節上展示出一個可信的科學基礎的話,這一大腦-還原的方法會是相當糟糕的一個奠基。”這意味著為了使得道德增強成為可能,我們在研究人類自身機制的方法論上都很可能還有很長的一段路要走。
在考察用于認知增強的人工智能,尤其是與道德慎思(moral deliberation)相關的那些增強技術應用的理論與實踐之時,文獻中常見的倫理關涉大都圍繞著這樣兩個主要的方面:一是對于隱私侵犯的擔憂,二是對于損害自主性的擔憂[9]。諸如經顱磁刺激(transcranial magnetic stimulation)之類的先進神經技術的使用往往導致人們對于隱私侵犯可能性的擔憂。更多的負面意見集中在討論道德生物增強對自主性的影響。例如,Harris[10]認為,為了增強道德而使用諸如選擇性血清素再吸收抑制劑之類的生物化學物質剝奪了其接受者選擇墮落的自由(the freedom to fall),因而對道德行動主體本身構成了一定的威脅。Huang[11]則從不同的角度提出了相同的觀點,聲稱道德生物增強令人反感是因為它破壞了人類的道德行動主體性,通過阻礙作為其基礎的準確的自我反思和選擇。這些反對理由看似各自從不同的角度出發,但共同點在于否認生物醫學層面道德增強的可欲求性。
如果說道德生物增強的可行性和可欲求性面臨著諸多挑戰,那么道德人工智能作為試圖以人工智能方式來達到增強目的的嘗試,在本來已經復雜的爭議之上就又多增加了一個層次上的困難。在構想道德人工智能之時會發現它本身具有極大的吸引力,但倘若考察其可行性卻找得出更多反對的理由或論證,這一點在下面的論證中可窺見一斑。與生物學方式進路的增強不同的是,道德人工智能至少可在一種弱意義上來達到增強,即通過推進信息增強來間接達到道德增強的目的,而不是借由生物增強來直接操控或影響道德主體,就信息增強而言,腦科學、神經科學、醫學等領域的革新起到的作用并不如計算機科學和技術層面的影響大。所謂弱道德人工智能與以往慣常談論的道德增強手段相比,關鍵差別在于,傳統的道德增強多主張采取生物醫學手段的增強,直接作用于道德動機,而弱道德人工智能試圖通過采取信息增強的方式繞過對于動機的直接影響,希望借此回避掉隱私侵犯和自主性損害的倫理隱患。
Savulescu等[12]提出了一個弱道德人工智能模型,他們認為通常那些用于針對道德增強的反駁意見并不適用于此,在他們看來,道德人工智能可以幫助道德行動主體克服其自然的心理和生理局限性,從而不僅不會減少或消解而是會更有助于確證或增強道德行動主體性(moral agency)。人類由于心理和進化機制上的局限,會傾向于發展自身群體內部的親和力,這一自然趨勢無法否認,因此即便道德發展確實如同我們預設的那樣一直在進化,也并不會將其應用擴展到自身所屬群體之外的人。Persson等[13]則認為,由于人類“道德上的束縛”,社會文化層面的干預并不能成為實現道德進步的唯一途徑;生物醫學的增強盡管可能不是唯一的途徑,但卻是提高道德的最重要方法之一。盡管Savulescu認為人類道德在某種程度上是“硬接連的”(hard-wired),但他也認為弱道德人工智能會很有用,即便它只是在道德慎思方面為人們提供了幫助而對動機沒有太大影響。Savulescu所參與的西班牙跨學科研究項目“人工智能和道德生物增強”持有關于增強的一個類似的基本構想,它的基本假設是,由于計算機可用于增強數據的管理和處理,因此人工智能可用于增強我們的邏輯和慎思能力,基于此種假設,他聲稱該項目旨在探索“用道德信息增強來補充不同方式的道德生物增強之可能性,也就是說,計算機科學在道德決策中的新穎應用”[14]。
Savulescu等[12]關于道德人工智能的論點類似于Lara等[15]提出的觀點。他們認為,在討論道德增強時,動機不應是唯一要考慮的因素。如果我們可以繞過動機并使用所謂的“徹底的增強”(exhaustive enhancement),就可以把所有道德決定留給機器來做。諸如通過將計算機芯片植入大腦并告訴人體遵循指令,或者可以通過設置好人工智能系統然后讓我們遵循它發出的指令,或者可以由現實的某個政治系統來強制執行那些通過人工智能系統輸出的道德推薦意見。不同之處只是在于那種植入芯片的模型迫使人類根據人工智能系統的輸出采取行動,但設置好人工智能系統再由人類執行則需要人類的服從。無論哪種模型,都使人成為多余的人,盡管給人們省去了花費在復雜的道德考量和因可能的錯誤而造成的重復、冗余和迂回的勞動,并且由于道德判斷全盤“外包化”,動機被繞過,由此也避免了破壞隱私和影響自主性的問題。
相對于Savulescu這樣較為徹底的方案或預想而言,Lara等[15]提出了較為“適度”的人工智能助手模型,該機器僅以蘇格拉底式的方式提出問題,也就是使用者與這個蘇格拉底式的道德助手一直處于對話之中,道德助手機器人在對話中可以質疑使用者的假設,或澄清使用者表達出來的概念,或通過提供最佳推理和決策所需的有用信息,或幫助使用者檢驗其論點的連貫性等。一言以蔽之,機器不會為代理做出決定,而只是以對話的形式幫助加強論證本身。以此方式,作為機器人的道德機器并不旨在教導或內化任何道德學說。它不同于那種本身自主的道德機器,后者可以獨立運作而不依賴人類,因此不會有所謂信任上的問題,因為最終仍然是由人為主導而不是機器。事實上,如果我們對計算機是否可以提供可靠的指導來給道德論證提供支持,那么這種擔心似乎是多余的,因為只要算法在技術上可行,計算機在完成分配給它的任務時一般而言比起人都更為可靠。按照這樣的模型,人們通過與道德機器進行交互,學會如何以一種概念化的、能收集和吸納盡量完整真實信息的和合乎邏輯的方式來進行自己的思考。換句話說,這像是一個認知的“凈化”或“改善”過程。同樣地,在精神醫學咨詢和治療中使用的聊天機器人,無論是否以一種模擬人類的方式存在(即無論是否模擬人的口吻、特定人格或是僅僅作為無人格和情感偏好的對話機器),由于僅僅聚焦于信息增強,也就在一種類似的蘇格拉底式助手意義上發揮作用,只不過精神醫學的目的不是為了成就更好的道德判斷或造就道德上更好的人,而只是達到精神治療的特定目的,比如通過促進積極樂觀的情緒和正向的思維方式來促進精神健康。
Lara等[15]認為其蘇格拉底式助手模型比傳統意義上必須通過動機起作用的增強要具有不少優勢,最重要的原因是自主性和隱私的問題可以被很好地避免。不僅如此,由于不需要在人腦或體內植入計算機芯片或設備,它也會更安全。它還給道德行動主體做出最后的道德判斷留下了空間,尊重了道德多元性。它不僅充當道德慎思的助產士,還可以作為實現道德進步的教育方法。但是,直覺上看,如果道德人工智能模型只是繞過動機的話,似乎不符合道德心理學,換言之,如何構想人類在繞過動機的情況下來直接根據道德判斷采取行動呢?注意這里的問題是針對可行性而不是可欲求性,即,究竟道德人工智能助手在不影響動機的情況下是否有用,是如何起作用的?事實上這個問題導向另一個更為古老的哲學問題,即道德判斷本身是否可以發揮作用而不引起任何的動機變化?
盡管Lara等[15]聲稱這個模型繞過了與動機相關的問題,例如對道德主體的自主和隱私的負面影響,但道德人工智能的信息增強真的能夠在不影響動機的情況下起到預想的效果嗎?盡管他們承認,蘇格拉底式的人工智能系統也可能改變動機。通過說“不能排除人工智能的認知幫助可能間接改變道德主體的動機和情感傾向的可能性”,它們承認了可能性,但關于如何可能卻語焉不詳,所謂“間接改變動機和情感傾向”的含義是什么并不清楚,而我們需要知道在什么情況下可以改變動機或情感傾向。例如,我們的人類經驗中到底哪些因素會導致動機和情感傾向的改變?
此外,人類的道德發展似乎也不是從自發產生的道德動機開始,而是通過被養成的道德行為開始,兒童在不完全了解道德意味著什么和要求做什么之時,被家長和社會刻意按照某些特定的、基于個別道德行為疊加起來的習慣來培養。由此可見,如果這樣的道德人工智能能夠以某種方式促進道德行為的培養,那么它可能會促進動機和情感傾向的改變。但是,無論是根據Savulescu等人還是Lara等人的想法,培養道德行為都不是其設計的道德人工智能的目標。但如果蘇格拉底式助手的道德人工智能,如同他們原初構想的那樣,僅僅旨在為行動主體提供選擇上的建議的話,那么它對行動主體的影響似乎是非常外部的,因此在促成道德行為的意義上,極有可能無效。我們可以將這種情況與視頻游戲的情況進行比較,例如,倘若有一個叫“我們都是道德人”的游戲,參與游戲者基于設計的特定算法而與道德機器互動,從而在游戲中扮演道德人的角色,但在現實生活中卻拒絕按照算法推薦方案來行事。在大多數情況下,真正的道德要求犧牲自己的利益,事實上,由于自己的利益與道德的要求之間經常發生明顯的沖突,如何理解道德動機就更是一個困難的問題。哲學家想知道道德判斷和動機之間存在什么樣的關系,正是因為知曉正確道德判斷的主體不一定有動機去做正確的事情。這種情況是頻繁出現的:不道德的人是完全理性的人,能夠進行道德行為,但根本不愿意這樣做。
為了理解道德判斷與動機之間的關系,哲學家給出了截然不同的觀點和相應的解釋。在元倫理學中,有著關于道德動機的經典討論,其中,休謨主義和反休謨主義各執一詞[16]。雙方討論的目的在于知曉道德判斷與道德動機之間是否存在必要的聯系。用另一種方式來構想這個問題,就是在問,道德判斷的存在是否會激發采取行動的動力。休謨主義者認為道德判斷本身無法激發行動者采取行動,而是需要一種額外的行動,該行動可以產生欲望,或者存在預先存在的欲望狀態(conative),有時被稱為“贊成的-態度”(pro-attitude)。柏拉圖最早提出了反休謨主義中最為激進的版本,他認為對道德觀念形式的理解應該能夠為行動主體的行動提供壓倒一切其他因素的動力。還有一種類似的觀點認為,如果道德判斷沒有提供足夠的動機來按照自己的判斷行事,那么道德判斷就不能算作真正的道德判斷,因此,當人們談到道德判斷時,她或他必須默認,將道德判斷歸于某人就已經意味著,具有這個特定道德判斷的人就具有相應的道德動機。
但是,我們不必視這種觀點為理所當然。關于道德判斷是否能夠自身提供足夠動力去行動的核心爭論實際上揭示了一些有關道德人工智能算法設計的洞見,因為如果休謨主義者是對的,而且我們確實需要額外的資源來產生動機,那么作為蘇格拉底式助手的弱道德人工智能在產生道德行為上就起不到直接的作用,它最多只能提供合理的、第三人稱意義上的道德判斷。作為蘇格拉底式助手的道德人工智能無法處理諸如動機或非認知元素之類的問題,但弱道德人工智能目的本身難道不就是僅僅提供道德判斷嗎?為什么要去苛責它不能作用于動機這一點?休謨主義與反休謨主義之間的區別似乎正好對應著弱道德人工智能與(強意義上的,或者說作用于動機的)道德增強之間的區分,然而關于道德動機的哲學論爭表明,經驗研究無法解決某些特定的問題,因為但凡道德心理學有了確定結論的話,就不再需要這一哲學辯論,因為彼時我們應該能夠基于復雜的人類心理學知識構建出強道德人工智能,彼時算法設計也不是難題,可以借鑒關于那些被認為具有道德品質的人的心理學研究結果。話雖如此,哲學未能使我們就道德判斷本身是否直接帶來動機提供統一的答案,也未能告訴我們如果答案是否定的,還需要些什么。如果這仍然是一個尚未得到回答的問題,結果便是,不僅我們不知道如何達成強意義上的道德增強,即那種能產生影響道德行動主體的道德判斷的,更麻煩的是,我們甚至不知道這種所謂弱道德人工智能是否達到預期。
道德機器看起來很像我們參與的那些在線測試,比如麻省理工學院媒體實驗室(MIT Media Lab)那個有關駕駛的道德決策的研究[17]。其在線調查由各種設計的道德困境組成,要求測試人員選擇答案。典型的問題一般是這樣:是選擇沿汽車的原始路線行駛并在行人線上撞到A,還是選擇操縱方向盤并在道路另一側撞到B。該測試賦予A和B各種值,例如一個老人和一個嬰兒,或者一個具有較高社會經濟地位的人與另一個具有較低社會經濟地位的人的值的組合。這是一個經典的電車難題,大多數人會發現幾乎無法找到滿意的答案。但是測試的設計是迫使參與者在有價值的事物(包括人類和動物)之間進行排序。假設我們確實有關于不同人群的選擇構成的詳細描述,并且基于這些數據,我們能夠根據生活中有價值的事物的排名來設計算法并構建交互式人工智能作為道德助手,模仿實際人類的反應。這樣,我們就有可能通過以下方式與機器通訊:通過獲取我們的信念和偏好輸入,我們可以進行某種對話,從而提出建議。但是,目前尚不清楚這種對話是否會起到激勵作用。更重要的是,甚至還不清楚,在一種道德推薦的規范性意義上,哪種答案應該被推薦。誠然,這樣的實證研究并不需要就解決道德困境應采取的措施作出規范性的回答,對于它的探究可能有助于分析人類的道德心理學。然而,道德推理遠比當前的經驗研究告訴我們的要復雜得多。心理學家有時認為道德判斷是對矛盾案例的直覺反應的一種特殊的合理化,這種觀點認可了認知和情感處理的相對獨立。例如,Greene等[18]認為,我們對道德困境的直觀反應取決于在任何給定時間哪個子系統具有更大的作用力,但是許多哲學家認為Greene等的論點基于一個與道德無關的假設,這種假設是有問題的,因為它基于道德推理的神經生物學基礎的某種可疑觀點[19]。Greene等再次使用經驗層面的假設去解釋了經驗層面的結果,并未能就人類道德行為的規范性框架告訴我們些什么,而這些關于規范性框架的知識是達到道德增強所必需的前提條件。換句話說,如果沒能明確人類道德性的指向,那么所謂對于道德增強的設計也就失去了目標或方向。
然而,弱道德人工智能的捍衛者可能會回應這一點質疑,認為道德機器并不一定要把壞人變成好人,它只是教會好人或至少是比較好的人如何提高他們的道德推理能力,而這是以行動主體的意圖為前提的。對于一個無意進行任何道德行為的人來說,道德人工智能肯定是毫無用處的。考慮到弱道德人工智能的目標,這似乎是正確的。這里暫時不需引入非常復雜的道德認識論來論證,但一個簡單的問題是,倫理學機器是否像他們所聲稱的那樣只是作為蘇格拉底式助手發揮作用,如果是的話,這種應用在多大程度上是可行的并且值得付出代價?我們是否需要進行大量的研究來進行這種僅僅完成信息增強而不影響動機的機器?我們關于蘇格拉底式道德助手的研究和設計的場景中似乎存在一個悖論,因為我們既可以像我們現在所理解的那樣建造機器,也就是將它作為蘇格拉底式的助手來建造,這樣的話機器的應用會非常有限,或者,我們不能從技術上構建真正能夠獨自解決道德困境的人工智能,僅僅是因為我們沒有關于道德推理的足夠的經驗或科學證據。換句話說,為了保障安全性同時避免影響行動主體的自主和侵犯其隱私,這個弱道德人工智能模型似乎將嬰兒與洗澡水一起倒掉了。除非我們能夠證明,蘇格拉底式道德助手的設計是達成(強意義上的)道德增強的先決條件,也就是說,弱道德人工智能有其自身的工具性效用,但到目前為止,(強意義上的)道德增強自身的可欲求性和可行性也遭到了高度的質疑。一個可能的關于弱道德人工智能應用前景的案例仍是本文第一部分所談到的那種,鑒于目前精神醫學治療中聊天機器人使用的趨勢,我們也許可以說,即便道德增強的目的暫時無法達到,我們至少在好的方向上推進,精神疾病患者或者日常生活中飽受壓力和焦慮困擾的人群,都可以受益于類似Wysa這樣的在線聊天機器人,這種人工智能的使用促進了人們的精神和心理健康。盡管我們可能不知道在這一方向上能走多遠,但這不妨礙當前弱道德人工智能的發展必要性。
弱道德人工智能可能沒法起作用的原因在于,道德行動中的那些阻滯性的因素根本無法通過有效或合理的道德論點來消除。Persson等[13]在《道德硬接連與道德增強》中寫道,由于人類道德心理學的特征,生物醫學道德增強可能不是道德進步的唯一方法,但卻是最重要的方法之一。針對鮑威爾和布坎南的觀點,即由于社會文化手段更有效、更安全因此無需生物醫學手段的這一觀點,Persson等認為,盡管有些態度可以通過理解和接受更好的理性論據(例如我們在種族主義和性別歧視這種例子里面確實可以因為慢慢接受更為合理的論證而肅清原先的偏見),從而確實可以通過社會文化干預而改變,但這些很難解釋乃至撼動動機性質的或非認知性質的因素。
換句話說,Persson和Savulescu所說的“道德硬接連”指的是人類在道德發展環境中幾乎不變的并且對理性的說服力不敏感的那部分。與種族主義和性別歧視不同,裙帶關系這種偏見不能通過社會文化干預來消除。困難部分的存在表明人類當中確實存在一些頑固的偏見,而這些偏見不容易糾正。在這種情況下,如果道德人工智能只是提供一些幫助使行動主體意識到隱藏的邏輯謬誤或概念的模糊性,那么它的應用將非常有限并且最終無效。對于某些人來說,指出他們邏輯推理的不一致確實有用,因為有認知能力的情況下這些人實際上會承認此類錯誤,這樣的話就有可能進一步影響他們的動機并可能觸發道德行為。但是,這并不適用于所有人。有些人完全具有認知能力,也能夠在邏輯推理中意識到自己的錯,但是不會改變,或者只會堅持自己的假設,不會設身處地為他人著想,這使得任何道德的說服都無濟于事,更別說道德人工智能助手了。無所謂道德的人(amoralist)也類似,只不過他們不會按照自己堅持認為的對與錯的判斷來行事,因為這樣的道德判斷對于他們沒有意義。
動機之所以重要,不僅是因為我們直覺上似乎更珍視那些單純出于道德目的而做出的行為。需要追問的是,與邏輯合理的那種道德慎思相比,我們究竟應該在什么程度上重視動機本身。將道德行為和行為者都考慮在內的道德理論也許可能有助于理解動機的重要性,以及在弱人工智能那里聲稱的所謂“繞過動機”(bypassing motivation)到底意味著什么。正如Coakley所寫的,常見的道德理論要么只討論道德行動主體,要么只注重行為本身。例如,在道德層面評估對象時,我們要么評估人的行為,詢問諸如道德主體的行為對與錯之類的問題,要么我們評估道德行動主體的道德特征或道德品格[20]。正如人們在倫理學史中所看到的那樣,大部分倫理學理論要么討論行為的道德正確性,要么討論道德行動主體的正確性。Coakley提出了一個有趣且有意義的問題,即,假設在一種道德理論A的框架下,某些行為可以被判斷為正確的行為,這個結論是否與另一種就道德主體的特征或品質做出判斷的道德理論B相吻合?表面看來這個答案應該很簡單,因為我們傾向于假設不同類型的道德評估之間存在一致性,但Coakley通過研究諸如結果論和道義論之類的主要理論揭示出事實上想要得到一個一致的答案是相當困難的。在他看來,為了解決這種結論難以調和的問題,動機倫理可能是替代方案,這一評價標準認為“道德行動主體越有動機去推進(整體)的善,那么他在道德意義上就越是更好的人”[20],這樣才能把有關動機和行為的評估整合成為一個。盡管Stonestreet指出Coakley的理論取決于讀者是否接受他將“整體善”(overall good)的概念作為道德意義上的善[21],這似乎是Coakley有必要回應的一個反駁。但是,撇開該假設,Coakley確實通過“道德主體問題”(moral agent problem)提示了:如果道德理論過分強調行動的評估,就不足以評估行動本身,從而導致道德評估的不同途徑之間存在不一致的問題。我們并不一定需要接受Coakley的動機倫理理論本身,但是他建議同時考慮動機和行為這一點值得注意。對動機重要性的理論性反思表明,蘇格拉底式助手的道德人工智能可能由于繞過動機而同時也使得使用者失去了接受此種道德評價的資格(eligibility)。這意味著,盡管Savulescu等和Lara等提出的模型通過繞過動機避免了來自以侵犯隱私和損害自主性為名的指責,但他們的弱點也恰恰在于他們放棄了動機這一環節。
從一種單純的康德式義務論角度評價,動機則是更為重要甚至是評價道德價值的唯一標準。康德認為道德價值僅來自出于義務動機的行為[22],除了義務以外其他動機道德上都不正確,即使同情心也被排除在外。雖然看上去有些反常識,康德義務論卻揭示了道德深層次的本質。正如Savulescu和Maslen所設想的那樣,弱道德人工智能可以發揮一系列工具性的作用,諸如作為道德環境的監督者、道德組織者、道德促進者、道德顧問、保護免受不道德的影響以及可以維護道德自主性和群體層面的道德人工智能。但是,以上這些功能,無論如何精心設計,似乎都無法在使用或與此類人工智能交互的道德行動主體中產生出義務(或與之相關的,被康德稱為是“敬重”的情感)。這意味著,持有強康德主義立場的話,蘇格拉底式助手類型的道德人工智能將永遠無法在幫助我們成為“道德”行動主體上發揮直接的作用。換句話說,如果弱道德人工智能可以按預期成功地工作,那么它最多可以提供幫助來生成較為合理的道德決策,而不是為行動主體本人做出實際決策,更不用說最后是否能導向道德行為。行動主體,無論他從所謂的道德人工智能機器中獲取了多少信息,都必須最終決定自己要做什么,并實際執行他選擇的行為。在這里道德人工智能會顯得無效,即,如果我們確實采取動機倫理觀點來評估行為主體,而不是僅僅關注行為,那么我們就會關注到這種蘇格拉底式助手意義上的弱道德人工智能對動機沒有任何影響。盡管它肯定會通過提供各種幫助來影響道德判斷,但卻不能決定行動主體的動機(按照康德的表述是“規定意志”),從一種徹底的康德義務論觀點來看,任何并非純粹出于義務動機的行為都沒有道德價值。只不過,對于任何僅需要評估行動結果的情況而言這不是一個問題,例如,在用群體人工智能來做資源分配決策推薦的情況中,一般會根據集體決策而不是根據針對個體進行評估,這里可采用基于結果論或功利主義的標準,不需要一定采取動機倫理的視角。
上述論述質疑了弱道德人工智能的實際效用,即認為如果這種弱道德人工智能只能實現信息增強和在與行動主體的對話中充當蘇格拉底式助手的話,這種作用并不能幫助我們成為更好的道德行動者。換句話說,弱道德人工智能作為蘇格拉底式助手的應用頗為有限,這使得這一層面的信息增強處于尷尬的境地。此外需要注意的是,這仍是在我們首先懸置了另外一個問題的情況下考慮的,這個更為深層次的問題是,究竟我們能否定義什么是道德上的善,以及如何評價道德上的善。而即便撇開這個蘇格拉底式助手的弱道德人工智能不考慮,單純道德信息增強本身的可行性尚不清楚,這需要對科學事實有足夠的了解才能知曉,諸如那些關于大腦如何捕獲那些使功能性大腦狀態符合道德目的的信號的知識,而更進一步追問什么才是真正的道德目的,也只能說是由道德行動主體所在社群共有的價值觀所蘊含的。
一旦解決了可行性問題,弱人工智能可具有良好的教學應用前景,適用于那種處理大量復雜的信息來進行道德決策的場景。此外,蘇格拉底式助手的道德人工智能可以提供虛擬現實體驗,通過這種體驗,人們可能對根本沒有機會體驗的事情產生同理心或同情心,這也有助于改變一個人的道德考量,并具有影響動機的可能性,這一可能性,如前所述,確實被這一模型的提出者所承認。然而,如果這行得通,似乎不再是一個弱道德人工智能了,那種聲稱可以繞過動機的弱道德人工智能和直接影響動機的道德增強之間的界線被模糊了。這里的關鍵在于,僅憑提供虛擬現實這一事實并不是區分弱和強的標準,按照提出弱道德人工智能模型的人自己給出的定義來看,并不是由一個增強手段所完成的任務來定義它究竟是弱還是強,而是看是否通過對于動機的影響來實現道德增強目的來確定其性質。
通過強調信息增強,弱道德人工智能的主張似乎暗示著一些有用的東西。道德信息增強和道德生物增強不一定彼此排斥。道德生物增強強調的是手段,即只是說使用生物醫學手段來增強目的,因此,廣義上來看,藥物、外科手術和腦機接口等方式都可以達到生物增強的目的。道德信息增強,則強調增強的效果究竟在哪個層面完成,即被增強的維度。相反,這并不是說道德上的生物增強更可行,坦率地說,沒有太多證據表明道德推理的生化基礎或神經生物學基礎對于我們而言更簡單易得,我們碰巧發現某種可以突然使人更有同情心或無私的藥物這件事的幾率似乎也相當低。從這個意義上講,道德信息增強和生物增強必須面對可行性上類似的挑戰,因為它們都需要解決基本的科學問題,即如何以某種方式操縱大腦的狀態,以改善人類的行為。兩者之間的聯系是,由于道德信息增強的側重點在于這一增強可以在擴展信息量和提高信息處理效率方面發揮作用,因此信息增強也可以通過生物增強方法來完成。例如,通過服藥或接受外科手術或與腦機接口連接,我們的大腦可以更快地工作,從而使受體變得極為敏感,我們將能夠處理甚至存儲大量信息。如果人的大腦和身體在生理上能夠進行這種生物醫學增強,那么它將與信息增強的結果并無二致。通過生物醫學增強(包括藥物、腦機接口和外科手術)實現信息增強的場景不僅是合理的,而且也是可取的,尤其是在非常復雜的日常生活或社交生活中,那里有大量我們沒有時間和精力來熟悉和處理的信息。因此,弱道德人工智能不必僅僅針對信息增強。換句話說,信息增強這一目的,或者說作為達到道德增強的階段性目標,既可以通過信息增強的手段來完成,也可以通過生物醫學增強的方式來完成。
由于動機的重要性以及道德判斷與動機之間的鴻溝,作為蘇格拉底式助手的弱道德人工智能方案不具有實踐上的吸引力,但弱道德人工智能的局限性并不一定意味著強意義上的道德增強一定失敗(當然這里我們暫且擱置了對于它的倫理問題的主要批評意見)。盡管以信息增強形式的蘇格拉底式助手弱道德人工智能功能有限,但是鑒于前面文字中對生物增強和信息增強之間的關系所作的說明,信息增強作為一種階段性或工具性目標,當其與已經可行的強意義上的道德增強手段結合使用時,會有一定的應用空間,但這時假定強意義上的道德增強的可行就意味著至少我們已具備有關人類道德心理學和神經生物學機制等的足夠知識,并具有改變精神狀態(mental states)和直接影響動機的能力。考慮到我們在基因上的限制和在生理上無能力存儲和處理海量信息的事實,我們也許能以某種方式將信息存儲或處理的工作外包給第三方,比如說,這個第三方能在大腦和身體外部完成信息增強。
此外,當我們談論道德增強時,也可以對其具身(embodiment)的方式再細化。如果一個人工智能可以被用于道德增強,其結果既可以是:(1)經由任何方法(包括人工智能手段和方法在內)在道德上得到了增強的道德行動主體/人,也可以是:(2)擁有超強道德推理能力的(內置了人工智能算法的)機器,一種能夠在無需人工干預的情況下解決道德問題的機器。注意這兩者是極為不同的選擇,而在這兩種選擇之間,具有增強的道德能力的行動主體/人更為可行,其原因僅在于,為了使任何形式的道德增強成為可能,對人的道德心理學、生化和神經生物學機制的全面了解是必不可少的,這些知識包括諸如人腦如何捕獲和處理那些具有道德重要性的信息等,因此在道德上得到增強的行動主體/人是制造出具有道德推理能力的機器的前提,即,后者的可行性取決于前者。這樣,從廣義上講,這里所能得出的思路其實更接近于腦機接口(brain-computer interface)模型,在這個模型中,動機沒有被輕易繞過去,更重要的是,自主性可以在一定程度上得到保留。如果強意義上的道德增強(如果在科學上可行),以已知的動機影響機制為前提,再聯合信息增強手段,那么自主性和隱私的關涉就會再度出現。很有可能的是,自主性和隱私問題無法完全避免,但是如果腦機接口具有增強人類道德的潛力且能夠為人類保留必要的自主性和隱私,這將是有希望的,但如何使得這些要素在一種操作層面上彼此相容仍需要進一步在經驗的層面上確認。畢竟,道德增強的弱版本和強版本,無論是通過生物醫學手段還是人工智能技術,都被同一個關于可行性的問題困擾,要想在真正意義上增強道德功能,就得先在生物化學和神經生物學機制以及塑造道德行為和性格的社會心理環境方面進行大量的實證性工作。
總之,作為蘇格拉底式助手的弱道德人工智能的悖論在于,通過繞過動機,道德信息增強似乎可以避免侵犯隱私和損傷自主性的問題,但是,即便可行性問題先擱置,在沒有對道德主體產生動機上的直接影響的情況下,僅道德信息增強似乎并不能直接為人類的道德價值奠基。然而如果我們不對未來的技術發展做獨斷論式的猜測,那么從目前精神醫學和心理治療中所使用的這種聊天機器人的實踐和其效果來看,也許相關科學與技術對于人的認知、情緒甚至動機的影響是有希望的,它甚至可以在一種非侵入性操作(這意味著更安全)的方式下完成,正如我們在聊天機器人Wysa那里看到的,這種互動的、基于人工智能技術的、以人機對話方式進行的精神/心理治療實踐不正是一種蘇格拉底式助手的實例嗎?由于這一技術與實踐剛剛開始,系統性的、關于市場主流心理治療類聊天機器人的實證研究還很少[23]。目前Wysa通過了英國國民醫療服務體系(National Health Service,NHS)的臨床安全標準(https://www.wysa.io/safety-and-efficacy),但其在隱私保護、保密性和臨床效果上還沒有確定的結論。如果說用于精神醫學臨床的人工智能助手其臨床效果如何還拭目以待,那么究竟我們離這種由弱道德人工智能完成的道德增強還有多遠似乎更難以預測,但是換個思維方式看,至少目前也沒有證據表明這一事業是不可完成的,在生物化學、神經生物學、人工智能等技術那里和在社會與道德心理學之處的進展和會聚會告訴我們答案。