摘"要:隨著現(xiàn)代科學(xué)技術(shù)的發(fā)展,人類(lèi)道德的有限性逐漸凸顯,以道德教化為主的傳統(tǒng)道德增強(qiáng)和以技術(shù)手段為主的生物醫(yī)學(xué)道德增強(qiáng),無(wú)法產(chǎn)生令人滿意的效果。鑒于此,一些學(xué)者繼續(xù)探索新的途徑來(lái)實(shí)現(xiàn)道德增強(qiáng)的愿望。原則上來(lái)講,人工智能或許是一個(gè)不錯(cuò)選擇,既不會(huì)增強(qiáng)周期漫長(zhǎng),又不會(huì)直接運(yùn)用醫(yī)學(xué)手段干預(yù)身體。人工智能道德增強(qiáng)主要有徹底增強(qiáng)、輔助增強(qiáng)和蘇格拉底式道德增強(qiáng)三條進(jìn)路,但其在實(shí)際操作過(guò)程中還需要很長(zhǎng)一段路要走。
關(guān)鍵詞:道德增強(qiáng);人工智能;徹底增強(qiáng);輔助增強(qiáng);蘇格拉底式道德增強(qiáng)
中圖分類(lèi)號(hào):TB"""""文獻(xiàn)標(biāo)識(shí)碼:A""""""doi:10.19311/j.cnki.16723198.2024.17.087
人類(lèi)的發(fā)展史就是人類(lèi)的增強(qiáng)史,人類(lèi)增強(qiáng)從原始社會(huì)就存在,并從未停止。其中,以“道德上更好”為目標(biāo)的道德增強(qiáng)是數(shù)十年來(lái)倫理學(xué)領(lǐng)域中極具爭(zhēng)議的熱點(diǎn)問(wèn)題。社會(huì)文明要生存,道德必須要跟上科學(xué)的進(jìn)步。當(dāng)前,我們面對(duì)的是一個(gè)科技日益發(fā)達(dá)的世界,而人類(lèi)的道德水平卻沒(méi)有進(jìn)化到該有的程度,自然道德無(wú)法應(yīng)對(duì)現(xiàn)代社會(huì)技術(shù)發(fā)展所帶來(lái)的嚴(yán)峻挑戰(zhàn)和威脅,因此尋求新的道德增強(qiáng)方法迫在眉睫。
1"人類(lèi)道德的有限性
由于人類(lèi)是在小而緊密的群體中進(jìn)化的,而技術(shù)只能影響我們祖先的周?chē)h(huán)境,所以進(jìn)化出來(lái)的道德心理主要是“短視的(myopic)”。人類(lèi)的道德心理在很多方面都受到了限制,都傾向于有限的認(rèn)知和利他主義。許多的道德決定都是建立在直覺(jué)和本能反應(yīng)之上,而不是以理性和慎重的方式進(jìn)行。除此之外,責(zé)任分散效應(yīng)即當(dāng)個(gè)體處在群體當(dāng)中時(shí),個(gè)體的責(zé)任感就會(huì)由群體來(lái)分擔(dān),造成責(zé)任分散,也與人類(lèi)道德的有限性息息相關(guān)。
人類(lèi)社會(huì)一直在尋找讓公民變得更有道德的方法。與同時(shí)期的科學(xué)進(jìn)步相比,依靠指導(dǎo)、法律和教育等非生物手段來(lái)強(qiáng)化道德的傳統(tǒng)道德增強(qiáng)(traditional"moral"enhancement),往往是緩慢而有限的。埃里克·迪特里希(Eric"Dietrich)聲稱(chēng),人類(lèi)可以在道德上進(jìn)步,但是有些不道德的行為,如撒謊、謀殺、虐待兒童和基于種族、性別、性取向等的歧視,可能無(wú)法從中解脫出來(lái)。盡管學(xué)校和社會(huì)一直在教育社會(huì)成員向善,但不可否認(rèn)這些行為仍繼續(xù)發(fā)生。人類(lèi)需要新的方法來(lái)完成更高層次的道德提升,使之符合目前社會(huì)的需要。
2"生物醫(yī)學(xué)道德增強(qiáng)的困境
在2008年,以英格瑪·佩爾森(Ingmar"Persson)和朱利安·賽沃萊斯庫(kù)(Julian"Savulescu)為首的西方學(xué)者就提出了生物醫(yī)學(xué)道德增強(qiáng)(biomedical"moral"enhancement)的概念。與傳統(tǒng)道德增強(qiáng)不同,它主要以生物醫(yī)學(xué)干預(yù)為主,使用藥物、深度腦刺激和基因選擇等生物手段來(lái)提高人類(lèi)的道德水平。他們認(rèn)為,通過(guò)對(duì)人類(lèi)行為的基因和神經(jīng)生物學(xué)基礎(chǔ)的科學(xué)探索,可以加速道德學(xué)說(shuō)的動(dòng)機(jī)內(nèi)化。這種干預(yù)可以迅速產(chǎn)生效果,有效幫助人類(lèi)超越自身局限性,更好應(yīng)對(duì)威脅人類(lèi)社會(huì)的巨大問(wèn)題。
當(dāng)然,這種方法也是危險(xiǎn)的。在技術(shù)安全性上,常見(jiàn)的就是輕微的副作用,例如使用血清素可能會(huì)頭暈、惡心,甚至?xí)霈F(xiàn)自殺的傾向。在人格同一性上,隨意改變性情,會(huì)造成被增強(qiáng)主體對(duì)自我認(rèn)同的斷裂,社會(huì)關(guān)系的瓦解。在自由意志上,會(huì)剝奪主體的自然權(quán)利,限制主體的道德自主性,使主體的自由意志受到破壞。在情感復(fù)雜性上,道德情感難以量化,每個(gè)人都是獨(dú)立的個(gè)體。既然生物醫(yī)學(xué)技術(shù)不是一顆“萬(wàn)靈藥”,那有必要去探尋一條更有說(shuō)服力的新路徑。
3"人工智能道德增強(qiáng)的優(yōu)勢(shì)
隨著現(xiàn)代科學(xué)技術(shù)的高速發(fā)展,人工智能已經(jīng)逐漸成為人類(lèi)生活中極其重要的一部分,它強(qiáng)大的計(jì)算和數(shù)據(jù)處理能力能很好地幫助人類(lèi)解決自身的局限和不足。在不久的將來(lái),預(yù)計(jì)人工智能會(huì)在很多領(lǐng)域達(dá)到并超越人類(lèi),包括但不限于交通、教育、工業(yè)等,其未來(lái)潛力無(wú)法估量。既然人工智能的發(fā)展前景和應(yīng)用范圍如此廣闊,那么將其運(yùn)用于道德領(lǐng)域協(xié)助人類(lèi)進(jìn)行道德選擇和判斷,自然無(wú)可厚非。
假設(shè)你有保護(hù)環(huán)境的道德原則,你也愿意將垃圾進(jìn)行分類(lèi),但是你不知道垃圾分類(lèi)的相關(guān)知識(shí),因此你經(jīng)常會(huì)把垃圾扔錯(cuò)垃圾桶,違背自己的道德標(biāo)準(zhǔn)。現(xiàn)在有了人工智能技術(shù),它可以快速地搜集信息,給你提供最優(yōu)的行動(dòng)方案。這種非侵入的外部道德增強(qiáng)技術(shù)既不會(huì)通過(guò)藥物手段改變?nèi)梭w內(nèi)部的生物因素;也不會(huì)通過(guò)非藥物手段直接刺激人的大腦深部,干預(yù)人的基因。在此基礎(chǔ)上,有關(guān)人工智能道德增強(qiáng)的不同方案被連續(xù)提出,為了更好地提升人類(lèi)道德,接下來(lái)將對(duì)不同方案進(jìn)行梳理和總結(jié)。
4"人工智能道德增強(qiáng)的3種哲學(xué)思考
4.1"徹底增強(qiáng):道德決策機(jī)器
徹底增強(qiáng)(exhaustive"enhancement)的強(qiáng)道德人工智能,旨在制造一個(gè)當(dāng)人類(lèi)遇到科技發(fā)展迅猛但道德實(shí)踐卻沒(méi)有跟上的道德滯后問(wèn)題時(shí),能夠替代人類(lèi)作出正確選擇的道德決策機(jī)器。此方法是將道德判斷完全交給人工智能機(jī)器,從而使其轉(zhuǎn)化為獨(dú)立的道德決策者。迪特里希對(duì)道德決策機(jī)器的發(fā)展?jié)摿Τ种С謽?lè)觀態(tài)度,他認(rèn)為我們應(yīng)該創(chuàng)造一個(gè)更美好的世界,在這個(gè)世界里只有具備道德的機(jī)器居住,因?yàn)槿祟?lèi)的道德本質(zhì)是如此的脆弱,總會(huì)被各種局限所阻礙,而機(jī)器卻沒(méi)有這些弱點(diǎn)。所以一些專(zhuān)家想要通過(guò)創(chuàng)造優(yōu)于人類(lèi)道德能力的人工智能體來(lái)提升道德水平,它主要根據(jù)系統(tǒng)設(shè)計(jì)者所擁護(hù)的道德原則來(lái)指導(dǎo)人類(lèi)的行為。只要道德決策機(jī)器的系統(tǒng)被輸入完成,我們所有的人,包括設(shè)計(jì)者本人,都需要遵循機(jī)器下發(fā)的指令去執(zhí)行。
道德決策機(jī)器相較于人類(lèi)更擅長(zhǎng)進(jìn)行道德判斷和道德選擇,以智能化和自動(dòng)化為主要特征的人工智能技術(shù)使得機(jī)器作出的決定具有恒定的公正性和一致性,并且不受偏見(jiàn)、歧視和利己的影響。目前,機(jī)器在人類(lèi)日常生活中變得愈來(lái)愈重要,它在各個(gè)領(lǐng)域都充當(dāng)著道德決策輸出者的角色。在醫(yī)療保健應(yīng)用方面,人工智能技術(shù)會(huì)在診斷和治療階段對(duì)患者提出更合理全面的建議,用來(lái)提升治療效果;在自動(dòng)駕駛系統(tǒng)方面,人工智能技術(shù)會(huì)使用傳感器讓汽車(chē)實(shí)現(xiàn)自動(dòng)駕駛,以減少交通事故發(fā)生率;在語(yǔ)音處理和識(shí)別方面,人工智能技術(shù)會(huì)通過(guò)語(yǔ)音助手查詢(xún)相關(guān)訊息,使我們的生活變得更加便捷。有了道德決策機(jī)器,我們不需要付出任何努力就能夠達(dá)到預(yù)期的道德增強(qiáng)效果,而且機(jī)器也會(huì)不厭其煩地為人類(lèi)提供道德決策這一過(guò)程。
這種徹底增強(qiáng)的方案雖然給人類(lèi)的道德提升帶來(lái)了新的可能,但是就當(dāng)前社會(huì)而言,人類(lèi)或許還沒(méi)有辦法做到將道德決策完全放心地交給機(jī)器。首先,由于多元主義(pluralism)的存在,我們到底應(yīng)該采用哪種道德原則來(lái)指導(dǎo)系統(tǒng)的設(shè)計(jì)還沒(méi)有達(dá)成共識(shí),因?yàn)闊o(wú)論是義務(wù)論還是其他道德理論,總會(huì)有人不同意。其次,道德決策機(jī)器的設(shè)計(jì)者會(huì)受到自身的限制犯一些編程編寫(xiě)錯(cuò)誤,而且外部環(huán)境因素引起的系統(tǒng)零件短路,也會(huì)影響機(jī)器的正常使用。再次,人工智能技術(shù)缺乏道德判斷所需要的情感敏感性,不能作出綜合的道德決策。最后,把道德的判斷權(quán)交給機(jī)器,會(huì)導(dǎo)致人類(lèi)成為機(jī)器的附庸,失去道德自主權(quán)。從此,道德決策不再由人類(lèi)作出,而是由機(jī)器作出,人類(lèi)自身道德的增強(qiáng)將無(wú)從談起。
4.2"輔助增強(qiáng):道德人工智能
與徹底增強(qiáng)的強(qiáng)道德人工智能完全服從道德決策機(jī)器不同,輔助增強(qiáng)(auxiliary"enhancement)的道德人工智能(moral"artificial"intelligence)則需要主體的進(jìn)一步參與。賽沃萊斯庫(kù)和漢納·馬斯倫(Hannah"Maslen)認(rèn)為,道德人工智能可以監(jiān)測(cè)影響道德決策的物理和環(huán)境因素,可以識(shí)別并讓主體意識(shí)到自己的偏見(jiàn),并可以根據(jù)主體的道德原則和價(jià)值觀等道德標(biāo)準(zhǔn)為主體提供正確的行動(dòng)建議。第一,道德人工智能通過(guò)對(duì)主體生理、心理和環(huán)境狀態(tài)的持續(xù)監(jiān)測(cè),來(lái)提醒主體注意影響道德判斷的因素,它是一個(gè)道德環(huán)境監(jiān)測(cè)者(moral"environment"monitor)。當(dāng)監(jiān)測(cè)到主體的疲勞程度會(huì)使其道德決策受損時(shí),道德人工智能會(huì)提醒他。第二,道德人工智能可以幫助主體制定和實(shí)現(xiàn)特定的道德目標(biāo),它是一個(gè)道德組織者(moral"organiser)。第三,當(dāng)主體面臨道德選擇時(shí),道德人工智能將使用提問(wèn)的形式來(lái)引導(dǎo)主體進(jìn)行道德思考,并提示主體考慮特定情境的偏見(jiàn),從而使主體做出最佳選擇,它是一個(gè)道德推動(dòng)者(moral"prompter)。第四,主體可以向道德人工智能就其應(yīng)該采取的行動(dòng)過(guò)程尋求最佳行動(dòng)方案的道德建議,它是一個(gè)道德建議者(moral"advisors)。
阿爾韋托·朱比利尼(Alberto"Giubilini)和賽沃萊斯庫(kù)進(jìn)一步描述了一種可以用來(lái)增強(qiáng)人類(lèi)道德決策的道德人工智能的形式即人工智能建議者(artificial"moral"advisor),它會(huì)根據(jù)人類(lèi)輸入的道德原則和標(biāo)準(zhǔn)更快更有效的給主體提供道德建議。在面對(duì)道德抉擇時(shí),人類(lèi)往往希望能有道德專(zhuān)家來(lái)指導(dǎo)他,羅德里克·費(fèi)斯(Roderick"Firth)據(jù)此提出了全知全能的理想觀察者(ideal"observer),可是這一理想的模型只能停留在理論層面上,沒(méi)有任何人類(lèi)能夠符合。如果人類(lèi)的理想觀察者是不存在的,那么創(chuàng)造一個(gè)人工智能建議者來(lái)充當(dāng)理想觀察者也就無(wú)可厚非了。不同的是,人工智能建議者會(huì)尊重主體的道德自主性,它產(chǎn)生的任何形式都可以表達(dá)為:如果這是你的道德原則,那你應(yīng)該去做這件事。
當(dāng)然,人工智能建議者也引發(fā)了一系列質(zhì)疑。一方面,人類(lèi)在道德決策中發(fā)揮的作用過(guò)于消極被動(dòng)。雖然人工智能建議者是在人類(lèi)選定的道德原則下進(jìn)行工作的,但是對(duì)于人類(lèi)自身來(lái)說(shuō)并沒(méi)有很好地理解系統(tǒng)所作出的建議和主體選定的道德原則之間有何聯(lián)系。這樣一來(lái),一旦人工智能建議者出現(xiàn)故障,人類(lèi)主體的道德水平就會(huì)退回到最開(kāi)始。另一方面,當(dāng)?shù)赖聹?zhǔn)則被主體選定之后,人工智能建議者在提供最佳建議的過(guò)程中只會(huì)考慮主體選定的道德價(jià)值觀,不會(huì)鼓勵(lì)人類(lèi)去思考和了解其他。而人類(lèi)在享受人工智能技術(shù)帶來(lái)便捷的同時(shí),自然也不太可能主動(dòng)去推翻自己原有的道德選擇。這種輔助增強(qiáng)的道德方案雖然一定程度上解決了道德決策機(jī)器帶來(lái)的問(wèn)題,但從長(zhǎng)遠(yuǎn)來(lái)看會(huì)進(jìn)一步加大對(duì)機(jī)器的依賴(lài)。
4.3"蘇格拉底式道德增強(qiáng)
弗朗西斯科·勞拉(Francisco"Lara)和詹·德克斯(Jan"Deckers)在人工智能建議者的基礎(chǔ)上提出了一種更為合理的方案,即蘇格拉底助手式人工智能道德增強(qiáng),它主要是通過(guò)主體與系統(tǒng)與機(jī)器之間的持續(xù)交互,來(lái)增強(qiáng)人類(lèi)道德。這種方法類(lèi)似于蘇格拉底精神助產(chǎn)術(shù),并不直接提供任何預(yù)先設(shè)計(jì)好的道德原則和價(jià)值觀,而是以對(duì)話的模式引導(dǎo)主體獨(dú)立思考,使主體在不斷地訓(xùn)練過(guò)程中增強(qiáng)自我道德判斷的能力。也就是說(shuō),當(dāng)人類(lèi)遇到道德抉擇時(shí)不會(huì)一味地依賴(lài)人工智能,而是首先作出自己的道德判斷,然后將其判斷提交給智能系統(tǒng)進(jìn)行審查,這時(shí)系統(tǒng)就像蘇格拉底一樣,向人類(lèi)提出相關(guān)的問(wèn)題,使人類(lèi)獲得啟發(fā),意識(shí)到最初的道德判斷并不是最優(yōu)解,從而一步一步地實(shí)現(xiàn)主體自身的道德提升。
蘇格拉底式道德助手具備強(qiáng)大的規(guī)劃和決策能力,在設(shè)計(jì)機(jī)器程序之初,我們就在其中編入了一系列功能用以幫助道德主體做出道德判斷,并根據(jù)這些判斷促使人類(lèi)最佳行為的產(chǎn)生。尤其是在外在經(jīng)驗(yàn)的支持、道德概念清晰度的梳理、邏輯準(zhǔn)則論證的指導(dǎo)、主體道德決策合理性的判斷、增強(qiáng)對(duì)個(gè)人局限性的道德認(rèn)識(shí)、對(duì)人類(lèi)怎樣實(shí)施決策的建議等方面,憑借虛擬語(yǔ)音助手和人類(lèi)進(jìn)行對(duì)話,以此來(lái)提升主體的道德推理和思辨能力。蘇格拉底式道德助手的出現(xiàn)逐漸擺脫了道德主體對(duì)機(jī)器的依賴(lài),與以往道德主體決策的消極被動(dòng)不同,現(xiàn)在的人類(lèi)通過(guò)與機(jī)器的對(duì)話獲得了更多的參與感。人類(lèi)與機(jī)器的交互不僅是為了得到增強(qiáng)的結(jié)果,更是為了體會(huì)增強(qiáng)的過(guò)程,幫助主體學(xué)習(xí)道德推理,了解系統(tǒng)作出的建議和主體選定的道德原則之間的聯(lián)系。通過(guò)這種方式,既可以鍛煉人類(lèi)增強(qiáng)道德所必需的認(rèn)知技能,又可以激勵(lì)人類(lèi)按照合理的判斷做事。
然而,蘇格拉底式道德增強(qiáng)在實(shí)際的操作過(guò)程中也遇到了很多困難。在道德領(lǐng)域,蘇格拉底式道德助手的存在并不會(huì)直接把人類(lèi)主體變成一個(gè)至善至美者,因?yàn)樗鸬降闹皇禽o助作用,不能繞過(guò)人類(lèi)的道德動(dòng)機(jī)去增強(qiáng)人類(lèi)的道德水平。如果主體由于自身的情感而不愿意接受智能機(jī)器提供的最優(yōu)建議,那么這項(xiàng)方案也就無(wú)法發(fā)揮任何作用。而且對(duì)于一些道德敗壞的人類(lèi)來(lái)說(shuō),主體參與感的增加也會(huì)助長(zhǎng)其作惡的可能。比如,虛擬語(yǔ)音助手是為了幫助人類(lèi)作出正確的道德判斷,但是一些人會(huì)借助它的能力去不勞而獲,更有甚者會(huì)剽竊、會(huì)抄襲。此外,人類(lèi)與機(jī)器的對(duì)話會(huì)延長(zhǎng)主體做出道德選擇的時(shí)間,每一次的選擇都需要和智能助手進(jìn)行大量的互動(dòng),這在現(xiàn)實(shí)生活中或許不太可能實(shí)現(xiàn)。
5"結(jié)語(yǔ)
人工智能道德增強(qiáng)不是為了取代人類(lèi)的決策,而是通過(guò)一種新興技術(shù)幫助主體過(guò)上“道德上更好”的生活。只不過(guò),有時(shí)人類(lèi)所遇到的道德問(wèn)題是極其復(fù)雜的,現(xiàn)有的技術(shù)水平還沒(méi)有辦法給出更好的答案。在未來(lái)的社會(huì),隨著人工智能技術(shù)的進(jìn)一步發(fā)展,可以預(yù)見(jiàn),人類(lèi)主體和人工智能的雙向互動(dòng)不失為增強(qiáng)道德的一種可行方案。
參考文獻(xiàn)
[1]Savulescu"J,Persson"I.Moral"enhancement,freedom"and"the"god"machine[J].The"Monist,2012,95(3):399421.
[2]Dietrich"E.Homo"sapiens"2.0:why"we"should"build"the"better"robots"of"our"nature[J].Journal"of"Experimental"&"Theoretical"Artificial"Intelligence,2001,13(4):323328.
[3]Persson"I,Savulescu"J.Unfit"for"the"future:the"need"for"moral"enhancement[M].Oxford:Oxford"University"Press,2012:107.
[4]Gips"J.Towards"the"ethical"robot[M].Cambridge:MIT"Press,1995:243252.
[5]Savulescu"J,Maslennbsp;H.Moral"enhancement"and"artificial"intelligence:moral"AI[J].Beyond"Artificial"Intelligence,2015(9):7995.
[6]Giubilini"A,Savulescu"J.The"artificial"moral"advisor:the"“ideal"observer”"meets"artificial"intelligence[J].Philosophy"amp;"Technology,2018,31(2):169188.
[7]Firth"R.Ethical"absolutism"and"the"ideal"observer[J].Philosophy"and"Phenomenological"Research,1952,12(3):317345.
[8]Lara"F,Deckers"J.Artificial"intelligence"as"a"socratic"assistant"for"moral"enhancement[J].Neuroethics,2020,13(3):275287.