
每天在網(wǎng)上瀏覽與戰(zhàn)亂動蕩相關(guān)的新聞,對阿曼達(dá)·魯吉里來說逐漸變成了一種煎熬。丈夫勸她去找心理醫(yī)生聊聊,但她在強忍淚水讀完又一篇報道后,轉(zhuǎn)而向人工智能求助。
“我對這個世界的現(xiàn)狀感到非常沮喪。”阿曼達(dá)在ChatGPT上寫下這句話。ChatGPT回復(fù)道:“感到不知所措是很正常的。”隨后還給出了幾條實用建議:少接觸媒體信息、專注生活中積極的事物、照顧好自己。阿曼達(dá)關(guān)掉了聊天窗口。盡管她知道這些建議確實有幫助,但情緒并未因此好轉(zhuǎn)。
如今,已有數(shù)百萬用戶在使用ChatGPT和其他專業(yè)心理健康聊天機器人。這類“AI朋友”可提供方便且價格低廉的情緒疏導(dǎo)服務(wù),甚至有醫(yī)生會使用AI來調(diào)整診療意見,使其顯得更具同理心。
盡管有部分專家對此表示肯定,并在研究中稱此類AI“富有同理心”,認(rèn)為AI不受情緒波動和職業(yè)倦怠影響,也許能比人類更坦率、更不知疲倦地表達(dá)關(guān)懷。但反對的聲音也不少。這些人質(zhì)疑,AI是否真能對人類情感和境遇感同身受,擔(dān)心人們會因?qū)で笄楦兄С侄蕾嚒凹傺b關(guān)心”的機器。更有人擔(dān)心,這種帶有“偽同理心”的AI崛起,可能會改變我們對同理心的定義,進而影響人與人之間的互動模式。
作為人類的重要特質(zhì)之一,同理心與社會互動相伴而生。雖然我們本能地理解同理心,但它的定義并不清晰。最近發(fā)表的一篇論文回顧了1980年至2019年的52項研究,發(fā)現(xiàn)學(xué)界對“同理心”的概念缺乏統(tǒng)一定義。不過,論文作者之一、瑞典斯德哥爾摩大學(xué)心理學(xué)家雅各布·海坎松指出,各學(xué)科對同理心還是存在一定共識:首先要求識別他人情緒,其次要在一定程度上與他人產(chǎn)生共鳴,同時能將他人的情緒與自身的情緒分離,設(shè)身處地理解對方處境。
在識別人類情感方面,AI近幾年似乎取得了很大進展。大多數(shù)由AI驅(qū)動的聊天機器人由大語言模型提供支持,它們通過預(yù)測詞語序列來生成回答。像ChatGPT這樣的大模型多數(shù)時候能夠根據(jù)用戶輸入的語句來捕捉其中的情緒,并作出恰當(dāng)?shù)幕貞?yīng)。
“AI能做到這些并不奇怪。”美國加州大學(xué)伯克利分校的生物倫理學(xué)家喬迪·哈珀恩說,“但這并不代表它具備真正的同理心。”
人類的同理心是在真實互動中產(chǎn)生的,而且需要持續(xù)的反饋來調(diào)整個體的反應(yīng),此外也要一定的直覺來理解對方所處的情境。比如,一位患者在得知自己懷孕的消息后流淚。如果我們知道她多年來一直在努力備孕,就可以覺察出這淚水是源自喜悅還是悲傷。
然而,目前的AI還無法理解人類情感中的這些微妙差異。哈珀恩指出,更重要的是,AI無法對與自己互動的人產(chǎn)生感情。“AI只是提供一種產(chǎn)品——假裝能說出與人類一樣富有同理心的語言,但實際上它沒有同理心。”
哈珀恩的觀點也解釋了阿曼達(dá)與ChatGPT及Elomia的對話體驗。Elomia是目前提供心理健康支持的幾大商業(yè)聊天機器人之一,其開發(fā)者稱,Elomia當(dāng)前的用戶已超十萬。
當(dāng)阿曼達(dá)向Elomia傾訴對當(dāng)前世界的看法時,Elomia問她:“這些思考對你的日常生活和情緒有哪些影響?”
“我不知道該如何面對這個世界。”阿曼達(dá)回答。
“很遺憾你這么想。有沒有什么具體的想法或行為?”它追問。
每當(dāng)阿曼達(dá)回應(yīng),Elomia都會立刻生成一個新問題。這些問題引導(dǎo)阿曼達(dá)自我反思,但她真正渴望的是聽到一句“我理解你的感受”,或是對方能分享他們自己的內(nèi)心掙扎,甚至給她一個簡單的擁抱,而不是一連串的問題。換句話說,阿曼達(dá)期待的是發(fā)自內(nèi)心的回應(yīng)。
然而,這是否可能呢?有人認(rèn)為AI有可能體驗和分享人類的情感,方法之一是不斷給大語言模型“喂料”,豐富數(shù)據(jù)的多樣性,甚至可利用虛擬智能體結(jié)合表情識別和語音情緒分析。這類情感檢測機器人已有雛形,但過多的信息輸入可能導(dǎo)致AI系統(tǒng)混亂。
“即便AI更善于解讀人類情緒,它仍無法與人產(chǎn)生共鳴。”加拿大多倫多大學(xué)心理學(xué)家邁克爾·因茲利希特說,因為AI必須先有情感,才能感同身受。
部分計算機科學(xué)家認(rèn)為,某些算法已經(jīng)具備了原始情感——盡管這一觀點富有爭議。這些被稱為“強化學(xué)習(xí)智能體”的算法會因特定行為獲得獎勵。對獎勵的期待是人類的生存本能,比如尋找食物和水。同樣,在付出情感后,人類也會期待從人際交往中得到正向反饋。加拿大蒙特利爾大學(xué)的約書亞·本吉奧認(rèn)為,情感是社會互動的結(jié)果,若是能讓AI充分參與并捕捉到其中的復(fù)雜性,或許AI就能產(chǎn)生情感甚至同理心。
另一種方法是模擬鏡像神經(jīng)元機制。人類看到別人做出某種動作或表達(dá)某種情緒時,腦細(xì)胞會發(fā)生反應(yīng),激活大腦中的相應(yīng)區(qū)域。如果我們自己做過類似的事或有相似的感受,這些部位也會亮起來。計算機科學(xué)家已經(jīng)構(gòu)建了能夠復(fù)制鏡像神經(jīng)元的架構(gòu),并認(rèn)為這是實現(xiàn)共情的關(guān)鍵。然而,過去十年間,關(guān)于鏡像神經(jīng)元的研究不斷被推翻,這種神經(jīng)元所在的腦區(qū)可能與情緒處理并無直接關(guān)系。
歸根結(jié)底,只有親身體驗過悲傷的人才能真正理解悲傷。同理心的進化與社會交往以及對他人思想的認(rèn)知息息相關(guān)。因茲利希特認(rèn)為,同理心是整體性體驗,可能需要意識的介入。
那么,如果AI不具備真正的同理心,是否也能發(fā)揮情感慰藉的作用呢?2021年的一項實驗發(fā)現(xiàn),即使知道與之對話的是聊天機器人,用戶依然可通過互動緩解壓力。今年1月,谷歌設(shè)計的一款醫(yī)療聊天機器人被20名受訪對象評價為“對病人的態(tài)度比真正的醫(yī)生更好”,同時還能提供更準(zhǔn)確的診斷。與人類不同,“人工智能感覺不到壓力或疲憊。它可以24小時不間斷地工作”。海坎松指出,這正是AI的獨特優(yōu)勢。不過,也有研究表明,當(dāng)人們知道自己是在與AI互動時,共情度會降低。
“這意味著兩種可能。”海坎松表示,要么用戶誤以為AI是人類,從而獲得有效但不道德的關(guān)懷;要么用戶清楚對方是AI,那樣干預(yù)效果可能會減弱。
然而,有最新研究表明,即便知道是AI,用戶仍會與之共情。在這項研究中,人類和ChatGPT被要求描繪一些設(shè)想中的場景,其他參與者則對這些回答的“同理心程度”進行評分。其中,AI的回答獲得了最高分。
在另一項實驗中,研究團隊標(biāo)出了哪些回答來自AI,哪些來自人類。結(jié)果發(fā)現(xiàn),人們居然更喜歡AI的回答——貼上AI標(biāo)簽的回答甚至比專業(yè)的咨詢熱線工作人員的回答更受青睞。
這可能是由于人類傾向于將情感投射到物體上。無論是喜歡玩具娃娃的孩子,還是與Replika等聊天機器人對話的人,他們都可以擁有一個“AI朋友”。研究發(fā)現(xiàn),在與AI對話時,如果讓人們認(rèn)為AI真的關(guān)心他們,就會加劇這種與AI共情的傾向。
紐約卡內(nèi)基國際事務(wù)倫理委員會的溫德爾·瓦拉赫指出,假如AI“假裝”關(guān)心我們,進而利用情感引導(dǎo)我們購買某些產(chǎn)品,將產(chǎn)生潛在風(fēng)險。
這種擔(dān)憂并非空穴來風(fēng)。去年3月,比利時一名男子在與AI聊天機器人聊天六周后自殺身亡。媒體報道稱,他一直同AI分享自己對氣候危機的恐懼。聊天機器人似乎“理解”了他的擔(dān)憂,并表達(dá)了自己的情緒——包括鼓勵他自殺,這樣他們就能“一起生活在天堂”。在缺乏人類監(jiān)督的情況下,AI過分假裝具有同理心的行為可能帶來致命風(fēng)險。
人們或許會逐漸習(xí)慣向AI表達(dá)情感,甚至更傾向于與其交談,這正是美國麻省理工學(xué)院“技術(shù)與自我”項目主任雪莉·特克爾擔(dān)心的問題。她認(rèn)為,這可能會改變?nèi)藗儗ν硇牡睦斫狻?/p>
特克爾將其類比于圖靈測試。圖靈測試評估計算機智能的標(biāo)準(zhǔn)已經(jīng)深刻影響了我們對智能的定義。同樣,我們也許會將人類的同理心視為一種可持續(xù)、無條件的關(guān)懷,即便它未必是真誠的。
不過,因茲利希特認(rèn)為,不應(yīng)因此忽略AI在情感陪護上的潛力。無論是作為醫(yī)療工作者的助手,還是緩解老年人孤獨的陪伴,AI都能發(fā)揮積極作用。然而,特克爾等人擔(dān)心這會減少提升人類同理心的機會,甚至可能讓人們選擇向機器傾訴,而非尋求人類間的聯(lián)系與幫助。特克爾說:“如果我們真心認(rèn)為,通過與無法理解生老病死的機器對話能夠緩解孤獨,那是極其可悲的。”
一天結(jié)束時,盡管阿曼達(dá)在網(wǎng)上與多個聊天機器人交談,得到的建議和反思提示比她預(yù)期的多得多,但她仍對世界的現(xiàn)狀感到悲傷。于是,她做了一直想要做的事:拿起手機,給朋友打個電話。
(摘自《文匯報》)