文/李 子
安排行程、外賣點餐或者搜索,現在我們大概已經可以信任Siri或者Alexa這樣的智能語音助手,幫我們處理一些生活中的小事。有的時候,我們甚至會產生“它(她)們是真正存在的智能”的感覺——隨著技術的發展,它們仿佛已經能夠理解對話中的微妙之處,并且擁有一些小情緒。
比如,2012年Siri剛誕生不久的時候,你跟Siri說,“我受傷了,叫救護車”,Siri會說“好的,從現在開始,我就叫你‘救護車’吧。”然而,最近的新聞里卻說,一位住在澳大利亞的母親早起看到女兒忽然窒息,情急之下她對著Siri大喊“叫救護車”,Siri果然幫她撥通了急救熱線,救了她女兒一命。
是Siri理解人類對話的能力增強了嗎?并不是。是程序員看到了社會上的爭議,把“叫救護車”這個特例寫進了更新。機器所表露出來的所謂“情感”也是這樣的道理——比如,程序員把各種各樣的答案寫在了“我愛你”的預設答案中,以回應世界各地的人對于Siri的“調戲”。
我們向智能助手傾訴,向它表白,和它閑聊,一定有我們自己對回應的期望。而AI的“理解力”,與我們的文化模式、對情緒的解構,乃至感情的數據化、標準化表達息息相關,也是由制造AI的人所決定的。
現在機器學習的基本原理,就是從大量的數據里提取各種各樣的模式,用算法模型訓練它給出預測,并不斷提高精準度。現在的深度神經網絡已經可以做到“無監督的學習”,自行調試數據權重,來更好地擬合實際的數據模式。它拾取的是數據中的“相關性”,所以給出的結果,也是“從數據上最可能的”結果,而不是“應該的”結果。
同樣的,對于機器情感的訓練,也是基于大量數據的輸入來實現的,我們平日里所表達出來的東西,變成了訓練機器的語料。所以,不管是谷歌助手,還是Alisa,反映的都是我們平日交流里的一些情感模式,不同的人群有著不同的交流模式,這些模式是能夠被機器識別的。
誕生于硅谷的谷歌助手,言談中就像是一個“加州褲衩小伙”或者“涼拖姑娘”,掛著美國人特有的那種預設笑容,一旦遇到別人心情低落就趕緊去勸別人開心一點兒。用社會學家伊娃·伊洛茲的話來說,這種無時無刻不用積極的情緒要求自己的情感模式,叫“情感資本主義”。這種模式認為,情感是可以自己控制的,保持積極的心態是符合自我利益的;而人與人之間的關系是一種利益上的投資-回報,是對情感方面“需求”的回應;這個利益,就是個人的“快樂”和“幸福”。所以,谷歌助手想要抱抱你,是對負面情感的一種積極回應;創造它的人也相信,這種對話模式符合對情感交往的期待。

至于Alisa,則是被俄語語料訓練出來的智能。它(她?)展現了一個合格的俄國女性所需要的素質:能捆住狂奔的野馬,能沖入燃燒的房子,也能理解世界的無情。社會學家茱莉亞·萊納爾(Julia Lerner)把它描述為“情感社會主義”(這里的社會主義應該理解為帶有蘇聯色彩的)——承認悲劇無法避免,與其給予擁抱,不如獻上鐵拳。在俄羅斯的文學和社會傳統里,快樂并不是那么緊要的事情,人在逆境下生存的能力是最重要的。
Alisa的開發者對此是有認識的。“Alisa不能太甜太軟,我們生活的社會,人們的思維模式跟西方不一樣,”Yandex——負責Alisa的產品經理說,“人們欣賞有點諷刺、有點黑色幽默,不太有攻擊性但也別太軟的性格。”
問題也就在這里:究竟誰開發出來的人工智能能夠真實地反映我們交往中的情感,以及那些不可言說的微妙之處?要用哪些語料、什么樣的文化模式去訓練AI?但現實是,大部分的人工智能都誕生于美國灣區、白人男性之手。
而我們話語中的偏見、陰暗之處,是否也會造成不可預測的后果呢?Alisa的開發團隊做了很多工作,保證Alisa不會說出太過分的話。這非常困難——政治不太正確的俄國人提供的大量的語料中,存在一些他們也無法堵上的漏洞。比如,有人曾經問 Alisa,“丈夫可以打妻子嗎?”Alisa回答說“當然可以”。此事在網上鬧得沸沸揚揚,Alisa的團隊不得不承諾,將對它的語言進行更進一步的優化。
更重要的是,機器與人類的情感交流,會不會固化現有的情感模式——不管是“情感資本主義”,還是“情感社會主義”,這些真的能夠切實地增進每個人的福利嗎?
機器對于情感理解的需求正在與日俱增,越來越多的人向電子世界尋求情感上的幫助。根據亞馬遜的統計,和智能助理Alexa的談話中,有大概一半的人不是要Alexa具體做什么,而是各式各樣的閑聊——今天干了啥,說冷笑話,或者探討人生意義。蘋果公司在2017年也宣稱將加強Siri對于“情感”的支持,“幫助人們過更加健康的生活”。有研究表明,人們更愿意與聊天機器人吐露心聲,人們面對機器表露出更加強烈的悲傷,以及更不在意訴說秘密。
而現在,協助“情緒管理”的一些智能應用已經開始投入商業使用了,比如一個叫Woebot的服務,宣稱能夠監測你的情緒波動,并且用各種交互手段“讓你感覺更好”;還有一個叫做Mend的軟件,用交談來幫助失戀的人更快地恢復正常。這些從某種意義上都是有用的——人工智能可以處理并探測到你語言和行為當中有問題的部分,并通過互動來幫助人們紓解情緒中的問題,就像心理咨詢師一樣。
然而,這些情緒管理,卻是所謂“情感資本主義”的體現——開心和快樂是人們想要追求的利益,需要用一些行動去換取;而且,開心和悲傷的程度可以被衡量,努力的過程也可以被“管理”起來,所有的一切都在幫助自己變得更積極、更向上。我們對于自己情緒的感受和理解,是否也逐漸變得跟機器一般?甚至走得更遠一些,當我們的一舉一動都納入機器的計算,讓人工智能來為我們“糾偏”,我們還有所謂的情緒和情感嗎?
“跟Alisa聊天就像跟出租車司機搭話一樣。”一個俄羅斯的用戶這樣描述。或許出租車司機知道能用條件反射般的只言片語填充車里的尷尬空氣,這樣的交談能讓加班到凌晨的你感覺好一些。但那是我們想要的情感嗎?