卓克

《未來簡史》的作者尤瓦爾·赫拉利一直對人工智能保持警惕。《未來簡史》是2014年動筆的,那時不要說ChatGPT了,連AlphaGo戰勝李世石都還要再過一年半才上演。但赫拉利已經在書里預測了AI對人類的威脅。當年他預測,AI在音樂藝術和內容創作中發揮作用的同時,也會導致當前的從業者被邊緣化。這一點在2023年持續了148天的美國編劇大罷工事件上已經應驗。
2023年,赫拉利發表了新一波AI威脅論,他提到,對于AI威脅,人們總默認要有兩個前提,一個是AI要發展出意識、感情,才能在精神世界對人類形成實質性威脅;另一個是AI要發展出可靠的移動能力、動作能力,才能在物理世界對人類形成實質性威脅。這兩條多少都受到科幻作品的影響。
比如,《黑客帝國》就是典型的AI在精神世界對人類構成的威脅,那個叫作“矩陣”的機器靠人類提供能量,并可以依照機器自己產生的意識生成可以控制人類的虛擬世界。而《終結者》講的則是AI機器人在速度、力量、協調能力遠超過人類后,對人類實施的統治和毀滅。
赫拉利說,AI要對人類構成足夠大的威脅,其實根本不需要滿足這兩條。什么時候危機就會降臨呢?只要AI可以掌握語言,能生成真假難辨的內容就足夠了。
當前的AI科技,正在這條線的邊緣。
人類有一個久遠的恐懼,那就是困在虛幻中,不能觸碰到真實世界。比如,佛教講“六根六塵”——眼、耳、鼻、舌、身、意,色、聲、香、味、觸、法,這些互動全都是暫時的幻覺,不能揭示真正的現實。佛教的終極目標就是幫信徒看穿幻覺,最終實現覺醒和解脫。
另外,《美麗新世界》和其他反烏托邦小說也都在描述一個令人恐怖的由權力編織的假世界。
所以,當人們無法分辨真偽時,無邊的恐懼就降臨了。而AI不需要展現出意識和情感,不需要能靈活運動,就可以做到這一點。
比如,寫這篇文章時,我想找一個人類被虛幻籠罩而無法觸碰真實世界的例子,但我只想到了《1984》和《美麗新世界》。沒有ChatGPT的時候,我只能去網絡里一遍遍搜索,若想找到佛教“六根六塵”這樣好的例子,可能需要很長時間。
但有了ChatGPT,我只需向它提問:幾千年來,人們對困在幻覺世界的恐懼都有哪些著作?它瞬間就列出了6個:柏拉圖的洞穴寓言、東方瑪雅矩陣、浪漫主義和超驗主義、反烏托邦文學、電影《黑客帝國》、佛教“六根六塵”教誨。
這簡直太好了!然后我再追問,“六根六塵”的說法具體怎么體現人對困在幻覺世界的恐懼呢?得到的答案就是剛剛我說到的內容。當然,我并不是直接復制粘貼,而是在寫進稿子前又搜索核查了一遍,看看是不是和ChatGPT給出的解釋一致。
但更多的普通用戶,他們從ChatGPT上獲得了一個說得通的答案,就不會再去核實了。而“說得通”與“真”是兩碼事。假如你把一大堆說得通但是編造的內容當作真實去看待的話,你的世界就已經困在幻覺中了。
有人說,這還不好辦?我核實一下不就完了嗎?
其實,我們之所以還能核實,是因為目前由人類產生的內容總量遠遠超過由AI產生的內容,所以用谷歌搜索出的內容99.999%不是AI編造的。但AI可以7×24小時無休止產出,它的產量是我們的千萬倍。等到在網上一搜,搜出的結果有三分之一都是AI產生的,核實的步驟也就沒有意義了。
我聽說李白有一首詩《夜泊牛渚懷古》,在ChatGPT上一搜,出現了兩首:
(一)牛渚西江夜,青天無片云。
登舟望秋月,空憶謝將軍。
(二)牛渚西江夜靜妖,
古渡無人舟自嬈。
哪個是真的呢?我就去網上核實,沒想到搜索結果里還有另外7個不同的版本。到底哪首是真李白寫的呢?
有些人分析,第一首才是真的,因為“望秋月”和“空憶謝將軍”更貼近懷古,更像感傷。但你之所以能看得出來,是因為今天的ChatGPT對中文語料輸出的水平還不夠。等今后足夠好的時候,只要不是信息考古專家,再聰明細致的人也分辨不出來。
生成式AI做出的這些改動并不是隨機亂改,而是依據算法。算法可能是讓輸出更貼近人們經常使用的表達方式,也可能是依據統計規律中呈現的人們的審美偏好,也可能是依照某些禁令做的刪改。
當唐詩無法確認真偽,經書無法確認真偽,我們難道就能確認社交媒體上點燃我們情緒的發言、打動我們的內容就是真的嗎?今后很有可能出現的那些所謂微言大義的內容難道就是真的嗎?
過去十年,社交媒體在爭奪人們注意力上打成了一鍋粥。現在隨著AI的出現,爭奪的焦點已經變成了情緒和信任,而要贏得這場勝利,AI并不需要具備意志、情感、情緒,也不需要能跑會跳、控制武器,它們只要能精細地生成真假難辨的內容就足夠了。這就是尤瓦爾·赫拉利的擔憂。
最后,赫拉利也給出了明確的解決方法:嚴格標注由AI生成的內容,減慢從實驗到產品的嘗試。慢下來后,就能看出更多潛伏的危機了,在危機成長成災難前給予監管。
(摘自“得到App”,本刊有刪節,仙人掌圖)