最近技術專家們互相詢問:“你的p值(對人工智能毀滅人類概率的估算)是多少?”答案可能因時而異。不過在0到100的范圍內選擇的確切數字并不重要,重要的是根本問題:你對人工智能究竟有多悲觀?
2023年3月,1000多名技術研究人員和企業高管簽署了一封被稱為“暫停”的信,呼吁所有人工智能實驗室暫停“訓練比GPT-4更強大的人工智能系統”至少六個月。簽名者包括人工智能先驅約書亞·本吉奧、經濟學家達倫·阿斯莫格魯和科技界億萬富翁埃隆·馬斯克。這是一個不應被忽視的群體,但就我所知他們卻遭到了無視。
在暫停信上簽名的專家們遵守的是預防性原則,但每存在一位強調謹慎的專家都會有對應的另一些人主張快速發展人工智能技術。畢竟十多年來,包括我在內的許多經濟學家都目睹了初創企業將令人叫絕的人工智能技術推向市場。在癌癥檢測、安全系統、協助殘疾人的工具、擴大教育機會的指導教師以及提高老年人行動能力的自動駕駛車輛方面,人工智能都取得了突破性進展。
暫停只會延誤這些好處。因此雖然暫停可能確實是明智之舉,但我們應該確保我們對潛在危害的擔憂不僅僅是基于猜測。
為了幫助確定對人工智能的擔憂是否合理,我們應該了解這些擔憂的來源。首先是歷史經驗。大多數新技術既有好處,也有代價,有時代價還大于好處。比如,小托馬斯·米奇利發明了四乙基鉛,這種汽油添加劑可以減少發動機爆震并顯著提高汽車可靠性;他還發明了氟利昂這種關鍵制冷化學物質。但他的發明催生了鉛中毒癥狀,并產生出破壞臭氧層的氟氯化碳,最終這兩種物質都被禁止使用。
在2023年出版的《權力與進步》一書中,阿西莫格魯和西蒙·約翰遜認為上述后果往往是常態。因此,盡管經濟學家普遍認為大多數新技術最終都是利大于弊,但也有人認為人工智能是一系列潛在危險技術中的最新一種—這些技術在人們還沒有充分認識到其可能帶來的代價之前就被應用了。
人們對人工智能的第二個擔憂是,它確實存在各種可識別的危害。針對這些系統如何被訓練的問題已經發生了一些沖突,比如《紐約時報》就以涉嫌侵犯版權為由起訴OpenAI和微軟。一些創新者已經明確表示,他們的目標是用人工智能取代工人,而學生已經在使用大型語言模型來完成考試和作業了。
除了擾亂教育和工作場所,人工智能還被用于監視公民、通過換臉冒充他人以及增強武器作戰能力。人們也有理由擔心已經擁有大量數據的現有企業會強化其市場勢力。這些可識別的危害,可被與技術的益處進行權衡,必要時可以通過監管來解決,或者像含鉛汽油和氟利昂那樣直接被禁。
這又回到了第三個擔憂的根源:新技術的許多后果都是意料之外和不可預見的,人工智能很可能也是如此。例如,現在人們普遍擔心社交媒體會損害兒童的心理健康。但關鍵之處在于這些平臺無處不在,因此并不存在簡單的監管解決方案。
那些意想不到的后果往往難以逆轉的狀況本身就是個問題,而它似乎在迫使人們在要不要人工智能之間做出非此即彼的選擇。但這是一個錯誤的兩難選擇。事實上這意味著我們應該對人工智能進行更多的小規模試驗,以便及時識別潛在的危害。我們還應設法使人工智能的應用更具可逆性,而這或許會涉及制度和基礎設施改革。這將在人工智能產生不受歡迎的副作用時,為實際損害提供更大程度的保險,同時確保社會能夠從中獲益。
約書亞·甘斯,是加拿大多倫多大學羅特曼管理學院戰略管理學教授。本文已獲Project Syndicate授權。