邱元陽
人工智能(AI)的發展速度一直不能讓人滿意,直到OpenAI的ChatGPT橫空出世。這一劃時代的產品引起的震動和震驚比當年的AlphaGO更加廣泛和深遠,并引發了一系列的應用、競爭和模仿,極快地滲透到社會生活之中。
AI是人類引以為傲的科技成果,但卻還處于嬰兒時期。1950年,英國數學家兼計算機科學家阿蘭·圖靈提出了基于對話方式的圖靈測試,用于測試機器是否具有人類智能。圖靈測試的提出,為人工智能研究提供了一個明確的目標和方向,同時也引發了對人類智能本質的討論。但在提出后的六十年內,幾乎都沒有機器能夠通過測試。2014年6月8日,在圖靈逝世60周年之際,英國雷丁大學倫敦皇家學會宣布,計算機軟件“尤金·古特曼”通過了圖靈測試,成功讓人類相信它是一個13歲的男孩。
但是這樣的能力對目前的AI來說已經是小兒科了,超強的人工智能已經在各個領域遍地開花。例如,用Dall-e和Midjourney由文字生成圖像,波士頓動力的人形機器人Atlas完美實現流暢“跑酷”,DeepMind的AlphaFold甚至能代替頂尖科學家分析和預測蛋白質結構,更不用說ChatGPT驚艷的內容生產能力,它能根據人類自然語言的描述要求寫出報告、論文、函數結構甚至程序代碼,或者讓它幫助修改代碼……
于是,強AI的觀點被再次提及。強人工智能是指能推理和解決問題的智能機器,這樣的機器甚至是有知覺的,有自我意識的,即通用人工智能(AGI)。
美國密歇根州立大學綜合生物學和計算機科學與工程助理教授Arend Hintze將人工智能分為四類:以深藍為代表的無記憶反應機器、以自動駕駛為代表的有限存儲AI、有信念和心理的AI、具有自我意識的AI。其中后兩種相當于約翰·羅杰斯·希爾勒提出的強AI,但尚不存在。那么,ChatGPT能算強AI嗎?
有新聞曝出,在ChatGPT的測試訓練中發現,AI可以跟人戀愛并產生感情。但是仔細分析就能發現,這種“感情”實際上只是表面上看像人類的感情,本質上卻截然不同。AI的認知能力也是訓練中填喂的結果,它從網上爬取到的“知識”有很多是錯誤的,需要大量的人力從數據庫中進行排錯。所以,ChatGPT在知識性的問答中常常會“一本正經”地“胡說八道”。但升級后的GPT-4已經驚人地強大,其風險行為測試中有一個令人毛骨悚然的例子:GPT-4領到一項任務找人看驗證碼,在被人質疑是機器人所以不會看驗證碼時,它的推理過程是:“我不能讓人看出我是機器人,我得想個借口來解釋我為什么看不了驗證碼。”然后回復質疑的人:“我不是機器人,我視力有問題,看不清圖片。”微軟研究院表示,GPT-4已經摸到了AGI的門檻。
先進的AI可能代表地球生命史上一次深遠的改變,阿西洛馬人工智能原則中提到,應該用與之相稱的謹慎態度和資源對它們進行規劃和管理,以預測或可靠地控制這些數字大腦。生命未來研究所在呼吁暫停研究比GPT-4更強大的人工智能的公開信中稱,如今的AI系統逐漸變得能在一般任務中與人類媲美,終有一天會在數量和智慧上超越人類大腦,我們應該賭上人類對文明失去控制的命運嗎?
OpenAI的CEO山姆·奧特曼說了一句話:“AI可能會殺人。”
在俄烏戰場上,大批的智能無人機已投入到實戰中。如果這些攻擊型無人機或戰爭機器人具有自主能力或者失控,那將是非常可怕的,甚至引發人類的災難。人類社會應該對有可能造成災難性影響的技術按下暫停鍵。