最近幾周,人工智能(AI)比其短暫歷史上的以往任何時候都吸引著更多的關注、資金和人才。但突如其來的狂熱,乃是該領域之外人士所兜售的神話和誤解的結果。
多年來,AI領域增長有序,已有方案能令性能每年增進1%~2%。與此同時,AI研究者也得益于更加強大的工具,包括高性價比云計算、高速廉價的數據處理硬件、通過互聯網實現的無縫數據共享,以及高質量開源軟件的進步等。在這些因素的推動下,機器學習尤其是深度學習,主宰了人工智能,讓人興奮不已。
該領域必然還會有進一步的進展,但這種進展未必是線性的。盡管如此,炒作這些技術的人抓住各種誘人的神話,首先便是AI能夠解決一切問題。
每周,我們都能讀到轟動性的報道,比如《智能機器自學量子物理》《人工智能在辨別肺癌方面勝出人類》等等。這些標題常常只是狹隘的正確。對于像“辨別肺癌”這樣的一般性的問題,AI只能為問題提供特殊的、簡化的解讀,將任務退化為基于圖像識別的檔案歸類。
這些故事不曾提到,AI其實并不像人類那樣去理解圖片或語言。相反,算法尋找隱藏的復雜特征組合,如果它們出現在特定的圖片或檔案集中,就屬于目標類別的特征。這樣的分類未必可以用于關于人的決定—不管是癌癥患者診斷還是應該將某人關禁閉多久。
不難看出這是為什么。盡管AI系統在通常與“高智能水平”(下象棋、圍棋)相關的任務中表現勝于人類,但它們距離擅長人類未經或稍加訓練便可駕馭的任務(如看懂笑話)還十分遙遠。我們所謂的“常識”,其實是巨大的隱性知識庫—自幼體驗和了解世界所形成的累積效應。將常識編碼并輸入AI系統,仍是一個懸而未決的挑戰。盡管AI將繼續解決某些難題,但距離完成許多對兒童來說也是小菜一碟的任務仍有很長距離。
這就引出了第二個相關神話:AI很快就將超越人力智能。2005年,未來主義暢銷作家瑞·庫茨維爾預測到2045年,機器智能將比所有人力智能加起來還要強大不知凡幾。盡管庫茨維爾認為AI的指數增長或多或少將保持下去,但其所面臨的壁壘也會不斷抬高。
壁壘之一便是AI系統復雜程度的激增。目前,已經需要數十億個參數來訓練“機器學習算法”從“海量數據集”中學習。我們已經無法理解系統所有部分之間的互動,因此也很難掌握如何將各部分組合并聯通起來解決某個任務。
另一個壁壘是帶注釋(“標簽”)數據的稀缺。帶注釋數據是機器學習的基礎。谷歌、亞馬遜、臉書和蘋果等科技巨頭坐擁最令人憧憬的數據,但毫無公開這些無價資產的激勵。
第三個神話是AI將很快讓人變得多余。在2015年的暢銷書《未來簡史》中,以色列歷史學家尤瓦爾·諾亞·赫萊利指出,大部分人將在所有高層次智力決策方面淪為AI系統專屬社會的二等公民。事實上,一些普通工作,如駕駛卡車,很有可能在未來十年內被AI取代,許多與日常重復任務有關的白領工作亦然。
但這些趨勢并不意味著會發生大量失業,因為老工作將被目前尚無法想象的新工作取代。1980年,沒人知道數百萬人很快就能靠互聯網的附加值生活。
誠然,未來的工作可能會要求高層次數學和科學訓練,但AI本身可以提供部分方案,來實現以參與性更強的新方法訓練人們獲得必要的能力。被AI奪走的工作,將會被AI訓練人們勝任的工作取代。不存在人類注定要淪為未來AI奴隸的科技或歷史定律。
本文由Project Syndicate授權《南風窗》獨家刊發中文版。斯坦·馬特溫是加拿大新斯科舍省哈利法克斯達爾豪斯大學計算機科學教授、大數據分析研究所主任。