李國棟
(深圳市華途數字技術有限公司,廣東深圳 518000)
人工智能被視為“第四次技術革命”的核心驅動力,推動著全球經濟產業與生活模式的智能化變革升級,是大國新一輪科技競賽的“掌上明珠”。2016年,我國就將人工智能作為發展新一代信息技術的主要方向,探索人工智能的關鍵技術與發展應用,對于推動新科技、新產業、新應用加速重塑具有重要意義。
人工智能(Artificial Intelligence)是通過人工模擬、延伸和擴展人的智能思維過程及行為的一門技術,主要的物質載體和實現平臺是現代計算機,并包含了仿生學、神經科學、信息學、心理學、自然語言學、數學和哲學等諸多學科。關于人工智能內涵,最早可追溯至艾倫?圖靈提出“圖靈測試”,隨著信息技術的不斷發展,其內涵也在不斷深化完善,目前各領域給出的定義與闡釋不盡相同,但基本可以包含3個層級:①弱人工智能,就是利用算力和算法模擬人的思考過程,通常專注或限制于特定領域、專用應用場景,作為腦力與初級智能的延伸,本質上是不完備的人工智能,當前人工智能發展水平還主要停留在這一層;②強人工智能,是人工智能向認知型、通用型發展的結果,不再受限于某個領域,能夠綜合各類知識進行類人推理、分析、整合,并通過自然表現形式進行呈現,這一層人工智能基本可以順利通過“圖靈測試”;③超人工智能,是人工智能發展的高級形態,目前通過想象還不能完全描繪其樣貌,至少應包含的特征有:除人類智能外,還同時具有人類情感和自主意識,具備獨立且先進的創造能力而并非人類勞動的簡單替代。
從當前發展看,人工智能圍繞模擬人類感知、學習、處理、表達、行動等各個環節,按應用領域發展出計算機視覺、機器學習、自然語言處理、智能芯片、智能控制等關鍵技術。其中,計算機視覺用于智能圖像處理,能夠感知、提取、分析、判斷圖像中實體對象,廣泛運用于面部識別、自動駕駛等領域;機器學習是通過模擬人類學習認知過程,通過知識訓練不斷修正算法模型的過程,是智能算法的核心;自然語言處理重點解決人機自然通信問題,既能分析、理解人的語音、語法、語義,還要能夠運用自然語言表達邏輯、思想等;智能芯片是人工智能的底層基礎,通過大規模并行計算為智能算法和大數據處理等提供算力支撐;智能控制是人工智能的外部行為體現,在無人操控情況下實現機器自主決策、智能驅動、自動控制。
人工智能概念的提出最早可追溯至20世紀50年代,經多次延宕發展至今,總的看可分為4個階段。
1950年,圖靈首次探討了機器擁有人的智能這一思想模型,并提出了“圖靈測試”的概念,1956年,在達特茅斯會議上首次提出了“人工智能”的概念。并確定了人工智能的發展目標,即“可以像人類一樣運用思維模型自主獲取處理知識并解決問題的機器”,自此開啟了人工智能的研究探索之旅,計算機科學家圍繞模擬思維邏輯構建過程進行了諸多有益的嘗試。算法模型上,比較典型的有羅森?布拉特提出的感知器模型,主要模擬了生物神經突觸的信息感知處理機制,并首次引入了機器學習、M-P 模型、梯度下降算法等概念,雖然感知器模型作為一種二元線性分類器,僅僅實現了單層人工神經網絡,且被證實無法解決異或等線性不可分問題,但基本思想為后來神經網絡深度學習模型奠定了重要基礎。試驗運用上,1952年,劍橋大學基于EDSAC 電腦開發了“購物者”模擬器,能夠初步模擬人類購物行為;1956年,Oliver Selfridge 開發了首個基于字符的模式識別軟件;1959年,Arthur Samuel 開發了“跳棋程序”,加入泛化機制能夠在對弈過程中自主獲取“經驗”,并在與州跳棋冠軍對抗中取得勝利;1970年,日本早稻田大學研制了第一個擬人機器人WABOT-1。這一階段,由于算法模型還存在參數引入單一基礎性制約,對于稍高維度、復雜問題顯得束手無策,人工智能發展一度陷入低迷期。
20 世紀80 年代初,以Edward Feigenbaum 為代表的“知識學派”提出人工智能不應囿于通用求解方法,應著眼引入“知識”模擬人類專家求解具體領域的問題,開啟了知識工程系統的發展階段,出現了以XCON 為代表的系列專家系統,專注于醫療、地質等領域的智能應用,但受知識獲取限制,知識系統依然難以解決較為復雜的問題,傳統人工智能發展進入瓶頸期。為解決海量知識獲取與模型建立難題,人們又提出了自下而上的“涌現”式解決思路,即讓計算機“自己學習”。圍繞這一思路,傳統人工智能研究者、神經網絡研究者、生物行為研究者分別從不同方向進行了探索,并形成了符號學派、連接學派和行為學派三個主要發展方向,其中,符號學派聚焦于模擬人外在行為和表現,嘗試將人的高級行為模式如推理、規劃等進行“符號化”,本質上是希望通過算力和存儲優勢擴展人的邏輯思考過程;連接學派則聚焦于模擬人腦和神經系統的活動過程,是由感知器模型的基礎上發展而來,并將單一神經網絡擴展為多層神經網絡,其中,BP 算法的引入有效解決了多層神經網絡復雜參數訓練問題,成為第三次人工智能浪潮的最重要推動力之一;行為學派則將目標轉向低等生物仿生學,嘗試通過模擬低等生物行為和組織活動來理解智能的產生,這一階段,涌現出多種人工智能算法模型,但當時處理器算力、機器性能明顯還無法滿足復雜模型的計算需求,對人工智能的探索多停留在試驗階段。
20世紀90年代后,隨著計算機技術的快速發展,特別是“摩爾定律”帶動計算機算力飛速提升、功耗不斷下降,加之人工智能算法的深化演進,數字通信、大數據存儲等一系列前沿技術的興起,也推動著人工智能技術得以長足發展,帶動了“第三次人工智能浪潮”。這一階段開啟的標志事件是IBM 公司研發的“深藍”超級計算機首次擊敗了世界第一的人類棋手,引發世界廣泛關注。同時,人工智能也開始在模式識別、自然語言理解、計算機視覺等領域迅速發展。這一階段,統計學習的數學模型被引入人工智能,數學家先后提出線性SVM、AdaBoost、隨機森林、圖模型等理論模型,使人工智能在分類、回歸等問題上取得較大突破,并開始嘗試為機器學習構建新的統一框架。2006年,Hinton 及其學生正式提出了深度學習的概念,圍繞“梯度消失”問題給出了解決方案,成為當前基于神經網絡的人工智能算法基礎性模型,人工智能正式進入深度學習時代。同年,英偉達公司推出CUDA芯片,用于神經網絡訓練;2011年,蘋果公司推出了首個智能手機語音助理Siri,人工智能開始逐漸向消費端轉移。這一階段,隨著基礎理論模型的發展完善,人工智能開始不再只是實驗室里的產物,更多的科技產業開始將目光轉向人工智能領域,推動人工智能應用進入涌現期。
隨著谷歌等科技巨頭的紛紛加入,人工智能正式進入大應用時代,同時,新一代移動通信技術、大數據、云計算等也迎來爆發式發展,“算力+數據+移動網絡”使人工智能技術在算法和運用上都得到了突破性進展。這一階段的標志性事件是谷歌DeepMind研發的AlphaGo 機器人,成為首個戰勝人類圍棋冠軍的智能機器,與傳統的“窮舉式”人工智能不同,AlphaGo 真正實現了通過“深度學習”進行知識迭代,成為人工智能走向未來的一絲曙光。基于深度學習和神經網絡算法,各大科技公司相繼推出了人工智能開發基礎框架,如谷歌公司的TensorFlow、臉書公司的PyTorch、華為公司MindSpore 等,助推人工智能領域快速向外擴展,智能應用進一步普及化,進入通信、零售、物流、生產、社交媒體等大眾生活的方方面面,也為智能學習獲取到大量學習樣本。深度學習算法進一步技術迭代,衍生出卷積神經網絡、遞歸神經網絡、長短期記憶網絡、生成對抗網絡等多種模型,使人工智能在各領域發生從“象征性應用”到“實質性應用”巨大轉變。目前,人們還在圍繞知識數據雙重驅動、人機物深度融合、開放自適應等方向持續完善突破,驅動人工智能技術進一步向通用化、自主化、生態化發展,“人工智能+”或將成為未來生活的新常態。
人工智能硬件包括AI 芯片、智能傳感器與中間件、智能外設等,作為算法實現的承載基礎,AI 芯片是人工智能硬件的關鍵核心。目前AI 芯片技術發展主要遵循2種路徑:①基于傳統的馮?諾依曼架構,通過提升算力和并行處理能力,實現先進算法支撐,包括英偉達Tesla 系列GPU、英特爾Arria FPGA 等;②另起爐灶,擺脫原有體系結構,根據人腦神經結構研制類腦芯片。
CPU 與GPU 的組合是目前最廣泛的智能芯片架構,其中,GPU 因其在高并行處理、浮點數據計算上的獨特優勢,能夠充分發揮人工智能的潛力,成為近年來智能芯片方案的首選,而CPU 主要擔負任務處理和控制等任務。從GPU 架構看,以英偉達為例,在AI 計算上采用CUDA 架構,可包含數千個Stream Processors(SP),每個SP 就是一個并行處理核心,能夠提供強大的并行處理算力,相比于傳統CPU,GPU 在AI 運算上速度可提升10倍以上,同時CUDA 提供了統一的開發模型,能夠有效縮短開發周期,提升開發效率。目前,GPU 主要應用于模型訓練與算法推理2個方面,模型訓練上主要用于深度學習算法卷積層計算,目前主要GPU 生產商均有針對卷積層計算的矩陣乘法庫,如英特爾MKL 等,以及針對性優化算法,如Tensor Core 等;算法推理上主要是針對AI 算法進行模型和編譯優化,如網絡剪枝、張量分解等,目前GPU 在模型訓練上的計算優勢較為明顯,在算法推理上還有較大短板。
FPGA 能夠同時完成并行AI 運算和并行任務處理,與GPU 相比,其峰值運算能力較弱,但具有功耗低、部署靈活、成本可控等優點,在特定應用領域時具有一定效率優勢。FPGA 可最大包含數百萬個布爾運算單元、數千個存儲器以及多個處理器內核,每個時鐘周期可觸發百萬次并行計算操作,由于不需要進行取指令和指令譯碼,在相同算力情況下,其功耗較GPU 低80%左右,FPGA 的高穩定性也使其廣泛運用于智能汽車、無人飛行等復雜場景,也可與GPU、ASIC 芯片搭配使用。但由于沒有統一框架和專用的集成開發環境,目前使用FPGA 開發AI 芯片還比較復雜,開發難度大、周期長。
專用人工智能ASIC 在性能和能耗上均優于CPU和FPGA,并具有封裝緊密、體積小、可靠性強、保密性高、成本低廉等諸多優點。對于同等規格的GPU 和ASIC,算力上ASIC 可達GPU 的2.5倍以上,功耗僅有GPU 的1/15。但ASIC 一旦定制后便無法更改,難以適應當前快速迭代的算法更新,部署靈活性受限,因此應用還不夠廣泛,目前部分用于礦機芯片,如ASICMiner、Avalon 等。
類腦芯片是人工智能芯片的發展方向,此類芯片的基本思路是徹底改變傳統芯片架構,借鑒腦科學領域的基本原理,開發類人腦工作模式的新架構。相比于傳統的總線傳輸形式,類腦芯片數據處理單元與存儲單元一體,可減少數據交換能耗,同時采取神經網絡結構,具有自適應調整、分布式處理、高并發連接等優勢,能夠在極低功耗下處理海量數據、解決復雜問題。以IBM 推出的“真北”類腦芯片為例,其包含54億個晶體管、2.56億個可編程突觸,突觸運算速度可達460億次/s,但功耗不足70 mW。我國清華大學、浙江大學等也在同步開發相應的類腦芯片。但由于晶體管在模擬神經單元上的差異,以及當前對于腦科學認識不足,類腦芯片在商業化應用上還有較長的路要走。
人工智能自提出至今已逾60余載,先后歷經多次曲折發展,不斷吸收融合各領域前沿科技,其理論框架日益成熟,軟硬件基礎日益完善,應用領域日益廣泛。總的來看,人類在弱人工智能領域已取得長足進步,正在努力突破強人工智能的瓶頸。隨著計算機技術與基礎理論的不斷突破,人工智能技術在未來將取得更大發展,深刻改變人們的生活方式。