鄧舒夏

英特爾神經擬態研究系統Pohoiki Springs基于768塊Loih芯片,可提供1億個神經元的計算能力。
計算機處理數學等難題的能力已經遠超人類,但它依然擺脫不了作為“機器”的局限性——比如具備嗅覺和味覺。如果計算機能夠模擬人腦建立起對外部環境的認知,一切將會不同。
今年3月,《自然-機器智能》(Nature Machine Intelligence)雜志封面刊登了英特爾研究院與美國康奈爾大學研究人員聯合發表的一篇論文,研究人員基于英特爾一款名為“Loihi”的神經擬態芯片,模擬出人類嗅到氣味時大腦的運行機制。
論文中,研究員列舉了Loihi在存在明顯噪聲和遮蓋的情況下,學習和識別危險化學品的能力——他們采用了一個由72個化學傳感器組成的數據集來采集氣味,并在Loihi芯片上配置生物嗅覺電路圖,結果,Loihi僅需單一樣本便可學會識別每一種氣味,同樣的準確率如果采用“深度學習”訓練,則需要3000倍以上的樣本。這一結果被看作是神經科學與人工智能交叉研究的“突破性”進展。
高性能計算、神經擬態計算、量子計算,這三者通常被稱為通往未來人工智能(AI)的三條“賽道”。其中,高性能計算的進展速度最快,以芯片制造商為代表的技術公司都在研發深度學習芯片,而神經擬態芯片這個研究方向直到1980年代才被提出。不過傳統深度神經網絡的應用中,還是以處理視覺數據、音頻數據的案例為主,在極具個性化差異的“嗅覺”和“味覺”應用上,機器就會束手束腳。
深度學習的局限性在于,首先要求有足夠量且標注好的數據,另外需要有可供訓練的數據池,以及未來要處理相關問題的測試集合。以識別一款葡萄酒的味道為例,不同品酒人會給出不同的描述,甚至同一個人在不同時間點品嘗酒,也有可能給出不一樣的結果,因此很難用一個客觀標準去標記這些味道。除此之外,嗅覺和味覺都是小數量場景,比如氣味是由不同密度的化學成分構成的,普通人經過特殊訓練可以區分三四百種氣味,想要把其中的每種氣味找出足夠多的樣本供機器學習,顯然是不現實的。
不過在現實生活中,氣味可以解決的問題有很多,比如監測行李中是否有爆炸品,空間內是否存在有害氣體,以及農業中能根據氣味判斷作物的成熟度。對此,英特爾的科學家們找到了另外一條思路——神經擬態計算。
“我們試圖觀察、學習和理解大腦的運行,并在計算機芯片上復制。”英特爾神經擬態計算實驗室主任Mike Davies說。
論文發布后,緊接著英特爾又推出了名為“Pohoiki Springs”的神經擬態研究系統,它集成了768塊Loihi芯片,可提供1億個神經元的計算能力——這個數字比小型哺乳動物的腦容量還要大。
神經擬態計算不同于傳統計算機架構,是一種基于傳統半導體工藝和芯片架構的新型計算模式,它通過模擬人腦神經元的構造和神經元之間互聯的機制,能夠在低功耗以及少量訓練數據的條件下持續不斷自我學習,大幅提高機器學習的能效比。
拿嗅覺來說,人在識別氣味時,首先流入鼻腔的空氣會和鼻腔中的傳感細胞接觸,不同傳感細胞連接著下部不同的感知神經元。科學家在構造“電子鼻”時,會首先用化學傳感器或有機物傳感器來模擬這些傳感細胞對應的空間分布,然后感知氣體流過傳感細胞的分子接觸,從而形成一個時間上的脈沖序列,這個過程和人類嗅覺系統的感知機理十分相似。
接下來就需要利用脈沖神經網絡(SNN)模型去模擬大腦“識別”的過程。人類大腦認知事物的過程,其實是大腦神經網絡通過脈沖傳遞信息的過程——神經元在鏈路上發送選擇性信號,這些信號由一系列脈沖編碼而成。因此,研究人員可根據信號的幅度、頻率、延遲等,模擬這種脈沖編碼方式,讓計算機“記住”一個物品、聲音或氣味,下一次遇到時便可以識別出來。如果你想進一步提高識別的精確度,只需增加傳感器的種類便可。
而Loihi這樣的神經擬態計算芯片,可以方便研究人員構建一個包含時間和空間處理的模型,然后對數據模式做匹配,如此,僅需一個樣本的訓練就能得到超過90%的高準確率。而基于深度神經網絡的識別之所以效率不及此,原因是其構造的網絡很大,且分為很多層,其中每一層的小節點都有參數,將少量數據輸入進去后,這些數據很難引起深層參數的變化,因此會出現參數在多輪訓練后依然不變的情況,工程師稱之為“收斂”。這樣的訓練方式不僅需要大量數據,功耗也相對較高。
為了進一步降低功耗,硬件方面,Loihi還采用一種新穎的異步脈沖方式設計,由多個獨立的時鐘驅動,根據應用的需求,只讓需要工作的部分工作,其他部分處于待機狀態。
英特爾的研究人員認為,神經擬態是目前讓機器具備“嗅覺”的最佳路徑。“下一代AI即將進入3.0時代,五六年前的2.0時代是靠統計式學習、數據庫命令的機器學習,在視覺、語音和金融數據處理中已經發揮重要作用,3.0時代需要AI能從更少量的數據中學習,并且能夠適應環境變化進而自我演進,甚至能夠推理。”英特爾中國研究院院長宋繼強告訴《第一財經》雜志,他認為神經擬態芯片將會成為AI主流的架構形態,因為它是真正“類腦”的。目前除了英特爾,從事神經擬態計算研究的還有IBM,以及一些實驗室和初創公司。
而成為“通用架構”的前提是,神經擬態芯片需要更豐富的工具鏈,以便不同需求的開發者使用。“神經擬態可以在低功耗下完成一些前端感知和持續學習的動作,如果放在云端,它會比CPU、GPU省電很多。”宋繼強說。英特爾還創建了一個神經擬態研究社區(INRC),目前成員已經超過100人。
不過科學家們還需要解決兩個難題,一個是進一步理解“大腦能夠實時處理復雜信息的同時只消耗極少的能量”的高效工作機制,并把這些機制用到芯片中去。另一個是,為了獲得更高的性能,研究人員需要將神經擬態計算芯片互聯,以獲得線性的性能增長。
值得一提的是,神經擬態技術的發展或許還可以助腦研究一臂之力。
“腦科學的頂尖專家目前對人腦的了解也很有限,人腦的研究速度不像摩爾定律,它是非常緩慢的。”宋繼強解釋道。腦科學家可以借鑒用神經擬態構建的復雜工作模型,來研究腦神經本身復雜的信息“激勵”機制。在器件方面,工程師對“憶阻器”等存儲計算器件的研發,也可以側面模擬人腦的工作機理——畢竟計算機所具備的很多能力已經遠遠超過人腦。目前全球已有多個關于腦科學、腦計算的跨學科研究中心。

科學家或許還可以利用神經擬態技術來控制假肢,使其更好適應行走中遇到的干擾。
英特爾稱,目前Loihi芯片并沒有確切的商業化進程,它依然是一款研究測試芯片,下一步的重點方向是完善軟件工具鏈,并支撐“腦科學+IT”的合作研究。
當被問及神經擬態計算的殺手級應用有可能是什么時,宋繼強認為,現在下具體判斷還為時過早。“有幾個領域目前我們判斷是比較有希望的,比如嗅覺、行為識別,還有大規模的圖片搜索,這方面現在多是用高性能計算做,需要消耗很多計算資源,但神經擬態計算可以并發地去測試。”他表示,相關芯片并不會取代現有的CPU、GPU和FPGA等芯片。
量子計算和神經擬態計算,從學術研究成果轉換為商業應用通常需要5年以上的時間。在這段時間里,不管是計算機技術還是腦科學研究,都有可能發生令人意想不到的事。