999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

深度學習在神經影像中的應用研究

2016-03-02 10:07:33田苗林嵐張柏雯吳水才
中國醫療設備 2016年12期
關鍵詞:深度特征模型

田苗,林嵐,張柏雯,吳水才

北京工業大學 生命科學與生物工程學院,北京 100124

深度學習在神經影像中的應用研究

田苗,林嵐,張柏雯,吳水才

北京工業大學 生命科學與生物工程學院,北京 100124

深度學習是機器學習方法的一個重要分支,它通過基于多層神經網絡的計算模型來進行學習。一個深度學習網絡可以通過組合低層特征形成更抽象的高層特征,以發現數據的復雜的內在特征。由于深度卷積網絡在圖像處理中的出色表現,它已成為當前研究中應用最為廣泛的一種深度網絡。本文首先介紹了深度學習網絡的結構特征和訓練方法,分析了算法的優越性,之后進一步介紹了深度卷積網絡,最后討論了深度學習在神經影像領域的最新應用現狀及其發展趨勢。

深度學習;卷積神經網絡;神經影像;多層感知器;深度神經網絡

學習是人類所具有的一種重要的智能行為,是人腦獲取知識或技能的一個持續性變化的過程。機器學習[1]最初源于人工智能,是研究計算機如何通過模擬實現人腦的學習行為的科學領域。它運用算法重組已有的知識結構,獲取新的知識或技能,從而對現實世界的事物進行學習、測定或預測。機器學習算法按照學習方式主要分為兩大類:非監督學習和監督學習。非監督式學習一般指數據是未知,樣本沒有被特別預定義,機器模型通過學習探索出隱含在數據訓練樣本集中的特殊模式。常見的非監督學習算法包括關聯規則學習[2]、聚類[3]等。而監督式學習指的是輸入數據被特別標記,有明確的標識,通過學習模型可將預測結果與實際標識結果進行比較,通過不斷的調整模型參數,使得預測結果不斷接近預期目標。監督式學習一般比非監督的預訓練模型具有更好的性能,這歸功于監督模型對數據集特性能夠更好的編碼,但需要大量的時間對數據進行手工標記。監督式學習是分類和回歸問題的絕佳選擇,其中常見算法有邏輯回歸[4]、決策樹[5]、支持向量機[6]和人工神經網絡(Artif cial Neural Network,ANN )[7-8]等。ANN已有幾十年的歷史,它的靈感源于我們對大腦中神經元工作模式的理解。感知器[9]是將神經元用數學的方法表達出來,它是ANN中最基本的結構。多層感知器(Multilayer Perceptron,MLP)的基本架構包含輸入層、輸出層和隱含層,是只含有一層隱藏層節點的淺層模型。輸入的特征向量經隱含層變換到達輸出層,在輸出層得到結果。各類ANN的結構具有很大的差異性,但其一般都具有兩個主要特征:可調整的權重集合和模擬輸入信號到神經元的非線性變換的能力。層數的增加提高了ANN網絡的復雜度,使得優化函數越來越容易偏離全局最優,陷入局部最優解。如果利用有限數據來訓練深層網絡,深層網絡的性能可能還不如較淺層的網絡。同時,另一個不可忽略的問題是隨著網絡層數增加,梯度消失現象會變得更加嚴重。ANN中通常使用sigmoid函數作為神經元的輸入輸出函數,使用鏈式規則來計算梯度(通過微分)。在利用反向傳播算法(Backward Propagation,BP)[10]反向傳播梯度時,隨著網絡層數的不斷增加,梯度呈指數衰減,低層接收訓練信號的能力不斷減弱,層數過多時很有可能使低層幾乎接收不到有效的訓練信號。在深度學習未被提出之前,ANN的研究長期停留在淺層模型階段。淺層的ANN模型雖然在過去為一些特定問題的解決提供了一種有效的手段,但仍存在很多的局限性,淺層ANN的研究相對沉寂。

深度神經網絡(Deep Neural Network,DNN)[11-15]是在ANN基礎上而發展起來的,包含多個隱藏層的ANN。從廣義上說,DNN是一種特征學習方法,采用海量數據進行訓練,通過一些簡單的非線性模型將原始數據轉變為低層特征,并逐步形成更加抽象的高層表示屬性類別或特征,得到對數據更具本質的刻畫,可以使得分類和預測更加有效準確。若通過足夠多的轉換組合,即使非常復雜的函數也可以被學習。單從結構上來說,全連接的DNN和多層感知機是沒有任何本質區別的,DNN也可以理解為ANN 一個更貼切的名稱。但是如何有效地訓練深層模型是長期以來困擾DNN發展的難題。2006年,Hinton等[16]在《科學》上發表文章提出了深度置信網絡(Deep Belief Network,DBN),使用非監督貪心逐層訓練算法[17]。深度網絡在訓練上的難題,可以通過無監督“逐層初始化”來有效克服,并將隱含層推動到了7層,這為解決與深層結構相關的優化難題帶來希望。從此ANN在真正意義上有了“深度”的概念,深度學習的熱潮也由此被揭開。在過去的幾十年里,神經網絡使用最多的是一些例如sigmoid、tanh(z)等非線性函數,為了解決梯度消失的難題,修正線性單元(Rectif ed Linear Unit,ReLU)等傳輸函數的出現有效的加速了網絡的收斂,讓一個多層神經網絡可以更快的學習。Lecun等[17-18]提出的卷積神經網絡(Convolutional Neural Network,CNN)將圖像處理中的二維離散卷積運算與多層神經網絡結合起來。卷積運算模仿人腦對信號的分級處理原理,對輸入信息進行自動地特征提取。具體操作就是在原來的全連接層前面加入了部分連接的卷積層與降維層,利用空間相對關系減少參數數目以提高訓練性能。實踐中,DNN的解空間中存在著大量的鞍點,同時鞍點周圍大部分曲面都是方向朝上,所以DNN算法就算是陷入了這些局部最小值,對結果也不會產生較大的干擾。如今,隨著大數據時代的到來,大批量的神經影像數據為神經科學提供了研究素材,而大數據分析需要將這些影像數據運用深度學習等復雜的算法合成到更廣泛的框架中進行分析。在本文中我們首先介紹了深度學習的一些關鍵的基本概念,隨后介紹了圖像處理中最為常用的CNN,最后展示并討論了深度學習算法在神經影像領域的一些具體應用。

1 監督學習和反向傳播算法對多層神經網絡的訓練

1.1 監督學習

深度學習的訓練通常使用自下而上的非監督學習和自頂向下的監督學習算法。對于非監督學習方法,并不需要使用帶標簽的數據來檢測特征。通常先利用非監督學習方法對每一隱藏層進行逐步訓練去學習特征,每次單獨訓練一層,并將低層的訓練結果作為更高一層的輸入,最后一個輸出層被添加到該網絡的頂部,這時改用監督學習的BP算法從上到下進行微調去不斷優化模型。

在DNN中,最常用的形式還是監督學習。它的工作方式是當向模型輸入訓練數據時,模型對訓練實例進行預測,通過計算預測結果與期望結果間的預測誤差,根據預測誤差更新模型的權重,以減少下一個預測的誤差。在典型的深度學習系統中,可能有數以百萬計的帶有標簽的樣本和權值被用來訓練網絡。為了保證調整權重向量的正確性,學習算法需要計算每個權值的梯度向量,表示隨著權值變化的一個微量,誤差會隨之增加或減少的量,然后在梯度矢量的相反方向上對權值向量進行調整。在實際應用中,隨機梯度下降(Stochastic Gradient Descent Algorithm,SGD)的算法是一種最常用的方法。它通過計算樣本的平均梯度來調整相應權值的大小,可以基于小的樣本集合來重復這個過程用以訓練網絡。模型中每輸入一個新樣本,該算法就迭代更新一次,不需要訓練集中所有的數據參與每次迭代,單次迭代的結果不一定是全局最優,但是多次迭代的最終目標是尋求全局最優解,所以最終的結果往往是在全局最優解附近。這種迭代過程不斷重復,直到目標函數停止增長。同其它優化技術相比,SGD具有極快的訓練速度,大大縮短了訓練時間。通常在訓練完成后,系統的性能就因此通過測試集(用于訓練的數據樣本)被確定了,這時可以通過未經過訓練的新樣本來評定算法的泛化能力。

1.2 BP算法

BP算法是Rumelhart等[19]于1986年針對具有非線性連續轉移函數的多層前饋網絡提出的一種訓練算法,在多層網絡的訓練中舉足輕重,是復合函數的鏈式法則的具體應用。深度學習的訓練目標就是通過調整網絡中的每一個權值來使得目標函數達到最小。目標函數也可以看成是由所有待求權值為自變量的復合函數。BP算法正是用來求解這種多層復合函數的所有變量的偏導數的利器,目標函數對于某層輸入的導數(或者梯度)可以通過向后傳播的方式對該層輸出(或者下一層輸入)的導數求得。BP算法可以通過傳播梯度的方式被重復的應用于DNN的每一層。它的學習過程主要分為兩個階段(圖1):信號的正向傳播階段和誤差的反向傳播階段。當信號正向傳播時,樣本數據從輸入層進入網絡,經各個隱層逐層處理后,從輸出層傳出。若傳出后的實際值與期望值不符,則轉入誤差的反向傳播階段,即將輸出誤差以某種形式通過隱層向輸入層逐層反向傳播,并分攤到各層的所有神經元,從而獲得各層神經元的誤差信號,根據此誤差信號來修正各神經元的權值。正向傳播與誤差反向傳播階段周而復始的交替進行,因此權值在此過程中得到不斷地調整,直到網絡的輸出誤差減少到可接受的水平,或達到預設定的學習次數。

圖1 BP算法原理圖

2 卷積神經網絡

在非周期性連接的ANN結構中,前饋網絡是最簡單的形式。前饋網絡的整個網絡中無反饋,信息從輸入節點開始單向傳輸,計算前一層神經元輸入數據的權值的和,然后把權值和傳給一個非線性激活函數,如ReLU激活函數。ReLU激活函數因為其分段線性性質,導致其前傳、后傳、求導都是分段線性,可以讓一個深度網絡跳過無監督預訓練的過程,直接進行有監督的訓練。在全連接DNN的結構里,其下層神經元和所有的上層神經元都能夠形成連接,由此也會帶來參數數量膨脹的潛在問題,海量權重在訓練過程中不僅容易過擬合,而且極容易陷入局部最優。

與其它大多數深度前饋式ANN相比,CNN是深度學習算法中應用最成功的算法之一,且更易于訓練,比全連接的DNN有更好的泛化 性能,在計算機視覺和圖像識別領域都得到了很好的應用[20-21]。CNN作為一種特殊的圖像識別方式,其中的卷積及池化層的靈感直接來源于視覺皮層中的細胞排列。視覺皮層中存在兩類細胞:一類細胞是簡單細胞,主要用于識別物體邊緣的模式,還有一類復雜細胞,具有位置不變性,可以表達模式的具體位置,這些細胞是以層級結構形成了視覺回路。CNN的設計中包含了四個關鍵的概念-局部連接、權值共享、池化[22]以及多網絡層,網絡由三個重要的部分構成:卷積層、池化層、全連接層。卷積層和池化層交替構成了卷積神經網絡的基本架構。卷積層運用若干個卷積核完成對輸入數據的特征提取,其作用是探測上一層特征的局部連接。卷積核并不一次性解析所有的訓練數據,每一個節點僅與其臨近區域的神經元進行局部連接,一旦該局部特征被提取,它與其它特征間的位置關系也隨之確定。CNN的這種結構歸功于兩點:首先,在圖像數據中相鄰的值經常是高度相關的,可以形成易于被探測到的具有區分性的局部特征;其次,不同位置局部統計特征不太相關,所以不同位置的單元可以共享權值,并可以探測相同的樣本。正因為神經元共享權值,因而大大減少了網絡自由參數的個數,降低了網絡參數選擇的復雜度,縮減了輸入數據的規模。應用卷積核之后得到的結果被稱為特征圖,特征圖的數目和卷積核的數目相等,在一個特征圖中的全部單元享用相同的卷積核,不同層的特征圖使用不同的卷積核。池化是一種濾除細節的方法, 可以把相似的特征合并起來,應用中一般采用最大池化的方法。當輸入數據在前一層中的位置有變化的時候,池化操作讓這些特征表示對這些變化具有魯棒性,對輸入樣本有較高的畸變容忍能力。卷積層和池化層不斷交替進行,后面再加上一個更多卷積和全連接層,從而實現相應的功能。BP算法在CNN上的應用和在一般的深度網絡上的用法相同,可以讓所有的在過濾器中的權值得到訓練。

除了CNN以外,DNN還有很多其它結構。傳統DNN無法對時間序列上的變化進行建模。然而,樣本出現的時間順序在自然語言處理[23]、語音識別[24]、手寫體識別[25]等應用中都起著非常重要的作用。為了適應這種需求,就出現了循環神經網絡(Recurrent Neural Networks,RNN)[26]。它的基本原理就是神經元的輸出可以在下一個時間直接作用到自身。事實上,無論是哪種網絡,在實際應用中它們常常都是混合使用的,比如CNN和RNN在上層輸出之前往往會接上全連接層,因此很難說某個DNN到底屬于哪個類別。不難想象隨著深度學習熱度的延續,更靈活的組合方式、更多的網絡結構將會被發展出來。

3 深度學習在神經影像中的應用

近年來,深度學習方法在機器學習的很多領域都取得了顯著的改進。與其它方法相比,深度學習的方法有兩個重要的優點:首先,深度學習是一種數據驅動的自動學習特征的方法,這一重要的能力大幅度減少了當存在大量特征時,相關特征選擇中存在的主觀性;其次,深度學習模型深度與傳統的淺層模型相比,它應用了具有層次性結構的非線性層,從而能夠更好的建立非常復雜的數據模式的模型。

神經影像學的一個重要目標是基于非侵入性的神經影像測量數據來更好地理解大腦神經系統的工作原理。在大腦成像領域,數據驅動的特征學習方法已經被運用了多年。與傳統的數據驅動方法相比較,深度學習的方法在進行特征選擇時并不一定需要預處理步驟。近年來,DBN被用來分析結構磁共振(Magnetic Resonance Imaging,MRI)和功能磁共振數據(Functional MRI,fMRI)。Plis等[27]發現深度學習的方法可以揭示高維神經影像數據間的關系,并生成具有實際生理意義的特征。Hjelm等[28]應用限制玻爾茲曼機(Restricted Boltzmann Machine,RBM)的概率模型來確定fMRI數據的內在功能網絡,RBM通過擬合數據的概率分布模型,將線性因素從fMRI中分離出來。更重要的是,更深層的級聯模型可以用于多模態影像的擴展,從而解決了僅利用傳統矩陣分解模型一直無法解決的問題。

腦結構的自動分割是結構和功能圖像分析中的一項重要任務。傳統的腦組織分割一般是采用基于圖譜和高精度配準的方法[29]。這些方法往往由于高精度的配準,耗時較長,同時對于一些個體差異大的小組織及腫瘤造成的病變組織,效果并不是很顯著[30]。Choi等[31]提出了一種基于級聯CNN(全局CNN和局部CNN)的深度網絡用于大腦中紋狀體的分割。全局CNN被用于確定紋狀體的近似位置,裁剪后的MRI和全局CNN的輸出圖像被用于作為局部CNN的輸入,局部CNN被用于細分割。結果顯示該方法較傳統基于Freesurfer的分割方法精度更高,速度更快。高危組織的分割是腦腫瘤外科治療計劃中的關鍵一步,Dolz等[32]提出了一種基于堆疊降噪自動編碼器(Stacking Denoising Auto-Encoders,SDAE)的半監督深度學習方法。在這個混合體系結構中,首先用無監督學習的方法預訓練網絡參數,隨后用有監督學習的方法對深度網絡的參數進行更精細的調節,達到預期目標。最終結果顯示該方法與專家手工劃分的結果相近似,但它卻可以大幅度的削減分割的時間。Kleesiek等[33]采用3-D CNN對多模態的腦神經影像進行了非腦組織去除,結果顯示該方法顯著優于六種廣為使用的非腦組織去除工具。嬰兒MRI圖像中的腦組織分割,由于腦灰質、白質的灰度分布近似,是神經影像處理中的一大難題。Zhang等[34]采用CNN對嬰兒MRI圖像進行了組織分割,結果顯示該方法顯著優于其它分割方法。

近年來,深度學習的方法在處理神經影像數據方面發展迅速,運用這些數據對患者進行分類及預測,使得深度學習已經成為神經影像領域中炙手可熱的方法。Suk等[35]提出了基于堆棧自動編碼器(Stacked Auto Encoder,SAE)的深度學習模型,并將其用于AD和MCI的分類。該方法首先分別基于MRI、PET和CSF的低級特征,采用SAE的非監督預訓練和有監督參數微調,得到潛在特征,隨后基于多任務學習選出可以代表分類和臨床評分的特征,最后通過支持向量機進行預測與分類,結果表明該算法可以較好的區分AD和MCI患者。Kawahara等[36]提 出了一種改進的CNN模型BrainNetCNN,它被用于預測早產兒腦網絡的神經發育。與傳統的基于圖像的CNN(空間局部卷積)不同,BrainNetCNN是為腦網絡數據專門設計的深度學習框架。它利用結構性大腦網絡的拓撲位置,具有邊到邊,邊到節點,節點到圖的卷積核的獨特設計。預測認知及運動發育的結果表明,BrainNetCNN框架優于其它同類方法。由于CNN在層內共享權重,從而減少了學習的參數的數量,BrainNetCNN在相同數量的模型參數下優于完全連接的神經網絡。此外,深度學習還被用在一些其它疾病的診斷中,如Kim等[37]基于靜息態fMRI數據,采用SAE預訓練的DNN對健康對照組和精神分裂癥患者進行分類。結果顯示該DNN遠優于支持向量機的分類效果。

對于從高維神經影像學數據中提取隱藏的模式這類問題,深度學習也是一個非常有前途的工具[38]。Ithapu等[39]將3-D CNN模型用于完成和整合多模態神經影像學數據,預測從MRI數據丟失的PET特征模式。模型包括兩個隱藏層,采用一個體數據MRI模態作為輸入,PET模態作為輸出,不同模態間的非線性關系可通過大量訓練捕獲。結果表明,預測的PET數據實現了與真實PET圖像相似的分類性能。在實驗中隨機抽取一半的受試者樣本數據來訓練模型,然后使用該模型來預測剩余受試者的PET圖像。3-D CNN模型的結果與真實PET圖像的結果相當,即該模型可以成功地提取MRI和PET圖像之間的高度非線性關系。

4 發展前景

多年來,大腦神經科學的發展揭示了神經計算的基本原理,這些神經計算的基本原理也被廣泛應用于神經網絡的構建,其中深度學習算法的提升與改進大大促進了神經科學的發展?,F在,深度學習方法已成為傳統機器學習策略的有效補充,并在神經影像領域得到了越來越廣泛的應用。即便如此,它也還存在一些不足之處:首先,深度學習算法在實際應用過程中往往是若干個模型間的組合,從而達到結構優化。但是不同的神經影像的分析一般代表著不同的實際問題,因此針對不同模態的影像特征往往需要設計完全不同的模型來適應,這對算法的構建就提出了更高的要求。其次,深度學習模型的搭建需要調整大量的參數,只有非常龐大的訓練數據,才能防止過度擬合,達到良好的性能。如果將DNN應用于神經影像,目前面對的問題是滿足深度網絡需求的大規模的神經影像訓練數據集還相當的少見。ADNI[40-41]、HCP[42]這些神經影像大科學計劃的發展和新計劃的產生,在一定程度上可以緩解這個問題。另外一種可行的代替方法是遷移學習,可以在一定程度上減少對神經影像數據集規模的需求。基于普通的大規模圖像數據集如ImageNet[43](包含了大約100萬張自然圖像和1000個標簽/分類)對網絡進行預訓練,然后使用這一訓練的網絡的權重作為初始設置對參數進行調優。遷移學習策略的效率取決于神經影像數據集與ImageNet 圖像數據集的相似度。前面幾層網絡特征需要更加具有通用性,并不與神經影像的分類任務直接相關。當然,如果訓練出的特征具有特異性,轉移學習就未必有好的效果。預計隨著算法的持續改進以及相關軟硬件的發展,深度學習的方法將會適用于越來越多的神經影像研究問題。

[1]劉更代,潘志庚,程熙,等.人體運動合成中的機器學習技術綜述[J].計算機輔助設計與圖形學學報,2010,22(9):1619-1627.

[2]王曙燕,周明全,耿國華,等.醫學圖像的關聯規則挖掘方法研究[J].計算機應用,2005,25(6):1408-1409.

[3]賀玲,吳玲達,蔡益朝,等.數據挖掘中的聚類算法綜述[J].計算機應用研究,2007,24(1):10-13.

[4]Brimacombe M.Large sample convergence diagnostics for likelihood based inference: Logistic regression[J].Stat Methodol, 2016,33:114-130.

[5]Kim K.A hybrid classification algorithm by subspace partitioning through semi-supervised decision tree[J].Pattern Recogn,2016, 60:157-163.

[6]Chen D,Tian Y,Liu X.Structural Nonparallel Support Vector Machine for Pattern Recognition[J].Pattern Recogn,2016,60: 296-305.

[7]Yu X,Ye C,Xiang L.Application of artificial neural network in the diagnostic system of osteoporosis[J].Neurocomputing,2016, 214:376-381.

[8]Lin L,Jin C,Fu Z,et al.Predicting healthy older adult’s brain age based on structural connectivity networks using artificial neural networks[J].Comput Meth Prog Bio,2016,125:8-17.

[9]Pastor M,Song J,Hoang D T,et al.Minimal perceptrons for memorizing complex patterns[J].Physica A,2015,462:31-37.

[10]Lillicrap TP,Cownden D,Tweed DB,et al.Random synaptic feedback weights support error backpropagation for deep learning[J].Nat Commun,2016,7:13276.

[11]Du J,Xu Y.Hierarchical deep neural network for multivariate regression[J].Pattern Recogn,2016,63:149-157.

[12]Ekins S.The Next Era: Deep Learning in Pharmaceutical Research[J].Pharm Res,2016,33(11):2594-2603.

[13]Gawehn E,Hiss JA,Schneider G.Deep Learning in Drug Discovery[J].Mol Inform,2016,35(1):3-14.

[14]Angermueller C,P?rnamaa T,Parts L.Deep learning for computa tional biology[J].Mol Syst Biol,2016,12(7):878.

[15]Mamoshina P,Vieira A,Putin E,et al.Applications of Deep Learning in Biomedicine[J].Mol Pharm,2016,13(5):1445-1454.

[16]Hinton GE,Salakhutdinov RR.Reducing the dimensionality of data with neural networks[J].Science,2006,313(5786):504-507.

[17]LeCun Y,Boser B,Denker JS,et al.Handwritten digit recognition with a back-propagation network[C].Proceedings of Advances in Neural Information Processing Systems,1990:396-404.

[18]LeCun Y,Boser B,Denker JS,et al.Backpropagation applied to handwritten zip code recognition[J].Neural Comput,1989,1(4): 541-551.

[19]Rumelhart DE,Hinton GE,Williams RJ.Learning representations by back-propagating errors[J].Cognitive Modeling,1988,5(3):1.

[20]Yang W,Chen Y,Liu Y,et al.Cascade of multi-scale convolutional neural networks for bone suppression of chest radiographs in gradient domain[J].Med Image Anal,2017,35:421-433.

[21]Ypsilantis PP,Siddique M,Sohn HM,et al.Predicting Response to Neoadjuvant Chemotherapy with PET Imaging Using Convolutional Neural Networks[J].PLoS One,2015,10(9):e0137036.

[22]Shi Z,Ye Y,Wu Y.Rank-based pooling for deep convolutional neural networks[J].Neural Networks,2016,83:21-31.

[23]Gudivada V,Rao D,Raghavan V.Big Data–Driven Natural Language–Processing Research and Applications[J].Big Data Analytics,2015,33:203.

[24]Maas AL,Qi P,Xie Z,et al.Building DNN acoustic models for large vocabulary speech recognition[J].Comput Speech Lang,2015,41: 195-213.

[25]Elleuch M,Maalej R,Kherallah M.A New Design Based-SVM of the CNN Classifier Architecture with Dropout for Offline Arabic Handwritten Recognition[J].Procedia Computer Science,2016,80:1712-1723.

[26]Mikolov T,Karafiát M,Burget L,et al.Recurrent neural network based language model[C].Conference of the International Speech Commu nication Association,2010:1045-1048.

[27]Plis SM,Hjelm DR,Salakhutdinov R,et al.Deep learning for neuroimaging: a validation study[J].Front Neurosci,2014,8(8): 229-229.

[28]Hjelm RD,Calhoun VD,Salakhutdinov R,et al.Restricted Boltzmann machines for neuroimaging: an application in identifying intrinsic networks[J].NeuroImage,2014,96:245-260.

[29]Fu Z,Lin L,Jin C.Symmetric image normalization for mouse brain magnetic resonance microscopy[C].International Conference on Advances in Mechanical Engineering and Industrial Informatics, 2016:941945.

[30]Lin L,Wu S.An automated template-based adaptive threshold approach for measuring ventricular volume enlargement in mouse brain MR microscopy[J].J Microsc,2012,248(3):260-265.

[31]Choi H,Jin KH.Fast and robust segmentation of the striatum using deep convolutional neural networks[J].J Neurosci Meth,2016, 274:146-153.

[32]Dolz J,Betrouni N,Quidet M,et al.Stacking denoising autoencoders in a deep network to segment the brainstem on MRI in brain cancer patients: A clinical study[J].Comput Med Imag Grap, 2016,52:8-18.

[33]Kleesiek J,Urban G,Hubert A,et al.Deep MRI brain extraction: A 3D convolutional neural network for skull stripping[J].Neuroimage, 2016,129:460-469.

[34]Zhang W,Li R,Deng H,et al.Deep convolutional neural networks for multi-modality isointense infant brain image segmentation[J].Neuroimage,2015,108:214-224.

[35]Suk HI,Shen D.Deep Learning-Based Feature Representation for AD/MCI Classification[M].Medical Image Computing and Computer-Assisted Intervention-MICCAI 2013.Springer:Berlin Heidelberg,2013:583-590.

[36]Kawahara J,Brown CJ,Miller SP,et al.BrainNetCNN: Convolutional Neural Networks for Brain Networks; Towards Predicting Neurodevelopment[J].Neuroimage,2016.

[37]Kim J,Calhoun VD,Shim E,et al.Deep neural network with weight sparsity control and pre-training extracts hierarchical features and enhances classif cation performance: Evidence from whole-brain resting-state functional connectivity patterns of schizophrenia[J].Neuroimage,2016,124(PtA):127-146.

[38]Kriegeskorte N.Deep neural networks: A new framework for modeling biological vision and brain information processing[J].Annual Review of Vision Science,2015,1:417-446.

[39]Ithapu VK,Singh V,Okonkwo OC,et al.Imaging-based enrichment criteria using deep learning algorithms for eff cient clinical trials in mild cognitive impairment[J].Alzheimers Dement,2015,11(12):1489-1499.

[40]齊志剛,李坤成,王軍.為更早識別阿爾茨海默病:阿爾茨海默病神經影像學計劃簡介[J].中國現代神經疾病雜志,2014,14(4): 277-280.

[41]靳聰,林嵐,付振榮,等.MRI在阿爾茨海默氏病中的應用研究進展[J].智慧健康,2015,1(1):52-56.

[42]Glasser MF,Smith SM,Marcus DS,et al.The Human Connectome Project’s neuroimaging approach[J].Nat Neurosci,2016,19(9): 1175-1187.

[43]Deng J,Dong W,Socher R,et al.Imagenet: A large-scale hierarchical image database[C].IEEE Int Conf Computer Vision and Pattern Recognition,2009:248-255.

Study on the Application of Deep Learning in Neuroimaging

Deep learning is an important branch of a broader family of machine learning methods which attempt to learn useful features from data by using a computational model with multilayer neural networks. A deep learning network can form more abstract high-layer features through combination of the lower layer features to find the complex intrinsic characteristics of the data. Convolutional neural network is one of most researched deep networks because of its excellent performance in processing images. This paper f rstly introduced the structural characteristics and training methods of deep learning networks, followed by the convolutional neural network, and f nally discussed the application and development trend of deep learning network in the f eld of neuroimaging.

deep learning; convolutional neural network; neuroimaging; multilayer perceptron; deep neural network

TIAN Miao, LIN Lan, ZHANG Bai-wen, WU Shui-cai
College of Life Science and Bioengineering, Beijing University of Technology, Beijing 100124, China

R445.2

A

10.3969/j.issn.1674-1633.2016.12.002

1674-1633(2016)12-0004-06

2016-11-15

國家科技支撐計劃課題(2015BAI02B03);北京工業大學研究生科技基金(ykj-2016-00009);北京市自然科學基金資助項目(7143171)。

林嵐,副教授。

通訊作者郵箱:lanlin@bjut.edu.cn

猜你喜歡
深度特征模型
一半模型
深度理解一元一次方程
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
深度觀察
深度觀察
深度觀察
抓住特征巧觀察
主站蜘蛛池模板: 午夜不卡福利| 青草视频久久| 欧美成人日韩| 亚洲成人精品| 亚洲美女一级毛片| 国产亚洲欧美在线视频| 激情综合激情| 国产黑人在线| 五月婷婷丁香综合| 国产精品妖精视频| 天天色综网| 99成人在线观看| 99伊人精品| 国产情侣一区二区三区| 国产亚洲高清在线精品99| 亚洲熟女偷拍| 久久婷婷国产综合尤物精品| 97一区二区在线播放| 欧美一级高清免费a| 日韩免费毛片视频| 国产毛片一区| 国产va欧美va在线观看| 亚洲成人精品| 亚洲国产第一区二区香蕉| 天堂av高清一区二区三区| 日本AⅤ精品一区二区三区日| 国产欧美一区二区三区视频在线观看| 97无码免费人妻超级碰碰碰| 欧美日韩精品综合在线一区| 亚洲伊人电影| 性网站在线观看| 国产综合精品一区二区| 乱系列中文字幕在线视频| 久热中文字幕在线观看| 国产一区二区网站| 国产精品太粉嫩高中在线观看| 亚洲人成网站色7799在线播放| 精品国产一区二区三区在线观看| 欧美综合一区二区三区| 亚洲综合婷婷激情| 日本久久久久久免费网络| 亚洲香蕉在线| 黄色不卡视频| 91福利一区二区三区| 亚洲AV无码不卡无码| 91精品伊人久久大香线蕉| 综合亚洲色图| 国产97色在线| 成人蜜桃网| 日韩黄色精品| 亚洲伦理一区二区| 一级一级一片免费| 国产浮力第一页永久地址 | 欧美精品v日韩精品v国产精品| 欧美日韩国产高清一区二区三区| 亚洲侵犯无码网址在线观看| 亚洲高清日韩heyzo| 久久精品嫩草研究院| 亚洲综合亚洲国产尤物| a级毛片免费播放| 在线国产三级| 亚洲成人高清在线观看| 国产精品午夜福利麻豆| 91在线无码精品秘九色APP| 日本高清在线看免费观看| 午夜无码一区二区三区在线app| 原味小视频在线www国产| 国产中文一区二区苍井空| 亚洲香蕉在线| 日本免费福利视频| 国产精品jizz在线观看软件| 国产精品久久久久久久久久98| 性视频久久| 国产黑丝视频在线观看| 欧美 国产 人人视频| 天天综合色天天综合网| 日本国产在线| 亚洲天堂区| 强乱中文字幕在线播放不卡| 午夜激情婷婷| 制服丝袜亚洲| 毛片免费在线|