999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式對抗網絡在抑郁癥分類中的應用

2018-07-05 02:42:28北京工業大學信息學部北京100124磁共振成像腦信息學北京市重點實驗室北京100124腦信息智慧服務北京市國際科技合作基地北京100124
計算機應用與軟件 2018年6期
關鍵詞:分類特征方法

劉 寧 楊 劍(北京工業大學信息學部 北京 100124)(磁共振成像腦信息學北京市重點實驗室 北京 100124)(腦信息智慧服務北京市國際科技合作基地 北京 100124)

0 引 言

抑郁癥是一種的精神障礙疾病,輕度抑郁癥患者與有抑郁情緒的正常人表現很接近,不易診斷,且嚴重者會采取一些極端行為。目前,抑郁癥難以有效診斷,這與其主要根據醫師臨床經驗診斷的診斷方式有關。近年來,功能磁共振成像fMRI技術被廣泛用于大腦的功能和結構研究,尤其在精神疾病的輔助診斷方面得到了研究者的高度關注,取得了很多成果[1-3]。但是,抑郁癥研究仍面臨fMRI數據難采集、樣本少的問題,對此本文采用生成式對抗網絡解決這個問題。

fMRI技術通過血氧水平依賴信號測量腦活動并推斷不同腦區間的功能作用[1],是當前研究腦功能連接的主要手段。分析靜息態fMRI數據的功能連接,常用的兩種方法是: 1)基于種子的分析方法[2];2)純數據驅動的方法,例如:獨立成分分析ICA(Independent Component Analysis)[3]。ICA是一種無需借助先驗腦圖模板,直接分離出相互獨立信號源的多元模式分析方法[4]。以它為基礎得到的功能連接網絡更合理、有效,因此本研究以組ICA分離出的獨立成分構建動態功能連接網絡。

目前,在探究抑郁癥的發病原因和構建抑郁癥的輔助診斷方法方面已取得了很多成果,如Sikora等[5]發現前扣帶回凸顯網絡的功能連接增強、Kang等[6]通過多屬性相關圖構建區域功能連接網絡并采用基于網絡的分類器進行抑郁癥預測、Perti等[7]對多種功能連接方法做了全面的分析[7]。然而,fMRI數據難采集、可用樣本數遠小于特征數,導致一些機器學習算法無法使用。例如,線性判別分析算法,由于樣本維度遠小于特征維度,導致該算法無法求出逆矩陣。在圖像研究中常通過旋轉、放縮、對折等操作增加圖像樣本,這樣增加的樣本實際上未出現新的樣本,無法有效解決我們的問題。

深度學習領域中熱門的生成式對抗網絡GAN(Generative Adversarial Networks)是一種基于數據分布的生成模型,能夠生成與訓練數據同分布的樣本[8],因此受到圖像領域研究者廣泛關注。通過GAN生成的樣本保留了訓練數據的屬性,但GAN本身存在模型不可控和網絡不穩定的問題。針對這些問題,研究者在GAN上做了一些改進以構成更強的網絡:1) 增加限制條件構成條件生成式對抗網絡CGAN(Conditional Generative Adversarial Networks)[9]以解決模型不可控的問題;2) 引入神經網絡優化網絡結構構成深度卷積生成式對抗網絡DCGAN(Deep Convolutional Generative Adversarial Networks)[10]以解決網絡不穩定問題。在DCGAN的基礎上,對其增加條件限制構成條件卷積生成式對抗網絡(CDCGAN),這種網絡相對容易訓練、模型可控且生成的樣本更符合研究者的預期。因此,本文采用CDCGAN解決fMRI可用樣本少的問題,同時需要說明的是目前還未有人將CDCGAN應用于fMRI數據分析,本文是首次應用此方法。

本文采用基于CDCGAN的分類方法研究了抑郁癥分類問題,主要包括以下四個步驟:1)采用組ICA提取靜息態fMRI數據的獨立成分,以其中可以體現自發神經活動的獨立成分為節點構建全腦的動態功能連接網絡并提取特征;2)采用肯德爾排序相關系數法選取辨別能力強的前100維特征作為初始數據集,并使用CDCGAN擴充樣本;3)構建擴充數據集,并采用我們提出的混合特征選擇方法進行特征選擇;4)應用多元模式分析法對抑郁癥患者和正常被試進行分類。擴充數據集(采用CDCGAN)的最高正確率達92.68%遠高于初始數據集(未采用CDCGAN)的最高正確率68.29%,說明了把CDCGAN應用于抑郁癥分類是一種有效的探索,同時說明了本文提出的混合特征選擇法更有效。

1 被試與fMRI數據

1.1 被 試

本研究使用的數據包括來自北京安定醫院的20名抑郁癥患者(平均年齡35.25±9.54歲,8名男性)和21名正常人(平均年齡34.19±9.01歲,8名男性),所有被試均簽署了實驗知情書。正常被試均未曾患過神經紊亂病且滿足精神衛生篩選表和神經癥篩選表的量化標準,抑郁癥患者均符合美國精神障礙診斷與統計學手冊(DSM-IV)和17項漢密爾頓評定量表(HAMD)的抑郁癥診斷標準。

1.2 數據采集與預處理

本研究使用德國Siemens Trio Tim 3T磁共振掃描儀采集fMRI數據。采用平面回波成像進行序列掃描,在掃描過程中被試頭部采用海綿墊固定,且要求保持閉眼、全身放松、盡量不進行思維活動。儀器掃描參數如下:重復時間TR=2 000 ms、回波時間TE=31 ms、旋轉角FA=90°、視野FOV=24 cm×24 cm、矩陣大小Matrix=64×64、層間距Gap=0.8 mm、體素Voxel=3.75 mm×3.75 mm×4 mm。所有被試的掃描時長均為310 s,采集了152幀功能像數據。為了消除設備磁場初始不穩定性對數據采集的影響,剔除前10幀功能像數據,對剩余的142幀功能像數據進行預處理。本研究采用DPARSF軟件對數據進行預處理,主要步驟包括時間層校正和頭動校正、空間標準化、空間平滑。

2 基于CDCGAN的抑郁癥分類

對預處理后的數據,采用組ICA提取獨立成分,選擇其中噪聲相對小的成分構建動態功能連接網絡并提取特征構建初始數據集,再通過CDCGAN構建擴充數據集,最后應用多元模式分析法進行分類。基于DCGAN的分類流程圖如圖1所示。

圖1 基于DCGAN的分類流程圖

2.1 組獨立成分分析與后處理

ICA是一種多元數據驅動的分析方法,從數據出發,提取數據的特征,抽象出數據的模型,這些特性十分有利于fMRI數據的分析研究。本文采用空間ICA算法分析fMRI,通過GIFT工具箱中的組ICA算法提取經過預處理的數據的組水平空間獨立成分。提取組獨立成分的主要步驟:1) 對數據進行中心化和白化處理;2) 采用主成分分析對數據進行兩次降維;3) 采用信息極大化算法(Infomax)進行空間獨立成分的估計與分離;4) 數據反重構。

根據以往的研究經驗[11],設定大腦fMRI信號獨立成分的個數為70,且在ICASSO軟件中重復了50次Infomax算法。采用組ICA所提取的70個獨立成分的一部分是我們需要的腦網絡成分,另一部分則是噪聲信號。依據獨立成分選擇標準[11]采用視覺觀察法,我們剔除了31個噪聲較多的獨立成分,并且通過匹配典型腦網絡成分[11],最終確定這些獨立成分分別為視覺網絡、默認網絡、感覺運動網絡、聽覺網絡、注意網絡、前額葉網絡和基底核網絡。

對每個被試所提取的39個獨立成分的時間序列進行后處理以消除掃描儀漂移和高頻生理噪聲的影響。具體操作包括:1) 去除時間序列的線性、二次、三次趨勢;2) 多元線性回歸頭動參數;3) 對時間序列異常值進行三階樣條插值;4) 高頻截止頻率為0.15 Hz的低通濾波。

2.2 提取動態功能連接特征

對每個被試,首先采用滑動時間窗技術構建其全腦動態功能連接網絡,主要步驟如下:1) 用滑動時間窗(窗寬w=30,步長s=5)對經過后處理的39個獨立成分的時間序列進行切割,得到23個窗;2) 對每個窗,以39個獨立成分作為網絡節點,以獨立成分時間序列之間的Pearson相關系數作為連接邊構建39×39的功能連接網絡;3) 連接23個功能連接網絡形成39×39×23的動態功能連接網絡。Pearson相關系數計算公式:

(1)

2.3 特征選擇

提取到的特征維度大且可能含有一些噪聲,通過特征選擇去除冗余特征進而加快運算速度、增強模型泛化能力。本文應用了兩種特征選擇方法:肯德爾排序相關系數法[4]和本文提出的混合特征選擇法。

肯德爾排序相關系數法KTRCC(Kendall Tau Rank Correlation Coefficient)是一種基于非參數檢驗的度量方法,能夠通過組間信息選出具有較強辨別能力的特征,但其沒有考慮組內信息的影響。而基于Fisher準則的特征選擇算法根據辨別能力越強的特征具有組內距離越小、組間距離越大的特性,以單個特征的Fisher比(組間離差和組內離差的比值)作為度量準則,對特征進行排序[12]。這種特征選擇方法可以同時兼顧組內和組間信息,但由于它的度量準則采取比值的方式,可能會出現判別能力不同的特征有相同的Fisher比值。對此,本文提出了一種基于KTRCC和Fisher的混合特征選擇方法,其能夠兼顧組內和組間信息選出判別能力強的特征。混合特征選擇法使用基于Fisher準則的特征選擇算法對KTRCC選出的具有較強辨別能力的特征進行重排序。混合特征選擇的具體步驟如下:1) 預選出由KTRCC得到的前N維具有較強辨別能力的特征;2) 用基于Fisher準則的特征選擇方法對預選出的N維特征進行降序排序;3) 選取最前面一定數目(小于N)的特征作為分類預測樣本的特征。

2.4 構建擴充數據集

我們通過CDCGAN擴充數據。首先,采用KTRCC特征選擇法對41×23×741的數據集進行特征排序,并選取具有較強辨別能力的前100維特征作為初始數據集(41×23×100),這樣可以去除冗余特征進而加快運算速度。然后,采用CDCGAN生成與初始數據具有相同分布的樣本(生成樣本的數目和初始數據中樣本的數目相同)。最后,對同一被試的生成數據集和初始數據集進行連接,構成(41×46×100)擴充數據集。

DCGAN是GAN在卷積神經網絡(CNN)上的擴展,由生成網絡D與判別網絡G構成。DCGAN的網絡G增加約束條件y構成CDCGAN,且CDCGAN的網絡G和網絡D同樣是經過結構調整的CNN,具體的結構調整如下:1) 取消所有的池化層,網絡G中采用反卷積進行上采樣,D網絡中使用加入步幅的卷積代替池化;2) 網絡G和網絡D均采用batch normalization;3) 去掉全連接層,使網絡變成全卷積網絡;4) 網絡G的最后一層使用tanh函數作為激活函數,而其他層均采用ReLU函數作為激活函數;5) 網絡D的最后一層采用softmax函數,其他層采用LeakyReLU函數作為激活函數。CDCGAN結構圖如圖2,其中z表示服從某一分布的隨機噪聲,y表示約束條件,x表示真實訓練數據,G(z|y)表示模型G生成的數據,D(x|y)表示模型D的判別結果。

圖2 CDCGAN結構圖

生成網絡G用于捕捉生成數據的分布,其與訓練數據具有相同的分布,由服從某一分布的噪聲z生成;判別網絡D是一個二分類器,用于判別其輸入是訓練數據還是生成數據。CDCGAN的優化過程是一個“二元極小極大博弈”問題,訓練時固定一方,更新另一方的網絡權重,交替迭代,使對方錯誤最大化,最終雙方達到納什均衡。此時生成模型G估測出訓練數據的分布,判別模型D的準確率保持50%。上述優化過程可表述為式(2):

Εz~pz(z)[log(1-D(G(z|y)))]

(2)

實驗中CDCGAN的詳細構件如下:1) 生成網絡G和判別網絡D采用了carpedm20提供的網絡;2) y是被試的ID編號(1,…,41),且同一被試的所有窗擁有相同的ID編號;3) 噪聲z是服從標準高斯分布的100維隨機數;4) x為初始數據集。

2.5 分類器

在本研究中,我們采用線性支持向量機(LSVM)和線性判別分類器(LDC)對抑郁癥患者和正常被試進行分類。LSVM對解決高維小樣本問題有著良好的性能,其采用最小間隔最大化的思想通過訓練集尋找最優分類決策面,并用此決策面預測測試樣本的標簽。LDC具有理論簡單、速度快的優點,其將Bayes統計理論應用于判別分析,通過訓練集學習出數據的后驗概率分布并根據Bayes判據預測測試樣本的標簽。在分類時,由于每名被試的數據由多個時間窗對應的數據樣本構成,因此每名被試的分類標簽根據其所包含數據樣本的分類結果按照投票機制確定(即少數服從多數)。

3 實驗結果及分析

這一節展示了采用不同組合方法的最優結果、多次實驗的平均結果以及分類正確率的平均增長率,并且對其中一組數據進行具體分析、比較了特征選擇方法,也比較了不同數據生成方法的分類結果。在分類時,訓練集為擴充數據集,而測試集為擴充數據集或初始數據集,分類器為LSVM或LDC,因此有四種采用了CDCGAN的組合(測試集- 分類器)方法:擴充數據集-LSVM(M-LSVM)、擴充數據集-LDC(M-LDC)、初始數據集-LSVM(O-LSVM)和初始數據集-LDC(O-LDC)。訓練集和測試集均是初始數據集,采用LSVM和LDC分類器的組合方法分別為(T-LSVM)和(T-LDC)。

3.1 分類結果

應用混合特征選擇法,采用T-LSVM和T-LDC組合方法的最佳分類正確率分別為0.658 5和0.682 9。這兩種沒有采用CDCGAN的組合方法,作為實驗的基線對照。

對擴充數據集,本文采用混合特征選擇方法進行特征選擇,并利用LSVM分類器和LDC分類器進行分類。在采用留一交叉驗證法分類時,訓練集為40個被試的擴充數據集,測試集分別為剩余1個被試的初始數據集和擴充數據集。在兩種測試集上采用不同的分類器都可以達到92.68%的分類正確率。由于CDCGAN中的噪聲z與網絡權重W的初始值采用隨機值,這會影響生成的數據,因此我們運行了10輪CDCGAN實驗,且每輪實驗迭代1 000次,每迭代50次提取一次生成樣本,共提取了20組生成樣本,也就構造了10×20組擴充數據集。圖3所示為其中4組擴充數據集在不同方法下的最優分類結果。

圖3 采用CDCGAN及未采用CDCGAN的分類結果

由圖3可看出,在采用相同的特征選擇和分類器情況下,采用CDCGAN的最佳分類結果明顯高于未采用CDCGAN的最佳分類結果。圖中拐點是三角形的折線代表沒有采用CDCGAN的基線對照分類結果,拐點為菱形和正方形的折線代表采用了CDCGAN的分類結果。實線表示采用LSVM分類器的分類結果,虛線表示采用LDC分類器的分類結果。

由于實驗中的CDCGAN有隨機初始值,為了評估采用CDCGAN模型的性能,對10×20組擴充數據集的總體情況做了匯總。圖4表示參數N變化時,擴充數據集采用四種組合方法的最佳分類正確率相對于基線對照最佳分類正確率的平均增長率(均值±方差)結果。

圖4 關于N的最佳正確率的平均增長率

由圖4可以看出,四種組合方法的最佳分類正確率的平均增長率均為正值。這說明CDCGAN方法有助于fMRI數據分類。為了進一步分析不同特征組合對分類的影響,我們在圖5中展示了N=85時,不同特征維數的分類正確率的平均增長率。

圖5 不同特征維數的分類結果

以上實驗結果表明了應用CDCGAN可以顯著地提高抑郁癥分類正確率,也表明了抑郁癥fMRI數據應用CDCGAN的可行性。

3.2 結果分析

分類過程中,采用留一交叉驗證法對每名被試進行特征選擇與分類,由于每次交叉驗證中的訓練集存在微小的差異,這將導致每次通過特征選擇選出來的特征很可能不同。我們對圖3中的(c)組數據進行了具體分析,比較了兩種特征選擇方法采用不同組合方法的最佳分類正確率。具體結果如表1所示。

表1 采用不同特征選擇法和不同組合方法的最佳分類結果以及相應的參數取值

由表1可以看出,相同的訓練集和測試集,采用混合特征選擇法可以取得更高的分類正確率。采用混合特征選擇法和M-LSVM組合方法,在表1中給出的最佳參數下,整個交叉驗證過程共出現了59個功能連接特征,涉及34個獨立成分。為了評估不同獨立成分對分類的貢獻,首先統計了整個交叉驗證中每個功能連接特征出現的次數(即統計了每個特征所連接的兩個獨立成分組合所出現的次數),再統計每個獨立成分在整個過程中出現的次數,然后對獨立成分出現的次數進行歸一化,并以此作為獨立成分在分類過程中的貢獻權重。圖6給出了貢獻權重最大的前10個獨立成分,其中貢獻最高的前4個獨立成分分別為視覺網絡、視覺網絡、默認網絡、默認網絡。通過分析獨立成分的貢獻,可得視覺網絡和默認網絡內部節點之間的連接存在異常,這與前人的研究成果基本一致[13-14]。

圖6 貢獻權重最大的10個獨立成分

3.3 不同數據生成方法的分類結果

目前常用的數據生成方法有對數據增加高斯噪聲生成新數據、使用GAN及其變形生成數據、使用自編碼及其變形生成數據,并且據我們了解還未有人把數據生成方法應用于fMRI領域。表2對比了由CDCGAN、自編碼、增加高斯噪聲這三種數據生成方法構建的擴充數據集,采用不同組合方法的最佳分類結果(特征選擇方法均為混合特征選擇法,且通過自編碼和增加高斯噪聲的方法均構建了50組擴充數據集)。

表2 采用不同數據生成方法和不同組合方法的最佳分類結果

4 結 語

CDCGAN能夠生成與訓練數據具有相同分布的樣本。本文實驗結果表明,我們提出的方法可以得到較高的分類正確率,這說明了抑郁癥fMRI數據采用CDCGAN方法擴充數據樣本的可行性,同時說明了通過CDCGAN生成的數據有利于分類研究。另外,由于CDCGAN生成圖片數據時可通過視覺觀察法選取高質量的生成樣本,因此CDCGAN在圖像研究中可能會有較理想的效果。本文提出的混合特征選擇法可選擇出有助于提高分類精度的特征,CDCGAN和混合特征選擇法在圖像分類中的應用是我們下一步的探索目標。

[1] 張兵,董云云,鄧紅霞,等.基于體素的fMRI數據分類研究及其應用[J].計算機應用與軟件,2015,32(2):138- 142.

[2] Hale J R, Mayhew S D, Mullinger K J, et al. Comparison of functional thalamic segmentation from seed-based analysis and ICA[J]. Neuroimage, 2015, 114:448- 465.

[3] 馬士林, 梅雪, 李微微,等. fMRI動態功能網絡構建及其在腦部疾病識別中的應用[J]. 計算機科學, 2016, 43(10):317- 321.

[4] Zeng L L, Shen H, Liu L, et al. Identifying major depression using whole-brain functional connectivity: a multivariate pattern analysis[J]. Brain A Journal of Neurology, 2012, 135(5): 1498- 1507.

[5] Sikora M, Heffernan J, Avery E T, et al. Salience Network Functional Connectivity Predicts Placebo Effects in Major Depression[J]. Biological Psychiatry Cognitive Neuroscience & Neuroimaging, 2016, 1(1):68- 76.

[6] Kang J, Bowman F D, Mayberg H, et al. A depression network of functionally connected regions discovered via multi-attribute canonical correlation graphs[J]. Neuroimage, 2016, 141:431- 441.

[7] Preti M G,Bolton T A W,Ville D V D.The dynamic functional connectome: state-of-the-art and perspectives[J].NeuroImage,2017,160:41- 45.

[8] Goodfellow I J, Pouget-Abadie J,Mirza M,et al.Generative adversarial nets[C]//International Conference on Neural Information Processing Systems.MIT Press,2014:2672- 2680.

[9] Mirza M, Osindero S.Conditional generative adversarial nets[DB]. arXiv:1411.1784, 2014.

[10] Radford A,Metz L,Chintala S.Unsupervised representation learning with deep convolutional generative adversarial networks[C]//International Conference on Learning Representations,2016.

[11] Allen E A, Erhardt E B, Damaraju E, et al. A baseline for the multivariate comparison of resting-state networks[J]. Frontiers in Systems Neuroscience, 2015, 5(5):2.

[12] 胡洋,李波.基于Fisher準則和多類相關矩陣分析的腫瘤基因特征選擇方法[J].計算機應用與軟件,2016,33(7):76- 78.

[13] 皇甫浩然,楊劍,楊陽.基于fMRI動態連接的抑郁癥患者分類研究[J].計算機應用研究,2017,34(3):678- 682.

[14] 朱雪玲, 袁福來. 基于區域的抑郁癥默認網絡內部功能連接研究[J]. 中國臨床心理學雜志, 2016, 24(2):218- 220.

猜你喜歡
分類特征方法
分類算一算
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 天天综合网站| 欧美一区二区三区国产精品| 亚洲 日韩 激情 无码 中出| 亚洲伦理一区二区| 一级毛片在线免费视频| 中文字幕首页系列人妻| 欧美不卡二区| 中文字幕首页系列人妻| 日韩中文字幕免费在线观看| 国产激情无码一区二区三区免费| 一本色道久久88综合日韩精品| 99久视频| av在线5g无码天天| jizz亚洲高清在线观看| 国产欧美视频在线| 日韩毛片视频| 免费毛片全部不收费的| 亚洲无码视频图片| 久久国产高潮流白浆免费观看| 成年人视频一区二区| 欧美精品xx| 日韩精品无码免费一区二区三区| 日韩精品一区二区深田咏美| 特级欧美视频aaaaaa| 广东一级毛片| 国产欧美精品一区aⅴ影院| 国产SUV精品一区二区6| 不卡国产视频第一页| 国产精品va免费视频| 国产精品午夜电影| 日韩无码黄色| 亚洲资源站av无码网址| 国产一级毛片高清完整视频版| 伊人久久婷婷| 精品一区二区三区波多野结衣| 欧美精品啪啪| 91丝袜美腿高跟国产极品老师| 国产爽爽视频| 在线播放91| 九色免费视频| 久久综合婷婷| 亚洲成人精品| 99在线观看视频免费| 波多野结衣无码视频在线观看| 欧美精品影院| 高潮爽到爆的喷水女主播视频 | 国产人前露出系列视频| 911亚洲精品| 欧美视频在线观看第一页| 免费一级大毛片a一观看不卡| 蜜臀av性久久久久蜜臀aⅴ麻豆| 日韩精品专区免费无码aⅴ| 中文字幕第4页| 日韩视频福利| 成人韩免费网站| 国产精品播放| 久久亚洲国产一区二区| 欧美a√在线| 色悠久久久久久久综合网伊人| 无码丝袜人妻| 亚洲人成色在线观看| 午夜毛片免费看| 尤物精品视频一区二区三区| 久久免费视频播放| 色噜噜狠狠狠综合曰曰曰| 亚洲欧美在线精品一区二区| 久久一色本道亚洲| 亚州AV秘 一区二区三区| 成人精品视频一区二区在线| 久久久久久久97| 99无码熟妇丰满人妻啪啪| 国产在线视频自拍| 在线视频精品一区| 拍国产真实乱人偷精品| 国内精品视频| 极品国产在线| 中文字幕佐山爱一区二区免费| 中文字幕第4页| 欧美在线伊人| 日韩午夜片| 欧美日韩国产综合视频在线观看| 精品無碼一區在線觀看 |