999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

使用深度學(xué)習和不同頻率維度的腦功能性連接對輕微認知障礙的診斷

2021-03-07 05:16:52孔伶旭吳海鋒陸小玲
計算機應(yīng)用 2021年2期
關(guān)鍵詞:分類

孔伶旭,吳海鋒,2*,曾 玉,2,陸小玲

(1.云南民族大學(xué)電氣信息工程學(xué)院,昆明 650500;2.云南省高校智能傳感網(wǎng)絡(luò)及信息系統(tǒng)科技創(chuàng)新團隊(云南民族大學(xué)),昆明 650500)

(*通信作者電子郵箱whf5469@gmail.com)

0 引言

阿爾茲海默癥(Alzheimer’s Disease,AD)是最常見的一種老年癡呆癥[1],且至今沒有有效藥物可以阻止或逆轉(zhuǎn)其發(fā)展,只有在AD 早期時通過一些治療來改善癥狀和干預(yù)其進一步的惡化[2],從而減輕患者的病情和延長存活時間。對于AD 患者,往往會經(jīng)歷輕微認知障礙(Mild Cognitive Impairment,MCI)[3],且患有MCI 的患者會有更大概率發(fā)展成為AD[4-6]。因此準確診斷MCI對AD的預(yù)防和治療十分關(guān)鍵。

目前使用深度學(xué)習對MCI 的輔助診斷研究,常基于靜息態(tài)功能核磁共振成像(resting-state functional Magnetic Resonance Imaging,rs-fMRI)的腦功能性連接(Functional Connectivity,F(xiàn)C),重點都在不同的深度學(xué)習模型上,而FC 的計算還是使用傳統(tǒng)的皮爾遜(Pearson)相關(guān)法或加窗的皮爾遜(Window Pearson,WP)相關(guān)法。

皮爾遜相關(guān)法是研究FC 的常用方法[7-9],它從若干興趣區(qū)(Region Of Interest,ROI)中提取血氧水平依賴(Blood Oxygenation Level Dependent,BOLD)信號,然后計算它們之間的皮爾遜相關(guān)系數(shù),以衡量連接強度和構(gòu)建網(wǎng)絡(luò)。該方法計算簡單,可操作性強,但若BOLD 信號呈現(xiàn)出非平穩(wěn)特性時,皮爾遜相關(guān)就難以反映動態(tài)特性。為此,可在BOLD 信號上加上若干時間窗后計算窗口內(nèi)的皮爾遜系數(shù)[10];然而,窗口的大小會對非平穩(wěn)信號的相關(guān)系數(shù)計算帶來影響[11],窗口大則時間分辨率降低,窗口小則相關(guān)系數(shù)本身分辨率降低。

另外更重要的是,無論是皮爾遜相關(guān)還是加窗的皮爾遜相關(guān),雖然在一些深度學(xué)習模型中有著不錯的表現(xiàn),但這兩種FC 的研究更多關(guān)注在時間維度上。然而各腦神經(jīng)元放電的頻率不盡相同[12],rs-fMRI 所反映的BOLD 信號頻率是一個比較粗的尺度,使用皮爾遜相關(guān)或加窗的皮爾遜相關(guān)對BOLD信號進行處理雖然計算簡單、易于操作,但此時不能表示出不同頻率上的FC,從而影響在一些深度學(xué)習模型中的分類準確率。

針對以上問題,本文提出了一種基于不同固有頻率的FC系數(shù)來研究rs-fMRI的MCI診斷,使其可以幫助深度學(xué)習提升MCI和NC 的分類準確率;同時還提出了一種聯(lián)合多通道經(jīng)驗?zāi)B(tài)分解(Joint Multivariate Empirical Model Decomposition,JMEMD)方法,以解決多個多元信號在進行多通道經(jīng)驗?zāi)B(tài)分解頻率尺度不匹配的問題[13]。首先,使用JMEMD 方法對ROI 時間序列進行分解得到各層的固有模態(tài)函數(shù)(Intrinsic Mode Function,IMF)分量;然后再求各層IMF 的皮爾遜相關(guān)矩陣,獲得JMEMD 皮爾遜相關(guān)(JMEMD Pearson,JP)系數(shù)。為使其他研究者盡可能重復(fù)本文的實驗,本文采用可公開下載的rs-fMRI 阿爾茨海默病神經(jīng)影像庫(Alzheimer’s Disease Neuroimaging Initiative,ADNI)數(shù)據(jù)作為分類圖像,并采用開源平臺Keras 中的VGG16(Visual Geometry Group)可遷移深度網(wǎng)絡(luò)[14]以及長短期記憶(Long Short-Term Memory,LSTM)網(wǎng)絡(luò)等分類算法來測試各FC 系數(shù)的性能。將本文提出的JP系數(shù)與傳統(tǒng)皮爾遜相關(guān)系數(shù)和加窗皮爾遜相關(guān)系數(shù)進行對比,實驗結(jié)果表明,在相同實驗環(huán)境下,本文提出的JP 系數(shù)相較傳統(tǒng)的FC系數(shù),準確率可提升18.33~21.00個百分點。

1 相關(guān)工作

近年來,隨著神經(jīng)影像技術(shù)的發(fā)展,具有無創(chuàng)的fMRI 技術(shù)被越來越多地用于腦科學(xué)研究中,特別地,rs-fMRI 無須受試者完成任何特定任務(wù)就能反映大腦的工作狀況,避免了實驗任務(wù)對數(shù)據(jù)所帶來的影響,因此被更廣泛地用于FC研究。

使用rs-fMRI 數(shù)據(jù)構(gòu)建腦網(wǎng)絡(luò)來進行FC 研究,有著多種構(gòu)建方法。在文獻[15]中,使用隱馬爾可夫鏈(Hidden Markov Model,HMM)和受限玻爾茲曼機(Restricted Boltzmann Machine,RBM)進行腦網(wǎng)絡(luò)的構(gòu)建;獨立主成分分析(Independent Component Analysis,ICA)也是構(gòu)建腦網(wǎng)絡(luò)時的一種常用方法[16];也有研究提出使用稀疏表示(Sparse Representation,SR)腦網(wǎng)絡(luò)建模方法進行腦網(wǎng)絡(luò)的構(gòu)建[17]?;赗OI 的皮爾遜相關(guān)法也是一種常用的構(gòu)建腦網(wǎng)絡(luò)的方法,因其具有計算簡單、可操作性強等特點,因此本文主要關(guān)注皮爾遜相關(guān)法。

皮爾遜相關(guān)系數(shù)可計算第m個ROI 時間序列向量Xm=[xt,m]∈RT×1和第n個向量Xn=[xt,n]∈RT×1間的相關(guān)程度,表示為:

其中:μm和μn分別表示序列Xm和Xn的均值;上標H 共軛轉(zhuǎn)置。若所提取序列的ROI 數(shù)為M,則可得到相應(yīng)的皮爾遜相關(guān)矩陣R=[rmn]∈RM×M。由皮爾遜矩陣進行疾病診斷的方法其實就是從矩陣R中提取相應(yīng)特征,再通過該特征對疾病組和正常組進行分類。目前,利用堆疊自動編碼器(Stacked Auto-Encoder,SAE)[18]和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[19]等深度網(wǎng)絡(luò)從皮爾遜相關(guān)矩陣提取特征來進行分類的方法已取得了一定的分類效果。

若從rs-fMRI 提取的ROI 時間序列表現(xiàn)出非平穩(wěn)性,則為評估FC 的動態(tài)變化可加時間窗來計算皮爾遜相關(guān)。若X(w)∈RL×1表示原矢量X的第w個窗中的序列矢量,那么該加窗皮爾遜相關(guān)系數(shù)可表示為:

2 相關(guān)系數(shù)的頻率特征

雖然目前可通過皮爾遜相關(guān)、加窗皮爾遜相關(guān)方法計算FC 的連接強度,但將其作為機器學(xué)習的特征會存在一些問題。圖1 給出了用上述兩種方法計算ROI 間FC 強度示意圖:其中皮爾遜對ROI提取時間序列在所有時間點求相關(guān)會得到如式(1)的系數(shù)rmn,將其擴展至多個ROI 可得到相關(guān)矩陣R,但它并不包含隨時間變化的動態(tài)信息;加窗皮爾遜雖可得到具有時間維度的相關(guān)結(jié)果及相應(yīng)多個ROI的相關(guān)矩陣R(w)(如式(2)所示),但它并沒有表現(xiàn)出與頻率相關(guān)的信息。將這些結(jié)果交給分類器,即便使用深度學(xué)習來自提取特征,也會因為相關(guān)系數(shù)本身可能喪失時間信息或頻率維度上的信息沒有分解表示,導(dǎo)致分類結(jié)果受到影響。

根據(jù)以上問題,本文提出了一種新的相關(guān)系數(shù)計算方法,通過該方法計算的系數(shù)可描述在不同頻率的FC連接強度,最終使得現(xiàn)存的深度學(xué)習模型在使用該FC 系數(shù)對MCI 進行分類診斷時有更好的分類準確率。

圖1 現(xiàn)有的FC連接強度計算方法Fig.1 Existing FC connection strength calculation methods

3 JP相關(guān)系數(shù)

3.1 系數(shù)計算基本過程

本文將使用JP 相關(guān)系數(shù)來表征FC 強度,系數(shù)的計算如圖2 所示。首先,從被試者樣本的rs-fMRI 數(shù)據(jù)中提取ROI 時間序列,然后在同一ROI 上將所有被試樣本的時間序列連接起來,送至MEMD 得到若干個IMF 分量。把分解的IMF 分割后再分配至各被試,求出每一被試在每一層IMF 上兩兩ROI間的皮爾遜相關(guān)系數(shù),作為每層IMF 對應(yīng)的JP 系數(shù)。下面,將對上述計算步驟做更詳細介紹。

圖2 JP系數(shù)計算示意圖Fig.2 Schematic diagram of JP coefficient calculation

3.2 JMEMD

在JP 系數(shù)計算過程中,需要采用EMD 技術(shù),若對每個被試的每個ROI 都獨立采用EMD,會導(dǎo)致各ROI 的IMF 分量數(shù)各不相同,就難以計算各個層上IMF 分量的相關(guān)系數(shù)。MEMD 是一種多通道的經(jīng)驗?zāi)B(tài)分解[13],可實現(xiàn)多個ROI 時間序列的同步聯(lián)合分析,確保多個ROI 信號的IMF 分量在時間和層上均保持匹配,從而利于在各層上的相關(guān)分析。然而,MEMD 采用Hammersley 序列[13,21],并利用插值和多通道的包絡(luò)曲線來計算IMF 分量,當通道數(shù)增多時,IMF 分量的層數(shù)越高就越趨于一致。對于fMRI 圖像來說,其總通道數(shù)應(yīng)是ROI數(shù)與被試者數(shù)的乘積,通常ROI選取的數(shù)目本身就較多,當樣本數(shù)目也較多時,那總通道數(shù)也將大幅增加,由MEMD 計算得到的IMF 分量在高層上就較為相同,所得到的相關(guān)系數(shù)也將趨為1,因此難以找到具有顯著性差異的特征量。

針對MEMD 的以上問題進行以下改進:首先,對于每一個ROI,將所有被試的時間序列按組別首尾相連后得到一個總序列,若ROI數(shù)為M,將得到M個序列;然后,將這些序列執(zhí)行M通道的MEMD,每一通道均可得到Q層IMF 分量;最后,將這些IMF 在一個被試時間序列的長度進行分割,將分割后的序列再分配回給各個被試,則每個被試在每個ROI 上都具有相同層數(shù)的IMF。令為從第s個rs-fMRI樣本中所提取的M個ROI時間序列。若總共有S個被試者,同時為了避免MEMD 過程中存在的尾部漂移問題,將第S個被試者重復(fù)使用,并在最后丟棄不用,則將這些ROI信號連接后得到:

由式(3)可知,無論被試的樣本數(shù)有多少,連接后的Zm仍只有M個通道,并不會使得通道數(shù)增多。

將連接后的Zm經(jīng)MEMD后可表示為:

3.3 JP系數(shù)

經(jīng)JMEMD 后,每個被試樣本的多個ROI 的IMF 分量可以彼此匹配,因此可計算這些ROI 間在每一層分量上的相關(guān)系數(shù)矩陣。由于計算該系數(shù)矩陣是對每一個被試進行計算,因此為簡化符號表示,將略去中符號s。令

4 實驗設(shè)置

4.1 數(shù)據(jù)來源及預(yù)處理

在本實驗中,為了驗證所提出的JP 相關(guān)系數(shù)對MCI 的識別性能,采用來自ADNI 庫的公開數(shù)據(jù),網(wǎng)址為http://adni.loni.usc.edu/,詳細參數(shù)見表1。

表1 rs-fMRI數(shù)據(jù)相關(guān)參數(shù)Tab.1 rs-fMRI data related parameters

數(shù)據(jù)預(yù)處理采用數(shù)據(jù)處理和腦成像分析(Data Processing&Analysis of Brain Imaging,DPABI)工具箱[22],具體過程如下:

1)對原始數(shù)據(jù)去除前10幀圖像,保留130幀圖像;

2)以第48個切片為基準對所有的切片進行校準,使每個切片上的數(shù)據(jù)具有相同時間點;

3)對所有被試進行頭動校正,將頭動校正到同一位置,并為接下來的圖像質(zhì)量控制提供數(shù)據(jù);

4)將與rs-fMRI 數(shù)據(jù)匹配的MRI 數(shù)據(jù)進行顱骨剝離,然后同功能圖像進行配準,將MRI數(shù)據(jù)變換到rs-fMRI數(shù)據(jù)的空間,使得rs-fMRI 數(shù)據(jù)可以被分割成腦脊髓液、灰質(zhì)和白質(zhì)信號;

5)去除一些混淆因素,將6 個頭動參數(shù)(包含3 個轉(zhuǎn)動參數(shù)和3 個平動參數(shù))、腦脊髓液和白質(zhì)信號被作為無關(guān)變量去除;

6)評估被試者頭部的旋轉(zhuǎn)和平移,發(fā)現(xiàn)所有參與者都沒有表現(xiàn)出過度的頭部運動;

7)進行歸一化和平滑,并將所有數(shù)據(jù)都過濾到一個頻率范圍(0.01~0.08 Hz);

8)使用自動解剖標記圖譜(Automated Anatomical Labeling,AAL)[23]將大腦分為M=116 個ROI,每個半腦球包含58個區(qū)域,最后得到一個130 × 116的數(shù)據(jù)矩陣;

9)最后根據(jù)所有被試的頭動情況,圖像成像質(zhì)量以及結(jié)構(gòu)和功能像的配準質(zhì)量對數(shù)據(jù)進行過濾,最終得到了32 個MCI和32個NC圖像。

4.2 評價的相關(guān)系數(shù)

在本實驗中,采用皮爾遜相關(guān)系數(shù)(Pearson)和加窗的皮爾遜系數(shù)(WP)與JP_q系數(shù)方法進行對比,具體過程如下。

1)Pearson:對ROI時間序列求皮爾遜相關(guān)系數(shù)。

2)WP:對ROI 時間序列進行加窗,再求每個窗口下的皮爾遜相關(guān)系數(shù)。

3)JP_q:計算步驟見3.3 節(jié)JP 系數(shù),經(jīng)過分解后獲得了9層IMF 分量。JP_q表示第q層IMF 分量的系數(shù)矩陣。JP 系數(shù)計算中,采用的MEMD 算法代碼下載地址為https://github.com/mariogrune/MEMD-Python。

以上相關(guān)系數(shù)涉及的具體參數(shù)可見表2。

表2 各相關(guān)系數(shù)的參數(shù)設(shè)置Tab.2 Parameter setting of different correlation coefficients

4.3 測試的深度學(xué)習分類方法

在實驗中,用兩種流行的深度學(xué)習分類方法來評價上述FC相關(guān)系數(shù)對MCI的分類能力,分別是VGG16的遷移網(wǎng)絡(luò)和LSTM 網(wǎng)絡(luò)。其中VGG16 網(wǎng)絡(luò)主要測試不帶時間維度的FC相關(guān)系數(shù)矩陣,由于VGG16 是一種CNN,不完全適用于時間序列數(shù)據(jù),因此使用LSTM測試帶有時間維度的FC系數(shù),即由LSTM 測試WP 系數(shù),VGG16 測試Pearson 和JP_q系數(shù)。同時由于可用的rs-fMRI 數(shù)據(jù)及實驗條件有限,而VGG16 是一種輕型CNN,能夠在保持模型性能的前提下降低模型大小,同時提升運行速度,并且VGG16 作為一種遷移網(wǎng)絡(luò)擁有已預(yù)訓(xùn)練完成并支持下載的預(yù)訓(xùn)練權(quán)重,不僅可以避免因數(shù)據(jù)集較小帶來的影響,也可以減少網(wǎng)絡(luò)訓(xùn)練的時間。

下面,給出這兩種方法使用FC 指標進行分類的具體過程。

4.3.1 LSTM網(wǎng)絡(luò)

LSTM網(wǎng)絡(luò)是一種循環(huán)神經(jīng)網(wǎng)絡(luò),對時間序列分類和預(yù)測有較好的表現(xiàn),而WP 含有時間維度,因此對這兩種指標用LSTM 網(wǎng)絡(luò)進行分類。LSTM 網(wǎng)絡(luò)可通過遺忘門、輸入門和輸出門對原輸入數(shù)據(jù)進行降維,然后通過頂層完成分類。WP矩陣R(w)為對稱陣,因此僅取其上半部分作為LSTM 網(wǎng)絡(luò)的輸入,設(shè)為P(t)∈R1×N,t=1,2,…,T對應(yīng)為WP中的w。若D為WP數(shù)據(jù)對應(yīng)的標簽,使其滿足

則訓(xùn)練結(jié)束,其中ftop(·)和flstm(·)分別表示LSTM 網(wǎng)絡(luò)頂層和單元的函數(shù),wtop和wgate分別是頂層權(quán)重和單元中遺忘門、輸入門和輸出門的權(quán)重。在本文實驗中,LSTM網(wǎng)絡(luò)所選用的具體參數(shù)可參見表3。

4.3.2 VGG16遷移學(xué)習

VGG16 遷移學(xué)習采用了預(yù)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò),可對不帶時間維度的數(shù)據(jù)矩陣進行分類,能避免因?qū)嶒灜h(huán)境不同導(dǎo)致網(wǎng)絡(luò)初始訓(xùn)練存在差異的問題,且VGG16 網(wǎng)絡(luò)預(yù)訓(xùn)練已經(jīng)完成,可大幅減少最終訓(xùn)練時間。設(shè)XS和DS分別是一源數(shù)據(jù)集中的二維圖像矢量和對應(yīng)標簽,將VGG16 網(wǎng)絡(luò)在該源數(shù)據(jù)集中進行預(yù)訓(xùn)練,使其滿足

則訓(xùn)練完成,其中wt是目標網(wǎng)絡(luò)的頂層輸出的權(quán)重矢量。本文實驗中,VGG16遷移網(wǎng)絡(luò)的參數(shù)設(shè)置參見表3。

表3 深度學(xué)習網(wǎng)絡(luò)的相關(guān)參數(shù)設(shè)置Tab.3 Related parameter settings of deep learning network

分類實驗采用5 折交叉驗證,將總數(shù)據(jù)樣本隨機分成5份,1 份作為測試集,其余4 份作為訓(xùn)練集,5 份中的每1 份都會作為一次測試集,總共重復(fù)5 次,那么該交叉驗證的分類準確率就為這5 次分類的平均值。同時,為了避免交叉驗證結(jié)果的偶然性,重復(fù)上述實驗10 次,最終的分類準確率為10 次實驗的平均值。

5 實驗結(jié)果與分析

5.1 分類性能

本小節(jié)給出的所有實驗結(jié)果均在Inter Core i5-6300HQ(4核)的中央處理單元(Central Processing Unit,CPU)環(huán)境下運行,未采用任何圖形處理器(Graphics Processing Unit,GPU)。

LSTM 網(wǎng)絡(luò)和VGG16 均采用基于TensorFlow 的Keras 平臺實現(xiàn),VGG16 的預(yù)訓(xùn)練權(quán)重下載地址為https://github.com/fchollet/deep-learning-models/releases。

表4 給出了各FC 系數(shù)矩陣的分類準確率,可以看出這幾種FC 系數(shù)準確率從高到低分別為JP_9、JP_7、WP、Pearson、JP_6、JP_3、JP_1、JP_8、JP_4、JP_5和JP_2??梢钥闯鯳P系數(shù)的分類準確率高于Pearson,這是因為WP 系數(shù)中添加了時間維度,數(shù)據(jù)信息更充分;但這也使得數(shù)據(jù)維度大幅增加,從而在分類過程中需要消耗更多的時間和硬件資源。然而本文所提出的JP 系數(shù),其中JP_9 和JP_7 的分類準確率不僅高于Pearson 系數(shù),還高于WP 系數(shù),并且JP_9 和JP_7 的數(shù)據(jù)維度還與Pearson 系數(shù)保持一致,遠低于WP 系數(shù)的維度。雖然也可以看到JP_2 系數(shù)的分類準確率是這幾種FC 系數(shù)中最低的,但是這也說明了在不同頻率上的FC強度對分類準確率有各自不同的影響。

在表4 中還給出了使用文獻[18]中的SAE 網(wǎng)絡(luò),VGG16網(wǎng)絡(luò)和LSTM 網(wǎng)絡(luò)對ROI時間序列以及Pearson 系數(shù)的分類準確率。如表4 所示,當使用SAE 網(wǎng)絡(luò)測試ROI 時間序列和Pearson 系數(shù)時,得到的準確率分別為55.00%和58.17%;當使用LSTM 網(wǎng)絡(luò)測試原始ROI 時間序列時,所得的準確率為58.00%;使用VGG16網(wǎng)絡(luò)測試Pearson系數(shù)時,得到的準確率是63.33%,相較SAE的結(jié)果均有所提升。這也是接下來使用LSTM 網(wǎng)絡(luò)測試WP 系數(shù)以及VGG16 網(wǎng)絡(luò)測試JP 系數(shù)的原因之一,同時也說明了對ROI時間序列進行一定的預(yù)處理,可以提升其在深度學(xué)習中的表現(xiàn)。

表4 各FC系數(shù)矩陣分類準確率Tab.4 Classification accuracies of different FC coefficient matrices

圖3 給出了在10 次交叉驗證實驗中,Pearson、WP 和JP_9系數(shù)矩陣的分類準確率曲線。從圖3 中可以看出,曲線排列最高的仍是JP_9,該結(jié)果與表4的結(jié)果一致。該結(jié)果也表明,不僅JP_9 類準確率的平均值較高,對于單次實驗,JP_9 的分類準確率也高于其他方法,因此也排除了JP_9 由于某幾次較高的分類準確率值拉高了平均值的可能性。

圖3 Pearson、WP和JP_9系數(shù)矩陣在十次交叉驗證中的分類準確率曲線Fig.3 Classification accuracy curves of Pearson,WP and JP_9 coefficient matrices in 10 cross-validation

圖4 給出了在10 次交叉驗證實驗中,JP_1 到JP_9 的系數(shù)矩陣的分類準確率曲線。從圖4 中可以看出,JP_9 的分類準確率在10次實驗中有9次是最高的;同時也可以看出,JP_9和JP_7 的分類準確率較高,而JP_8 的分類準確率卻低于JP_1,這表明分類準確率并不會隨著頻率的降低而提升;并且也可以看出單次實驗中分類準確率最低的JP 系數(shù)是不盡相同的,這說明了不同頻率維度上的FC 對分類準確率有著不同的影響。

圖4 各JP系數(shù)矩陣在10次交叉驗證中的分類準確率曲線Fig.4 Classification accuracy curves of different JP coefficient matrices in 10 cross-validation

為了確認高分類準確率是由于JP 系數(shù)產(chǎn)生而不是因為所使用的VGG16遷移網(wǎng)絡(luò),因此還使用了MobileNet[24]網(wǎng)絡(luò)對Pearson 系數(shù)和JP 系數(shù)進行了測試,結(jié)果如表5 所示。從表5中可以看出,在VGG16 和MobileNet 網(wǎng)絡(luò)中,JP_9 系數(shù)的分類準確率均高于Pearson系數(shù),這說明了本文所提出的JP系數(shù)對MCI 和NC 的分辨率是高于Pearson 系數(shù)的,而不是因為網(wǎng)絡(luò)結(jié)構(gòu)才產(chǎn)生的較好的結(jié)果。

表5 VGG16和MobileNet對Pearson和JP系數(shù)的分類結(jié)果Tab.5 Classification results of Pearson and JP coefficients by VGG16 and MobileNet

5.2 組平均水平對比

在rs-fMRI數(shù)據(jù)預(yù)處理時,使用AAL選取了116個ROI,將大腦劃分成了額葉、腦島、邊緣、枕葉、頂葉、皮層、顳葉、小腦和蚓體9 個部分。圖5~7 分別給出了Pearson、JP_6 和JP_9 系數(shù)在組平均水平上9個區(qū)域間的連接性的強弱的變化。

需要注意的是,由于WP 系數(shù)涉及多個時間上的系數(shù)矩陣,且如果將WP系數(shù)在時間水平上平均后,其結(jié)果與Pearson系數(shù)相同,因此在這里沒有給出其平均矩陣圖。

從圖5中可以看出,在Pearson系數(shù)矩陣下,MCI的連接強度低于NC,主要表現(xiàn)為在NC中呈現(xiàn)較強的負相關(guān)的區(qū)域,在MCI 中呈現(xiàn)為弱負相關(guān),主要集中在額葉、邊緣、皮層和小腦各自內(nèi)部的連接,額葉與其他區(qū)域間的連接,皮層與其他區(qū)域間的連接和小腦與其他區(qū)域間的連接。其連接強度變換明顯的有額葉-皮層、額葉-小腦、邊緣-小腦、邊緣-頂葉、枕葉-小腦、頂葉-蚓體等。雖然強度變換較為明顯,但整體趨勢較為單一,大部分僅為負相關(guān)的減弱,可能是因此導(dǎo)致它在深度學(xué)習網(wǎng)絡(luò)中的分類效果一般。

對于JP 系數(shù),除了JP_1 和JP_2,在變換趨勢上大體與Pearson 類似,其他的JP 系數(shù)都有各自的特點。在此展示了JP_6 和JP_9 系數(shù)在NC 和MCI 組的平均值,以此來表明不同頻率維度上的FC是不同的。

圖5 Pearson系數(shù)矩陣在NC和MCI組的平均值Fig.5 Average values of Pearson coefficient matrix in NC and MCI groups

從圖6 中可以看出,在JP_6 系數(shù)下,從NC 到MCI 的變化是多樣的,不僅有負相關(guān)的減弱,還有正相關(guān)的減弱以及某些區(qū)域的相關(guān)性增強。負相關(guān)減弱的區(qū)域主要有額葉-頂葉、額葉-小腦、額葉-蚓體、邊緣-邊緣、邊緣-頂葉、邊緣-小腦、邊緣-蚓體、皮層-小腦、顳葉-小腦等區(qū)域間;在枕葉-邊緣、頂葉-小腦(前半部分)和小腦-小腦這幾個區(qū)域間的連接表現(xiàn)為負相關(guān)的增強;在枕葉-枕葉區(qū)域間的連接表現(xiàn)為正相關(guān)的減弱;而在頂葉-頂葉、枕葉-小腦和頂葉-小腦(后半部分)表現(xiàn)為由弱正相關(guān)或負相關(guān)變?yōu)檩^強的正相關(guān)性。

從圖7 中可以看出,在JP_9 系數(shù)下,從NC 到MCI 的變化也是多樣的且是更加明顯的。在額葉、腦島、枕葉、頂葉、顳葉、小腦以及蚓體這幾個區(qū)域內(nèi)的連接性均由弱相關(guān)變?yōu)檩^強的正相關(guān);而邊緣這一區(qū)域內(nèi)部的連接則由較強的正相關(guān)變?yōu)閺娬嚓P(guān)和強負相關(guān);在額葉-枕葉、額葉-小腦、額葉-蚓體、枕葉-頂層、枕葉-皮層、枕葉-顳葉和頂葉-小腦這幾個區(qū)域間的連接性均由弱相關(guān)變?yōu)閺娯撓嚓P(guān);而在額葉-頂葉、額葉-皮層、額葉-顳葉、枕葉-小腦、枕葉-蚓體、頂葉-皮層和頂葉-顳葉這幾個區(qū)域間的連接性由弱相關(guān)變?yōu)閺娬嚓P(guān)性;并且在邊緣-枕葉、邊緣-頂葉、邊緣-皮層、邊緣-小腦和邊緣-蚓體這幾個區(qū)域間的連接性在NC中僅表現(xiàn)為較單一的正相關(guān)或負相關(guān),而在MCI中則表現(xiàn)為正相關(guān)和負相關(guān)均存在。從圖5 和圖7 來看,JP_9 系數(shù)在組平均水平上的變化更加多樣,且其幅度值的變化也大于Pearson 系數(shù),因此JP_9 系數(shù)獲得了更好的分類效果。

圖6 JP_6系數(shù)矩陣在NC和MCI組的平均值Fig.6 Average values of JP_6 coefficient matrix in NC and MCI groups

圖7 JP_9系數(shù)矩陣在NC和MCI組的平均值Fig.7 Average values of JP_9 coefficient matrix in NC and MCI groups

6 結(jié)語

針對rs-fMRI數(shù)據(jù)中功能性連接的問題,本文提出一種能更好反映NC 組和MCI 組間差異性的FC 系數(shù)矩陣,使得現(xiàn)存的深度學(xué)習算法使用該系數(shù)矩陣具有更高的分類準確率。先采用JMEMD 對提取的多個ROI時間序列進行分解,計算了各層IMF 的相關(guān)系數(shù)矩陣,最終得到了JP 相關(guān)系數(shù)矩陣。為驗證JP 系數(shù)矩陣的分類性能,采用了ADNI 的公開數(shù)據(jù),測試的遷移學(xué)習VGG16和LSTM 等分類算法也均為開源。實驗結(jié)果表明,采用JP_9系數(shù)在ADNI的公開數(shù)據(jù)上有84.33%的分類準確率,比Pearson 系數(shù)和WP 系數(shù)高出18.33~21.00 個百分點;并且也表明了在不同固有頻率上的FC系數(shù)對MCI有著不同的分辨率。

另外在實驗中,采用了加窗的皮爾遜相關(guān)系數(shù)WP 來進行分類。但是在實驗中,沒有比較不同的窗口參數(shù)對分類性能的影響,這將是我們下一步研究的內(nèi)容。不過從這一角度看,JMEMD無須母函數(shù),具有自適應(yīng)分解能力,因此JP系數(shù)對參數(shù)設(shè)置的依賴性也將更少。

雖然本文的實驗結(jié)果確實支持JP 系數(shù)可以具有更好的分類性能,但是還有以下幾點需要進一步進行討論。在JP 系數(shù)求解過程中,將所有被試的ROI時間序列進行拼接,然后進行MEMD,這樣的好處是通道數(shù)量不會增多,同時又能使各通道的IMF分量在時間和尺度上保持匹配。同時當被試者較多時,該做法也會導(dǎo)致拼接的ROI 時間序列拉長。由于本文實驗中的被試者數(shù)并不特別多,因此被試數(shù)目增加是否會影響JMEMD 的分解性能并未進行論證,在未來的工作中需要進一步去嘗試這種可能性。并且在本文的實驗中僅考慮了在不同頻率維度上的FC系數(shù)對分類準確率的影響,而沒有考慮不同頻率維度之間的FC強度,這也將是我們的下一步工作。

猜你喜歡
分類
2021年本刊分類總目錄
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
星星的分類
我給資源分分類
垃圾分類,你準備好了嗎
分類討論求坐標
數(shù)據(jù)分析中的分類討論
按需分類
教你一招:數(shù)的分類
主站蜘蛛池模板: 国模视频一区二区| 国产免费一级精品视频 | 国产亚洲精| 午夜丁香婷婷| 日本精品视频| 中文字幕人成乱码熟女免费| 亚洲午夜天堂| 一区二区偷拍美女撒尿视频| 99re热精品视频中文字幕不卡| 精品免费在线视频| 91一级片| 亚洲精品午夜天堂网页| 欧美一区二区自偷自拍视频| 日韩高清中文字幕| 国产XXXX做受性欧美88| 夜夜操天天摸| 久久99精品久久久久久不卡| 免费一级毛片在线观看| 久久这里只有精品8| 久久毛片网| 欧洲熟妇精品视频| 亚洲欧洲自拍拍偷午夜色无码| 国产亚洲欧美在线专区| 免费av一区二区三区在线| 国产欧美亚洲精品第3页在线| 国产在线无码一区二区三区| 日本一区二区不卡视频| 亚洲男人天堂2018| 少妇精品在线| 国产真实乱人视频| 91亚洲精品第一| 亚洲福利视频一区二区| 一本视频精品中文字幕| 欧美97欧美综合色伦图| 国产精品无码制服丝袜| 午夜少妇精品视频小电影| 四虎免费视频网站| 99精品国产自在现线观看| 不卡视频国产| 欧美a级在线| 国产一区二区三区日韩精品| 亚洲AV成人一区二区三区AV| 国产成人凹凸视频在线| 国产性爱网站| 91精选国产大片| 午夜影院a级片| a级高清毛片| 最新日韩AV网址在线观看| 欧美中文字幕在线视频| 亚洲第一黄色网| 国产91丝袜| 制服丝袜亚洲| 国产高清免费午夜在线视频| 婷婷伊人五月| 亚洲精品在线影院| 国产欧美视频在线观看| 欧美一级大片在线观看| 亚洲天堂视频网站| 欧美成人精品在线| 色综合五月婷婷| 久久无码高潮喷水| 亚洲欧美综合在线观看| 依依成人精品无v国产| 久久精品国产电影| 免费无码AV片在线观看中文| 亚洲无码91视频| 久久国产精品电影| 精品无码国产一区二区三区AV| 婷婷色在线视频| 久久无码av三级| 久久www视频| 久久久噜噜噜| 国产乱子伦视频在线播放| 国产美女无遮挡免费视频网站| 国产91精选在线观看| 欧美日韩午夜| 精品精品国产高清A毛片| 欧美日本视频在线观看| 国产精品美女在线| 天堂成人av| 蜜芽国产尤物av尤物在线看| 亚洲午夜综合网|