999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度可分離卷積的心音自動分類

2023-07-07 08:38:28胡清禮胡建強余小燕
計算機應用與軟件 2023年6期
關鍵詞:分類深度特征

胡清禮 胡建強 余小燕 劉 洋

1(廈門理工學院計算機與信息工程學院 福建 廈門 361024) 2(上海工程技術大學電子電氣工程學院 上海 201620)

0 引 言

心音聽診是醫生對心臟疾病進行初步診斷的重要手段。心音包含心臟活動的豐富信息,能夠反映心臟的健康水平。由于心音信號復雜且微弱,容易受到噪聲污染,因此通常需要醫生具有豐富的聽診經驗,而長時間的聽診,容易導致醫生的聽覺疲勞,產生錯誤的判斷。近年來,研究者開始采用機器學習對心音進行自動分類,更有利于早期發現心臟疾病并有效干預。

心音自動分類的基本流程包括去噪、分割、特征提取和分類識別。其中,特征提取和分類識別是影響心音準確分類的最重要的環節,因而受到學術界廣泛關注。文獻[1]從心音信號中提取124個時頻特征,直接輸入Adaboost進行分類,并提取心動周期的4個頻帶訓練卷積神經網絡CNN(Convolutional Neural Network),使用閾值判決兩個分類器的輸出結果作為最終的分類結果。文獻[2]采用動態時間規整DTW(Dynamic Time Warping)提取特征并結合梅爾頻率譜系數MFCC(Mel-Frequency Cepstral Coefficients)輸入到線性支持向量機實現分類。文獻[3]提取時域的MFCC并組織成二維特征,基于CNN實現心音分類。文獻[4]采用傅里葉變換提取心音的頻域特征,使用小波函數作為激活函數構建CNN分類模型。文獻[5]從原始心音數據中提取聲譜圖,并作為改進的AlexNet模型的輸入特征進行分類識別。上述方法都有較高的準確率,但需要人為設計特征因而不能很好表征特征,也容易存在特征丟失,從而影響后續分類識別的準確率。

針對上述問題,大多數研究采用深度神經網絡直接學習心音數據的特征。文獻[6]構建降噪自編碼器提取心音的深度特征,結合一維CNN進行分類識別,對比實驗驗證提出的降噪自編碼器特征表達水平優于MFCC特征。文獻[7]采用CNN和循環神經網絡RNN(Recurrent Neural Network)相結合提取頻域、時域特征,基于全連接層進行心音的異常分類具有較高的準確率。文獻[8-9]基于CliqueNet和DenseNet對原始心音數據進行自動特征提取和分類識別,都獲得較高的準確率。文獻[10]采用AlexNet、VGG16和VGG19預訓練模型提取深度特征,使用支持向量機完成心音的分類識別。上述方法能夠提取心音的特征,但仍存在以下不足:模型較復雜,消耗大量計算資源,難以應用到資源受限的設備,不利于心音自動分類的使用和推廣。針對上述不足,本文基于深度可分離卷積搭建一維深度神經網絡,用于自動提取心音數據特征并進行分類識別。該方法使用3 s的心音片段作為網絡的輸入,通過構建的深度神經網絡自動學習心音片段的潛在區分性特征,最后由softmax進行分類。本文直接使用基于深度可分離卷積的深度神經網絡提取心音的深度區分性特征,不需要手工設計特征,避免因設計不當造成一定程度的信息丟失而降低分類效果;在PhysioNet/CinC 2016公開心音數據集上獲得了97.70%的高準確率以及0.985 9的F1得分,同其他深度學習模型相比,效果顯著提高,而且模型參量低,僅有0.02 MB。

1 方法介紹

本文提出的方法首先對心音數據進行降噪處理,然后以3 s為間隔將一段心音劃分為片段,利用基于深度可分離卷積構建的模型進行特征自動提取和分類,完成心音的自動診斷。

1.1 去噪、分割片段

心音信號常常包含呼吸音、肺音等噪聲。首先,采用巴特沃斯帶通濾波器濾除心音信號中高于400 Hz和低于25 Hz的噪聲成分;然后,利用小波變換進行二次降噪,小波函數采用db6,分解成6層,并將高頻細節系數置零,其余層使用該層系數最大值的10%作為閾值進行處理。圖1顯示原始心音數據、巴特沃斯帶通濾波器濾波后的心音數據、小波變換去噪后的心音數據、巴特沃斯帶通濾波器濾波和小波變換相結合去噪后的心音數據。巴特沃斯帶通濾波器和小波變換相結合能有效去噪,較清晰展示完整的心音周期,包括第一心音(S1)、收縮期、第二心音(S2)和舒張期。由于一個完整的心音周期大約持續2.5~2.8 s,因此采用滑動窗口分割,以3 s為一個周期。

圖1 不同方法對心音去噪的效果圖

1.2 基于深度可分離卷積的心音自動分類模型

本文利用神經網絡的學習能力,構建基于深度可分離卷積的一維深度神經網絡從原始心音數據中自動學習心音的區分性特征。網絡一開始使用莖干模塊結構增強特征的表征能力,其后使用密集模塊和過渡模塊堆疊的方式提取深度特征,在密集模塊中使用深度可分離卷積降低網絡參數量以及在過渡模塊中引入通道注意力機制凸顯貢獻度高的通道特征,最后采用Softmax作為心音的分類器,其結構如圖2所示。

圖2 基于深度可分離卷積的心音自動分類模型

(1) 莖干模塊。整個網絡的輸入層之后,借鑒Wang等[11]的工作,采用一種莖干模塊(Stem_block),在增加少量計算量的同時,提高特征表達能力,其結構如圖3所示。第一個卷積層采用1×3大小的卷積核,其數量為24,步長為2,提取輸入的初始特征,然后經過批歸一化(Batch Normalization,BN)層和修正線性單元(Rectified Linear Unit,ReLU)激活函數進行非線性化輸出特征圖G1,接著采用兩種方式對G1在不同方面提取特征,以增加特征的豐富度。一種是將G1依次通過1×1卷積層和1×3卷積層得到特征圖G2;另一種是將G1經過最大池化層得到特征圖G3,最后在通道維度上進行連接,并使用1×1卷積將通道數壓縮至24,得到特征圖G4。為了降低計算復雜度,使用步長為2的最大池化壓縮特征維度,得到最終輸出特征圖Gout。整個莖干模塊計算如下所示:

圖3 Stem_block結構圖

(1)

(2)

G3=MaxPool(G1)1×2

(3)

(4)

Gout=MaxPool[G4]1×3

(5)

F=ReLU[BN(·)]

(6)

式中:X1×w表示數據維度為w的輸入;W1×3、W1×1分別表示大小為1×3和1×1的卷積核,下標i、j分別表示第i和第j個卷積核;cat表示連接操作;MaxPool()表示最大池化操作。

(2) 密集模塊。密集連接是Huang等[12]提出的應用于DenseNet中的特征重用方式,其后面層的輸入與前面所有層的輸出特征相連接,這種方式能夠使得網絡變得簡單,然而過多的密集連接增加了網絡的內存訪問成本。由于在大量的密集連接中,并不是所有的連接都是有效的,存在冗余的連接,對網絡的貢獻度低且增加了網絡的計算成本[13]。因此,本文為降低原有密集連接的連接數,在每個密集模塊的最后對前面所有的輸出進行連接,既保留了低層特征的重用,又避免了過多的冗余連接,從而降低了網絡的計算成本。本文構建的簡化版密集模塊結構如圖4所示。除最后一個block外,每一個block(包括輸入)的輸出分為兩部分,一部分用于下一個block的輸入,提取更高層次的特征,另一部分用于最后的連接操作,使低層特征能夠得到重用,提高特征表達能力,其計算公式如下所示:

圖4 簡化版密集模塊結構圖

Gdense=cat(H1,H2,…,Hk)

(7)

式中:Gdense為簡化版密集模塊的輸出;Hk表示密集模塊中第k個block的輸出特征,k≥1。

簡化版密集模塊中的block采用兩種結構以提高特征的豐富度,如圖5所示。本文為了降低密集模塊的計算復雜度,引入了一種深度可分離卷積DWconv(Depth-Wise Separable Convolution)[14]對特征進行提取。深度可分離卷積通過將區域特征和通道特征分開進行運算,有效降低參數量和計算復雜度。假設輸入為1×w×c,輸出通道數為k,其中w、c分別表示輸入的數據維度和通道數。采用深度可分離卷積,其參數量和計算量分別如式(8)和式(9)所示;若采用常規卷積,其參數量和計算量分別如式(10)和式(11)所示,顯而易見,深度可分離卷積對于網絡的復雜度降低具有很大幫助。

圖5 block結構圖

(8)

1×w×c×1×3+1×w×c×k=wc(3+k)

(9)

1×3×c×k=3ck

(10)

1×w×c×k×1×3=3wck

(11)

此外,使用h-swish激活函數代替ReLU激活函數,進一步地降低計算復雜度。其計算公式如下所示:

(12)

J=H_SWISH[BN(·)]

(13)

式中:Gk-1表示前一個簡化版密集模塊的輸出,當k=1時,Gk-1=Gout;i表示第i個卷積核;C表示當前卷積核數量;S表示深度可分離卷積。

為了防止過擬合,采用Dropout技術,其概率設置為0.3。經過實驗調參,最終確定block1-block3采用stride為1的結構,block4采用stride為2的結構。

(3) 過渡模塊。由密集模塊的輸出Gdense可以看到其輸出通道數是非常高的,不能直接作為下一個密集模塊的輸入。因此,過渡模塊的作用就是對密集模塊的輸出進行降維處理。為了能夠提高網絡的特征表達能力,在過渡模塊中引入注意力機制(Attention),該注意力機制最初由Woo等[15]提出,主要用于輕量級神經網絡中,參數量極低。本文用卷積操作替換了其中的全連接層,降低參數量,其結構如圖6所示。

圖6 過渡模塊結構圖

(14)

式中:σ表示Sigmoid激活函數;Conv表示兩層卷積計算;AvgPool、MaxPool分別表示全局平均池化和全局最大池化計算。

(4) 分類。分類是模型的最后一步,心音主要被分為正常和異常兩個類別,用0表示正常,用1表示異常。平均池化層對網絡提取的特征進行求平均操作并通過全連接層將特征映射到2個通道維度,最后使用Softmax計算2個通道的概率值,取概率最大值的索引值作為網絡的最終輸出類別。

2 實驗與結果分析

2.1 數據集

訓練數據采用PhysioNet/CinC 2016比賽公開的心音數據集[16]。該數據集有a-f六個子數據集,總共有3 240條心音記錄,其中2 575條正常心音,665條異常心音,心音記錄的采樣率為2 000 Hz。預處理步驟如下:每條數據進行標準化處理;使用librosa庫中的resample函數將心音的采樣率降至1 000 Hz;去噪和分割處理,共得到31 307條心音片段,其中正常心音片段24 967條,異常心音片段6 340條。

2.2 模型訓練與結果

為了使模型充分學習到數據的潛在特征,盡可能采用較多的訓練數據使得充分訓練,因此,本文將數據集按照8∶1∶1的比例劃分為訓練集、驗證集和測試集。使用訓練集對模型進行訓練,用驗證集挑選網絡中的超參數,訓練完畢后使用測試集評估網絡。訓練中,batch size設置為64,采用加權交叉熵損失函數對模型進行監督,正異常比值為1∶4,采用Adam優化器函數對模型進行訓練。使用GTX 1050TI顯卡進行加速訓練,總共迭代150次。為了尋找模型的最佳參數,本文進行了多輪訓練,通過不斷的調整和優化,尋找到最佳的模型結構。最佳模型訓練過程中的訓練集和驗證集的準確率和損失值變化曲線如圖7所示。神經網絡在訓練過程中常出現過擬合現象,若出現過擬合現象,則驗證集的損失值會逐漸偏離訓練集的損失值,產生較大的偏差。從驗證集的損失曲線可以看出,其值偶爾會有較大的波動,但整體上與訓練集的損失值趨勢一致,未出現完全偏離訓練集損失值的情況。因此,本文構建的網絡在訓練過程中沒有出現過擬合現象且收斂性好,損失值在0.1以下,準確率達到95%以上。在測試集上獲得了97.7%的準確率。

圖7 訓練集和驗證集在訓練過程中的準確率和損失值變化曲線

2.3 實驗結果及討論

采用靈敏度(Sensitivity,S)、特異性(Specificity,Sp)、查準率(Precision,P)、準確率(Accuracy,A)和F1得分作為模型評價指標。其中,靈敏度和特異性分別用于衡量識別正確的正樣本和負樣本的百分比;查準率衡量預測的正樣本中的正確率;準確率主要衡量所有識別正確樣本的百分比;F1得分是靈敏度和查準率的調和平均值,能夠衡量模型的總體分類能力。各指標計算如式(15)~式(19)所示。

(15)

(16)

(17)

(18)

(19)

式中:TP為真陽性樣本(True positive);FP為假陽性樣本(False positive);TN為真陰性樣本(True negative);FN為假陰性樣本(False negative)。

表1給出了在PhysioNet/CinC 2016數據集上不同研究方法的分類結果。文獻[5]從原始心音數據中提取聲譜圖作為改進的AlexNet的輸入特征進行分類識別,獲得了僅比本文略低的準確率;文獻[4]采用傅里葉變換提取頻域特征作為網絡的輸入,使用小波函數作為激活函數構建CNN進行分類識別,比文獻[5]準確率低了0.31%;文獻[3]提取梅爾頻率譜系數構建二維特征作為網絡的輸入,效果有所降低;文獻[8]和文獻[9]直接使用原始的心音數據分別輸入到一維的Clique網絡和一維的Dense網絡,利用所構建網絡的超強學習能力自動提取特征和分類識別,獲得了相對不錯的效果,尤其是一維Dense網絡在特異性上取得了較高的結果。可以看出本文搭建的模型獲得了97.70%的準確率、98.20%的靈敏度、92.22%的特異性、0.985 9的F1得分,整體效果優于其他幾個模型。

表1 在PhysioNet/CinC 2016數據集上不同研究方法的分類結果

為了驗證不同模塊對模型性能的提升效果,本文建立了基礎的DNN模型,該模型中莖干模塊和深度可分離卷積分別由卷積核大小為7和3的常規卷積操作替代,在過渡模塊中去除注意力機制。然后在基礎DNN模型中分別加入莖干模塊、通道注意力機制和深度可分離卷積,各個模型使用的網絡結構保持一致。最后在相同的數據集劃分條件下,對網絡進行訓練和測試,最終結果如表2所示。可以觀察到,各個模塊的加入對模型有一定的提升效果,且能夠獲得高的F1得分。本文構建的深度神經網絡模型(DNN+stem_block+attention+DWconv)在一開始使用莖干塊結構增強了模型對原始心音數據的初始特征表達能力,并在后續密集模塊中重復利用低層特征,進一步提升網絡的特征表達能力,在過渡模塊中引入通道注意力機制,突出貢獻度大的通道特征,使得提取的特征更有利于分類,區分性更高。

表2 不同的模塊對模型的性能影響

本文所提出的方法與文獻[8]和文獻[9]都是使用原始心音數據輸入到網絡中自動提取特征并進行分類識別。其中,一維Dense網絡參數量為0.11 MB;一維Clique網絡參數量為0.19 MB;而本文提出的一維深度神經網絡參數量僅為0.02 MB,在不使用深度可分離卷積的情況下,網絡的參數量為0.023 MB,比前者多了0.003 MB的參數量,因此,在保證準確率的前提下,使用深度可分離卷積可進一步降低參數量,更有利于運用在資源受限的終端設備中。

3 結 語

本文構建了一種基于深度可分離卷積的心音自動分類模型用于心音特征自動提取和分類,直接利用原始心音數據作為網絡的輸入進行潛在區分性特征的提取并進行分類識別,避免人工設計特征時,因存在一定的信息丟失,不能很好地表征特征,從而降低了識別效果。采用的深度可分離卷積能夠有效降低網絡的參數量。此外,為了提升網絡的特征表達能力,引入了通道注意力機制。在PhysioNet/CinC 2016數據集上對網絡進行訓練和調優,在劃分的測試集上獲得了97.7%的高準確率,同時F1得分達到了0.985 9,同其他模型相比有一定提高。此外整個網絡僅有0.02 MB參數量,能夠部署在資源受限的終端上,對遠程醫療、智能輔助診斷的發展具有重要意義。

猜你喜歡
分類深度特征
分類算一算
深度理解一元一次方程
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
深度觀察
深度觀察
深度觀察
數據分析中的分類討論
教你一招:數的分類
主站蜘蛛池模板: 97在线碰| 亚洲AV无码精品无码久久蜜桃| 人妻精品全国免费视频| 91av成人日本不卡三区| 六月婷婷精品视频在线观看| 精久久久久无码区中文字幕| 国产成人高清精品免费软件| 久夜色精品国产噜噜| 国产精品爽爽va在线无码观看| 亚洲黄色激情网站| 精品少妇人妻无码久久| 国产精品亚洲五月天高清| 亚洲三级色| 91麻豆精品国产91久久久久| 亚洲精品无码AⅤ片青青在线观看| 久久久波多野结衣av一区二区| 国产一区二区福利| 四虎永久免费地址| 国产男人的天堂| 欧美一级色视频| 成人毛片免费在线观看| 美女国内精品自产拍在线播放| 国内毛片视频| 福利片91| 成人国产精品视频频| 久久久精品无码一区二区三区| 免费国产黄线在线观看| 人人澡人人爽欧美一区| 欲色天天综合网| 久久大香香蕉国产免费网站| 91在线免费公开视频| 国产丝袜91| 91亚洲免费| 67194在线午夜亚洲| 国产香蕉97碰碰视频VA碰碰看| 欧美.成人.综合在线| 97se亚洲综合在线韩国专区福利| 波多野吉衣一区二区三区av| 亚洲精品高清视频| 亚洲AV无码一二区三区在线播放| 亚洲日韩久久综合中文字幕| 91在线无码精品秘九色APP| 国产精品天干天干在线观看| 视频在线观看一区二区| 久久96热在精品国产高清| 日韩欧美网址| 中国一级特黄视频| 国产区人妖精品人妖精品视频| 中文国产成人精品久久| 国产成人a毛片在线| aa级毛片毛片免费观看久| 国产一区二区三区免费| 2020国产在线视精品在| 91极品美女高潮叫床在线观看| 成人国产精品一级毛片天堂| 欧美亚洲国产视频| 在线观看视频一区二区| 久久综合亚洲鲁鲁九月天| 国产午夜无码片在线观看网站 | 亚洲天堂精品在线| 伊人婷婷色香五月综合缴缴情| 白丝美女办公室高潮喷水视频 | 午夜日b视频| 亚洲福利视频一区二区| 日韩欧美中文| 无码又爽又刺激的高潮视频| 国产亚洲精品自在久久不卡| 精品欧美日韩国产日漫一区不卡| 欧美日韩资源| 天堂av综合网| 亚洲综合九九| 91麻豆精品国产91久久久久| 激情国产精品一区| 久久人人妻人人爽人人卡片av| 国产91小视频在线观看| 国产久操视频| 亚洲人成影院在线观看| 99久久精品视香蕉蕉| 欧美亚洲国产日韩电影在线| 亚洲性一区| 亚洲视频免费播放| 国产精品永久免费嫩草研究院|