999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的高分辨率食管測壓圖譜中食管收縮活力分類

2022-02-24 08:59:10賀福利戴渝卓李釗穎王姣菊戴燎元侯木舟
電子與信息學報 2022年1期
關鍵詞:分類特征模型

賀福利 戴渝卓 李釗穎 粟 日 曹 聰 王姣菊戴燎元 侯木舟* 汪 政②

①(中南大學數學與統計學院 長沙 410083)

②(湖南第一師范大學科學與工程學院 長沙 410205)

③(湖南省計算機用戶協會 長沙 410205)

1 引言

食管動力障礙性疾病(Esophageal Motility Disorder, EMD)主要是指由食管胃動力障礙引起的以各種消化道癥狀為臨床表現的食管疾病[1,2]。食道動力障礙可產生一系列不良癥狀,如胸痛、燒心、吞咽困難、胃酸反流惡心等,從而嚴重影響人們的生活質量。近幾年,EMD的研究引起了社會各界的廣泛關注。

高分辨率食管測壓技術(High-Resolution Manometry, HRM)是在傳統食管壓力測量的基礎上于20世紀90年代發展起來的一項新型固態壓力測量技術[3]。它被認為是動力障礙的主要診斷方法,也是一些食管動力障礙診斷的“金標準”。HRM的原理是通過檢測患者吞咽過程中食管上括約肌(Upper Esophageal Sphincter, UES)、食管、食管下括約肌( Lower Esophageal Sphincter,LES)、膈肌的壓力變化,同時生成食管壓力圖(Esophageal Pressure Topography, EPT),以供醫生診斷癥狀[4—6]。目前,HRM結合芝加哥分類(Chicago Classification, CC) v3.0診斷標準[7],為EMD的研究提供了病理生理學基礎,成為輔助醫生臨床預防、診斷和治療EMD的重要手段,廣泛應用于臨床試驗中[8]。然而,現階段的HRM圖像分析工作都是由醫生用肉眼完成的,存在以下問題:(1)由于醫生專業水平的局限性和HRM圖像分析與診斷的復雜性,臨床上HRM圖像診斷結果存在異議和誤診的問題時有發生;(2)隨著醫學圖像數據呈井噴式增長,醫務人員的工作量急劇增加,在醫生精力有限的情況下,繁瑣的診斷工作極可能導致醫生工作效率低下并伴隨誤診、漏診風險。因此,如何借助計算機智能分析HRM圖像以提高臨床上EMD的診斷準確性,已逐漸成為智慧醫療的研究重點和熱點。

深度學習(Deep learning, DL)技術作為人工智能的熱門研究領域,在挑戰圖像的目標分類、分割和檢測任務上取得的巨大成功為以上問題的解決帶來了希望。DL網絡可理解為傳統神經網絡的延伸,是通過深層非線性網絡結構無限逼近復雜函數獲取數據的原始特征,進而取代傳統的由人工提取數據特征的方法,實現了讓機器自主學習數據特征的智能化[9]。同時,由于網絡模型具有層次深、運算量大、表達能力強等特點,DL適用于處理大數據,尤其是圖像這類直觀但高級語義信息不顯著的數據[10]。所以DL幾乎可以應用于各類醫學影像的診斷工作。

為了減少從HRM圖像中提取的特征偏差并進行特征分類,Kou等人[11]提出了變分自動編碼器(Variational Auto-Encoder, VAE),以協助醫生診斷食管動力障礙[11]。他們基于降維的方法從HRM圖像中尋找有用的特征(收縮模式)。作者發現,在訓練和測試集上僅對收縮強度、收縮模式和括約肌松弛[7]的潛在變量進行編碼時,分類誤差較小。此外,他們在考慮損失函數時,模型只有加入正則化參數的混合L2才能選擇收縮和松弛過渡期間的重要特征。同樣,為了識別賁門失弛緩癥亞型的痙攣(III型)和非痙攣(I型和II型),Carlson等人[12]使用了有監督的機器學習(Machine Learning, ML)方法,如決策樹和隨機森林算法。其實驗結果表明:使用訓練數據對痙攣(III型)和非痙攣(I型和II型)進行分類的準確率為90%,而測試數據的準確率僅為78%;使用訓練和測試數據的賁門失弛緩癥亞型I, II和III的準確率分別為71%和55%。上述方法的局限性在于3類賁門失弛緩癥的HRM圖像數量往往是不平衡的,這可能導致數據量較少的病癥在分類準確性上存在偏差。而且他們沒有考慮這些特征之間存在的相關性。

HRM圖像的成像特殊性[13]、診斷復雜性和疾病多樣性使得DL在HRM圖像診斷任務中的應用較少。因此,基于DL技術的 EMD分類研究無論是對智慧醫療技術的未來發展還是對EMD臨床診斷工作都具有重大價值。然而HRM圖像診斷的復雜性和部分典型數據的稀缺性給本研究工作帶來了一定局限,以至于本研究目前無法一次性完成EMD的全部分類工作。由于食管收縮活力是衡量食管動態特征的重要指標之一[7],收縮活力異常將直接影響食管功能的健康,本文將基于DL技術研究計算機對食管收縮活力的全自動分割、分類方法,為EMD計算機輔助診斷(Computer Aided Diagnosis,CAD)系統的搭建工作奠定基礎。CC v3.0將收縮活力分為5類:失收縮、弱收縮、無效收縮(失收縮或弱收縮)、正常收縮和高幅收縮。在臨床實踐中高幅收縮病例難以收集,其數據量遠小于其他病例而導致了類別失衡問題,并且極小樣本量是不足以支撐DL在診斷任務中獲得高精度結果的。因此,本文只針對食管收縮活力的失收縮、弱收縮和正常收縮進行智能診斷。

本文將利用深度學習的卷積神經網絡(Convolutional Neural Network, CNN)作為主要研究方法,創造性地提出了一個多任務模型Proposal of Swallowing frame-Classification Network (PoS-ClasNet)用于食管收縮活力的鑒別診斷工作。PoS-ClasNet是由Proposal of Swallowing frame network (PoSNet)和Swallowing frame Classification Network (SClasNet)相結合的感興趣區域(Region of Interest,ROI)分類器,承擔了分割和分類兩階段任務。在本工作中,HRM圖像的吞咽框為研究的感興趣區域,由PoSNet提取得到;S-ClasNet負責對吞咽框的收縮活力進行分類。研究結果表明,食管收縮活力分類器PoS-ClasNet在訓練集、驗證集和測試集上都表現出了優異的分類性能,在測試集上最終診斷階段的準確率為93.25%,對3類收縮活力分類的平均精度為93.18%,平均召回率為93.24%,平均F1得分為0.9321。

2 實驗數據

2.1 數據來源

本文使用了中南大學湘雅醫院于2019年采集的實驗數據集。該數據集包含4000幅HRM圖像,由固態高分辨率測壓系統—ManoScan 360TM(Sierra Scientific Instruments)檢測,并由采集和分析軟件—Mano View ESO3.0生成[14]。其中失收縮圖像1450幅,弱收縮圖像1050幅,正常收縮圖像1050幅。所有圖像的真實標簽由中南大學湘雅醫院消化科專家基于CC v3.0標準和Mano View ESO3.0的分析報告對每幅HRM圖像的食管收縮活力類型進行深入探討得出。這些實驗數據的患者來自中國各地,具有很強的代表性。

2.2 數據展示

數據集如圖1所示,圖像顏色代表食管內壓力,每幅HRM圖像代表一位患者的一次性吞咽過程。HRM圖像是一個“3維彩色壓力地形圖”,縱軸反映高分辨率食管測壓導管的深度,水平軸反映壓力測量時間,顏色代表導管上每個壓力傳感器的平均壓力水平[15]。偏藍的色度代表較低的壓力,偏紅的色度代表較高的壓力。HRM圖像可以簡單、直觀、詳細、有效地檢測食管的動態狀態。

圖2顯示了4種類型的食管收縮活力。食管收縮活力類型可由DCI指標確定[7]:DCI<100 mmHg·s·cm時失收縮(Failed)(圖2(a));100<DCI<450 mmHg·s·cm時弱收縮(Weak)(圖2(b));450<DCI< 8000mmHg·s·cm)時正常收縮(Normal)(圖2(c));DCI>8000 mmHg·s·cm時高幅收縮(Hypercontractile) (圖2(d))。我們用白色虛線框突出的局部圖像顯示了食管平滑肌傳導波和食管下括約肌蠕動壓力波的收縮強度,用于評價食管收縮活力。從圖中可以看出,隨著收縮活力的增強,圖像色度也由藍色向紅色過渡。4類收縮活力在白色虛線框內的圖像特征有顯著性差異。雖然現階段我們沒有足夠的高幅收縮數據來進行分類訓練,但是高幅收縮的圖像特征與圖2的其他收縮活力類型特征明顯不同。一旦收集了足量的數據, CAD系統就能完成食管收縮活力的全分類任務。

圖2 食管收縮活力類型

2.3 數據預處理

從圖1可看到HRM圖像中有多條垂直的白色虛線和1條紅色的實線。這些是由Mano View ESO3.0軟件生成的輔助工具,可幫助醫生更準確地分析圖像。但計算機對HRM圖像進行分類時無需這些輔助工具,甚至于它們的存在將影響模型的分類精度。此外,由于壓力測量設備的磨損和壓力測量時設備操作不當, HRM圖像特征會受到一定的噪聲污染,如圖3所示。為了去除噪聲干擾得到有用的像素信息,以便準確地分析食管收縮活特征,需要對數據進行預處理。噪聲是像素強度相對于真值的突然變化。在時域上,高斯濾波可以對像素強度突變的點進行平滑處理,使其與周圍相關點的強度保持相對一致,減少突變的影響,去除圖像中的高頻噪聲。同時,HRM圖像的形成與時間有關,其橫坐標代表壓力測量時間。因此,本文采用基于高斯核的卷積去噪方法對HRM圖像進行預處理,可以得到更清晰的實驗圖像。圖4展示了使用高斯核卷積去噪濾波平滑處理前后的兩幅H R M 圖像。

圖1 高分辨率食管測壓圖譜數據集

圖3 受噪聲污染的HRM圖像

圖4 預處理前后的HRM圖像

3 基于深度學習的食管收縮活力分類模型

3.1 研究方法

卷積神經網絡(CNN)在有足夠多標記數據的情況下顯示出巨大的成功,它是一種有監督的深度學習方法[16,17]。在過去幾年中,它在計算機視覺和醫學成像的不同模式中顯示了最先進的性能[18]。CNN學習輸入對象和類標簽之間的關系,由兩個部分組成:提取特征的隱藏層和預測類別的全連接層(Fully Connected, FC)。對于CNN來說,醫學圖像可以作為網絡最低層的原始輸入,然后依次傳輸到下一層。每一層通過帶有池化層的一對卷積核(或過濾器)提取圖像的最顯著特征,如邊緣或形狀和紋理。最后分類器輸出類別概率或類別標簽的分類結果[19]。

CNN在醫學圖像識別方面有許多顯著的優勢[20]。一方面,很多醫學圖像看起來非常相似,很難用專家的肉眼分辨出差異。CNN解決了這一問題,其網絡結構能夠學習非顯著信息。這是因為CNN從原始數據中學習特征,并利用損失函數得到的誤差信號進行反饋,以不斷優化其特征提取能力。這種多層學習模型有助于發現數據的復雜結構,提高醫學圖像的識別精度[21]。另一方面,早期的醫學圖像識別技術通過圖像分割得到疑似病變組織,人工提取其特征,并與分類器結合實現對病變圖像的識別。這不僅步驟繁瑣,而且識別率低,訓練時間長。通過將特征提取和分類集成到一個結構中,CNN避免了傳統算法中人工提取特征的復雜過程,節省了時間和精力,提高了準確性[22]。

3.2 PoS-ClasNet在食管收縮活力分類任務中的應用

本文提出了一個食管收縮活力分類器PoS-ClasNet。這是一個卷積神經網絡模型,如圖5所示,由PoSNet和S-ClasNet組成。前者用于提取HRM圖像中的吞咽框,后者識別吞咽框的食管收縮活力類型。將PoSNet分割出的吞咽框映射到S-ClasNet通過卷積得到的HRM特征圖上,以此得到吞咽框的特征圖,并實現了PoSNet和S-ClasNet的融合。PoSClasNet是基于U-Net[23], VGGNet[24], Fast-RCNN[25]和Faster-RCNN[26]改進的多任務模型。該模型的2階段結構適應于需要先分割后分類的醫學圖像識別任務。

3.2.1 PoSNet結構

PoSNet是一個穩定的編解碼網絡,專門用于對有限的數據進行特征學習,特別是醫學圖像[27]。本文改進了Ronneberger等人[23]提出的標準U-Net結構,使其更好地完成吞咽框分割任務。由于我們需要提取的ROI位于圖像的中心,這意味著模型無需精確地分割圖像邊緣的像素。與標準的U-Net結構不同,本文沒有使用overlap-tile策略[8],而是使用零填充來保持下采樣和上采樣路徑的所有卷積層的輸出維數相同,從而使輸出圖像的分辨率與輸入圖像的分辨率相同。

如圖5所示,PoSNet最重要的結構是由編碼路徑、中心塊和解碼路徑組成的編碼-解碼模型。編碼路徑有4個下采樣塊。每個塊有兩個卷積層(含有步長為1的、3×3大小的濾波器和修正的線性單元ReLU激活函數),它使得特征通道的數量增加1倍,并通過一個步長為2的2×2最大池化層進行下采樣。通過對編碼路徑的深度卷積,我們不僅得到了圖像的顏色、紋理、形狀等淺層特征,而且得到了抽象高層語義等深層特征[28]。接下來,為了避免過度擬合,PoSNet在編碼器和解碼器塊之間設計了一個中心塊。該中心塊由與編碼路徑中相同的兩個卷積層組成。

圖5 PoS-ClasNet的模型結構圖

對于上采樣操作,解碼路徑中的每個模塊包括一個2×2的反卷積層(將特征圖譜的尺寸大小減半)、特征融合(與編碼路徑中對應的特征圖譜相互融合)以及兩個3×3的卷積核(將特征通道的數量減少一半),每個卷積后面都伴隨ReLU激活函數來增加網絡的非線性表達能力。其中,特征融合的關鍵是跳躍連接,它將解碼子網的深層、語義、粗粒度特征映射與編碼器子網的淺層、低層、細粒度特征映射相結合。跳躍連接有助于恢復網絡輸出時的全空間分辨率,使全卷積方法適合語義分割[29]。

最后用1×1的卷積層將特征圖減少至兩個,分別反映前景和背景的分割。PoSNet中沒有調用FC層。

3.2.2 S-ClasNet結構

S-ClasNet用于吞咽框的分類任務,其模塊結構與VGGNet相似,但尺寸較小,本文稱為Smaller VGGNet。VGGNet在醫學疾病識別方面表現很好,是醫學圖像分類中最常用的網絡之一。一般來說,醫學圖像數據量較小,為了確保模型的泛化能力,淺層網絡在醫學圖像應用中是首選的。同時基于奧卡姆剃刀原則,本文選擇了參數較少、性能相當的Smaller VGGNet,并對其進行了改進,使SClasNet和PoSNet能夠更好地連接起來,完成收縮活力分類任務。

如圖5所示,S-ClasNet的結構框架有以下幾層:

卷積層:包括一個CONV=>RELU=>POOL的模塊和兩個CONV=>RELU=>CONV=>RELU=>POOL的模塊。卷積核具有非常小的感受野:3×3(這是捕捉圖像所有方向特征的最小尺寸),它將通道數從32個增加到64個到128個。卷積步長固定為1像素,空間填充不變,保持了卷積后的空間分辨率。最大池化層是一個2×2的像素窗口沿著空間維度向下采樣。本文用上述CNN作為特征提取器。

映射:經過密集卷積操作后,得到圖像的特征圖譜。根據原始圖像與其特征圖譜的映射關系,將PoSNet分割出的ROI映射到特征圖譜上,得到吞咽框的特征框PoS。

PoS池化:PoS池化的目的是對輸入進行最大池化,以獲得固定大小的特征圖譜(例如7×7)。PoS最大池化層的工作原理是將PoS分成大小相等的幾個部分(其數量與輸出的維度相同),然后在每個部分中找到最大特性值并將這些最大值復制到輸出緩沖區[25]作為修正后的吞咽框特征圖PoS。通過PoS池化層,修正后的吞咽框特征圖譜與網絡模型的第1個FC層維度兼容。

分類:網絡通過兩個FC層和1個Softmax分類器來實現圖像的分類。第1個FC層有1024個神經元,后面接1個ReLU激活函數,它將修正后的PoS的所有局部特征映射合并到特征向量中。在最后一個FC層中,我們將神經元減少到3個,這與本文研究的圖像類別數相同。最后應用Softmax分類器給出每個類別預測標簽的概率。

4 實驗結果

4.1 實驗環境設置

實驗使用了戴爾XPS8930服務器(16GB RAM,HEXACORE3.20 GHz處理器和1個NVIDIA GeForce GTX 1070顯卡),在Python環境的Keras框架和Tensorflow后端中實現。本文將原始圖像(224×299)的大小調整為輸入圖像(128×128),這兩個比例的圖像只在分辨率上不同,而在內容/布局上沒有差別,這使得網絡模型更容易處理圖像。為了減少偶然性,本文隨機分配70%的標記數據集作為訓練集來訓練模型,20%作為驗證集來調試超參數并選擇最佳模型,10%作為測試集來測試模型的分類準確性和可靠性。

訓練神經網絡最重要的是對超參數進行調試和優化。為了更好地調試和優化超參數,本文在驗證集上進行了超參數敏感性測試,并選擇了一組最優的超參數。所有網絡都是從0開始訓練的。在每次卷積運算后加入批正態化(Batch Nomalization,BN)[30],同時在訓練過程中對網絡中所有神經元設置了以0.3的概率隨機失活即dropout正則化操作,以達到加快訓練速度,防止模型過度擬合的目的。由于本文的網絡使用了ReLU激活函數,所以采用了kaiming初始化[31]對網絡權值進行初始化,這樣不僅可以加快網絡的收斂速度,而且可以防止反向傳播中的梯度消失和爆炸。所有偏差(bias)都初始化為0。每次取batchsize為16的樣本量來訓練一次網絡,訓練輪數epoch設置為50,并采用自適應矩估計器(Adam)[32]作為參數優化器。Adam中的初始學習率設置為0.0001。然而,使用恒定學習速率來估計參數可能會導致模型性能不佳或網絡收斂速度過慢等問題。在訓練過程中,使用Keras中的回調函數ReduceLROnPlateau不斷調整學習速率,并且利用Earlystoping函數停止訓練,防止模型過度擬合。其中,在回調函數中設置了一些參數:學習率縮放因子為0.8,最小學習率為0.0001。

4.2 代價函數

在本研究工作中,除了PoSNet使用Dice相似性系數指導網絡進行參數更新,所有分類網絡都使用交叉熵(Cross-Entropy)作為代價函數來確定模型的最佳性能。

Dice相似性系數不僅能較好地度量ROI與真實標簽的差異程度,最重要的是它作為分割網絡的代價函數在迭代優化模型的過程中能有效抑制由于大面積背景區域引起的分割偏差問題。鑒于Dice相似性系數十分適用于HRM圖像分割背景區域較大的情形,本文選擇了Dice相似性系數作為代價函數。其二分類任務的數學表達式為

4.3 評價指標

對于醫學影像分類模型,可以通過準確率(Accurcy,Acc)、精度(Precision, Pre)、召回率(Recall,Rec)、F1得分(F1-Score, F1)、靈敏度(Sensitivily,Sen)和特異度(Specificity, Spe)等典型性能指標來評價其性能。準確率是衡量分類器性能最常用的評估量,其定義為被正確分類的對象所占的百分比;F1得分是一個全面的評估指標,是數據集中不同類數據不平衡時的合理度量。F1得分越大,模型性能越好。這些度量的計算公式如下

其中,TP, TN, FP, FN分別表示真陽性、真陰性、假陽性、假陰性的預測值。

此外,本文還繪制了受試者操作特征(Receiver Operating Characteristic, ROC)曲線來評價我們的分類模型。通過繪制Sen相對于1 - Spe的ROC曲線。ROC曲線越靠近左上角,模型的性能越好。ROC曲線下面積(Area Under the ROC curve,AUC)也是一個適合模型的總體測量方法。

4.4 實驗結果

4.4.1 多模型比較分析

選擇合適的網絡結構對醫學影像的準確分類非常重要。不同的神經網絡結構,由于隱藏層的深度和/或單元數不同,具有不同的優勢和劣勢。本文訓練和比較了幾種常用于醫學圖像分類任務的網絡:Inceptionresnetv2, Inceptionv3, Resnet50,Xception,同時提出了一種分類網絡(S-ClasNet)。在這里,我們只比較了用于分類食管收縮活力類型的吞咽框網絡(S-ClasNet),所有吞咽框都使用PoSNet進行分割提取。因為PoSNet的準確率高達94.86%,已經滿足了提取吞咽框的需要。網絡訓練基于相同的訓練集和驗證集,按照4.1節(實現環境設置)中的實現細節進行實現。

表1給出了幾種網絡的定量分析結果。值得一提的是,根據表1實驗結果發現除Inceptionresnetv2外,其他網絡在驗證集上的準確率略高于在訓練集上的準確率。出現該現象的原因有以下兩點:(1)該實驗的HRM數據樣本總量較小,劃分后的驗證集樣本遠小于訓練集的樣本,當樣本量較少時會出現較高的準確率。加之HRM圖像成像依賴醫生臨床操作,它很容易帶有噪聲污染。即使隨機劃分了訓練集和驗證集,但也會存在帶噪圖像分布不均勻的問題。這就造成了訓練集的內部方差大于驗證集,換言之訓練集出現較大分類誤差。該問題是可以通過增大樣本數據量來解決的。但因為收集專家標記好的HRM圖像數據所需的人力和時間成本較高,本文的實驗工作存在樣本量較小的局限性。(2)利用L2和dropout正則化的方法增強了模型的泛化能力。尤其在訓練過程中,本文利用dropout操作讓部分神經元隨機失活以精簡網絡結構防止過擬合,這會使得訓練精度受損。相反,驗證過程中所有神經元都正常工作,因此預測精度有所提高。盡管本文工作存在一定樣本量不足的局限性,但上述實驗結果仍然具有較大參考價值。所有網絡模型的評估指標在驗證集上的數據值十分接近訓練集。該結果表明,所有模型沒有出現過擬合現象,并且在驗證集上的模型精度可以從一定程度反映模型的泛化能力。因此下文根據各模型在訓練集和驗證集上的表現進行性能對比分析是可行的。

表1 不同分類模型對食管收縮活力分類的結果比較(均值±標準差)

將各模型的精度可視化為圖6進行對比分析,其中橫坐標代表模型的網絡結構深度,從左到右依次增加。Inceptionresnetv2, Xception和本文的網絡在訓練集和驗證集上的準確率高達90%。這3種網絡模型的分類表現能力相當。但就網絡深度而言,Inceptionresnetv2和Xception是深度網絡,需要經過大量訓練才能收斂。但是,本文提出的網絡結構小,訓練速度快,對內存要求少。雖然網絡深度的增加可以提高分類精度,但當3種模型的性能相當時,深度網絡會導致在數據集較小時(過擬合)的非最優學習,空間和時間復雜度更高,增加了分類模型的優化難度,更重要的是會導致模型泛化能力較差。

圖6 所有分類模型的分類準確率柱狀圖

此外,本文所提出的食管收縮活力分類模型具有很好的魯棒性。該算法在訓練集和驗證集上均取得了顯著的分類效果,其取值分別為90.15%±2.49%和91.22%±1.62%。結合圖7可知,在驗證集上,SClasNet的AUC值最大,其ROC曲線更接近圖形左上角,這進一步證實了本文的網絡具有良好的分類性能。根據實驗結果,我們發現所提模型在吞咽框的食管收縮活力分類任務中有最優的綜合性能:準確率、魯棒性和泛化能力都表現突出。

圖7 各網絡模型的ROC曲線

4.4.2 食管收縮活力分類模型的評價

為了進一步驗證本文的網絡在吞咽框分類任務上的優異性能,本文繪制了折線圖來反映網絡在訓練期間平均損失值和準確率隨著訓練輪數增加的變化情況。在圖8中,隨著epoch的增加,S-ClasNet的精度增加,損失減小。在經過大約39次迭代后,它們都收斂到一個較為固定的狹小區間范圍。這說明該網絡經過了充分的訓練后能夠快速收斂。

圖8 S-ClasNet的學習曲線

接著,我們在測試集上進一步驗證了模型的泛化能力。如圖9所示,S-ClasNet對于3個收縮活力類別的分類具有較高的準確率。其中,失收縮分類和弱收縮分類的AUC值達到了0.99和0.98,而正常收縮分類的AUC值更是高達1。與此同時,我們可視化了在測試集上的混淆矩陣(圖10)來考察S-Clas-Net對于每個類別樣本分類預測的標簽和真實情況的差異。從混淆矩陣中可以看出:失收縮和弱收縮分類的AUC值之所以未達到1,主要是因為S-Clas-Net將弱收縮樣本與正常收縮、失收縮樣本的特征弄混淆了。這種誤分類現象出現的原因在于:一些弱收縮特征與正常收縮、失收縮特征較為相似,加之訓練和測試樣本數量不足,畢竟樣本量的缺少或者類別樣本量的不均衡都可能會影響卷積層學習圖像特征的能力。但失收縮和正常收縮的分類錯誤率較低。由表2各類別的預測結果也能得到與上述ROC曲線一致的結論。并且本文的模型的準確率高達93.25%,在平均精度、平均召回率和平均F1得分上的分類表現也較為優異,分別達到了93.18%,93.24%和0.9321。

圖9 測試集上的3類收縮活力分類的ROC曲線

表2 S-ClasNet在測試集上對食管收縮活力分類的結果比較

圖10 測試集上的混淆矩陣

綜上所述,本文提出的分類模型不僅對訓練集有很好的擬合效果,而且在測試集上也有較強的泛化能力。因此,本文提出的PoS-ClasNet在智能識別HRM圖像中食管收縮活力類型的任務中是切實可行的。

5 結束語

食管收縮活力異??梢鸲喾N食管運動障礙(EMD)。本文基于DL方法分析了高分辨率食管測壓(HRM)圖像,并提出了一種全自動多任務分類模型(PoS-ClasNet)來診斷食管收縮活力類型。為了測試PoS-ClasNet性能,本文將其與先進的醫學影像分類網絡在去噪后的HRM圖像數據集上進行了一系列對比實驗分析。結果表明,PoS-ClasNet在食管收縮活力分類任務中的綜合表現是最優的。它在測試集上最終診斷階段的準確率為93.25%,對3類收縮活力分類的平均精度為93.18%,平均召回率為93.24%,平均F1得分為0.9321。

本文闡述了DL應用于HRM圖像食管收縮活力診斷分析的研究工作,為今后實現EMD的自動診斷奠定了研究基礎。PoS-ClasNet是第1個嘗試結合2階段任務(分割和分類)的食管收縮活力分類器,其中基于U-Net的PoSNet用于提取HRM圖像的吞咽框,而基于Smaller VGGNet的S-ClasNet用于食管收縮活力的分類。該方法不僅可以在不受人工干擾的情況下對食管收縮活力進行準確的分類,為CAD在臨床醫學中的推廣應用提供了參考,而且PoS-ClasNet作為輕量級模型,其結構簡潔、占用內存小的優勢為智慧醫療系統在用戶終端裝置上的成功部署和穩定運行提供了切實可行的方案。

同時,這項研究也存在一些局限性。本文的工作局限于小數據集。首先,本文的模型只對食管收縮活力的失收縮、弱收縮和正常收縮3個類型進行了自動分類。本文沒有足夠的樣本讓模型學習高幅收縮的圖像特征,未達到可以預測所有食管收縮活力類型的預期。但高幅收縮的圖像特征與其他收縮類型存在較大差異,如果本文有足夠多的數據,PoS-ClasNet很容易實現收縮活力的完整分類。另外,由于有限的計算資源,本文的實驗工作沒有系統地搜索最優超參數,這導致模型是不飽和的。并且樣本量的局限也導致了模型在驗證集和測試集上的實驗結果不足以強有力地支撐其性能表現優異的結論??偟膩碚f,本文使用的模型是強大的,它的性能可以通過使用更多的計算資源來提高,而不需要顯著改變網絡結構。在未來的研究中,我們會嘗試實現EDM的自動化診斷,并逐步將該模型應用到臨床實踐中,真正做到惠及人類社會。

猜你喜歡
分類特征模型
一半模型
分類算一算
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
主站蜘蛛池模板: 日韩国产黄色网站| 91网址在线播放| 欧美a在线视频| 亚洲一区毛片| 伊人久久综在合线亚洲91| 欧美国产另类| 国产精品福利尤物youwu| 国产91小视频在线观看| 久久这里只有精品免费| 国产亚洲精品va在线| 免费毛片在线| 国产精品一区在线观看你懂的| 亚洲天堂在线免费| 67194亚洲无码| 2024av在线无码中文最新| 欧美国产三级| 日本一区二区三区精品国产| 伊人丁香五月天久久综合| 国产成人精品午夜视频'| 视频一区亚洲| 久久综合九九亚洲一区| 精品三级网站| 在线免费无码视频| 欧美一级片在线| 国产精品污视频| 国产精品欧美亚洲韩国日本不卡| 91免费观看视频| 精品国产99久久| 97国产精品视频人人做人人爱| 欧美a在线看| 9cao视频精品| 精品五夜婷香蕉国产线看观看| 怡红院美国分院一区二区| 日日摸夜夜爽无码| 呦视频在线一区二区三区| 亚欧成人无码AV在线播放| 国产精品久久久久久久久久久久| 欧美日一级片| 99久久精品国产自免费| 精品一区二区三区自慰喷水| 精品视频一区二区三区在线播| a毛片免费在线观看| 久久青青草原亚洲av无码| 亚洲精品桃花岛av在线| 欧美国产菊爆免费观看 | 久久精品娱乐亚洲领先| 亚洲无码高清视频在线观看| 亚洲欧美日韩动漫| 国产女人18水真多毛片18精品| 欧美成人看片一区二区三区| 午夜a视频| 国产资源免费观看| 91尤物国产尤物福利在线| 亚洲黄色片免费看| 国产精品丝袜在线| 久久免费看片| 美女裸体18禁网站| 日韩在线永久免费播放| 丝袜国产一区| 国产精品亚洲一区二区三区z| 国产成人91精品| 欧美在线综合视频| 自拍中文字幕| 国产精品自在在线午夜| 黄色网页在线观看| 波多野结衣一区二区三区88| 喷潮白浆直流在线播放| 久久国产精品娇妻素人| 波多野结衣一二三| 国产情精品嫩草影院88av| 日韩欧美中文| 国产精品成人观看视频国产| 最新精品国偷自产在线| 亚洲小视频网站| 日韩在线影院| 99久久精品国产自免费| 手机看片1024久久精品你懂的| 一本久道热中字伊人| 成人噜噜噜视频在线观看| 日本久久久久久免费网络| 久久婷婷六月| 国产亚洲男人的天堂在线观看|