999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合空間和通道特征的高精度乳腺癌分類方法

2021-11-05 01:30:10許學斌張佳達路龍賓趙雨晴
計算機應用 2021年10期
關鍵詞:乳腺癌分類特征

許學斌,張佳達*,劉 偉,路龍賓,趙雨晴

(1.西安郵電大學計算機學院,西安 710121;2.陜西省網絡數據分析與智能處理重點實驗室(西安郵電大學),西安 710121)

0 引言

癌癥是目前世界范圍內人類疾病和死亡的主要原因之一。根據世界衛生組織國際癌癥研究機構2020年2月發布的《2020 年癌癥報告》,在2018 年有960 萬人死于癌癥,并預計2040年將有2 700萬新發病例[1]。對于女性而言,乳腺癌是全球發病率和死亡率最高的癌癥,2018 年全球女性乳腺癌發病率為24.2%,死亡率為15%。早期發現在癌癥診斷中起著關鍵作用,可以提高長期生存率[2]。乳腺癌的診斷通常采用放射學圖像分析進行初步檢查,如乳腺X 線診斷(X-rays)[3]、超聲檢查(B 超)[4]、熱成像[5]等,以確定異常部位。然后,如果檢查顯示有惡性組織生長的可能,再進行乳腺組織活檢。活檢即取組織在顯微鏡下研究是否存在癌癥,是鑒別某個部位是否癌變的唯一可靠方法[6]。但是,傳統的人工診斷需要具有專業知識的專家進行高強度的工作,主觀想法對乳腺腫瘤的診斷結果影響較大,并且缺乏診斷經驗的病理學家容易出現診斷錯誤。研究表明,利用計算機輔助診斷(Computer-Aided Diagnosis,CAD)對乳腺組織病理圖像進行自動、精確的分類,不僅可以為醫生提供了更加客觀、準確的診斷參考,也可以提高醫生的診斷效率和診斷的準確率[7]。

雖然乳腺癌診斷的影像自動處理作為一個研究課題已經探索了很多年,但由于需要分析的圖像比較復雜,因此仍然具有一定的挑戰性。有研究人員利用特征描述符和機器學習算法,對乳腺組織病理圖像進行分類。常采用的特征描述符有:局部二值化、尺度不變特征變換、方向梯度直方圖等,機器學習分類算法有:主成分分析(Principal Component Analysis,PCA)、支持向量機(Support Vector Machine,SVM)、隨機森林等。通過利用特征描述符提取圖像的形態和紋理等相關特征信息,然后使用機器學習分類器對其進行分類,從而實現對乳腺組織病理圖像的分類[7-8]。Zhang 等[9]提出了一種基于單類核主成分分析(Kernel Principal Component Analysis,KPCA)模型的分類方案,將乳腺癌組織病理學圖像分為良、惡性(二分類),準確率達92%。該方法使用了一種簡單的數據集,只覆蓋了病理圖像的重要區域,因此具有較高的準確率;然而,在活檢掃描中通常很難找到只包含最重要組織的感興趣區域(Region Of Interest,ROI)。Spanhol等[10]介紹了一個乳腺癌組織病理學圖像數據集(BreaKHis),并在該數據集上使用不同的特征描述符和不同的傳統機器學習分類算法將病例分為良性或惡性,準確率范圍為80%~85%。Chan 等[11]使用SVM 對40 倍放大的乳腺癌組織病理圖像進行分類實驗,將乳腺腫瘤分為8 種亞型(多分類),準確率僅為55.6%。可見特征描述符和機器學習算法并不能實現高精度的乳腺癌病理圖像分類,特別是乳腺亞型多分類。近年來,隨著深度學習的發展,卷積神經網絡(Convolutional Neural Network,CNN)在大規模圖像識別中取得了巨大的成功。與基于傳統機器學習算法不同,CNN是由卷積層、池化層和全連接層等不同操作組成的多層網絡,通過不斷地自動優化分類損失函數,可以直接從輸入的原始圖像中學習有用的特征,從而實現對乳腺組織病理圖像的分類,避免了人工尋找病理圖像的ROI,也提高了分類準確率。在2016 年,Spanhol 等[12]又利用深度卷積神經網絡(Deep Convolutional Neural Network,DCNN)模型AlexNet對乳腺癌病理圖像進行良性和惡性二分類,準確率為85%~90%,明顯高于文獻[10]中使用的機器學習方法。詹翔等[13]基于Inception-V3,并對其進行改進,提出一種基于深度卷積神經網絡的乳腺病理圖像分類方法,二分類實驗的平均精度為97%,但是在多分類實驗上只有89%。Wei等[14]提出了一種數據增強方法和一種基于CNN 的新型乳腺組織病理圖像分類方法BiCNN(breast cancer histopathological image classification method based on deep convolutional neural networks),二分類的準確率達到97%。Jiang 等[15]提出了一種小型的SE-ResNet 模塊和一種新的學習率調度器,設計了一種乳腺癌組織病理學圖像分類網絡(Breast cancer Histopathology image Classification Network,BHCNet),實驗結果表明該方法分類性能很好,二分類的準確率為98.87%~99.34%,對多分類的準確率為90.66%~93.81%。

盡管深度學習模型,相比機器學習算法,在乳腺癌組織病理圖像分類中表現得更好,提高了對乳腺癌病理圖像分類的效率和準確性,并且對乳腺腫瘤良性和惡性二分類的準確率最高也達到了99.34%,但是由于病理圖像自身固有的復雜性和多樣性的特點,對乳腺腫瘤8 種亞型的分類準確率并不是很高,所以為了滿足臨床應用的需求,乳腺病理圖像多分類問題的準確率仍有待提升。本文利用DenseNet和SENet的設計思想,融合空間特征信息和通道特征信息,提出了一種融合圖像空間特征信息和通道特征信息的高精度乳腺癌組織病理圖像分類模型,將該網絡模型命名為BCSCNet(Breast Classification fusing Spatial and Channel features Network),并且,通過使用數據預處理和數據增強來處理數據集,在乳腺癌組織病理圖像數據集(BreaKHis)上進行模型訓練和測試,驗證了本文算法可以對乳腺癌組織病理圖像進行高精度的分類。

1 相關工作

本文提出的分類算法流程如圖1 所示,基本流程為:乳腺癌病理圖像數據集經過數據預處理之后分為訓練數據和測試數據;然后訓練數據再經過數據增強得到新的訓練數據;接著將得到的數據在乳腺癌病理圖像分類網絡BCSCNet中進行訓練;最后將測試數據輸入到訓練好的BCSCNet中進行測試,從而完成對乳腺癌病理圖像的分類。

圖1 乳腺癌病理圖像的分類過程Fig.1 Classification process of pathological images of breast cancer

1.1 數據集

本文使用的數據集為乳腺癌組織病理學數據庫(BreakHis)[10],BreakHis 包含良性和惡性乳腺腫瘤的顯微活檢圖像。BreakHis 是目前所公開的乳腺癌組織病理圖像數據集中數據量最大、類型較最全面的數據集,并且具有多種不同的放大倍數,識別難度也相對較高,在此數據集上進行實驗的說服力要強于其他數據集。數據集共有7 909 張乳腺腫瘤組織顯微圖像,包括良性樣本2 480 張,惡性樣本5 429 張,放大倍數有4 種:40、100、200 和400。圖像采用PNG 格式,RGB 三通道,700×460像素。該數據集目前包含4種不同亞型的良性乳腺腫瘤:腺瘤、纖維腺瘤、管狀腺瘤和葉狀腫瘤;以及4 種惡性腫瘤(乳腺癌);導管癌、小葉癌、粘液癌和乳頭狀癌。表1展示了不同子類型的數據集在不同的放大倍數下數量。8 種不同類型的乳腺病理圖像如圖2所示,放大倍數為400倍。

表1 不同型的數據集在不同的放大倍數下數量Tab.1 Number of datasets of different subtypes at different magnification

圖2 放大倍數為400倍的部分圖像數據Fig.2 Partial image data with a magnification of 400

1.2 數據預處理和數據增強

在組織圖像中,預處理是去除不同類型噪聲的關鍵步驟,同時對數據進行預處理可以簡化數據,提高網絡模型的訓練速度,從而提升特征提取和識別的可靠性。又因為BreakHis數據集中的病理圖像數據采取了不同的染色方式,會給組織病理圖像帶來顏色上的差異,這雖然對受過專業訓練的病理學專家來說不是一個大障礙,但是這對于自動圖像處理來說是一個很大的問題,可能會給最終的結果帶來很大的影響。因此,需要對原始數據集進行數據預處理,但是直接對原始圖像進行灰度處理,會對病理圖像造成信息丟失,所以本文使用文獻[16]中提出的方法對數據集進行歸一化(Normalization),該方法是一種新的結構保留顏色歸一化方案,該方案將一幅圖像的顏色變換為另一幅圖像的顏色,同時可靠地保持了源圖像結構信息的不變性。該歸一化方案的一個關鍵步驟是通過稀疏正則非負矩陣分解實現源圖像和目標圖像的精確著色分離。文獻[16]也通過實驗證明了所提出的染色分離和顏色歸一化技術的優越性能。圖3為歸一化前后的病理圖像。

圖3 歸一化前后的病理圖像Fig.3 Histopathology image before and after normalization

因為數據量過小會使CNN 在訓練過程中出現過擬合[17],這意味著網絡在訓練數據上表現很好,但在測試數據上表現較差,導致CNN 的性能下降。因此為了獲得更高的準確率,本文使用數據增強對原始數據集進行數據擴充,即利用已有的數據擴充數據集的過程,比如縮放、翻轉和旋轉等變換,從而增加訓練樣本的數量,避免CNN 的過擬合問題。由于乳腺癌的病理圖像是具有旋轉不變性的,病理學家可以很容易地從不同角度分析乳腺癌的病理圖像,而診斷沒有任何變化[18]。但是對于CNN 而言卻是一張與之前不一樣的圖像,但是其標簽一致,所以經過增強數據訓練得到的模型泛化能力也更強了。本文實驗主要使用旋轉和翻轉來增強數據。

1.3 卷積神經網絡

近年來,深度學習迅速發展,隨即出現了大量的CNN 模型,包括在1998 年提出的LeNet5,以及后來的AlexNet、DenseNet、SENet等。研究證明,CNN已經取得了很大的成功,被計算機視覺界廣泛采用,適合處理圖像分類、圖像識別之類的任務。

一個CNN 的結構主要有若干個卷積層和池化層,并在其后選擇至少一個完全連接層,其中卷積層有多個具有可訓練權重的卷積核,通過將圖像與每個卷積核卷積,并在卷積層中加入偏置,最后產生多個特征圖。池化層是一種非線性下采樣的過程,可以保存任務的相關信息,增大特征圖的感受野,同時去除不相關的細節。前面的卷積層和池化層是對圖像進行特征提取,全連接層就是將提取的特征進行分類,通過把特征映射到神經元中從而實現分類。

圖4展示的是一個簡單的CNN模型,它包含了輸入層、卷積層、池化層和輸出層(全連接層),其中卷積層和池化層都是兩個。第1 層是輸入層,輸入圖像的大小是28×28;第2 層是卷積層1,通過與輸入圖像進行卷積獲得多個不同的特征圖,經過卷積層1 的輸出特征圖大小變為24×24;第3 層是池化層1,通過計算從卷積層1 輸出的特征圖的局部平均值或最大值增大感受野,池化層1會將特征圖大小變為12×12。后面的卷積層2和池化層2除了卷積核的數量和大小不同,其計算方式都與之前類似。最后一層是全連接層,與前面計算出來的特征圖進行全連接計算可以輸出該模型的最終結果。

圖4 簡單的CNN模型結構Fig.4 Structure of simple CNN model

2 網絡模型

2.1 稠密神經網絡

稠密神經網絡(DenseNet)是由Huang 等[19]提出,該網絡以前饋方式將每一層連接到其他層。一般而言,具有L層的傳統卷積網絡具有L個連接,每一層與其后一層之間只有一個直接連接,而DenseNet 是采用一種密集連接的方式,在具有L層的DenseNet中共有L(L+1)/2個連接。對于密集連接的每一層,在其前面所有層產生的特征圖都用作該層的輸入,然后由該層產生的特征圖則用作后續所有層的輸入。DenseNet通過這種密集連接,重復利用來自前面多層特征圖的特征信息,在減少參數的同時提升網絡的效率。

DenseNet主要由稠密塊(DenseBlock)和過渡層(Transition Layer)組合而成。其中稠密塊中具有多個子模塊,子模塊之間通過密集連接將不同子模塊之間的特征圖通道進行合并。如第L層出的特征圖通道數是n,且第L+1 層經過特征提取之后的特征圖通道數為m,則第L+1層輸出的特征圖通道數為n+m。而過渡層是連接兩個相鄰的稠密塊,并且通過池化層使特征圖大小降低,增大感受野的同時減少網絡參數。

傳統卷積神經網絡中,在l層的輸出為:

而對于稠密塊中的某個子模塊,會將前面所有層作為該子模塊的輸入,即子模塊的輸出為:

其中:H(?)代表非線性組合函數,x代表l層前面的其他層輸出的每一個特征圖。

DenseNet 通過建立不同層之間的密集連接,進一步減輕了梯度消失問題,同時利用了網絡模型的淺層特征,使網絡學習到更多的特征信息,達到了特征重用的目的。與ResNet 等其他深度卷積神經網絡模型相比,減少大量的訓練參數,有效抑制了模型訓練過程中出現的過擬合現象,使得DenseNet 的泛化能力更強、性能更優。

2.2 壓縮和激勵網絡

傳統的卷積變換,即將輸入變為輸出,是將各個通道的卷積結果進行求和,其公式可表示為:

其中:U表示該層最終的輸出矩陣,U∈RH×W×C;X表示對應層輸入特征矩陣,表示由X轉為U的卷積操作,代表一個卷積核,輸入一個通道上的空間特征,它學習特征空間關系,但由于對各個通道的卷積結果是直接進行相加操作,所以通道特征關系與卷積核學習到的空間關系混合在一起。這種傳統的卷積操作只是實現對一個局部區域空間上的特征融合,并沒有實現通道間的特征融合,但每個通道的重要程度不同,有的通道更有用,有的通道則不太有用。

為了解決上述傳統卷積沒有利用特征圖通道信息的問題,Momenta 公司的Hu 等[20]提出了一種深度卷積神經網絡壓縮和激勵網絡(Squeeze-and-Excitation Network,SENet),其主要創新為壓縮-激勵(Squeeze-and-Excitation,SE)模塊,總體結構如圖5 所示,主要包括壓縮和激勵兩個操作。SE 模塊利用反向傳播來學習每個特征通道的權重系數,這個權重系數代表著該通道的重要程度,然后依照這個權重系數提取通道的特征信息,實現通道間的特征融合,從而提升網絡的性能。

圖5 SE模塊的總體結構Fig.5 Overall structure of SE module

首先是壓縮操作,為了使網絡模型學習特征通道的信息,通過壓縮每一個特征通道將其轉化為實數,利用這個實數來代表該實數所對應的的特征通道的全局分布。壓縮操作輸出的實數數量與輸入的特征通道數量相同。這個操作即為圖5中的Fsq(?),采用全局平均池化(Global AvgPooling,GAP)來實現,計算公式為:

其中:Z為壓縮操作得到的結果,W、H為輸入特征的尺寸,C為輸入特征的通道數,uc(i,j)為輸入特征第c通道中第i行第j列的值。

壓縮操作得到了全局描述特征,接下來為了學習到多個通道之間的非線性關系,降低模型復雜度以及提升泛化能力,SENet 提出激勵操作,采用包含兩個全連接(Fully Connected,FC)層的結構,其中第1個FC層起降維作用,第2個FC層恢復原始的維度。這個操作即為圖4中的Fex(?,W),計算公式為:

其中δ和σ分別代表激活函數ReLU和sigmoid;W1∈分別為兩個FC 層的權值矩陣;r為FC 層層數,文中該值為16。

最后將壓縮和激勵兩個操作學習到的各個通道的激活值S乘以U的原始特征,即圖5中的Fscale(?,?)操作,計算公式為:

SE 模塊讓模型可以更加關注信息量最大的通道特征,而抑制那些不重要的通道特征,實現對一個局部區域通道上的特征融合。

2.3 乳腺癌病理圖像分類方法

DenseNet 通過密集連接,充分利用每一層的圖像特征信息,進一步減輕梯度消失的問題,有效抑制了訓練過程中過擬合現象。與ResNet 相比,DenseNet 可以以更少的訓練參數達到更優的結果[19,21],所以本文使用的基礎網絡模型為訓練參數數量較少的DenseNet121,訓參數總量遠遠少于ResNet18、DenseNet169、DenseNet201等,具體參數量的對比如表2所示。但是DenseNet 只是實現了空間上的特征融合,而SENet 的創新在于加入SE模塊,進而使網絡可以學習通道之間的關系和不同通道特征的重要程度。

表2 不同網絡模型的訓練參數數量Tab.2 The number of training parameters of different network models

本文借鑒SENet 的思想,在DenseNet121 中引入壓縮和激勵操作,提出了一種融合了空間特征和通道特征的乳腺癌病理圖像分類網絡(BCSCNet),使得網絡既可以實現空間上的特征融合也可以學習到特征通道之間的關系,進一步提高網絡的性能。根據SE 模塊的插入位置和插入數量,設計了3 種不同的BCSCNet 網絡模型,分別為BCSCNetⅠ、BCSCNetⅡ和BCSCNetⅢ,并通過實驗分析找出對乳腺癌組織病理學圖像分類精度最高的一種。SE模塊插入的位置如圖6所示。

圖6 不同網絡模型SE模塊的插入位置Fig.6 SE module insertion locations for different network models

3 種網絡模型的詳細架構如表3 所示,這3 種不同網絡模型的區別在于SE 模塊處于網絡中的位置和網絡中嵌入的SE模塊的數量。

表3 三種BCSCNet模型的詳細網絡架構Tab.3 Detailed network architecture for three kinds of BCSCNet model

從表3 可以看出,幾種BCSCNet 具體架構的詳細差異。BCSCNetⅠ主要由4 個稠密塊、3 個過渡層和3 個SE 模塊組成,SE模塊嵌入在過渡層之后,其中稠密塊1、稠密塊、稠密塊3、稠密塊4 分別由6、12、24、16 個子模塊構成。BCSCNetⅡ的SE 模塊位于稠密塊的子模塊之后,主要由4 個稠密塊、3 個過渡層和58個SE模塊組成,其中稠密塊、過渡層和SE模塊的結構和BCSCNetⅠ一樣,不同的只有SE 模塊的位置和數量。BCSCNetⅢ是上述兩個類型的結合,將SE 模塊嵌入到稠密塊的子模塊和過渡層的后面,總共有61個SE模塊,除了SE模塊的位置和數量之外,其他結構和另外兩個類型一樣。

以BCSCNetⅠ為例,數據從輸入網絡到輸出的步驟為:

1)首先經過卷積核為7×7,步長為2的卷積層;

2)下一層是3×3,步長為2的平均池化層;

3)下一層是稠密塊1,其子模塊為1×1 卷積和3×3 卷積組成,子模塊總共有6個;

4)下一層是過渡層,由一個1×1卷積層、池化窗口為2×2,步長為2 的平局池化層和一個SE 模塊組成,所有過渡層結構一樣;

5)下一層是稠密塊2,子模塊結構不變,數量為12個;

6)下一層是過渡層;

7)下一層是稠密塊3,子模塊結構不變,數量為24個;

8)下一層是過渡層;

9)下一層是稠密塊4,子模塊結構仍不變,數量為16個;

10)最后一層是由GAP 和FC 構成的分類層,FC 的激活函數為softmax,輸出個數根據二分類還是多分類設置2或者8。

3 實驗結果與分析

實驗使用的計算機配置為:64 位的Windows 10 操作系統,CPU 為Intel Core i5-9400F,內存64 GB,GPU 加速顯卡是NVIDIA GeForce RTX 2080 Ti,深度學習框架使用的是TensorFlow2.3。由于本實驗是為了對乳腺癌組織病理學圖像進行分類,使用的評價指標有準確率(Accuracy)、精準率(Precision)、查全率(Recall)和F1值(F1 Score)。

準確率為:

精準率為:

召回率為:

其中:TP(True Positive)代表真正例,即被正確預測為正例的個數;FN(False Negative)代表假負例,即被錯誤預測為負例的個數;FP(False Positive)代表假正例,即被錯預測為正例的個數;TN(True Negative)代表真負例,即被正確預測為負例的個數。

F1值為:

3.1 驗證預處理和數據增強的影響

為了驗證數據預處理和數據增強對分類結果的影響,本文利用BCSCNetⅠ來進行實驗對比。首先將沒有經過處理的原始數據集BreaKHis 輸入到BCSCNetⅠ進行訓練和測試,得到未經數據預處理和數據增強的實驗結果。然后再對原始數據進行預處理,為了消除數據集中數據不均衡的影響,選取BreaKHis 數據集中2 000張良性腫瘤病理圖像和2 000張惡性腫瘤病理圖像作為原始數據集,然后按照訓練集、驗證集、測試集7∶1∶2 的比例隨機進行劃分,并進行顏色歸一化,接著對劃分好的訓練集使用數據增強得到訓練數據。在此部分的實驗都只做了乳腺的良惡性二分類,使用Adam 優化算法更新網絡權重參數,學習率為0.001,批大小為16,輸入尺寸為224×224,迭代次數為500。

由圖7 可知,如果在模型訓練過程中沒有對原始數據進行數據預處理和數據增強,最終展示的實驗結果是:在訓練集上的準確率很高,但是驗證集上的準確率卻比較低,并且會一直波動,不太穩定,即導致過擬合,最終在測試集上的平均準確率只有95.79%。然而,當原始數據經過數據預處理和數據增強之后,不僅在訓練集上達到了很高的準確率,在驗證集上亦是如此,并且測試集的準確率為98.92%。所以,由上述實驗可知,在模型訓練過程中對乳腺癌組織病理學圖像進行數據預處理和數據增強可以避免過擬合,提高了識別準確率。

圖7 訓練和驗證過程中的準確率變化曲線Fig.7 Accuracy variation curves during training and validation

3.2 參數選擇與模型分析

在上述驗證數據預處理和數據增強的有效性實驗中,所采用的優化方法、學習率和迭代次數等參數只是一個初始選擇的設置,可能并不是最適合模型的參數。因此,為了找到最優的參數設置,本文在BCSCNetⅠ模型上根據所設置的參數進行不同的實驗對比,得到的結果如表4 所示。在其他參數設置都一樣的情況下,分別使用不同的優化方法進行實驗,實驗結果表明,相較于隨機梯度下降(Stochastic Gradient Descent,SGD),使用Adam 優化方法得到的平均準確率更高,并且在訓練過程中收斂速度也是Adam 比較快。接著將其他參數固定不變,調整圖像大小,得到當輸入圖像大小為224×224 時,模型準確率最高;然后再通過實驗對比,分別得到最優的批大小為32,最優的學習率為0.000 1,最優迭代次數為500。當模型BCSCNetⅠ使用最優的參數設置時,二分類的平均準確率可以達到99.48%。

表4 調整不同參數得到的平均準確率Tab.4 Average accuracy obtained by adjusting different parameters

然后,將本文提出的三種模型BCSCNetⅠ、BCSCNetⅡ和BCSCNetⅢ的參數設置為上述實驗得到的最優參數,進行二分類和多分類實驗。在二分類實驗中,隨機選取了BreaKHis數據集中2 000 張良性病理圖像和2 000 張惡性病理圖像,并對選取的圖像進行隨機劃分,然后進行數據預處理和數據增強。在多分類實驗中,從BreaKHis 數據集的每一種亞型中隨機抽取400 張圖像作為多分類實驗數據,同樣對選取的圖像進行隨機劃分,然后進行數據預處理和數據增強。以上數據都按照訓練集、驗證集、測試集7∶1∶2 的比例隨機進行劃分。實驗結果如表5 所示。二分類:模型BCSCNetⅠ的準確率為98.81%~99.36%,BCSCNetⅡ的準確率為98.06%~99.32%,BCSCNet Ⅲ的準確率為99.05%~99.89%;多分類:模型BCSCNetⅠ的準確率為90.81%~92.33%,BCSCNetⅡ的準確率為91.29%~93.58%,BCSCNet Ⅲ的準確率為93.06%~95.72%。同時,還與DenseNet121進行實驗對比,實驗結果表明原始的DenseNet121 對乳腺癌組織病理學圖像的分類準確率并不高,二分類準確率為90.01%~91.91%,多分類準確率僅為79.19%~83.30%,明顯低于本文方法。

表5 不同模型對于不同放大倍數圖像的分類準確率Tab.5 Classification accuracies of different models for images with different magnifications

由實驗結果可知,本文提出的乳腺病理圖像分類模型BCSCNet,由于融合了空間和通道的特征信息,所以表現出來的分類準確率高于沒有插入SE 模塊的原始DenseNet121;并且,因為BCSCNetⅢ不止將SE 模塊插入到DenseNet 的過渡層中,還插入到稠密塊中,因此BCSCNetⅢ可以把稠密塊和過渡層的通道特征信息與空間特征信息融合,學習到了更多的圖像特征,這使得該網絡模型的性能比其他兩個網絡模型的性能更好。由表2 可知,加入SE 模塊只增加較少的計算量,不會對網絡的訓練時間造成太大的影響。

以上實驗表明,本文提出的乳腺癌分類模型BCSCNetⅢ通過調整參數,得到適合模型的最優參數設置,可以對乳腺組織病理圖像進行高精度分類,在良惡性二分類和8 種亞型多分類都達到了很高的準確率,所以本文在乳腺癌分類算法中采用的BCSCNet網絡模型為BCSCNetⅢ。

3.3 與其他方法的對比分析

為了證明本文方法的優越性,將BCSCNet 與其他乳腺癌組織病理學圖像分類方法進行二分類和多分類實驗的對比。在以下的實驗分析中,BCSCNet 與其他分類方法所使用的數據集都為乳腺癌組織病理學圖像數據集BreaKHis。

3.3.1 二分類

二分類實驗的對比結果如表6 所示。明濤等[22]提出多尺度通道重校準模型,利用ResNet 設計了一種卷積神經網絡msSE-ResNet,該實驗在公開數據集BreaKHis 上開展,對乳腺良惡性二分類達到88.87%的準確率,并且可以對不同放大倍數下獲取的病理圖像具有較好的魯棒性;Spanhol等[12]利用AlexNet提出了一種用于乳腺病理圖像二分類方法,識別準確率最高可以達到90%;Wei 等[14]提出了一種先進的數據增強方法和一種基于深度卷積神經網絡GoogleNet 的新型乳腺癌組織病理學圖像分類方法(BiCNN),該方法具有較高的分類準確率(97%左右);Han 等[23]提出一種新的基于類結構的深度卷積神經網絡(Class Structure-based Deep Convolutional Neural Network,CSDCNN)的乳腺病理圖像識別方法,在二分類中實驗中具有95.7%~97.1%的準確率;Bardou等[24]設計了一種CNN 拓撲結構并利用數據增強進行二分類實驗,最終獲得的分類準確率為96.15%~98.33%;Jiang等[15]提出了一種新的學習速率調度器,并且利用小型SE-ResNet 模塊設計了一種新的用于乳腺癌組織病理學圖像分類的CNN 架構,命名為乳腺癌組織病理學圖像分類網絡(BHCNet),該方法對乳腺良性惡性的分類準確率高達98.87%~99.34%。

表6 BCSCNetⅢ和其他方法的二分類準確率對比 單位:%Tab.6 Binary classification accuracy comparison of BCSCNetⅢand other methods unit:%

同時,為了更加全面地對網絡模型進行評估,將本文方法與上述性能較好的網絡模型進行多種評價指標的對比,具體對比結果如表7 所示。二分類的實驗結果表明,本文提出的模型BCSCNetⅢ相較于其他乳腺癌組織病理圖像分類方法的分類準確率更高,并且通過對比F1 分數等其他指標,證明BCSCNetⅢ的整體性能優于其他方法。

表7 多種分類方法在不同分類任務中的評估結果對比 單位:%Tab.7 Comparison of evaluation results of multiple classification methods in different classification tasks unit:%

3.3.2 多分類

目前對乳腺病理圖像進行多分類的研究較少,且識別準確率不高:Chan 等[11]利用支持向量機將乳腺癌腫瘤劃分為良性和惡性的8個亞型,40倍放大因子的準確率僅為55.6%;詹翔等[13]基于改進Inception-V3 提出的病理圖像分類方法在二分類的識別準確率達到了97%,但在多分類上只有89%;Han等[23]提出的CSDCNN 不止在二分類上表現出色,在多分類實驗上也取得了顯著的性能,達到平均93.2%的準確率;Bardou等[24]設計的CNN 拓撲結構在多分類實驗中同樣表現出較好的性能,準確率為92.8%~93.9%;Jiang 等[15]利用小型SEResNet 模塊設計的乳腺癌組織病理學圖像分類網絡BHCNet進行多分類實驗,在放大倍數為40、100、200、400 的圖像數據上,獲得的正確率分別為93.74%、93.81%、92.22%、90.66%。同樣,在多分類實驗中,除了將以上分類方法得到的分類準確率與本文方法進行對比,也將F1分數等其他指標加入到模型的評價指標中,詳細對比結果可由表8得知。

表8 BCSCNetⅢ和其他方法的多分類準確率對比 單位:%Tab.8 Multi-class classification accuracy comparison of BCSCNetⅢand other methods unit:%

以上實驗結果與分析證明,無論是對于乳腺癌組織病理圖像的二分類任務還是多分類任務,本文提出的乳腺病理圖像分類模型BCSCNetⅢ的整體性能都要優于BHCNet 等其他方法。由表2 可知,由于本文所采用的基礎網絡是DenseNet,相較于ResNet 和GoogleNet 等,網絡參數降低了不少,并且SE模塊的加入也沒有給模型帶來太多的參數負擔,因此,BCSCNetⅢ只需增加少量的訓練參數就可以給最終結果帶來較大的增益。

4 結語

本文設計了一種融合圖像的空間特征信息和通道特征信息的分類模型BCSCNet,并提出了一種乳腺癌組織病理學圖像分類方法,該方法可以實現對乳腺癌組織病理學圖像的高精度分類,包括乳腺良惡性二分類和乳腺亞型多分類。BCSCNet 基于CNN 模型DenseNet 和SENet,利用SE 模塊學習DenseNet 模型中稠密塊和過渡層的通道信息,并將學習到的通道特征信息與稠密塊和過渡層所學習的空間特征信息融合,實現圖像空間特征和通道特征的融合。根據SE模塊插入的數量和位置不同,模型所學習的通道信息不同,可以將BCSCNet 分為BCSCNetⅠ、BCSCNetⅡ和BCSCNetⅢ三種。在此方法中,還使用了一種顏色歸一化方法和不同的數據增強操作處理乳腺癌組織病理圖像數據庫BreaKHis,并通過實驗驗證了通過數據預處理和數據增強處理數據可以進一步避免模型訓練過程中的過擬合以及提升分類性能。最終的實驗結果表明,在本文提出的三種BCSCNet 網絡模型中,BCSCNetⅢ表現的分類性能最好,二分類任務的識別準確率在99.05%~99.89%,多分類任務的識別準確率在93.06%~95.72%,并且通過與其他乳腺癌組織病理學圖像分類模型進行對比分析,證明了本文所提出的乳腺癌組織病理學圖像分類模型BCSCNet 的分類性能優于其他方法。在未來的工作中,可以研究不同設備觀察到的病理圖像,以及病理圖像中存在細胞重疊的情況,還可以通過目標定位將病變的主要位置標記出來,使計算機輔助診斷可以滿足臨床應用的需求,更加有助于乳腺癌的治療。

猜你喜歡
乳腺癌分類特征
絕經了,是否就離乳腺癌越來越遠呢?
中老年保健(2022年6期)2022-08-19 01:41:48
分類算一算
如何表達“特征”
乳腺癌是吃出來的嗎
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
胸大更容易得乳腺癌嗎
數據分析中的分類討論
別逗了,乳腺癌可不分男女老少!
祝您健康(2018年5期)2018-05-16 17:10:16
教你一招:數的分類
主站蜘蛛池模板: 国产精品香蕉| 日韩免费毛片| 亚洲a免费| 免费看av在线网站网址| 国产va在线观看免费| 无码中字出轨中文人妻中文中| 88av在线看| 制服丝袜在线视频香蕉| 精品無碼一區在線觀看 | 国产在线高清一级毛片| 久久黄色免费电影| 国产精品吹潮在线观看中文| 91网站国产| 免费观看无遮挡www的小视频| 午夜限制老子影院888| 日韩乱码免费一区二区三区| 国产精品任我爽爆在线播放6080 | 日韩在线播放欧美字幕| 欧美日韩精品一区二区视频| 美女一区二区在线观看| 91人妻在线视频| 欧美成人综合在线| 亚洲国产第一区二区香蕉| 亚洲精品午夜天堂网页| 视频一区视频二区中文精品| 99在线免费播放| 日韩国产精品无码一区二区三区 | 色婷婷成人网| 国产日本一区二区三区| 国产在线98福利播放视频免费| 国产精品自在线拍国产电影 | 欧美不卡二区| 日韩成人午夜| 日韩美毛片| 欧美视频在线第一页| 国产在线观看成人91| 亚洲精品人成网线在线| 99视频精品全国免费品| 波多野结衣第一页| 第一页亚洲| 又爽又黄又无遮挡网站| 91无码视频在线观看| 亚洲色无码专线精品观看| 日韩无码真实干出血视频| 成人小视频网| 午夜小视频在线| 亚洲成AV人手机在线观看网站| 999国产精品永久免费视频精品久久| 视频二区亚洲精品| 国产精品香蕉在线| 久热re国产手机在线观看| 制服丝袜 91视频| 亚洲一区二区成人| 国产精品lululu在线观看| 亚洲最大看欧美片网站地址| 国产毛片不卡| 国产精品一区二区不卡的视频| 999国内精品久久免费视频| 亚洲精品国产乱码不卡| а∨天堂一区中文字幕| 自拍偷拍欧美| 亚洲欧美另类视频| 国产精品久久久久无码网站| 99精品在线看| 国产另类视频| 四虎亚洲精品| 国产男女免费完整版视频| 麻豆精品在线| 成人一级黄色毛片| 最新国产精品鲁鲁免费视频| 免费人成又黄又爽的视频网站| jizz亚洲高清在线观看| 成人永久免费A∨一级在线播放| 国产高颜值露脸在线观看| 国产欧美亚洲精品第3页在线| 超清无码一区二区三区| 一级毛片在线播放免费| 日本高清成本人视频一区| 亚洲自拍另类| 野花国产精品入口| 欧亚日韩Av| yy6080理论大片一级久久|