徐一舫 卓一瑤 孫海洋 楊冠男



摘要:乳腺鉬靶X線圖像與多數醫學圖像相比,腫塊邊沿模糊、特征區域過小、良性腫塊與惡性腫塊構成相似。為了解決傳統計算機輔助檢測乳腺腫塊技術效果差的問題,對基于深度學習的乳腺腫塊檢測模型進行了研究,分析了R-CNN、SPPNet、Fast R-CNN、Faster R-CNN算法的原理。收集并增強了相關數據集。在Ubuntu系統下采用Tensorflow實現了四種算法。對比R-CNN系列算法的檢測精度與單張圖像檢測耗時,驗證了Faster R-CNN乳腺腫塊算法的檢測能力。研究結果表明,Faster R-CNN算法正確率為82.2%且單張圖像檢測耗時為57ms,具有良好的泛化能力與魯棒性,適用于醫學中有關乳腺腫塊的檢測任務。
關鍵詞:tensorflow;卷積神經網絡;深度學習;乳腺腫塊;物體檢測
中圖分類號: TP18? ? 文獻標識碼:A
文章編號:1009-3044(2019)18-0217-04
1 背景
乳腺癌在全世界是女性發病率最高的惡性腫瘤之一,嚴重威脅著全球婦女的生命健康。據資料顯示,2012年,全球乳腺癌新發病例167.1萬列,發病率為25.1%,并處于逐年上升的趨勢[1]。乳腺癌的早期發現和治療能有效挽救患者的生命。
目前,乳腺鉬靶X線攝影(mammography)是診斷乳腺癌最有效的首選方法。然而,醫生有可能會受乳腺鉬靶X線圖像上噪聲與對比度的干擾而解讀錯誤,使一些疾病誤診,導致假陰性與假陽性出現。據統計,醫學影像的疾病誤診率可達到 10%~30%[2]。因此,為了降低誤診率出現了大量的計算機輔助檢測技術(CAD),并有一些投入臨床使用。之后,從物體分類到物體檢測的過渡,出現R-CNN[4]、SPPNet[5]、Fast R-CNN[6]、Faster R-CNN[7]等方法。相較于傳統的CAD,深度學習模型能夠提高檢測正確率,識別的網絡更復雜,通過GPU加速使得學習效率提高,所以,傳統的CAD正逐步被深度學習模型所取代[8]。
本研究采用深度學習中常用的Faster R-CNN方法來輔助醫生解決良性與惡性乳腺腫塊檢測的相關問題。訓練集和測試集由International Workshop on Digital Mammography提供的DDSM (The Digital Database for Screening Mammography)[9]數據集組成,驗證集由部分DDSM數據集與Royal Marsden Hospital提供的MIAS(Mammographic Image Analysis Society MiniMammographic Database)[10]數據集組成。最后通過對數據集的增強與模型的微調達到檢測的預期目標。
2 Faster R-CNN的介紹
2.1 R-CNN原理簡介
R-CNN(Regions with CNN features)中的CNN的是卷積神經網絡(convolution natural network),受Hubel和Wiesel對貓視覺皮層電生理研究啟發,Lecun等最早將CNN用于手寫數字識別應用上[11]。CNN與普通神經網絡的區別在于,CNN中包含由卷積層和池化層構成的特征提取器,可以簡化模型復雜度,再通過局部感受與權值共享可以降低模型訓練速度。
R-CNN在CNN之上做了改進,可以分為四步:首先通過Selective Search搜尋可能存在物體的區域并提取出候選框,之后用CNN計算每個框的特征并提取出每個框的特征,提取出的特征使用SVM分類器[12]分類,分類后通過非極大值抑制修正輸出結果。R-CNN整體框架如圖1所示。
2.2 SPPNet與Fast R-CNN原理簡介
SPPNet(Spatial Pyramid Pooling Convolutio-nal Network)基于傳統CNN結構上,在SVM分類器之前加入了ROI池化層,使得網絡輸入圖像可為任意尺寸,輸出尺寸不變[5]。SPPNet只需要運算一次,相較于R-CNN要對每個區域做卷積運算,速度與mAP均超過R-CNN。
2.3 Faster R-CNN原理簡介
Faster R-CNN在Fast R-CNN的基礎上用RPN(Region Proposal Network)網絡代替Selective Search,RPN網絡與卷積層共享網絡參數,并通過end-to-end生成高質量的候選框。生成的候選框最終送入卷積神經網絡與ROI池化層進行分類。Faster R-CNN整體框架如圖3所示。
訓練時,只需要訓練RPN網絡與分類網絡,通常的做法是在一個batch中,先訓練一次RPN網絡,再訓練一次分類網絡。這使得速度與mAP均提高。
3 基于Faster R-CNN的乳腺腫塊檢測模型
3.1 數據集增強
DDSM數據集一共2620張圖像。MIAS數據集一共322張圖像,每幅圖像都是1024像素x 1024像素,良性中有2張圖像的腫塊是廣泛散布在整個圖像里,而不是集中在一個單一的地點,不具有代表性,故去掉。其中關于腫塊嚴重程度包括3個類別:正常(Norm)、良性(Benign)、惡性(Malignant)。本研究只采用良性與惡性腫塊圖像。
訓練集總體數量較少,本研究對樣本數據進行增強,加強訓練模型的泛化能力。增強常采用的方式:平移、旋轉、反轉、裁剪、縮放、顏色變換、噪聲擾動[13]。此處增強的方式為:先將原圖像基于特征區域隨機裁剪為768像素X 768像素的圖像,再加入高斯白噪聲、直方圖均衡化。共計10734張圖片。每類物體的分布如表1所示。
3.2 數據集的制作
本文將2.1節增強后的數據集打亂后,分為訓練集6300張,測試集657張,驗證集由未參與訓練的20張原圖組成,再使用LabelImg對分別訓練集、測試集、驗證集進行標注,標注界面如圖4所示。
3.3 實現環境和模型設置
本文的Faster R-CNN模型在Ubuntu操作系統下,基于Tensorflow深度學習框架與python3.5實現,GPU為GeFore 930M。Faster R-CNN算法選用在ImageNet數據集上訓練好的inception v2[14]預訓練模型,進過多次調參,最終選用rmsprop優化器,初始learning rate設為0.001,并采用指數下降法更新learning rate,batch size設為10,迭代次數50000次,得到訓練好的模型。
3.4 評估指標的定義
腫塊良惡性是二分類問題,為了衡量模型表現,本次試驗中,計算了機器學習常用的評估指標準確率(Accuracy)。
4 實驗
基于Faster R-CNN的乳腺腫塊輔助檢測結果如圖6與圖7所示,其中方框內是檢測到的腫瘤,準確率顯示在方框上。
5 結論
使用深度學習中R-CNN系列算法來進行乳腺腫塊的輔助檢測,可以檢測乳腺中的腫塊及腫塊嚴重程度,共3個類別。結果表明,基于Faster R-CNN的乳腺腫塊檢測模型能較好地完成輔助檢測的相關任務,通過對比四種算法說明Faster R-CNN模型在判斷良惡性時可以達到82.2%的正確率與單張圖像檢測耗時57ms的效果。
影響乳腺腫塊圖像檢測的因素主要包括腫塊邊沿模糊、特征區域過小、良性腫塊與惡性腫塊構成相似等。本研究能夠克服這些影響因素,但對于乳腺中出現多個腫塊或者腫塊廣泛散布與乳腺之中,模型不能完全識別到所有的腫塊的情況,接下來有待進行進一步的研究。
參考文獻:
[1] 師金, 梁迪, 李道娟, 等. 全球女性乳腺癌流行情況研究[J]. 中國腫瘤, 2017, 26(9): 683-690.
[2] Zheng GY, Liu XB, Han GH. Survey on medical image computer aided detection and diagnosis systems[J]. Ruan Jian Xue Bao/Journal of Software, 2018, 29(5): 1471-1514.
[3] Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks[C]//Proceedings of the International Conference on Neural Information Processing Systems, 2012: 1097-1105.
[4] Ross Girshick, Jeff Donahue, Trevor Darrell, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the IEEE Conference On Computer Vision and Pattern Recognition, 2014: 580-587.
[5] Kaiming He, Xiangyu Zhang, Shaoqing Ren, et al. Spatial.Pyramid Pooling in Deep Convolutional Networks for Visual Recognition[C]//IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, 2015, 37(9): 1904-1916.
[6] Girshick R. Fast R-CNN[C]//Proceedings of the IEEE International Conference on Computer Vision, 2015: 1440-1448.
[7] Shaoqing Ren, Kaiming He, Ross Girshick, et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[C]//IEEE Transactions on Pattern Analysis & Machine Intelligence, 2016, 39(6): 1137-1149.
[8] 孫利雷, 徐勇. 基于深度學習的乳腺X射線影像分類方法研究[J]. 計算機工程與應用, 2018, 54(21): 13-19.
[9] Bowyer K, Kopans D, Kegelmeyer W P, et al. The Digital Database for Screening Mammography[C]//In proceedings of the Third International Workshop on Digital Mammography, 1996.
[10] Suckling J. The Mammographic Image Analysis Society Digital Mammogram Database Exerpta Medica[C]//International Congress Series, 1994(1069): 375-378.
[11] Lecun Y, Boser B, Denker J S, et al. Backprogation applied to handwritten zip code recongnition[C]//Neural Computaion, 1989, 1(4): 541-551.
[12] Adankon M M, Cheriet M. Support vector machine[J]. Computer Science, 2002, 1(4): 1-28.
[13] Howard, Andrew G. Some Improvements on Deep Convolutional Neural Network Based Image Classification[C]//Computing Research Repository, 2013.
[14] Christian Szegedy, Vincent Vanhoucke, Sergey Ioffe, et al. Rethinking the Inception Architecture for Computer Vision[C]//The IEEE Conference on Computer Vision and Pattern Recognition, 2016: 2818-2826.
[15] Jiang B, Luo R, Mao J, et al. Acquisition of Localization Confidence for Accurate Object Detection[C]//European Conferenzce on Computer Vision, 2018: 816-832.
【通聯編輯:謝媛媛】