999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于VGG16的急性淋巴細胞白血病血液細胞顯微圖像人工智能輔助診斷分類研究

2019-07-25 08:27:42張海濤劉景鑫趙曉晴胡笑含李慧盈
中國醫療設備 2019年7期
關鍵詞:分類模型

張海濤,劉景鑫,趙曉晴,胡笑含,李慧盈

1. 吉林大學 計算機科學與技術學院,吉林 長春 130012;2. 吉林大學中日聯誼醫院 放射線科,吉林 長春 130033;3. 吉林大學第一醫院 放射線科,吉林 長春 130021

引言

臨床上,醫生會通過血常規中正常的白細胞與非正常的白細胞所占總細胞數量比例進行判斷是否患病[1-2]。傳統診斷中,臨床上通過血常規檢查結果對患者是否患有白血病進行人工判斷,通過血常規檢查可以了解到患者的血細胞數量是否處于正常數量[3-4]。純人工的方式,費時又費力,故而當前醫院中更為普遍的分類計數方式是通過借助自動血球計數儀集合血液圖片人工鏡下檢查進行操作[5-6]。這種自動化血球計數儀的臨床應用減輕了臨床檢驗人員的勞動量,促進了血液學實驗室診斷和治療檢測水平的提高,但仍存在分類精度不夠高的問題,容易將形態差異較小的正常與非正常白細胞給區分錯[7-9]。

針對這種不足,醫學影像分類逐漸走向智能化處理,如傳統方法中使用FCM聚類算法[10],Mean-Shift聚類[11],決策樹算法[12],樸素貝葉斯分類器[13]、隨機森林算法[14]等方法對醫療影像進行分類。傳統方法在對醫學影像進行分類處理時一般具有魯棒性高、處理效率快、容易實現等特點。但是對于醫療影像中所表現出來全部的特征,傳統方法所獲取的并不多,故而對于醫療影像的處理逐漸走向利用神經網絡去獲取圖像中高緯度的病理特征[15-16]?;谌斯ぶ悄艿姆椒芨玫貙W習醫療圖像中所蘊含的信息,其中有使用PCA(主成分分析)和LVQ(學習矢量量化)神經網絡相結合的方法[16],前饋反向傳播神經網絡的方法[17],使用ResNet V1 50,ResNet V1 152和ResNet 101[18]進行分類的方法,以及以AlexNet和LeNet為網絡原型構建CNN訓練平臺,對LeNet網絡進行刪減優化,獲得一輕量高效的新結構——CCNet的方法[19]。這些基于人工智能的方法更有利于學習圖像的特征,并且能大幅度地提高分類準確率,在計算機圖像分類領域中已經得到了廣泛的應用。

因此,本文引入此思想對白細胞進行分類,利用VGG16卷積神經網絡針對急性淋巴細胞白血?。ˋcute Lymphoblastic Leukemia,ALL)患者的血液細胞顯微圖像進行輔助分析,分類出白細胞是否為患病細胞。本文中從基于像素的角度分類識別出不同顯微圖像中的紋理特征,不僅能在一定程度上極大的節省人力的投入,而且能為醫護人員提供更高準確率的分類結果[20-21]。通過實驗發現,相對于其他的方法,基于VGG16的網絡模型能更好地學習小樣本量的數據,并在一定時間內較快地收斂,大大減少了實驗的資源開支。

1 基于VGG16的ALL血液細胞顯微圖像分類方法

由于受到醫療成像設備的影響,故而對于所采集到的數據會和實際試驗中所需要的樣本有所不一致,故而針對這種情況,本研究中將整個實驗給分為了兩部分,分別是:數據預處理階段和VGG16卷積神經網絡分類識別階段。

1.1 數據預處理

在數據預處理階段,我們一共完成了兩項工作,分別是將RGB,即紅(Red)綠(Green)藍(Blue)顏色空間映射到HSV顏色空間和目標區域的提取。其中顏色空間的映射轉換目的是為了提高處理時的敏感程度,而目標區域的提取則是為了盡可能地排除白細胞以外的各種非目標區域的影響從而保證分類識別的高效性。

1.1.1 圖像色彩空間轉換

一般情況下,圖像的顏色空間都是RGB模型,一般以一種三維坐標的模型形式表示,圖1顯示出了RGB模型。HSV既色調(H:hue),飽和度(S:saturation),亮度(V:value),由A.R. Smith在1978年創建的一種顏色空間,也稱六角錐體模型(Hexcone Model)。其中 H:用角度度量,取值范圍為 0°~360°,從紅色開始按逆時針方向計算,紅色為0°,綠色為120°,藍色為240°。它們的補色是:黃色為60°,青色為180°,品紅為300°;S:取值范圍為0.0~1.0,值越大,顏色越飽和;V:取值范圍為0(黑色)~255(白色),如圖2所示。

圖1 RGB顏色模型

圖2 HSV顏色模型

由于RGB是加法原色模型,以原色組合的方式定義顏色,而HSV以人類更熟悉的方式封裝關于顏色的信息,例如:什么顏色?顏色深淺度多少?明暗程度如何等,故而在計算機圖形應用處理中更多地采用HSV模型,從而需要將一般的RGB圖像給映射到HSV空間上。其映射計算公式如(1)~(3)所示:

其中max等價于r,g和b中的最大者,而min等于這些值中的最小者。

1.1.2 目標區域提取

由于原始細胞圖像中所含有的背景等無關信息較多,為了更好地提取白細胞的特征,而避免無關因素的干擾,從而在此部分完成白細胞目標區域提取的功能。采用超像素的思想標記出ALL血液細胞的輪廓圖,再根據所標記的輪廓將原始圖像進行分割從而得到目標影像圖,操作示意過程,如圖3所示。

圖3 ALL血液細胞目標區域提取

在完成目標區域的提取后,在對神經網絡進行輸入前還需要對數據進行歸一化處理,是預處理模塊中的一項基本且必不可少的工作。由于原始數據集中的不同特征往往具有不同的量綱單位,或是數據的值域區別較大。在這樣的情況下,數據值將會對數據分析的結果產生較大影響。而對數據進行歸一化處理,能在一定程度上消除特征之間量綱和取值范圍的影響,從而解決數據特征之間的可比性。歸一化公式如下:

1.2 VGG16卷積神經網絡分類識別

牛津大學在2014年提出來了VGG卷積神經網絡的模型。當這個模型被提出時,由于它的簡潔性和實用性,馬上成為當時最流行的卷積神經網絡模型。該網絡模型在圖像分類和目標檢測任務中都表現出非常好的結果。而在其變形中VGG16的表現又尤為突出,故而本文采用VGG16卷積神經網絡模型。

1.2.1 VGG16卷積神經網絡模型

VGG網絡是卷積神經網絡的一種,探索了卷積神經網絡的深度與其性能之間的關系,通過反復堆疊3×3的小型卷積核和2×2的最大池化層,VGG Net成功地構筑了16/19層深的卷積神經網絡,本系統中采用的是VGG16網絡模型,其中16表示除pooling layer(池化層)外使用conv layer(卷積層)的層數(圖4)。其主要擁有的特點有:① 將卷積層提升到卷積塊的概念:卷積塊有2~3個卷積層構成,使網絡有更大感受野的同時能降低網絡參數,同時多次使用ReLu激活函數有更多的線性變換,學習能力更強;② 在訓練時和預測時使用Multi-Scale做數據增強:訓練時將同一張圖片縮放到不同的尺寸,在隨機剪裁到224×224的大小,能夠增加數據量。預測時將同一張圖片縮放到不同尺寸做預測,最后取平均值。

圖4 VGG16卷積神經網絡宏架構圖

1.2.2 模型優化算法

卷積神經網絡中有許多優化算法,其中比較常用的就是梯度下降優化算法。本文采用的則是隨機梯度下降算法(Stochastic Gradient Descent,SGD),其具有的優點有:每次更新時對每個樣本進行梯度更新,速度快,可以隨時增加新的樣本相對于非隨機算法,SGD能更有效地利用信息,特別是信息比較冗余的時候,計算公式為:

在深度學習模型訓練完成后,需要對其正確率以及損失值進行評估。本系統中損失函數的計算采用log對數損失函數(邏輯回歸),其計算過程如下,

2 實驗結果與分析

本文所使用的數據是由意大利米蘭大學提供的公開血液樣本顯微圖像數據集——ALL_IDB2[22]。該數據集由2005年9月收集的108幅圖像組成,約包含39000個血液元素,重點針對ALL,用于評估和比較圖像分割和分類算法。

對于數據集中的每個圖像,都是使用光學實驗室顯微鏡和佳能PowerShot G5相機,在300至500的不同放大倍率下拍攝的,所有圖像均為TIF格式,分辨率2592×1944。數據集中部分樣本圖,見圖5。

圖5 ALL_IDB2中部分白細胞顯微圖像

從原始數據圖中我們不難發現,圖片里不僅含有我們所需要的白細胞區域,同時還帶有大量我們所不需要的背景信息,故而在2.1.2的目標區域提取部分我們引入了超像素的思想對目標區域進行了提?。▓D3)。

使用“ALL_IDB2”數據集進行訓練和驗證(其中訓練集和驗證集的比例為8:2),從準確率和損失函數值兩個方面給出測試結果,表2顯示了100輪迭代后的最終準確率和損失值,圖6和圖7分別展示了100輪迭代訓練集和驗證集準確率和損失值的變化圖。

表2 100輪迭代的準確率和損失值

圖6 100輪迭代準確率變化對比圖

通過圖6和圖7可以看到本文所采用的VGG16卷積神經網絡模型在100輪較小的迭代次數中很好地“學習”到了ALL血液細胞顯微白細胞圖像的特征,在訓練集和驗證集上分別達到了98.79%和98.05%的高準確率,以及0.1767和0.5020的低損失值,這很好地說明了VGG16卷積神經網絡模型能分類出ALL患者的血液細胞是否為患病細胞。

圖7 100輪迭代損失值變化對比圖

3 討論與結論

本文將人工智能的思想應用到了醫學輔助診斷當中,提出了一種基于VGG16卷積神經網絡的ALL血液細胞顯微圖像分類的方法。針對所獲取的較小樣本量(一共260張原樣本圖像)的數據集,我們將傳統方法中超像素的思想應用到了數據預處理當中,為后面卷積神經網絡的訓練輸入打下了更好的基礎,相對于Othman等[23]在2017年利用前饋反向傳播神經網絡對五類白細胞進行分類,在試驗中他們首先將原始的白細胞顯微圖像進行分割得到含有16個主要特征點的100張細胞圖像,再將其作為輸入對神經網絡進行訓練,最后的平均準確率達到了96%,我們所提出的基于VGG16的深度學習模型具有更高的分類準確率。而在相比于Habibzadeh等[18]通過計算機輔助診斷(CAD)系統和血液學規則來評估白細胞差異計數,使用了ResNet V1 50,ResNet V1 152和ResNet 101分別對四類主要的白細胞(中性粒細胞,嗜酸性粒細胞,淋巴細胞和單核細胞)進行分類,以及中國科學技術大學和解放軍福州總醫院全軍檢驗醫學研究所則提出了“基于卷積神經網絡的外周血白細胞分類”的方法[19],雖然我們平均準確率相比較他們的實驗結果分別差了1.65%和1.37%的精度,但是在時間消耗上我們卻在更短的時間內實現了收斂。我們下一步的工作則是對于不同深度學習網絡的比較,同時進一步做出對于深度學習模型的改進研究,旨在將白細胞的分類研究在保證低消耗的同時又能保證高的分類準確率。

醫學圖像高速準確的分類對于醫療臨床診斷與精準治療有著重要的影響,有必要將先進的計算機計算技術與具體的臨床醫療和學術研究相結合起來,高效的人工智能圖像分類技術能極大程度的幫助醫生實現病灶區域的判斷,進一步節省了大量的人力工作。未來的醫學影像分類應當朝著一種更加智能化,高效化的方向發展,在充分利用計算機性能的同時也應更好的結合醫學領域中的先驗知識,發展出更新的技術,更好地為醫療影像分類所服務。

猜你喜歡
分類模型
一半模型
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 国产中文在线亚洲精品官网| 久久福利片| 久久久91人妻无码精品蜜桃HD| 国产欧美日本在线观看| 国产精品美人久久久久久AV| 日韩精品少妇无码受不了| 亚洲一区二区三区香蕉| 午夜视频www| 欧美日韩免费观看| 日本www色视频| 麻豆国产在线不卡一区二区| 中文字幕无码制服中字| 91久久国产成人免费观看| 幺女国产一级毛片| 亚洲成年人网| 欧美日韩在线亚洲国产人| 欧美天天干| 一本大道香蕉久中文在线播放| 狠狠干欧美| 国产成人乱码一区二区三区在线| 亚洲天堂视频在线观看| 国产综合另类小说色区色噜噜| 极品国产一区二区三区| 久久久久九九精品影院| 激情无码视频在线看| 亚洲中文字幕无码爆乳| 久久精品国产国语对白| 中国国语毛片免费观看视频| 日韩成人午夜| 国产一级做美女做受视频| 性激烈欧美三级在线播放| 国产精品女人呻吟在线观看| 国产二级毛片| 一区二区自拍| 国产亚洲欧美日韩在线一区| 午夜福利免费视频| 成人午夜在线播放| 国产精品手机在线观看你懂的 | 国产精品视频观看裸模| 一本一本大道香蕉久在线播放| 日日碰狠狠添天天爽| 免费毛片网站在线观看| 中文天堂在线视频| 91在线播放免费不卡无毒| 欧美精品成人一区二区在线观看| 亚洲人成网站色7777| 老司机久久精品视频| 伦精品一区二区三区视频| 青青草久久伊人| 国产熟睡乱子伦视频网站| 午夜综合网| a欧美在线| 国产99视频精品免费视频7| 综合久久五月天| 国产精品漂亮美女在线观看| 亚洲成人精品| 成人综合网址| 国产专区综合另类日韩一区| 久久久久人妻一区精品| 国产99在线观看| 亚洲男人天堂久久| 一本久道久久综合多人| 午夜日b视频| 色哟哟国产精品| 国产人前露出系列视频| 国产精品妖精视频| 91久久国产热精品免费| 日韩精品资源| 欧美视频在线不卡| 色婷婷国产精品视频| 99视频只有精品| 国产网站免费| 亚洲av色吊丝无码| 国产乱视频网站| 亚洲毛片网站| 欧美a√在线| 国产精品网址你懂的| 五月婷婷伊人网| 国产精品亚洲综合久久小说| 无码高清专区| 亚洲AⅤ波多系列中文字幕| 亚洲日韩欧美在线观看|