999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進U型網(wǎng)絡(luò)的眼底圖像血管分割

2019-03-18 08:58:06高宏杰邱天爽丑遠婷張曉博
關(guān)鍵詞:數(shù)據(jù)庫結(jié)構(gòu)研究

高宏杰 邱天爽#* 丑遠婷 周 明 張曉博

1(大連理工大學(xué)電子信息與電氣工程學(xué)部,遼寧 大連 116024)2(大連大學(xué)附屬中山醫(yī)院眼科,遼寧 大連 116001)

引言

眼底圖像是醫(yī)生診斷眼底疾病的主要方式,也是人體唯一能直接觀察到血管的部位,醫(yī)生通常把它當(dāng)作了解其他疾病和臟器血管情況的窗口。因此,眼底圖像的變化,在一定程度上反映了一些器官的狀態(tài)和改變程度。如高血壓病人的視網(wǎng)膜血管可能出現(xiàn)動脈硬化的情況,糖尿病病人眼底可能出現(xiàn)微動脈血管瘤等病灶區(qū)域,這就在一定程度上反映了全身血管的改變狀況,醫(yī)生可據(jù)此來分析、判斷疾病的嚴(yán)重程度。為了便于診斷眼底與其他相關(guān)疾病,需要對血管進行精準(zhǔn)的分割。然而,由于眼底圖像可能存在出血點、滲出物等病灶區(qū)域,其血管自身存在中心線反射和低對比度的微細血管等問題,使得眼底圖像的血管分割一直都是國內(nèi)外研究的熱點問題。

近年來,國內(nèi)外學(xué)者提出了很多算法來對眼底血管進行分割。按照是否使用標(biāo)準(zhǔn)圖像(ground truth image),算法大致可以分為非監(jiān)督方法和監(jiān)督方法兩類。非監(jiān)督方法不需要使用血管的標(biāo)準(zhǔn)圖像,僅通過傳統(tǒng)的圖像處理算法對原始眼底圖像進行處理,如匹配濾波器[1]、基于模型[2]等,該類方法不能較好地分割出細小血管,分割的準(zhǔn)確率較低。而監(jiān)督方法主要通過提取特征,并將特征送入分類器來實現(xiàn)血管的分割。目前大部分監(jiān)督算法是通過人工手動提取特征,如Ricci等采用長度固定但方向變化的兩個正交線檢測器來統(tǒng)計位于血管段上的平均灰度值,并將提取的特征向量送入到支持向量機中進行血管分割[3]。Fraz等提出一種基于決策樹的監(jiān)督算法,通過使用梯度向量場、形態(tài)學(xué)處理、線特征和Gabor響應(yīng)等4種方法提取特征向量,并送入決策樹中[4]。與非監(jiān)督方法相比,監(jiān)督方法的分割效果有所提高。但是,人工提取特征依賴于先驗知識,并且特征設(shè)計存在局限性。為了解決該問題,有學(xué)者通過設(shè)計深度學(xué)習(xí)網(wǎng)絡(luò)模型自動提取血管特征并進行分類。如Fu等將眼底血管分割看成是一個邊界檢測問題,通過將全卷積神經(jīng)網(wǎng)絡(luò)和全連接條件隨機場相結(jié)合,對血管進行分割[5]。Orlando等提出一種特殊的全連接條件隨機場模型來對血管進行分割[6]。Liskowski等提出使用深度神經(jīng)網(wǎng)絡(luò)對眼底血管進行分割,將血管分割問題看成是二分類問題,并且提出許多網(wǎng)絡(luò)的變體并結(jié)合結(jié)構(gòu)化預(yù)測的方法,使其可以同時對多個像素點進行分類[7]。監(jiān)督算法試圖尋找輸入與輸出之間的映射函數(shù),通過使用專家手動分割的標(biāo)準(zhǔn)圖像來訓(xùn)練模型[8]。但是,目前提出的基于卷積神經(jīng)網(wǎng)絡(luò)的血管分割模型仍然不能很好地識別出細小血管,且分割結(jié)果中存在噪聲。

綜上所述,目前關(guān)于眼底圖像細小血管分割的準(zhǔn)確率和靈敏度還有待提高。本研究在傳統(tǒng)U型網(wǎng)絡(luò)[9]基礎(chǔ)上進行改進優(yōu)化,旨在進一步改善細小血管的分割精度。首先,通過減少傳統(tǒng)U型網(wǎng)絡(luò)下采樣和上采樣操作的次數(shù),來滿足眼底數(shù)據(jù)較少條件下的數(shù)據(jù)需求問題;其次,將傳統(tǒng)U型網(wǎng)絡(luò)與殘差網(wǎng)絡(luò)[10]相結(jié)合,將卷積層串行連接方式改為本研究設(shè)計的殘差映射相疊加的形式,不僅加強了高維特征與低維特征的信息融合,還提高了特征使用的效率,從而更好地實現(xiàn)對微細血管的分割;最后,通過在結(jié)構(gòu)塊中每個卷積層之前加入批量歸一化函數(shù)(batch normalization, BN)和PReLU(parametric rectified linear unit)激活函數(shù),實現(xiàn)對網(wǎng)絡(luò)的優(yōu)化并進一步提高網(wǎng)絡(luò)的泛化能力。本研究還通過對原始圖像進行預(yù)處理操作使得血管分割的準(zhǔn)確率和靈敏度有了進一步的提高。

1 材料與方法

1.1 材料

1.1.1眼底圖像數(shù)據(jù)庫

DRIVE(http://www.isi.uu.nl/Research/Databases/DRIVE/)和CHASE_DB12(http://blogs.kingston.ac.uk/retinal/chasedbl)數(shù)據(jù)庫是公開的、常見的眼底圖像數(shù)據(jù)庫,目前發(fā)表的論文多采用這些通用的數(shù)據(jù)庫來驗證自己提出算法的性能。其中DRIVE眼底圖像數(shù)據(jù)庫是專門為了對比血管分割算法效果而建立的,該庫中的眼底圖像均來自一個糖尿病眼底病變篩查組織。DRIVE數(shù)據(jù)庫中共有40幅分辨率為565像素×584像素的眼底圖像,圖像為JPEG格式[8]。本研究按照DRIVE數(shù)據(jù)庫分好的訓(xùn)練集和測試集進行實驗,其中訓(xùn)練集中包含原始圖像、專家手動分割的標(biāo)準(zhǔn)血管圖像、眼底掩模圖像,各20幅用于進行網(wǎng)絡(luò)訓(xùn)練。測試集各部分也是20幅圖像,用于測試訓(xùn)練的效果。CHASE_DB1眼底圖像數(shù)據(jù)庫包含28幅分辨率為999像素×960像素的眼底圖像,該數(shù)據(jù)庫采集于14名兒童的左右眼。本研究實驗采用前20幅眼底圖像作為訓(xùn)練集,剩余的8幅眼底圖像作為測試集。

1.1.2眼底圖像擴增與預(yù)處理

針對訓(xùn)練集數(shù)據(jù)不足的問題,本研究將訓(xùn)練集中的20幅圖像以5為步長采用重疊圖像塊的方式進行分塊。根據(jù)原始眼底圖像的大小,將從DRIVE數(shù)據(jù)庫提取的圖像塊大小設(shè)置為32×32,從CHASE_DB1數(shù)據(jù)庫提取的圖像塊大小設(shè)置為64×64,從訓(xùn)練集中提取的圖像塊總數(shù)均為160 000。為了使網(wǎng)絡(luò)更好地分割出血管結(jié)構(gòu),首先對數(shù)據(jù)集中的圖像進行預(yù)處理。原始眼底圖像示例如圖1(a)所示。彩色眼底圖像可分解為紅、綠、藍等3種顏色通道,其中綠色通道分類整體對比度較高,幾乎沒有細節(jié)損失,能夠更好地顯示出眼底的血管結(jié)構(gòu),因此本研究使用綠色通道來進行后續(xù)的血管分割。綠色通道如圖1(b)所示。

為了更好地顯示眼底圖像中血管的結(jié)構(gòu)信息,本研究通過對眼底圖像中提取的綠色通道進行形態(tài)學(xué)高低帽變換來對圖像進行增強。首先對圖像分別進行高低帽變換,然后將經(jīng)過高帽變換后的圖像與低帽變換后的圖像相減,來達到增強圖像對比度的目的。具體的實驗結(jié)果如圖1(c)所示,可以清楚地看到眼底血管結(jié)構(gòu)的信息。為了更好地進行后續(xù)的處理,改善低對比度圖像,本研究采用對比度受限的直方圖均衡化方法(CLAHE)對視網(wǎng)膜眼底圖像進行進一步的增強,結(jié)果如圖1(d)所示。

圖1 眼底圖像及預(yù)處理。(a)眼底圖像;(b)綠色通道;(c)形態(tài)學(xué)處理;(d)CLAHE處理Fig.1 Fundus image and preprocessing. (a) Fundus image; (b) Green channel; (c)Morphological processing; (d)CLAHE processing

1.2 改進優(yōu)化U型網(wǎng)絡(luò)

目前文獻中的血管分割算法并不能很好地分割出低對比度的微細血管,并且由于病灶區(qū)域的影響,算法對于病變嚴(yán)重的眼底血管分割性能較差[11]。針對目前算法所存在的問題,結(jié)合專家手動標(biāo)注的標(biāo)準(zhǔn)血管圖像數(shù)據(jù)較少的問題,本研究將U型網(wǎng)絡(luò)結(jié)構(gòu)進行改進優(yōu)化,進一步改善眼底血管分割的性能。U型網(wǎng)絡(luò)是基于像素級的語義分割網(wǎng)絡(luò),對于醫(yī)學(xué)圖像等小數(shù)據(jù)集的圖像具有較好的分割性能。該網(wǎng)絡(luò)由收縮路徑和擴張路徑組成,其中收縮路徑通過下采樣操作逐漸減少圖像的空間維度,而擴張路徑通過上采樣操作逐步修復(fù)物體的細節(jié)和空間維度。原始網(wǎng)絡(luò)結(jié)構(gòu)中卷積層數(shù)量大約在20層,通過4次下采樣、4次上采樣來對圖像進行分割[9]。

為了避免數(shù)據(jù)量較少和層數(shù)過多引起的過擬合問題,本文將原始的U型網(wǎng)絡(luò)進行改進,網(wǎng)絡(luò)結(jié)構(gòu)采用2次下采樣、2次上采樣,且保留收縮路徑和擴張路徑之間的跳躍連接。由于本研究通過將眼底圖像剪裁成圖像塊的方式對眼底數(shù)據(jù)進行擴增,若對圖像塊進行多次下采樣和上采樣操作,將會導(dǎo)致血管特征的位置信息和具體細節(jié)丟失嚴(yán)重,故本研究通過減少上采樣和下采樣的次數(shù)來避免特征的細節(jié)丟失。同時,本研究采用零填充卷積(而非無填充),來保持輸入輸出圖像的大小相同。

為了充分利用網(wǎng)絡(luò)中各卷積層提取的特征信息,本研究將傳統(tǒng)的U型網(wǎng)絡(luò)改為殘差映射相疊加的方式。為了方便描述,本研究將傳統(tǒng)U型網(wǎng)絡(luò)中下采樣或上采樣操作之前的卷積層串行連接的部分看作一個結(jié)構(gòu)塊,如圖2所示。其中,input為網(wǎng)絡(luò)的輸入或者上一個結(jié)構(gòu)塊的輸出,每一個結(jié)構(gòu)塊由3個3×3的卷積層和1個1×1的卷積層組成,并將結(jié)構(gòu)塊中每一個卷積層的輸出分別看成是后面部分的輸入,通過殘差映射的方式分別進行計算,最后疊加作為該結(jié)構(gòu)塊的輸出。使用3個3×3的卷積層串行連接,可以獲取更深層次的特征圖。將結(jié)構(gòu)塊改為殘差映射的方式,提高了特征的使用效率,保證每一個卷積層提取的特征信息被充分利用。最后使用1×1的卷積層對圖像塊進行特征提取,可以有效減少訓(xùn)練的參數(shù)。

圖2 殘差結(jié)構(gòu)塊Fig.2 Residual structural block

為了解決網(wǎng)絡(luò)層數(shù)過多導(dǎo)致網(wǎng)絡(luò)泛化能力變差的問題,本研究在結(jié)構(gòu)塊中的每個卷積層之前加入PReLU激活函數(shù)和批量歸一化層。在全卷積神經(jīng)網(wǎng)絡(luò)中,由于數(shù)據(jù)不能確保一定是線性可分的,因此需要加入非線性因素來對數(shù)據(jù)進行分類[12]。故在網(wǎng)絡(luò)中加入激活函數(shù),使得網(wǎng)絡(luò)具有非線性映射學(xué)習(xí)能力。為此,本研究選用PReLU激活函數(shù),該函數(shù)具有較快的收斂速度,且不會出現(xiàn)梯度消失的問題,而且還解決了ReLU(rectified linear unit)存在神經(jīng)元“壞死”的情況。其定義為

圖4 改進的網(wǎng)絡(luò)結(jié)構(gòu)UAR-NetFig.4 The improved network architecture UAR-Net

(1)

圖3 殘差結(jié)構(gòu)塊優(yōu)化Fig.3 Optimization of residual structural blocks

全卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的本質(zhì)是學(xué)習(xí)圖像塊間的規(guī)律。由于每批訓(xùn)練的圖像小塊都是隨機選取的,那么網(wǎng)絡(luò)就需要每次去學(xué)習(xí)不同的分布,這樣會導(dǎo)致訓(xùn)練速度變慢[13]。同時,為了利用激活函數(shù)的非線性特性,數(shù)據(jù)之間的分布范圍不能過大。故本研究在激活函數(shù)和卷積層之前加入了批量歸一化函數(shù)(BN),將每批訓(xùn)練的圖像塊做歸一化處理。殘差結(jié)構(gòu)塊的優(yōu)化如圖3所示。

1.3 血管分割的網(wǎng)絡(luò)模型

本研究融合了U型網(wǎng)絡(luò)和殘差網(wǎng)絡(luò),提出了一種改進的網(wǎng)絡(luò)結(jié)構(gòu)(命名為UAR-Net),如圖4所示。

圖4所示為改進的UAR-Net網(wǎng)絡(luò)結(jié)構(gòu)。其中,每個藍色的條形框?qū)?yīng)一個多通道特征圖,條形框上面的數(shù)字代表特征通道的數(shù)量;綠色的條形框為復(fù)制的特征圖;不同顏色的箭頭表示進行不同的操作。改進的網(wǎng)絡(luò)UAR-Net包含收縮路徑和擴張路徑兩部分,收縮、擴張路徑各包含2個結(jié)構(gòu)塊并且相互對稱。收縮路徑中結(jié)構(gòu)塊是通過步長為2的池化操作相連接,因此第2個結(jié)構(gòu)塊中輸入圖像的大小為前一個結(jié)構(gòu)塊的一半。為了減少池化操作帶來的誤差,本研究設(shè)置第2個結(jié)構(gòu)塊中特征通道數(shù)均為第一個的2倍。擴張路徑中的結(jié)構(gòu)塊之間通過上采樣操作相連接,由于擴張路徑與收縮路徑對稱,因此圖像塊的大小和卷積核的數(shù)量均與收縮路徑相對應(yīng)。每一個結(jié)構(gòu)塊均由3個3×3的卷積層和1個1×1的卷積層組成,將結(jié)構(gòu)塊中每個卷積層的輸出均作為其后面所有卷積層的輸入,并通過殘差映射的方式分別進行計算最后疊加作為該結(jié)構(gòu)塊的輸出。在每次進行卷積操作之前使用PReLU激活函數(shù)和批量歸一化層來進一步優(yōu)化網(wǎng)絡(luò)。由于UAR-Net為端到端的網(wǎng)絡(luò)結(jié)構(gòu),因此將網(wǎng)絡(luò)提取的特征送入softmax分類器后,可以直接輸出分割后的血管概率圖。改進后的UAR-Net網(wǎng)絡(luò)一共包含22層。

1.4 訓(xùn)練和測試

本研究是在tensorflow框架下的keras開發(fā)庫上進行網(wǎng)絡(luò)搭建的。通過在DRIVE和CHASE_DB1兩個國際公開的眼底圖像庫上進行實驗。為了在訓(xùn)練過程中得到盡可能多的樣本,更好地訓(xùn)練網(wǎng)絡(luò)來防止過擬合,本研究在每幅眼底圖像中以5個像素點為步長隨機提取圖像塊,并將提取出的160 000個圖像塊送入UAR-Net網(wǎng)絡(luò)中進行訓(xùn)練,訓(xùn)練集和驗證集的比例為9∶1,其中訓(xùn)練集是學(xué)習(xí)樣本數(shù)據(jù)集,通過匹配參數(shù)來建立分類器;而驗證集是調(diào)整學(xué)習(xí)出來的網(wǎng)絡(luò)模型參數(shù),并通過輸出模型在驗證集上的損失函數(shù)值和準(zhǔn)確率來找出性能最佳的網(wǎng)絡(luò)模型。最后使用測試集來測試UAR-Net網(wǎng)絡(luò)模型的準(zhǔn)確性。本研究采用隨機梯度下降的優(yōu)化函數(shù)來對網(wǎng)絡(luò)參數(shù)進行優(yōu)化,采用對數(shù)交叉熵代價函數(shù)作為損失函數(shù)來衡量網(wǎng)絡(luò)的分類誤差。最初始的學(xué)習(xí)率設(shè)置為0.001,每次訓(xùn)練32個圖像塊,共訓(xùn)練120輪。

1.5 評估指標(biāo)

將彩色眼底圖像中的血管分割出來,實際上是將圖像中的每個像素點劃分為血管點和非血管點兩類。為了定量比較分割結(jié)果和專家手動標(biāo)定的金標(biāo)準(zhǔn)結(jié)果,可以分為4種量化統(tǒng)計指標(biāo):真陽性(TP)表示分割正確的血管點,假陽性(FP)表示分割錯誤的血管點,真陰性(TN)表示分割正確的背景點,假陰性(FN)表示分割錯誤的背景點[8]。通過計算可以得到準(zhǔn)確度(Acc)、靈敏度(Sn)和特異性(Sp)這3個衡量指標(biāo),其中Acc表示分割正確的血管點占整幅圖像總像素點的比例,Sn表示分割正確的血管點占金標(biāo)準(zhǔn)血管點總和的比例,Sp表示分割正確的背景點占金標(biāo)準(zhǔn)背景總和的比例。具體計算方法為

(2)

(3)

(4)

ROC曲線(receiver operating characteristic curve)是衡量二分類問題和血管分割準(zhǔn)確度的重要曲線。本研究通過計算ROC曲線下方的面積大小(area under curve,AUC)來判斷血管分割性能的好壞,其中AUC的值越接近1,表示該對應(yīng)血管分割方法性能越好。

2 結(jié)果

本研究在DRIVE和CHASE_DB1眼底圖像數(shù)據(jù)庫上進行實驗并與文獻的結(jié)果進行對比,通過分析靈敏度(Sn)、特異性(Sp)、準(zhǔn)確率(Acc)和AUC(ROC曲線下的面積)這4個指標(biāo),評估本研究提出的UAR-Net網(wǎng)絡(luò)的血管分割性能。表1列舉了在DRIVE數(shù)據(jù)庫中使用目前最先進的方法所得到的性能指標(biāo),可以看出,本研究在準(zhǔn)確率和AUC性能上均比對比算法有所提升,其中準(zhǔn)確率達到0.955 8,AUC達到0.978 4。實驗結(jié)果顯示,靈敏度可以達到0.807 2,與目前最好的方法相比大約提升了2%。

表2列舉了在CHASE_DB1數(shù)據(jù)庫中使用目前最先進方法所得到的性能指標(biāo)。由于CHASE_DB1數(shù)據(jù)庫中的圖像沒有對應(yīng)的掩模圖像,本研究采用文獻[19]中描述的規(guī)則,生成了28張眼底圖像對應(yīng)的掩模圖像。按照表2中列舉出的實驗對比結(jié)果可以看出,本研究提出的網(wǎng)絡(luò)在靈敏度、準(zhǔn)確率和AUC上均優(yōu)于目前各種方法,而特異性與目前最優(yōu)的算法非常相近。在實驗結(jié)果中,靈敏度為0.795 2,準(zhǔn)確率為0.963 6,AUC為0.981 9,特異性為0.980 2。

在DRIVE和CHASE_DB1眼底圖像數(shù)據(jù)庫上得到的血管分割實驗結(jié)果舉例如圖5所示,圖中第1行和第2行的圖像是取自DRIVE數(shù)據(jù)庫,第3行和第4行的圖像取自CHASE_DB1數(shù)據(jù)庫。圖中從第1列到第5列分別表示:原始眼底圖像、專家手動標(biāo)注的標(biāo)準(zhǔn)血管圖、文獻[7]血管分割概率圖、文獻[18]血管分割概率圖、本研究提出網(wǎng)絡(luò)分割的血管概率圖。其中,紅色方框為本研究實驗結(jié)果對微細血管的分割情況。通過對比專家手動分割的標(biāo)準(zhǔn)血管圖像和文獻[7]與文獻[18]中的實驗結(jié)果,可以看出,本研究提出的UAR-Net網(wǎng)絡(luò)在處理對比度過強或者過暗的眼底圖像時,可以準(zhǔn)確地分割出主要的血管結(jié)構(gòu),并且可以較好地分割出眼底圖像中具有中心線反射和低對比度的微細血管。

表1DRIVE數(shù)據(jù)集上各種算法的實驗結(jié)果

Tab.1ComparisonofexperimentalresultsonaDRIVEdataset

MethodsyearSnSpAccAUCMarin[14]20110.706 70.980 10.945 20.958 8Cheng[15]20140.725 20.979 80.947 40.964 8Li[16]20160.756 90.981 60.952 70.973 8Orlando[6]20170.789 70.968 4——Dasgupta[17]20170.769 10.980 10.953 30.974 4Yan[18]20180.765 30.981 80.954 20.975 2our proposed method20180.807 20.977 40.955 80.978 4

表2CHASE_DB1數(shù)據(jù)集上各種算法的實驗結(jié)果

Tab.2ComparisonofexperimentalresultsonaCHASE_DB1dataset

MethodYearSnSpAccAUCRoychowdhury[20]20150.761 50.957 50.946 70.962 3Zhang(LAD-OS)[21]20160.762 60.966 10.945 20.960 6Zhang(LID-OS)[21]20160.756 20.967 50.945 70.956 5Li[16]20160.750 70.979 30.958 10.971 6Orlando[6]20170.727 70.971 5——Yan[18]20180.763 30.980 90.961 00.978 1Our proposed method20180.795 20.980 20.963 60.981 9

圖5 UAR-Net網(wǎng)絡(luò)在DRIVE和CHASE_DB1數(shù)據(jù)庫上進行血管分割的實驗結(jié)果(第1列~第5列依次為:原始眼底圖像、專家手動標(biāo)注的血管、文獻[7]血管分割概率圖、文獻[18]血管分割概率圖、本研究血管分割概率圖)。(a)和(b)DRIVE數(shù)據(jù)庫的眼底圖像;(c)和(d)CHASE_DB1數(shù)據(jù)庫的眼底圖像Fig.5 Exemplar vessel segmentation results by the proposed UAR-Net framework on the datasets DRIVE and CHASE_DB1(From Col 1 to Col 5: the original fundus images, the manual annotations, the probability maps of [7], the probability maps of [18], our proposed probability maps). (a)and(b)The fundus image of DRIVE;(c)and(d)The fundus image of CHASE_DB1;

3 討論

本研究利用深度學(xué)習(xí)中的全卷積神經(jīng)網(wǎng)絡(luò)對眼底圖像中的血管進行分割。為了解決傳統(tǒng)圖像處理算法無法分割出低對比度的微細血管且靈敏度較低的問題,本研究利用全卷積神經(jīng)網(wǎng)絡(luò)強大的特征提取和組合能力,將U型網(wǎng)絡(luò)與殘差映射的思想相結(jié)合,不僅實現(xiàn)了高維特征與低維特征的信息融合,還提高了特征使用的效率。本研究在DRIVE和CHASE_DB1眼底圖像數(shù)據(jù)庫上進行實驗,并通過設(shè)置步長隨機提取圖像塊來增加網(wǎng)絡(luò)訓(xùn)練的數(shù)據(jù)量,避免網(wǎng)絡(luò)過擬合。

在網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計和參數(shù)設(shè)置上,本研究在傳統(tǒng)U型網(wǎng)絡(luò)的基礎(chǔ)之上,將網(wǎng)絡(luò)定義為通過上采樣或下采樣操作連接的結(jié)構(gòu)塊形式。根據(jù)實驗數(shù)據(jù)量較少的特點,本研究通過減少網(wǎng)絡(luò)層數(shù),僅使用兩次上采樣、兩次下采樣操作。為了充分利用網(wǎng)絡(luò)中提取的特征信息,本研究將每個結(jié)構(gòu)塊改為3個3×3的卷積層和1個1×1的卷積層串行連接,并將結(jié)構(gòu)塊中的每一個卷積層分別看成是后面部分的輸入,通過殘差映射的方式分別進行計算最后疊加作為該結(jié)構(gòu)塊的輸出。為了增強網(wǎng)絡(luò)的泛化能力,更好地識別細小血管結(jié)構(gòu),本研究在每個卷積層之前加入PReLU激活函數(shù)和批量歸一化層。本研究通過對傳統(tǒng)的U型網(wǎng)絡(luò)進行改進,可以更好地分割出具有中心線反射的血管和低對比度的微細血管,使得本研究算法的靈敏度、準(zhǔn)確率和ROC曲線下的面積(AUC)指標(biāo)都優(yōu)于目前文獻中提出的算法。

圖6 含有嚴(yán)重病灶的眼底圖像血管分割結(jié)果。(a)原始眼底圖像塊;(b)專家手動標(biāo)注的血管;(c)文獻[18]血管分割概率圖;(d)本研究血管分割概率圖Fig.5 Blood vessels segmentation results of fundus images with severe lesions. (a) The original fundus image block; (b) The vessel labelled by an expert; (c) The probability maps of [18]; (d) Proposed probability maps

為了更加直觀地對比血管分割的性能,本研究通過和同樣采用深度學(xué)習(xí)方法且具有較高準(zhǔn)確率的文獻[7]和文獻[18]的實驗結(jié)果進行比較,從總體上看,UAR-Net網(wǎng)絡(luò)輸出的血管概率圖中噪聲點較少。從細節(jié)上看,本研究結(jié)果可以更好地分割出細小血管且保留血管較完整,血管連續(xù)性較好。但是由于眼底圖像中可能存在病灶區(qū)域,且沒有對網(wǎng)絡(luò)輸出的血管概率圖做后處理操作,使得輸出結(jié)果中可能存在噪聲或部分病灶,導(dǎo)致特異性指標(biāo)沒有明顯提升。為了更加直觀地觀察病灶對于血管分割的影響,本研究截取DRIVE數(shù)據(jù)庫中眼底圖像病灶區(qū)域較為嚴(yán)重的部分,通過和目前算法最優(yōu)的文獻[18]的實驗結(jié)果進行比較,從圖6中可以看出,本研究所提出的UAR-Net網(wǎng)絡(luò)可以較好地分割出血管,且受病灶區(qū)域影響較小,但是在病灶聚集區(qū)域仍然不能完整地分割出血管結(jié)構(gòu)。在本研究后續(xù)的工作中,會具體研究病變嚴(yán)重的眼底圖像血管分割問題,并通過相應(yīng)的后處理算法對血管概率圖中的病灶和噪聲進行去除。

4 結(jié)論

為了改善眼底圖像細小血管分割準(zhǔn)確率不高以及靈敏度較低的問題,本研究在傳統(tǒng)U型網(wǎng)絡(luò)的基礎(chǔ)上,減少下采樣和上采樣操作的次數(shù)并將網(wǎng)絡(luò)定義為結(jié)構(gòu)塊的組合方式,通過結(jié)合殘差網(wǎng)絡(luò)的思想將每個結(jié)構(gòu)塊改為殘差映射相疊加的形式,并通過使用批量歸一化和PReLU激活函數(shù)對網(wǎng)絡(luò)進行優(yōu)化。相比目前文獻的結(jié)果,本研究提出的網(wǎng)絡(luò)在DRIVE和CHASE_DB1這兩個眼底圖像庫上能較好地分割出低對比度的微細血管,且識別眼底血管的準(zhǔn)確率和AUC指標(biāo)均有部分提高,靈敏度方面有明顯的提高。

猜你喜歡
數(shù)據(jù)庫結(jié)構(gòu)研究
FMS與YBT相關(guān)性的實證研究
《形而上學(xué)》△卷的結(jié)構(gòu)和位置
遼代千人邑研究述論
視錯覺在平面設(shè)計中的應(yīng)用與研究
科技傳播(2019年22期)2020-01-14 03:06:54
論結(jié)構(gòu)
中華詩詞(2019年7期)2019-11-25 01:43:04
EMA伺服控制系統(tǒng)研究
數(shù)據(jù)庫
財經(jīng)(2017年2期)2017-03-10 14:35:35
論《日出》的結(jié)構(gòu)
數(shù)據(jù)庫
財經(jīng)(2016年15期)2016-06-03 07:38:02
數(shù)據(jù)庫
財經(jīng)(2016年3期)2016-03-07 07:44:46
主站蜘蛛池模板: 亚洲大尺码专区影院| 欧美中出一区二区| 亚洲黄网在线| 精品久久久久久久久久久| 99无码中文字幕视频| 污污网站在线观看| 久久男人视频| 亚洲天堂成人在线观看| 99视频精品在线观看| 波多野结衣久久高清免费| 欧美一级在线看| 中文字幕首页系列人妻| 亚洲精品国产日韩无码AV永久免费网 | 真实国产乱子伦高清| 青草国产在线视频| 欧美特黄一级大黄录像| 中文字幕不卡免费高清视频| 亚洲狼网站狼狼鲁亚洲下载| 国产综合欧美| 噜噜噜综合亚洲| 久久精品日日躁夜夜躁欧美| 午夜久久影院| 欧美自拍另类欧美综合图区| 国产美女自慰在线观看| 特级欧美视频aaaaaa| 久久久久88色偷偷| 四虎综合网| 国产精品美女网站| 无遮挡国产高潮视频免费观看 | 夜夜拍夜夜爽| 国产男女XX00免费观看| 欧美中出一区二区| 一级爆乳无码av| 激情综合图区| 国产av无码日韩av无码网站| 亚洲综合18p| 99精品在线看| 欧美日韩综合网| 天天摸天天操免费播放小视频| 亚洲天堂成人| 中文成人无码国产亚洲| 欧美激情第一区| 日本精品中文字幕在线不卡| 四虎亚洲精品| 91小视频在线播放| 久久a级片| 久久这里只精品热免费99| 性69交片免费看| 91毛片网| 亚洲欧美一区二区三区蜜芽| 无码日韩人妻精品久久蜜桃| 亚洲色无码专线精品观看| 国产亚洲高清在线精品99| 国产另类乱子伦精品免费女| 国产超碰一区二区三区| 91精品啪在线观看国产| AV无码无在线观看免费| 人妻中文久热无码丝袜| 亚洲91在线精品| 另类综合视频| 国产原创第一页在线观看| 午夜国产精品视频| 强奷白丝美女在线观看| 国产成人免费视频精品一区二区| 九色在线视频导航91| 国产精品jizz在线观看软件| 成人小视频在线观看免费| 日韩免费毛片视频| 久久精品国产一区二区小说| 日韩毛片基地| 高清色本在线www| 久青草国产高清在线视频| 婷婷午夜影院| 久久毛片免费基地| 亚洲综合狠狠| 天天婬欲婬香婬色婬视频播放| 亚洲欧美极品| 狠狠综合久久| 色老头综合网| 18禁高潮出水呻吟娇喘蜜芽| 日韩麻豆小视频| 波多野结衣久久高清免费|