999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種混合特征高效融合的視網膜血管分割方法

2017-10-14 14:55:07蔡軼珩高旭蓉邱長炎崔益澤
電子與信息學報 2017年8期
關鍵詞:數據庫方法

蔡軼珩 高旭蓉 邱長炎 崔益澤

?

一種混合特征高效融合的視網膜血管分割方法

蔡軼珩*高旭蓉 邱長炎 崔益澤

(北京工業大學信息學部 北京 100124)

將機器學習運用到視網膜血管分割當中已成為一種趨勢,然而選取什么特征作為血管與非血管的特征仍為眾所思考的問題。該文利用將血管像素與非血管像素看作二分類的原理,提出一種混合的5D特征作為血管像素與非血管像素的表達,從而能夠簡單快速地將視網膜血管從背景中分割開來。其中5D特征向量包括CLAHE (Contrast Limited Adaptive Histgram Equalization),高斯匹配濾波,Hesse矩陣變換,形態學底帽變換,B-COSFIRE(Bar-selective Combination Of Shifted FIlter REsponses),通過將融合特征輸入SVM(支持向量機)分類器訓練得到所需的模型。通過在DRIVE和STARE數據庫進行實驗分析,利用Se, Sp, Acc, Ppv, Npv, F1-measure等常規評價指標來檢測分割效果,其中平均準確率分別達到0.9573和0.9575,結果顯示該融合方法比單獨使用B-COSFIRE或者其他目前所提出的融合特征方法更準確有效。

機器學習;視網膜;血管分割;特征向量;支持向量機

1 引言

青光眼和白內障、糖尿病等疾病都會造成視網膜眼底血管的病變,如果不能對視網膜病變患者及時治療,常會導致長期患有這些疾病的患者承受巨大痛苦甚至失明。因此定期做眼底檢查很重要,然而目前視網膜病是由專科醫生來人工診斷,首先對患者的眼底圖像進行手工血管標記,然后再測量所需的血管口徑、分叉角度等參數。其中手工標記血管的過程大概需要兩個小時左右,因此,自動化提取血管對節約人力物力尤為重要,在減輕專科醫生負擔的同時更有效解決了偏遠地區缺乏專科醫生的問題。鑒于視網膜血管分割[1]的重要性,國內外學者做了許多研究,分為非監督和監督兩類方法。

非監督方法是通過某種規則來提取血管目標,主要包括:匹配濾波[2]、形態學處理[3]、血管追蹤以及基于模型的算法等,更多內容可以參閱文獻[4]。

監督方法則是通過對像素分類從而獲得血管分割結果。主要分為兩個過程:特征提取和分類。特征提取階段通常包括Gabor濾波[5],高斯匹配濾波,Hesse矩陣變換[6]等方法,并將其作為判斷血管與非血管的特性[7]輸入到分類器當中進行分類。分類階段常用的分類器有SVM[8], RF(隨機森林)等分類器[9]。Azzopardi等人[10]提出用B-COSFIRE濾波器來進行血管分割,該方法通過采用DoG濾波器模擬感受野的生物特性。且能夠結合血管結構使用對稱與非對稱B-COSFIRE對連續血管和血管末端完成特征提取。Strisciuglio等人[11]在此基礎上,通過改變構成多尺度的特征向量,再用GMLVQ進行特征向量的選擇,用SVM分類器對像素點進行分類。但是,單獨使用B-COSFIRE濾波使得特征提取變得更有局限性,還有很大的提升空間。Aslani等人[12]在2016年提出了17-D的特征向量,其中包括CLAHE(1-D), Hesse變換(1-D),形態學高帽變換(1-D), Gabor變換(13-D), B-COSFIRE(1-D),用隨機森林進行分類。雖然它將B-COSFIRE和其他特征進行融合使用,達到了較好的效果,但高維特征向量添加了計算的復雜度。針對于此,本文提出了一種改進方法,將復雜的Gabor特征向量去掉,加入高斯匹配濾波,且將高帽變換換作底帽變換,形成每個像素的5-D特征向量,通過SVM分類器,將每個像素點分類為血管或者非血管,再經過后處理將分割錯誤或者沒有分割的孤立噪聲點去掉,從而形成簡單有效的視網膜血管分割方法。

2 數據源和本文方法

2.1數據源

本文實驗所用的視網膜圖像數據均來自于DRIVE和STARE兩個數據庫,且將數據庫中第一位專家手動分割的血管網絡結構作為標準結果。

DRIVE(Digital Retinal Images for Vessel Extraction)眼底圖像數據庫中有40幅彩色眼底圖像,大小為584×565, 20幅測試圖,20幅訓練圖,其中7幅為病變圖像;STARE(STructured Analysis of the REtina)眼底圖像數據庫包含20幅彩色視網膜圖像,大小為700×605,其中10幅為病變圖像,但每幅圖像沒有相對應的掩膜,本文通過ImageJ工具得到掩膜以方便找到感興趣區域。

2.2方法

如圖1所示,本文通過預處理來增強血管對比度,并將其作為像素的1維特征。其次,分別對預處理之后的圖像進行特征提取,分別將其作為像素點的特征向量,將感興趣區域的像素進行隨機選取一定數量作為訓練樣本,歸一化,并將專家分割的像素結果作為分類標簽,進行分類器的訓練形成訓練模型。將測試圖像的特征向量進行歸一化,輸入分類器判斷其每個像素的分類結果,通過后處理去除孤立噪聲點,并將分割圖像呈現出來。

2.2.1預處理 各類研究表明,綠色通道的對比度明顯比其他通道強,由此選取綠色通道。由于采集到的視網膜眼底圖像的亮度往往不均勻,所以對綠色通道圖進行CLAHE處理。CLAHE即受限對比度自適應直方圖均衡化能夠將圖像分成塊,分別在每個塊內進行灰度直方圖的裁剪限幅,從而均衡眼底圖像的亮度,使其更適合后續血管提取。

2.2.2特征提取

(1)高斯匹配濾波: 經過分析視網膜血管橫截面信息,高斯匹配濾波函數可以模擬視網膜血管的灰度分布,利用高斯匹配濾波函數的形狀和走向來逼近視網膜圖像血管。

圖2(a)為一段血管圖,圖2(b)為豎線相應的灰度級圖。可以看到3個比較大的血管灰度級明顯呈高斯狀走向,很多肉眼無法觀察到的細小血管也呈高斯狀走向,因此,通過高斯匹配濾波來實現粗細血管的增強。由于血管的方向是任意的,因此,本文采用12個不同方向的高斯核模板來對視網膜圖像進行匹配濾波,找到相應的最大響應作為該像素的響應值。2維高斯匹配濾波核函數為

式中,表示高斯曲線的方差,L表示y軸被截斷的視網膜血管長度,濾波窗口的寬度選擇。另外,理論上L越大,能夠使視網膜圖像平滑效果更優,同時還能夠降低視網膜圖像噪聲,但是L的加大會引起眼底血管寬度變大,與實際寬度不同,降低準確度。進行多次實驗,選定參數使得匹配濾波核為一個77的矩陣從而達最佳的視網膜血管匹配效果。

圖2 血管的橫截面灰度圖

(3)

(3)形態學底帽變換: 文獻[12]中用到的是形態學高帽變換,然而形態學高帽變換常用作提取在暗背景下的亮目標,底帽變換則相反,對于視網膜圖像來說,血管與其背景相比較暗,所以,選擇底帽變換來提取所需血管。本文使用線形結構元素,底帽變換可以表示為

(5)

(4)B-COSFIRE: DoG模型最早用在模擬貓的視網膜神經節細胞的同心圓拮抗空間特性,根據復雜細胞感受野的生理模型和DoG的數學模型,文獻[10]提出B-COSFIRE濾波模型是由一組LGN細胞計算模型的幾何平均值,從而模擬了復雜細胞感受野的工作機制,其原理如圖3所示,這種模型對于檢測血管之類的帶狀結構有著很好的效果。

圖3中虛線是B-COSFIRE的作用區域,黑點處的B-COSFIRE響應通過計算一組DoG濾波響應的乘積加權幾何平均得到。DoG濾波器如式(6):

圖4(a)中的5個黑點表示DoG響應最大的位置,構成了一組DoG濾波響應記為,圖4(b)中的3個黑點同樣。由于B-COSFIRE濾波器的中心點的輸出需要利用中點的DoG濾波響應,為了提高各個點位置的容錯性,對DoG濾波響應進行模糊移位操作,需計算每個位置極坐標鄰域的DoG濾波器的最大加權閾值響應。權重通過DoG濾波響應與高斯函數的系數的乘積得到,,,為常數,為與中心濾波器之間的距離。模糊移位的DoG濾波響應為

其中, , B-COSFIRE濾波響應是由一組集合的模糊移位DoG濾波響應的乘積加權幾何平均計算得到。如式(8)所示:

圖4 B-COSFIRE參數配置

其中,

由于血管方向是任意的,經旋轉濾波器12個方向來選取最大值。本文將對稱和非對稱B-COSFIRE濾波響應進行相加得到最后的特征圖。B-COSFIRE濾波一直應用在視網膜圖像處理的參數均同文獻[12],也為了與文獻[12]更好地比較,本文參數選取也同文獻[12]。

本文中的5-D特征圖如圖5所示。將每個像素點用一個5維特征向量進行表示為

由于各個特征向量變換范圍不一,需要將其特征訓練集歸一化到。

2.2.3分類過程 訓練:DRIVE數據庫:對每一幅訓練圖分別取1500個血管像素點和非血管像素點(總共60000個正反樣本),選取的樣本數是文獻[12]的1/5,歸一化后,作為訓練樣本,血管標簽為1,非血管標簽為0。STARE數據庫沒有進行訓練集和測試集分類,需要自己將其進行分類。本文將每幅圖像中取少量像素點作為訓練樣本,整幅圖像作為測試樣本,與DRIVE一樣對每幅圖分別選擇1500個正反樣本。通過libsvm工具箱進行SVM訓練,所用的核函數是RBF核函數,由于樣本數較多,尋優實現比較費時,本文C使用常用默認值1,選擇0.01,訓練得到很好的模型。

測試:對于測試集圖像中的像素點同樣提取特征向量,進行歸一化,輸入SVM模型當中,從而得到血管分割二值圖。

2.2.4后處理 輸出圖像中有一些孤立的噪聲點,被錯誤的當作血管,通過去除面積小于25像素的塊去除這些噪聲點。

3 實驗結果與分析

3.1評估方法

為了評價算法的分割性能,將本文方法的視網膜血管分割結果與專家手動分割結果進行比較,從而討論視網膜圖像像素點的分類效果。各種分類結果如表1。

圖5 各個特征圖

表1血管分類情況

血管非血管 識別為血管識別為非血管TP(真陽性)FN(假陰性)FP(假陽性)TN(真陰性)

如表 1所示,對于血管像素,若算法分割結果與專家手動分割結果一致,則為真陽性,否則為假陽性;對于非血管(背景)像素,若算法分割結果與專家手動分割結果一致,則為真陰性,否則,為假陰性。為了評估本文提出的算法,并與其他方法進行比較,分別計算Se(敏感性),Sp(特異性),Acc(準確率),但由于在視網膜圖像中非血管像素所占比例很大,即使沒有分割出血管,Acc依然可以達到90%以上,所以本文也通過其他評估參數如Ppv(精確率),Npv, F1-measure, AUC(ROC曲線下的面積)等來進行評估。各評估參數如表 2所示。

3.2實驗結果與對比

兩個數據庫均選擇第1位專家的手動分割結果作為評價標準,每個數據庫中總結評估結果如表3和表4。

在DRIVE數據庫中,Se, Sp, Acc, AUC的平均值分別達到0.8336, 0.9781, 0.9573, 0.9651, F1-measure最好可達到0.8266,此時Acc達到0.9636, F1-measure最小為0.7131,此時,Acc為0.9512;在STARE數據庫中,Se, Sp, Acc, AUC的平均值分別達到0.8519, 0.9743, 0.9575, 0.9703, F1-measure最好可達到0.8305,此時Acc為0.9683,F1-measure最小為0.6363,此時Acc為0.9255,本文將最好與最壞的分割結果展示如圖6。

表2分割效果評估

評估項公式 Se(TPR)TP/(TP+FN) SpTN/(TN+FP) Acc(TP+TN)/(TP+FP+TN+FN) PpvTP/(TP+FP) NpvTN/(TN+FN) F1-measure(2×Ppv×TPR)/(Ppv+TPR)

最壞情況下血管大部分被分割出來,但是由于病變的出現,導致有的部分出現了片狀的區域,換言之,若出現這種情況,并非就一定是一件壞事,當醫生發現這張視網膜血管圖存在異象時,從而專注分析它的具體病變情況,同樣給醫生為病人的檢查節省了大量的時間,提高了效率。

本文在文獻[12]的基礎上,添加了高斯匹配濾波來更好模擬血管的走向,以及將其高帽變換換做底帽變換使得血管能夠從背景中很好地顯現出來,為了分析各個特征的影響程度,如表5,表6所示:在CLAHE, Hesse, B-COSFIRE這3維特征向量,分別添加高斯匹配濾波和底帽變換,則Se, Sp, Acc等評估參數都明顯增大。在第2種組合的基礎上,若添加了高帽變換,所得到的分割結果比第2種組合有所提升,將其高帽變換換做底帽變換,也就是本文方法,則各方面的評估參數都有了明顯的提升,證明了高斯匹配濾波的有效性,同時證實了與文獻[12]相比,底帽變換比高帽變換能夠更好地反映視網膜血管的特性。也正是各個特征向量的相互補充,使得本文方法取得很好的分割效果。

其次,將本文方法與現有的方法進行比較如表7和表8。從中看出與中外近期文獻相比,本文中Se,Npv的值明顯高于其他方法,在表7的DRIVE數據庫實驗當中,本文方法在準確率上高于所有其他方法,在表8的STARE數據庫實驗當中,本文方法在準確率上高于除文獻[12]以外的其他方法,雖然其準確率略低于文獻[12],但是,本文在文獻[12]基礎上去除了Gabor濾波使得特征向量從17-D降低到5-D特征向量,從而將計算復雜度降低,另外,所取的樣本遠遠少于文獻[12],訓練時間大大降低,卻能達到基本不相上下的測試準確率。

表3 DRIVE測試集分割結果

表 4 STARE測試集分割結果

圖 6 DRIVE和STARE中的最好與最壞分割情況

表 5 DRIVE數據庫

表6 STARE數據庫

表7 DRIVE數據庫

表8 STARE數據庫

實驗中所使用計算機的 CPU 為 Intel Core i5-2520M處理器,核心頻率為 2.5 GHz, 4GB RAM,軟件平臺為 MATLAB R2014a,就DRIVE數據庫而言,文獻[5]處理一副圖像所用時間達到2 min以上,文獻[10]用時15.5 s左右,文獻[11]用時53 s左右,文獻[12]處理一副圖像需要220 s左右,而本文方法僅需要90 s左右,相比文獻[12]而言,降低用時的同時且能達到很好的準確率。

為了進一步檢驗本文方法的有效性,本文做了交叉訓練,即在DRIVE數據庫訓練得到的模型測試集用STARE,反之在STARE數據庫訓練得到的分割模型用DRIVE數據庫的測試集來檢驗,交叉訓練結果如表9所示。本文方法的Se, Sp, Acc, AUC等均優于文獻[12]。綜合而言,本文在選取較少樣本的情況下,選擇較少的特征向量,將視網膜血管很好地分割出來,進一步證明在復雜度和分割效果上都優于文獻[12]。

4 結束語

本文在其他文獻的基礎上提出了一種基于混合特征高效融合的視網膜血管自動分割方法,對視網膜圖像中血管與非血管構建5D特征向量,包括CLAHE、高斯匹配濾波、Hesse矩陣變換、形態學變換、B-COSFIRE濾波變換,該方法選取較少的樣本經過SVM分類器訓練,形成用于分類血管像素與非血管像素的一種簡單有效的模型。與當前其他的監督算法相比,本文方法簡單且分割準確率高,分割速度快,對于視網膜病變的篩查及早期診斷具有重要意義。雖然本文方法得到很好的分割效果,但在接下來的進展中,需將傳統方法與現有的深度學習等特征提取方法相結合進一步提升分割效果。

表9交叉訓練結果

數據庫方法SeSpAccAUC DRIVE(STARE數據集訓練)文獻[12]0.73080.97400.94960.9595 本文方法0.78500.98530.96230.9636 STARE(DRIVE數據集訓練)文獻[12]0.74530.97600.95450.9719 本文方法0.85620.98120.95870.9789

[1] 揚琴, 趙景秀. 基于主成分分析的血管分割算法[J]. 電子技術設計與應用, 2016, 3: 66-70.

YANG Qin and ZHAO Jingxiu. Blood vessel segmentation algorithm based on principal components analysis[J].&, 2016, 45(3): 66-70.

[2] SINGH N P and SRIVASTAVA R. Retinal blood vessels segmentation by using Gumbel probability distributiaon function based matched filter[J]., 2016, 129(C): 40-50. doi: 10.1016/j.cmpb.2016.03. 001.

[3] FRAZ M M, BASIT A, and BARMAN S A. Application of morphological bit planes in retinal blood vessel extration[J].. 2013, 26(2): 274-286. doi: 10.1007/s10278-012- 9513-3.

[4] FRAZ M M, REMAGNINO P, HOPPE A,. Blood vessel segmentation methodologies in retinalimages-A survey[J]., 2012, 108(1): 407-433. doi: 10.1016/j.cmpb.2012.03009.

[5] 吳奎, 蔡冬梅, 賈鵬, 等. 基于2D Gabor小波與組合線檢測算子的視網膜血管分割[J]. 科學技術與工程, 2016, 16(12): 106-112.

WU Kui, CAI Dongmei, JIA Peng,. Retinal vessel segmentation based on 2D Gabor wavelet and combined line operators[J]., 2016, 16(12): 106-112.

[6] 于輝, 王小鵬. 基于HESSIAN增強和形態學尺度空間的視網膜血管分割[J]. 計算機應用與軟件, 2016, 33(8): 200-205.

YU Hui and WANG Xiaopeng. Retinal vessels segmentation based on Hessian enhancement and morphological scale space[J]., 2016, 33(8): 200-205.

[7] WAHEED Z, AKRAM M U, WAHEED A,. Person identification using vascular and non-vascular retinal feature[J]., 2016, 53: 359-371. doi: 10.1016/j.compeleceng.2016.03.010.

[8] RICCI E and PERFETTI R. Retinal blood vessel segmentation using line operators and support vector classification[J]., 2007, 26(10): 1357-1365. doi: 10.1109/TMI.2007.8985551.

[9] FRAZ M M, REMAGNINO P, HOPPE A,. An ensemble classification-based approach applied to retinal blood vessel segmentation[J]., 2012, 59(9): 2538-2548. doi: 10.1109/TBME. 2012.2205687.

[10] AZZOPARDI G, STRISCIUGLIO N, VENTO M,. Trainable COSFIRE filters for vessel delineation with application to retinal images[J]., 2015, 19(1): 46-57. doi: 10.1016/j.media.2014.08.002.

[11] STRISCIUGLIO N, AZZOPARDI G, VENTO M,. Supervised vessel delineation in retinal fundus images with the automatic selection of B-COSFIRE filters[J]., 2016, 27(8): 1137-1149. doi: 10.1007 //s00138-016-0781-7.

[12] ASLANI S and SARNEL H. A new supervised retinal vessel segmentation method based on robust hybrid feature[J]., 2016, 30: 1-12. doi: 10.1016/j.bspc.2016.05006.

Retinal Vessel Segmentation Method with Efficient Hybrid Features Fusion

CAI Yiheng GAO Xurong QIU Changyan CUI Yize

(,,100124,)

How to apply machine learning to retinal vessel segmentation effectively has become a trend, however, choosing what kind of features for the blood vessels is still a problem. In this paper, the blood vessels of pixels are regarded as a theory of binary classification, and a hybrid 5D features for each pixel is put forward to extract retinal blood vessels from the background simplely and quickly. The 5D eigenvector includes Contrast Limited Adaptive Histgram Equalization (CLAHE), Gaussian matched filter, Hessian matrix transform, morphological bottom hat transform and Bar-selective Combination Of Shifted Filter Responses (B-COSFIRE). Then the fusion features are input into the Support Vector Machine (SVM) classifier to train a model that is needed. The proposed method is evaluated on two publicly available datasets of DRIVE and STARE, respectively. Se, Sp, Acc, Ppv, Npv, F1-measure are used to test the proposed method, and average classification accuracies are 0.9573 and 0.9575 on the DRIVE and STARE datasets, respectively. Performance results show that the fusion method also outperform the state-of-the-art method including B-COSFIRE and other currently proposed fusion features method.

Machine learning; Retina; Vessel segmentation; Feature vetor; Support Vector Machine (SVM)

TP391

A

1009-5896(2017)08-1956-08

10.11999/JEIT161290

2016-11-28;

改回日期:2017-04-14;

2017-05-11

蔡軼珩 caiyiheng@bjut.edu.cn

國家自然科學基金(61201360)

The National Natural Science Foundation of China (61201360)

蔡軼珩: 女,1974年生,博士,副教授,主要研究方向為醫學圖像處理.

高旭蓉: 女,1992年生,碩士,主要研究方向為圖像處理.

邱長炎: 男,1991年生,碩士,主要研究方向為圖像處理.

崔益澤: 男,1993年生,碩士,主要研究方向為圖像處理.

猜你喜歡
數據庫方法
學習方法
數據庫
財經(2017年15期)2017-07-03 22:40:49
數據庫
財經(2017年2期)2017-03-10 14:35:35
數據庫
財經(2016年15期)2016-06-03 07:38:02
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
數據庫
財經(2016年3期)2016-03-07 07:44:46
數據庫
財經(2016年6期)2016-02-24 07:41:51
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: jijzzizz老师出水喷水喷出| 国产情侣一区二区三区| 又猛又黄又爽无遮挡的视频网站| 亚洲欧美自拍一区| 国产色伊人| 免费xxxxx在线观看网站| 精品国产Av电影无码久久久| 欧美在线视频不卡第一页| 国产视频自拍一区| 国产精品yjizz视频网一二区| a色毛片免费视频| 这里只有精品免费视频| 国产性生交xxxxx免费| 亚洲国产日韩欧美在线| 福利视频一区| 欧美一级夜夜爽| 国产精品免费p区| 最新国产在线| 国产91无码福利在线| 四虎永久免费在线| 日本欧美视频在线观看| 毛片免费高清免费| 国产亚洲精品97在线观看 | 91久久国产热精品免费| 中文字幕 欧美日韩| 国产精品护士| 波多野结衣久久精品| 亚洲欧美激情小说另类| 亚洲综合色婷婷| 国产精品所毛片视频| 婷婷色在线视频| 啪啪免费视频一区二区| 国产三级精品三级在线观看| 久夜色精品国产噜噜| 日本久久网站| 99爱在线| 国产乱子伦无码精品小说| 国产免费观看av大片的网站| 国产剧情国内精品原创| 国产男人天堂| 国产免费网址| 激情午夜婷婷| 中文字幕无码电影| 欧洲高清无码在线| 一级毛片无毒不卡直接观看 | 亚洲日韩图片专区第1页| 亚洲成人动漫在线观看 | 亚洲欧洲日韩综合| 中国国产一级毛片| 在线视频亚洲色图| 91精品啪在线观看国产60岁| 热99re99首页精品亚洲五月天| 在线播放精品一区二区啪视频| 日本午夜三级| 久久99国产综合精品1| 成年女人a毛片免费视频| 日本一区二区三区精品AⅤ| 2021无码专区人妻系列日韩| 日韩福利在线观看| 亚洲人成影视在线观看| 成人毛片免费观看| 尤物在线观看乱码| 亚洲第一区精品日韩在线播放| 视频一本大道香蕉久在线播放 | 一级毛片在线播放免费| 欧美另类第一页| 在线观看热码亚洲av每日更新| 亚洲日本中文字幕乱码中文 | 欧美精品高清| 国产丝袜一区二区三区视频免下载| 国产女人在线观看| 久久久国产精品无码专区| 亚洲天堂网在线视频| 亚洲天堂网2014| 97超级碰碰碰碰精品| 欧美亚洲一二三区| 亚洲第一区欧美国产综合| 欧美人在线一区二区三区| 久久a毛片| 51国产偷自视频区视频手机观看| 国产偷国产偷在线高清| 国产欧美精品午夜在线播放|