中圖分類號:TP391.4 文獻標(biāo)志碼:A 文章編號:1000-5137(2025)02-0146-07
Abstract:Opticallcorelatedtomographyangiogaphy(OCTA)isusedinteresearchandclinicalaplicationofnon-invasive visualizationofretinalmicrovasculature,whichisidelyusedinophthalmologyandotherresearchfelds.Avarietyfmethodshave beenappliedtovascularsegmentationonretinalOCTAimages.Thispaperisdedicatedtocompareandanalyzethevascular segmentationefectsof raditionalsegmentationalgoritmsanddepleaingsegmentationalgorithmsbasedondiferentbasicodels forOCTimages.Teresultsshowedthatedepleaingsegmentationalgorithmsareobviouslysuperiortotraditionalsgmetation algorithms,especiallythe featurereconstructionnet(FRNet)segmentationalgorithm.Onthe OCTA-3mm,OCTA-6mm,and ROSSA datasets,the FRNet segmentation algorithm accuracy is 4.78% , 3.10% and 3.43% higher than that of traditionalfuzzy mean algorithmsrespectively.Atthesametime,itcanefctivelyovercome theproblemsofnoiseinterferenceandvascularfractureof traditionalalgorithms.Theresultsrevealthatthedeplearningalgorithms,especiallyFRNet,havesignificantpeformance advantages inOCTA image segmentation tasks,whichprovidthestrong support forOCTAdata-related medicalresearch.
KeyWords:opticallycorrelated tomographyangiography(OCTA);retinal image vascularsegmentation;deeplearning
0 引言
光學(xué)相關(guān)斷層血管成像[1(OCTA)是一種基于光學(xué)相關(guān)斷層掃描[2(OCT)的醫(yī)學(xué)成像技術(shù),可以在無創(chuàng)傷、無輻射的條件下清晰采集到視網(wǎng)膜斷層圖像信息.分析視網(wǎng)膜斷層圖像對多種疾病的診斷至關(guān)重要,通過觀察血管的分布、形狀、血流流速、血管遮擋[3]等特征,確定病人視網(wǎng)膜血管是否發(fā)生病變,如糖尿病性視網(wǎng)膜病變[4、青光眼[5和黃斑變性等.OCTA的視網(wǎng)膜血管分割就是將圖像中的血管單獨標(biāo)記出來,相關(guān)疾病會通過視網(wǎng)膜血管的寬度、分布形態(tài)、密度等特征表現(xiàn)出來,可以幫助醫(yī)生準(zhǔn)確快速診斷病情.基于傳統(tǒng)方法的視網(wǎng)膜圖像分割算法,如閾值處理[、邊緣檢測[8、區(qū)域生長[9、聚類[1]等算法,不需要從大量數(shù)據(jù)集中學(xué)習(xí)先驗知識,對數(shù)據(jù)量無要求,但對視網(wǎng)膜血管圖片的質(zhì)量及血管結(jié)構(gòu)要求較高.
近年來,醫(yī)學(xué)圖像分割領(lǐng)域涌現(xiàn)出一些深度學(xué)習(xí)方法,如卷積神經(jīng)網(wǎng)絡(luò)[]和循環(huán)神經(jīng)網(wǎng)絡(luò)[12].其中,基于以Unet為代表的編碼器-解碼器結(jié)構(gòu)分割算法取得了令人滿意的結(jié)果,并衍生出Unet+, Unet++ ,ResUnet等改進算法.SUN等[13]為解決血管曲率形態(tài)復(fù)雜而導(dǎo)致小血管分割不清晰的問題,將Unet中的卷積模塊替換為串聯(lián)可變形卷積模塊,在解碼器部分采用輕量級注意模塊和雙注意模塊,有效提高了Unet對形態(tài)復(fù)雜的小血管和視網(wǎng)膜病變圖像的特征提取能力.LI等[14]在網(wǎng)絡(luò)的特征編解碼器塊中加入位置關(guān)注,建立全局依賴關(guān)系,在編碼部分的最后一層使用多尺度特征融合模塊,提取多尺度特征信息,解決了視網(wǎng)膜血管寬度和大小大幅變化的問題,提高毛細管的分割精度.
本文將深人研究基于不同算法的視網(wǎng)膜血管分割效果,包括模糊 C 均值(FCM)[15]、Unet[16]、殘差(Res)Unet[17]、特征重建網(wǎng)絡(luò)(FRNet)[18]、視覺Mamba(VM)-Unet及視覺轉(zhuǎn)換(VIT)等算法的性能分析.在不同的視網(wǎng)膜數(shù)據(jù)集上進行對比實驗,將精確度、戴斯(Dice)相似系數(shù)作為指標(biāo)進行評價,研究分析這些模型和算法的優(yōu)勢和局限性,為開發(fā)一種快速、準(zhǔn)確、自動的視網(wǎng)膜血管分割算法提供實驗依據(jù),也可以為OCTA圖像的自動化處理和分析提供數(shù)據(jù)基礎(chǔ).
1分割算法
1.1 FCM算法
FCM算法是一種基于模糊邏輯和聚類分析的數(shù)據(jù)聚類算法,允許數(shù)據(jù)點同時屬于多個不同的簇,對于處理未明確分割或?qū)儆诙鄠€類別的數(shù)據(jù)效果顯著.FCM的目標(biāo)是最小化一個損失函數(shù),該函數(shù)衡量了數(shù)據(jù)點與其所屬簇中心之間的距離以及其隸屬度值.通過迭代優(yōu)化這個目標(biāo)函數(shù),將數(shù)據(jù)點分配到不同的簇,并確定簇中心的位置.在視網(wǎng)膜血管圖像中,F(xiàn)CM算法將每一個像素點劃分到與之相似度最高的類別,應(yīng)用于圖像分割.賈洪等[19采用局部線結(jié)構(gòu)約束的FCM算法實現(xiàn)視網(wǎng)膜血管分割,被分割的血管結(jié)構(gòu)連續(xù)性較好,提升了對細小血管檢測的靈敏度.相較于基于區(qū)域生長、閾值、傳統(tǒng)聚類等硬分類方法,F(xiàn)CM在模糊穩(wěn)健性方面表現(xiàn)良好,并且能在分割階段充分保留原始圖像信息[20].
1.2 Unet及其改進算法
Unet是專為醫(yī)學(xué)影像數(shù)據(jù)集設(shè)計的一種輕量級分割網(wǎng)絡(luò),其關(guān)鍵思想在于充分結(jié)合卷積神經(jīng)網(wǎng)絡(luò)的特性,具有編碼器和解碼器兩個部分,在解碼器中引入跳躍連接,實現(xiàn)了輕量級且高質(zhì)量的圖像分割.
ResUnet是對Unet進行的一項重要改進,其核心理念是將Res引入Unet結(jié)構(gòu),從而更好地解決卷積神經(jīng)網(wǎng)絡(luò)中層次過多引起的梯度消失問題以及語義信息缺失問題.在ResUnet中,采用了多尺度特征融合的策略,以更全面地捕獲不同深度編碼器中的特征,從而獲取各種級別的詳細信息.
VM-Unet集成視覺狀態(tài)空間(VSS)模塊作為基礎(chǔ)構(gòu)建模塊,旨在廣泛地捕獲上下文信息,并構(gòu)建非對稱的編碼器-解碼器架構(gòu).具體而言,PatchEmbedding層率先將圖像分割為 4×4 的非重疊patch,隨后將圖像通道數(shù)量轉(zhuǎn)換為C.編碼器包含4個階段,在前三個階段的末端運用補丁合并操作,有效地降低了輸入特征的高度與寬度,并同時提升通道數(shù)量.與之類似,解碼器同樣劃分為4個階段.在最后三個階段的起始處,借助補丁擴展操作以削減特征通道數(shù)量,并增加其高度與寬度.隨后,引入最終投影層來恢復(fù)特征尺寸,從而匹配分割目標(biāo).在跳躍連接中,采用簡易加法運算方式,避免引入任何額外參數(shù).
FRNet引入了循環(huán)神經(jīng)網(wǎng)絡(luò)到ConvNeXt模塊中,去除了傳統(tǒng)Unet系列網(wǎng)絡(luò)中常見的下采樣和上采樣操作.通過采用6個連續(xù)的ConvNeXt模塊結(jié)構(gòu)進行圖像分割,相對于傳統(tǒng)的Res網(wǎng)絡(luò)結(jié)構(gòu),ConvNeXt采用了 7×7 的卷積塊,顯著減少了激活函數(shù)和正則化的次數(shù).在訓(xùn)練策略和激活函數(shù)的選擇方面進行了改進,在實驗中展現(xiàn)出更出色的性能.
視覺轉(zhuǎn)換算法將輸入圖片劃分成圖片塊后組合成序列,傳人轉(zhuǎn)換器特有的多頭自注意力機制進行特征提取,最后,利用分類標(biāo)記進行分類.
2實驗
2.1 OCTA-500和ROSSA數(shù)據(jù)集
為了對比不同算法在不同數(shù)據(jù)集上是否存在差異,本實驗選用兩個公開數(shù)據(jù)集:OCTA- 500[21] 和ROSSA數(shù)據(jù)集.OCTA-500數(shù)據(jù)集來源于500名受試者的視網(wǎng)膜圖像信息,根據(jù)視野分為兩個子集:OCTA ?6mm 和 OCTA-3mm. 本研究分別選取300名受試者的 6mm 范圍圖片和200名受試者的 3mm 圖片, 6mm 范圍圖像的分辨率為 304pixel×304pixel,3mm 范圍圖像的分辨率為 400pixel×400pi xel,原始圖像格式與分割標(biāo)簽圖片格式均為bmp格式.對ROSSA數(shù)據(jù)集中的100張圖像手工標(biāo)注,剩余718張圖像使用Facebook的 segment anything model(SAM)工具進行標(biāo)注.標(biāo)簽圖片中的白色像素對應(yīng)著血管區(qū)域,標(biāo)注出視網(wǎng)膜中的血管結(jié)構(gòu).黑色像素表示背景區(qū)域,不含血管信息.這些標(biāo)簽圖片用于訓(xùn)練模型,讓模型學(xué)習(xí)如何識別并區(qū)分血管與背景,如圖1所示.

2.2 數(shù)據(jù)預(yù)處理
對于深度學(xué)習(xí)算法,數(shù)據(jù)集以7:3大小劃分訓(xùn)練集和測試集,其中,OCTA-6mm數(shù)據(jù)包含訓(xùn)練樣本
210張,測試數(shù)據(jù)90張; OCTA-3mm 包含訓(xùn)練數(shù)據(jù)140張,測試數(shù)據(jù)60張;ROSSA數(shù)據(jù)集包含訓(xùn)練數(shù)據(jù)718張,測試數(shù)據(jù)100張.為避免OCTA-500數(shù)據(jù)集樣本數(shù)量較少引發(fā)模型訓(xùn)練的欠擬合問題,在訓(xùn)練過程之前,首先對輸入圖像進行歸一化,并將每張圖片以 50% 的概率隨機進行裁剪、旋轉(zhuǎn)或翻轉(zhuǎn)操作,以便增強數(shù)據(jù)集的特征信息,提高模型的泛化能力.
2.3 實驗環(huán)境
使用Ubuntu 18.04.5LTS作為虛擬機操作系統(tǒng),PyCharm 2021.1.1(Professional Edition)作為實驗的集成開發(fā)環(huán)境.深度學(xué)習(xí)采用PyTorch作為主要工具.
分別用FCM,Unet,ResUnet,VIT、VM-Unet和FRNet算法進行實驗,訓(xùn)練輪次設(shè)置為10O,優(yōu)化器使用Adam.Unet模型中,設(shè)定批次大小為4,其余模型中,設(shè)定為2.損失函數(shù)采用DiceLoss.
2.4 評價指標(biāo)
視網(wǎng)膜的微血管網(wǎng)絡(luò)包含相互連接的復(fù)雜微血管結(jié)構(gòu),為了有效地判斷分割算法的有效性,
選取了7個指標(biāo)作為評價標(biāo)準(zhǔn):Dice系數(shù)、均交并比、特異性、精確度、準(zhǔn)確度、假正例率及敏感性.根據(jù)分割結(jié)果將像素點分為4類,類別含義如表1所示,指標(biāo)含義及計算公式如表2所示.


2.5 實驗結(jié)果與分析
選用上述分割算法分別在OCTA-500和ROSSA數(shù)據(jù)集中訓(xùn)練和測試,實驗效果如表3\~5所示.其中,表3為各算法在 OCTA-3mm 數(shù)據(jù)子集中的分割效果,表4為各算法在OCTA-6mm數(shù)據(jù)子集中的分割效果,表5為各算法在ROSSA數(shù)據(jù)集中的分割效果.


可以看出,在不同數(shù)據(jù)集中,基于深度學(xué)習(xí)的各個分割算法所分割效果均優(yōu)于傳統(tǒng)分割算法FCM.其中,在OCTA ?3mm ! 0CTA-6mm 和RossA數(shù)據(jù)集上,F(xiàn)RNet的 Acc 分別提高了 4.78%,3.10% 和 3.43% ,
提高了 33.69% 22.49% 和 31.49% .這是由于相比與傳統(tǒng)算法,深度神經(jīng)網(wǎng)絡(luò)中的卷積塊參數(shù)可以學(xué)習(xí)到更加細微的特征,對于復(fù)雜的血管結(jié)構(gòu)的分割效果更為細致.
由表3可知,在 OCTA-3mm 數(shù)據(jù)集中,Unet模型的 Fdr 為 7.08% Spe 為 99.34% ,優(yōu)于其他模型,這是由于OCTA-3mm數(shù)據(jù)集的視野范圍較窄,血管半徑相對較大,Unet結(jié)構(gòu)簡單,在復(fù)雜性較低的數(shù)據(jù)集上更具優(yōu)勢.在 OCTA-6mm 數(shù)據(jù)集上,ResUnet分別在 Fdr 和 Spe 上優(yōu)于其他模型.由表5可知,在ROSSA數(shù)據(jù)集上,ResUnet的各方面指標(biāo)大體上優(yōu)于Unet,且ResUnet的 Sen 指標(biāo)優(yōu)于其他算法,這是因為Res網(wǎng)絡(luò)會將上一層的特征與當(dāng)前層的特征結(jié)合,在避免梯度消失的同時提升了收斂效果,更好地保留了原始特征尺寸.
相對而言,F(xiàn)RNet綜合能力優(yōu)于其他深度學(xué)習(xí)算法,在三個數(shù)據(jù)集上均獲得最高的 Pre,IoU,Acc 和 Dice 由于FRNet連續(xù)的ConvNext結(jié)構(gòu),不包含編碼器-解碼器結(jié)構(gòu),從而避免了在下采樣過程中的特征損失,能夠更完整地保留原始圖像特征.此外,循環(huán)神經(jīng)網(wǎng)絡(luò)在每個卷積層中進行更加細致的像素特征計算.ConvNext結(jié)構(gòu)通常包含多個卷積層和非線性激活函數(shù),有助于提取豐富的圖像特征,使得網(wǎng)絡(luò)能夠更好地捕獲圖像的局部和全局信息,進而提升分割任務(wù)的準(zhǔn)確性.
圖2是不同分割算法在數(shù)據(jù)集OCTA-6mm上的分割結(jié)果.在OCTA采集到的圖像中,部分血管與背景亮度較為相近,分割較為困難.FCM算法受噪聲干擾明顯,分割出的血管存在斷裂現(xiàn)象,有較多孤立的噪點,不利于觀察血管形態(tài)和管徑.相比之下,各深度學(xué)習(xí)均可以更加清晰、連續(xù)地將血管分割出來.但如圖2紅圈標(biāo)注所示,在該視網(wǎng)膜圖像中Unet,VIT,VM-Unet均未識別出兩處血管,ResUnet能夠檢測出部分血管,但識別出的血管并不完整.相較于其他算法,F(xiàn)RNet能夠更加清晰完整地分割血管,這和表4中的血管分割評價指標(biāo)相一致.
圖3為預(yù)處理操作對實驗效果的影響.由圖3可知,血管末端OCTA采集到的血管與背景亮度接近,未引入預(yù)處理操作的FRNet算法沒有完整分割出血管.這是因為隨機裁剪、翻轉(zhuǎn)等操作會將圖像中較為模糊的特征進行擴充;歸一化能夠減少圖像之間的差異,使模型更容易學(xué)習(xí)到圖像的特征,因此引入預(yù)處理操作后,F(xiàn)RNet算法具有更好的學(xué)習(xí)效果.

3結(jié)語
本文研究了不同分割算法在視網(wǎng)膜血管分割任務(wù)中的有效性.在不同數(shù)據(jù)集上對分割性能進行了比較和分析.選擇了傳統(tǒng)的FCM,Unet,ResUnet,VIT,VM-Unet與FRNet算法進行對比.FCM算法在視網(wǎng)膜血管分割中不夠精確,受噪聲干擾明顯,不能將整支血管連續(xù)分割出來.Unet算法綜合表現(xiàn)優(yōu)異,但存在邊界模糊和細小血管的漏檢問題.ResUnet算法結(jié)合了ResNet算法的優(yōu)點和Unet算法的分割結(jié)構(gòu),在視網(wǎng)膜血管分割任務(wù)中表現(xiàn)更出色.FRNet算法引人循環(huán)神經(jīng)網(wǎng)絡(luò),能夠?qū)⑵渌惴z的血管分割出來,展示了其在復(fù)雜血管分割任務(wù)中的卓越能力.另外,本文還證實了合理的數(shù)據(jù)預(yù)處理操作能提高FRNet算法視網(wǎng)膜血管分割的效果.未來的研究可以進一步改進深度學(xué)習(xí)架構(gòu),以及探索更多先進的特征提取方法,以提高視網(wǎng)膜血管分割的準(zhǔn)確性和穩(wěn)健性,
參考文獻:
[1] GRAUSLUNDJ.Diabeticretinopathysreeing intheemerging eaofartificialintellgence[J].Diabetologia,O2,65(9): 1415-1423.
[2]SEDAIS,ANTONYB,RAIR,etal.Uncertainty guided semisupervisedsegmentationofretinalyers inOCTimages[C]/ Proceedings of the22nd IntermationalConferenceon Medical Image ComputingandComputer-Asisted Intervention.Shenzhen: Springer,2019:282-290.
[3]朱曉紅,趙玥,姚進.病理性近視黃斑出血的OCTA影像特征[J].國際眼科雜志,2022,22(4):673-676. ZHU X H,ZHAOY,YAO J.Imaging features of OCTA in the macular hemorhage of pathologic myopia[J].International Eye Science,2022,22(4):673-676.
[4]LIM C,CHEN YR,JI Z X,et al. Image projection network : 3D to 2D image segmentation in OCTA images [J].IEEE Transactions on Medical Imaging,2020,39(11) :3343-3354.
[5]PANAHI A,ASKARI MOGHADAM R,TARVIRDIZADEH B,et al. Simplified U-net as a deep learning inteligent medical assistive tool in glaucoma detection[J].Evolutionary Intelligence,2024,17(2):1023-1034.
[6]胡瑾,朱德軍,王娟,等.應(yīng)用OCTA對無糖尿病視網(wǎng)膜病變的糖尿病患者糖化血紅蛋白與黃斑血管密度的定量分 析[J].寧夏醫(yī)學(xué)雜志,2022,44(11):964-967. HUJ,ZHUDJ,WANGJ,etal.The analysisofHbAlcand macular vasculardensityindiabetic patients withnon-diabetic retinopathy by OCTA[J]. Ningxia Medical Journal,2022,44(11) :964-967.
[7]RAYR,JENAS,PARIDAP.Anefective thresholdbasedtechnique forretinal image blood vessel segmentationonfundus image usingaverageandGausianflters[C]/Procedingsof the2ndInternationalConferenceonComputing,Communication and Learning.Warangal: Springer,2023:175-188.
[8]OOIA ZH,EMBONG Z,ABD HAMIDAI,et al.Interactive blood vessel segmentation from retinal fundus image based on canny edge detector[J].Sensors,2021,21(19):6380.
[9]RODRIGUES EO,CONCI A,LIATSIS P.Element: multi-modal retinal vessel segmentation based onacoupled region growing and machine learning approach [J]. IEEE Journal of Biomedical and Health Informatics, 2020,24(12):3507-3519
[10]YAVUZ Z,KOSE C.Blood vessel extraction incolorretinal fundus images with enhancement filtering andunsupervised classification[J]. Journal of Healthcare Engineering,2017,2017:4897258.
[11]PATELTR,PALIWALN,JAISWALP,etal.Multi-resolution CNN forbrainvessel segmentation fromcerebrovascular images of intracranial aneurysm:a comparisonof U-Netand DeepMedic[C]//Proceedings of SPIE 11314,Medical Imaging 2020:Computer-Aided Diagnosis. Houston: SPIE,2020:677-685.
[12]LEEK,SUNWOOL,KIMT,etal.Spider U-Net: incorporating inter-sliceconnectivityusing LSTMfor3Dbloodvessel segmentation[J].Applied Sciences,2021,11(5):2014.
[13]SUN K,CHENY,CHAOY,etal.Aretinal vessel segmentation method basedimproved U-net model[J].Biomedical Signal Processing and Control, 2023,82:104574.
[14]LIDY,PENGLX,PENGSH,etal.Retinalveselsegmentationbyusing AFNet[J].The Visual Computer,2023,39(5): 1929-1941.
[15]WIHARTO W, SURYANI E.The analysis effct of cluster numbers on fuzzy C -means algorithm for blood vessel segmentation ofretinalfundus image[C]//Proceedingsof2O19 International ConferenceonInformationandCommunications Technology. Yogyakarta:IEEE,2019:106-110.
[16] DUXF,WANGJS,SUN W Z. UNet retinal blood vessel segmentation algorithm basedon improved pyramid pooling method and attention mechanism[J].Physics in Medicine amp; Biology,2021,66(17): 175013.
[17]LID,DHARMAWAN DA,NGBP,et al. Residual U-net for retinalvesel segmentation[C]//Procedingsof 2019 IEEE International Conference on Image Processing.Taipei,China:IEEE,2019:1425-1429.
[18]NING HJ,WANG CL,CHEN XR,et al.Anaccurate and eficient neural network forOCTA vessel segmentation and a new dataset[C]// Proceedingsof 224IEEE International ConferenceonAcoustics,SpeechandSignal Procesing.Seoul:IEEE, 2024:1966-1970.
[19]賈洪,鄭楚君,李燦標(biāo),等.基于局部線結(jié)構(gòu)約束的FCM聚類視網(wǎng)膜血管分割[J].光學(xué)學(xué)報,2020,40(9):0910001. JIA H,ZHENG C J,LI CB,et al. Retinal blood vessel segmentation basedon fuzzy C-means clustering acording to the local line structural constraint[J].Acta Optica Sinica,2020,40(9):0910001.
[20]李奇澤.基于區(qū)域級隸屬度函數(shù)的圖像分割評估分析[J].電子產(chǎn)品世界,2023,30(10):54-57. LIQZ.Imagesegmentationevaluationbasedonregionallevelmembership function[J].ElectronicEngineeringamp;Product World,2023,30(10):54-57.
[21]LI M C, HUANG K,XUQZ,et al. OCTA-500: a retinal dataset foroptical coherence tomography angiography study[J]. Medical Image Analysis,2024,93:103092.
(責(zé)任編輯:包震宇,郁慧)