秦運輸 王行甫
(中國科學技術大學計算機科學與技術學院 安徽 合肥 230031)
青光眼是一種慢性的眼底疾病,也是當前世界范圍導致視力損傷的主要原因之一[1]。由于其發病早期并不伴隨較為明顯的癥狀,且造成的視力損傷具有不可逆性,因此青光眼的早期診斷工作對于青光眼的預防和保護患者視力具有重要的意義。
已知的青光眼診斷方法主要有以下幾種:(1) 通過接觸或非接觸的方式來對眼內壓進行測量并評估。(2) 對視覺區域進行評估。(3) 對視神經頭區域進行評估[2]。針對第一種方法,由于部分的青光眼亞種發病過程并不伴隨明顯的眼內壓變化,因此該方法具有一定的偏差性。對視覺區域的評估一方面需要較為昂貴的醫療設備,另一方面該評估方法較為主觀,存在較高的觀察者內和觀察者間的差異[3]。對視神經頭區域進行評估主要是通過對數字眼底圖像中的視神經頭區域進行分析并提取特征來進行青光眼診斷。得益于近些年光學眼底成像技術的進步,基于眼底圖像的青光眼定性和定量診斷方法變得可能,同時也成為當前青光眼診斷中所采用的主要手段[4]。在青光眼的發病過程中,視網膜眼底的視神經頭區域(也被稱為視盤)的視神經細胞會逐步死亡并伴隨著中心視杯區域不斷擴大,表現出不斷擴大的視杯盤比(CDR),如圖1所示(數據來源于REFUGE)。因此在臨床診斷中,較大的CDR值是評估是否患有青光眼的主要標準之一。為了準確地獲取到CDR值,對眼底圖像中視杯、視盤區域進行準確的分割即成了青光眼診斷中最為關鍵、重要的一步。

(a) 正常人 (b) 青光眼患者
視杯、視盤分割方法主要分為三大類:人工分割,半自動分割,自動分割。人工分割方法是一種主觀、重復性差且耗時耗力的方法,此外針對眼底圖像這種醫學圖像分割需要操作者具有較強的領域專家知識[5]。半自動方法需要初始的人為干預,這些可能會導致結果出現一定的偏差且效率較低。自動分割方法則是將需要分割的眼底圖像輸入到自動分割系統中,自動處理并輸出分割好的結果圖像,更加客觀,且高效準確。傳統的視杯、視盤自動分割方法主要包括基于閾值的分割方法、基于主動輪廓模型的分割方法、基于水平集的分割方法[5]等。上述方法共同的特點就是嚴重依賴于手工設計的特征,效率和精度都不是很理想,為了滿足當前大規模的青光眼診斷需求,更加高效、精準的自動視杯、視盤分割方法研究具有重要意義。
隨著近些年深度學習技術的不斷發展,卷積神經網絡(CNN)開始被應用在醫學圖像分割中,一些基于CNN的視杯、視盤分割方法也被提出來并取得了不錯的效果[6-8]?;谏疃葘W習的青光眼分割方法主要是基于像素分類的,不同于傳統的基于像素分類方法[9]和基于超像素的分類方法[10]中采用手工設計的特征,深度學習的方法可以通過模型來自動提取具有高辨別力的特征來進行像素分類,克服了手工提取特征的諸多限制。在眾多應用于視杯視盤分割任務的深度學習方法中,基于U-net的方法尤為普遍。U-net是Ronneberger等[11]最先提出的一種基于FCN[12]的深度分割模型,由于該模型在醫學圖像處理領域的突出表現,越來越多基于U-net的變種方法被應用于醫學圖像處理的各個領域。Sevastopolsky[7]首次將U-net模型應用于青光眼的視杯視盤分割任務中,通過簡化初始的U-net模型取得了較傳統分割方法高效且精準的分割結果。Yu等[13]提出了一種基于殘差結構的U-net視杯視盤分割網絡,將預訓練好的ResNet-34模型作為U-net的特征編碼模塊,一定程度上增強了模型的特征提取能力,取得不錯的分割結果。Fu等[8]在初始U-net基礎上引入了多尺度的輸入、輸出和深監督策略,并且采用了極坐標化預處理的方法進行視杯視盤分割,在一定程度上緩解了空間信息損失的問題并取得了優異的分割效果。然而上述的這些方法都是基于多模型的分割架構,因為針對于視杯、視盤分割,視杯和視盤區域相對于整個眼底圖像區域而言是較小的,尤其針對視杯分割,這種情況更加突出。因此在傳統的視杯、視盤分割任務中,大部分方法都是先利用一個單獨的網絡來提取視盤區域,即圖像的感興趣區域(ROI)。此外上述方法為了避免分割任務中出現較為嚴重的類不平衡問題,都采用了基于DiceLoss的損失函數,DiceLoss的一個缺陷就是它對分割中的假陽性和假陰性的權重是一樣的[14],然而在實際的分割情況中存在著高準確率、低召回率的特點。針對數據不平衡和感興趣區域相對較小的分割背景,需要通過增加檢測假陰性的權重來提高召回率。
本文提出一種基于注意力機制和遞歸殘差卷積的U型網絡(MAR2U-net)用于青光眼的視杯和視盤分割,并且采用了多尺度輸入和多標簽的Focal Tversky損失函數。
本文方法創新點如下:(1) 采用多標簽的Focal Tversky 損失函數來進行視杯視盤的聯合分割,在提高效率的同時,也更好地避免了分割中容易出現的類不平衡的問題,使模型更加專注于難分割區域。(2) 將注意力機制引入到視杯視盤分割任務中,可以在ROI區域相對較小的時候,更好地突出與分割任務相關的重要特征且抑制不相關區域特征的表達。(3) 引入遞歸殘差模塊可以利用該結構關于時間步的特征積累特性來進行更好的特征表達,且有利于訓練更深層次的模型和提取到更低層次的特征。
Liu等[15]首次將水平集方法引入到視杯、視盤分割中,提出了基于變分水平集的方法對視盤進行分割,對視杯區域的分割采用閾值法和水平集結合的方法,并對分割后結果利用橢圓擬合進行平滑處理,該方法較單純的基于閾值的方法具有更好的分割性能。Xu等[16]提出了一種利用視網膜結構先驗知識從眼底圖像中進行高效視杯視盤分割方法,首先將輸入圖像進行超像素分割處理,然后基于視網膜結構的先驗知識利用提取的超像素特征來訓練一個超像素分類器,利用分類器對輸入圖像的超像素進行分類得到包含所有視杯超像素的最小橢圓。該方法與傳統基于像素分割方法相比精度有了一定提升且不需要額外帶標簽的訓練數據,但該方法較為復雜且效率較低。
Zilly等[6]提出了一種基于集成學習的混合神經網絡用于視杯視盤分割,構造了基于增強濾波和基于熵采樣的集成學習的CNN 體系結構,最終取得了優于以往所有方法的分割精度,但是這種方法需要非常大的數據集來訓練,同時該方法較為復雜,復現難度較大。之后,Sevastopolsky[7]首次將U-net引入到視杯視盤分割任務中,并對傳統的U-net進行了簡化,以較小性能損失為代價大大減少了網絡的參數量,先通過對視盤區域的分割來提取感興趣區域,再利用提取好的感興趣區域進行下一步的視杯區域的分割。
為了實現高效的視杯視盤聯合分割,Fu等[8]提出了一種基于多尺度的改進型U-net(M-net)用于視杯視盤分割,先使用一個簡單的U-net來提取感興趣區域,然后使用極坐標變換方法來對視杯視盤區域進行轉換,并且采用多標簽的損失函數來進行視杯視盤的聯合分割,在提升分割性能的同時精簡了步驟,大大提高了分割效率。
Alom等[17]提出了一種基于遞歸殘差模塊的U-net用于醫學圖像分割任務,通過引入遞歸模塊,利用遞歸模塊的特征累積特點來使U-net能夠更好地提取到具有辨別力的底層特征用于圖像的分割任務。Oktay等[18]首次將Attention U-net用于乳腺腫塊分割問題,通過將Attention Gate引入到U-net中,在沒有使用額外的ROI提取網絡前提下,取得了更好的分割性能。實驗結果表明提出的Attention Gate能夠有效地抑制非ROI區域特征響應,在不增加額外關鍵區域提取網絡前提下提取到了更加具有辨別力的特征。
為了減少分割任務中出現的類不平衡現象,提升模型分割性能,Abraham等[14]在Focal Loss基礎上引入Tversky系數提出了Focal Tversky Loss損失函數用于圖像分割任務,在減少分割任務中類不平衡現象的同時,保證了高準確率和高召回率,使網絡專注于難分割區域,提高了模型分割性能。
本文提出一種多尺度的基于注意力門和遞歸殘差卷積模塊的U型網絡(MAR2U-net)用于青光眼的視杯和視盤的聯合分割。該方法的結構示意圖如圖2所示。該方法首先使用預處理好的多尺度輸入圖像輸入到模型的編碼模塊,并在編碼模塊中引入遞歸殘差卷積模塊;同時在模型的譯碼模塊中引入Attention Gate模塊和遞歸殘差卷積模塊,使用特征拼接方式將兩模塊進行連接;最后使用深監督的方法來對各層的輸出結果進行整合得到最后的分割結果。

圖2 MAR2U-net結構示意圖
MAR2U-net是一種基于U-net框架的變種。作為醫學圖像分割領域最常見的一種架構,U-net最早是Ronneberger等[11]提出的一種基于FCN的深度分割框架,其架構圖如圖3所示。不同于FCN的特征逐點相加的特征融合方式,U-net采用拼接的方式來進行特征的融合,U-net架構相較于其他的分割框架可以更好地提取并融合不同層次的圖像特征。其架構主要分為編碼、譯碼兩大模塊,整個U-net類似一個U字母,網絡的左側即編碼路徑是由一系列的卷積、池化操作構成的降采樣操作,將初始的輸入降采樣到較小尺寸,一方面可以降低計算量,另一方面可以增大感受野大小,更利于提取到一些更深層次的抽象特征[11]。網絡的右側即譯碼路徑是由一系列反卷積(也被稱為轉置卷積)和卷積操作組成的升采樣操作,逐步將抽象的特征再還原解碼到較大的尺寸,中間采用拼接操作將同一層次的編碼、譯碼模塊進行了特征融合,相對于FCN的逐點相加模式,拼接的融合方式可以形成更厚的特征[11]。

圖3 U-net網絡架構圖
本文采用的Attention Gate是Oktay等[18]提出的一種用于乳腺腫塊分割任務的改進型Attention模塊。通過提出基于網格的門控,相較于基于全局特征向量的門控,Attention模塊可以使注意力系數更加具體到局部區域[18]。該模塊可以方便地被嵌入到其他的網絡結構中,其結構示意圖如圖4所示。

圖4 AttentionGate結構示意圖

(1)
式中:b1和b2表示偏置;Ψ和ω表示1×1×1的卷積操作。
引入Attention Gate的U-net可以增強模型對前景像素的敏感度。傳統的U-net架構,對于表現出較大形狀差異的小物體,存在較高的假陽性的預測錯誤。為了減少假陽性預測提高分割的準確率,傳統的方法通常會在最終分割前增強一步感興趣區域提取的操作,Oktay等利用提出的Attention Gate的特點避免了ROI區域的提取并在胰腺分割中取得了較為優秀的結果。
帶有注意力門的網絡模型能夠有效地抑制輸入圖像中與目標任務不相關區域特征的表達,同時突出與任務相關的特征的表達[18]。最初Attention Gate被提出來是利用該結構可以根據分割任務來抑制非ROI區域特征表達特點來避免ROI的提取操作,但是針對視杯視盤分割任務而言,由于視盤區域相較于初始眼底圖像太小,尤其是視杯分割,如果不進行ROI區域的提取,對視杯的分割結果會產生較大的干擾,同時會出現視杯、視盤、背景三者比例過于懸殊的問題[8]。鑒于視杯分割任務難度較視盤分割難度大得多,為了提高視杯分割精度,需要進行ROI的提取操作來增加視杯區域的比例,也可以避免模型訓練過程中由于極端的失衡比例而可能導致的過擬合現象[8]。綜上所述,本文在進行ROI提取的同時,引入了Attention Gate結構,以此來增強模型的特征提取能力。
Alom等[17]最初將遞歸殘差操作引入到U-net中提出了R2U-net架構,并在眼底血管分割、皮膚癌病灶分割、肺部分割等多個任務中驗證了該結構強大的特征提取能力,圖5(a)為遞歸殘差單元的結構示意圖,圖5(b)為其中的遞歸卷積模塊(RCL)結構。

(a) 遞歸殘差 (b) 遞歸卷積
RRCNN Block的模型內部具有特征累積的功能,因此在模型的訓練和測試階段均能有較好的表現。其中關于時間步的特征累積有利于模型提取更底層的特征且進行更強和更好的特征表達。
為了實現視杯視盤的聯合分割,本文提出一種基于多標簽的Focal Tversky損失函數,其中采用的Focal Tversky Loss是Abraham等[14]提出的一種對Focal Loss[20]的改進型損失函數。傳統的醫學圖像分割為了避免分割中出現的類不平衡問題,通常使用基于Dice得分系數(DSC)的Dice Loss,式(2)是針對像素分割問題的DSC表達式, Dice Loss如式(3)所示。
(2)
(3)
式中:c表示圖像中像素的類別;pic表示分割結果中像素屬于c類別的概率;gic表示標簽中像素屬于c類別的概率;ε取1e-5防止分母為0。
Dice Loss損失函數雖然可以減少分割任務中存在的類不平衡問題,但是它的一個限制是對于假陽性(FP)和假陰性(FN)檢測分配的權重是相同的,然而實際分割中,針對一些高度不平衡的數據和ROI區域較小的情形,分割結果往往會出現高準確率、低召回率的情況[14]。因此需要動態地調整假陽性(FP)和假陰性(FN)檢測權重來平衡兩者,進而達到更好的分割結果。式(4)是文獻[14]中提出的Tversky系數,式(5)是對應的Focal Tversky損失函數。
(4)

(5)
式中:γ取[1,3],表示Focal參數用于調節損失函數的超參。當Tversky較大的像素(容易分類的樣本)被錯誤分類后,FTL值變化不大;當Tversky較小的像素(難分類的樣本)被錯誤分類后,FTL值會顯著變化。當α和β都取0.5時,此時Tversky系數就類似于文獻[20]首次提出使用Focal參數來使損失函數更加關注于難分割的圖像類別。Focal Tversky損失函數可以通過控制分割中易分割的背景和難分割的ROI區域來緩解Dice損失函數中出現的作為關鍵的ROI區域對損失函數貢獻并不是很明顯這一缺陷[14]。
考慮到視杯視盤分割任務難度的差異,在視杯視盤聯合分割的過程中,本文采用了多標簽的損失函數,并且對于視杯視盤的分割貢獻進行了動態的平衡。式(6)是文中所采用的損失函數,式(7)和式(8)為具體的FTLod計算過程,FTLoc類似。σ1和σ2是用來調整視杯、視盤對總的損失函數的貢獻。
FTLM=σ1FTLod+σ2FTLoc
(6)
(7)
(8)

此外當模型接近收斂的時候,類精度會較高,此時會出現FTL過度抑制的情況。為了防止對損失函數的過度抑制,本文采用了文獻[14]中的訓練策略:對中間層的訓練使用了FTL,但是對最后一層的輸出使用了TL,以此來提供較強的誤差信號來減輕次優收斂。
傳統的U-net雖然采用了拼接的方式將特征進行融合,一定程度上融合了多層次的特征,但是傳統的U-net的連續池化操作和跨步卷積操作會導致一定的空間信息損失[21],本文采用了文獻[8]采用的多尺度輸入層來減少空間信息的損失并提高模型分割精度。文獻[8]通過多尺度的輸入盡可能地減少了空間信息的損失,通過圖像金字塔(多尺度的輸入)可以減少由于卷積和池化操作帶來的空間信息的損失,進而可以提高圖像分割效果[22]。此外多尺度的輸入對模型的參數影響很小,且使編碼路徑的寬度更寬使每層都可以學習到更多豐富的特征[8]。
本文實驗所采用的數據集是全尺寸的眼底圖像數據集REFUGE,示例圖片如圖1所示,可以清晰地注意到視盤區域相比于背景區域要小很多,視杯區域與背景區域的比例則更加夸張。由于視盤和視杯之間的邊界相對比較模糊且不容易鑒別,因此視杯的分割難度要比視盤的分割大很多[8]。在實際情況下,這種極端的視杯和背景區域比例會導致視杯分割結果出現較大誤差。Fu等[8]為了解決上述的問題,提出了極坐標化的預處理方法。圖6展示了圖片ROI區域即ROI的極坐標化后的圖片。

(a) 經過提取的ROI圖片 (b) 初始ROI標簽
通過極坐標變換,將原本徑向的空間結構關系轉化為層狀空間結構,即將橢圓邊界這種強約束轉化為線條處理更加有利于分割任務[8]。在實際的實驗中,為了進行極坐標轉化,必須先通過預處理的方法來提取ROI區域及該區域的中心點坐標。在獲得ROI區域即中心點坐標后,采用不同的半徑來進行極坐標化也可以達到數據增量的效果。初始的ROI區域中視杯和背景區域比例雖然相比于原始圖片中有了很大提升,但是仍然存在較大的失衡。圖像分割即像素級別的分類,較大的類別失衡會對模型的訓練產生一定的偏差和過擬合的風險[8]。通過上述的極坐標變化,從圖6(b)和圖6(d)的對比可以觀察到,視杯和視盤及背景區域的比例得到較大的平衡。
不同于自然圖像,青光眼診斷所用的數字眼底圖片數據集較為缺乏且數據集的規模較小。實驗中所采用的REFUGE數據集作為目前最大規模的帶有視杯、視盤標簽的眼底圖像數據集,其訓練集數據規模也僅400幅,這個數量對于稍微復雜的深層網絡模型很容易出現訓練過擬合的情況。本文通過一定范圍內的隨機旋轉、翻轉、位移等操作來對訓練圖片進行了數據增量操作,進而降低模型訓練過擬合的風險來提升分割性能。
此外,本文還采用了限制對比度直方圖均衡方法(CLAHE)[23]來處理圖片,它通過改變圖片區域的顏色和插值結果來增強對比度,進而更加凸顯視杯、視盤區域。從圖7的對比結果可以較為直觀地觀察到,經過CLAHE處理后的圖片的視杯、視盤邊界更加明顯。

(a) 初始ROI圖片 (b) CLAHE處理后圖片
本文在REFUGE數據集[24]上測試了MAR2U-net在聯合視杯視盤分割任務上的表現,并且對比了已有的多種視杯視盤分割模型:U-net[7],R2U-net[17],M-net[8],MAU-net[14]。表1給出了實驗中各個模型的實際參數信息。

表1 實驗模型參數量
為了評價分割結果,并與其他分割方法進行比較,本文使用Dice系數和平衡精度(Balanced Accuracy)作為評估標準。Dice系數如式(2)所示;平衡精度計算如式(9)所示。
(9)
式中:TP表示圖像中像素預測真陽性的數量;FN表示假陰性的數量;TN表示真陰性的數量;FP表示假陽性的數量。
本文所采用的數據集是REFUGE數據集[24],該數據集中分別包含了400幅帶有視杯、視盤分割標簽的訓練、驗證、測試集。圖8為一幅REFUGE中的測試圖片樣例。

圖8 REFUGE數據集樣例
本文實驗基于Keras并以TensorFlow作為后端。在訓練階段,使用Adam 優化器[23]來訓練優化實驗中的模型,學習率設置為1e-5;Focal Tversky損失函數中的超參α和β分別取0.7和0.3,γ取4/3;聯合分割損失函數中的超參σ1和σ2分別取0.5和0.5;epoch大小設置為200;此外一個用于從概率圖中得到二值遮罩的固定的閾值也設置為0.5。本文實驗硬件環境是GTX 1080TI顯卡、32 GB的運行內存、i7 8700K的處理器。
從表1中可以觀察到R2U-net和MAR2U-net參數量要明顯小于其他的模型。正常情況下,因為采用了遞歸殘差卷積模塊,網絡層數比較深,模型的參數量會非常大。因此為了證明模型分割性能的提升不是單靠擴增模型大小而導致的,本文對實驗中的R2U-net、MAR2U-net模型進行了簡化,使卷積核的數量減少到對比模型的一半。這樣一來,對應模型的參數量就得到了大幅度的減少(R2U-net從24.65 M減少到6.17 M,MAR2U-net從最初的29 M降低到7.31 M)。
表2展示了幾種模型在視杯視盤分割任務上的性能表現。為了更加客觀地對比各個實驗模型,本文對每組實驗模型從損失函數、數據預處理方面進行了統一,默認均采用Dice Loss損失函數,以及非極坐標化的輸入,其中模型帶M的表示多尺度輸入。為了更好地對比極坐標化處理和Focal Tversky損失函數的效果,本文增加了三組對比模型,其中:MAR2U-ne-P表示使用極坐標圖片作為輸入;MAR2U-net-F表示使用Focal Tversky損失函數;MAR2U-net-FP表示兩者的結合。由表2可以發現,本文提出的MAR2U-net-FP架構在各個評價指標上較對比方法取得了顯著的提升,對于較難分割的視杯區域也取得了較高的分割精度。通過表2中各個實驗的對比分析,可以觀察到不同模塊、處理方法的引入對結果的影響,其中:Dicecup表示視杯分割Dice系數得分;Dicedisc表示視盤分割Dice系數得分;BAdisc表示視盤分割平衡精度;BAcup表示視杯分割平衡精度。對比U-net和M-net的結果可以發現多尺度輸入能有效提升模型分割性能;對比U-net和R2U-net可以驗證遞歸卷積模塊的引入也可以提升模型性能;在參數量遠小于MAU-net的前提下,采用DiceLoss和非極坐標輸入的MAR2U-net結果仍優于MAU-net,這也說明模型架構的優越性。通過最后三組的對比實驗,可以發現Focal Tversky多標簽損失函數和極坐標化處理的引入使本文提出的架構在聯合視杯視盤分割任務的性能得到了較大幅度的提升。

表2 各模型在REFUGE數據集上測試結果
圖9直觀展示了各模型在部分測試樣例上的分割結果??梢郧逦匕l現本文方法在分割效果上比對比方法取得的顯著提升,尤其是在最后一列的測試結果中,由于原圖的眼底圖像中滲出液影響導致出現較大亮斑,影響了模型對視杯視盤的分割,只有本文方法取得了相對可以接受的結果,但是與標注的結果仍然存在一定差距。

圖9 各模型在REFUGE數據集上的部分測試結示意圖
此外為了驗證Attention機制能夠使模型更加專注于關鍵區域的分割,本文采用了不同大小的ROI圖片進行了對比實驗。本文采用了以下四種不同的對比模型:U-net400, U-net800,AU-net800,AU-net400。其中400和800分別表示圖片ROI區域的尺寸大小。如圖10所示,可以發現ROI為400的圖片視杯、視盤相比于背景區域的比例要明顯大于ROI為800的圖片,ROI為400的圖片有更好的視杯、視盤、背景比例,對于較難分割的視杯區域,ROI為400的圖片更加有優勢。從表3的實驗結果中可以觀察到AU-net400結果優于AU-net800,AU-net800 優于U-net400,U-net400優于U-net800,該對比實驗也再一次佐證了文獻[18]中的觀點:Attention Gate具有ROI提取的類似作用,可以有效地抑制非ROI區域特征響應。此外,通過不同ROI的同一架構的結果對比可知,ROI為400的更有利于提升模型分割結果,因此在實際實驗中,本文采用了較小的ROI區域作為模型的訓練數據。

(a) ROI為800的圖片 (b) ROI為400的圖片

表3 Attention Gate引入對不同ROI輸入結果的影響
為了對比不同的σ1和σ2取值對模型訓練結果的影響,本文還增加了不同σ1和σ2取值下得到訓練模型的測試結果對比,表4是不同取值下模型測試結果,其中U-net11表示σ1和σ2都取0.5,U-net23表示σ1和σ2分別取0.4和0.6,U-net32表示σ1和σ2分別取0.6和0.4。從表4中可以發現U-net和MAR2U-net模型中σ1和σ2分別取0.4和0.6時,視杯分割結果均優于其他取值;當σ1和σ2分別取0.6和0.4時,視盤分割結果達到最好。即通過調節σ1和σ2的取值,可以對不同分割任務進行動態的平衡。U-net23與U-net11相比,Dicedisc值減少了0.004,但是Dicecup值增加了0.16,BAdisc值減少0.001,BAcup增加了0.08,與U-net32比較也出現了較小的視盤分割性能下降和較大視杯分割提升。觀察MAR2U-net的三個對比模型結果,也可以發現類似的規律,即:通過對σ1和σ2取值調節可以達到以較小的視盤分割性能損失換取較大視杯分割性能提升。對于較難分割的視杯區域,這種做法顯然更有利于提升整體的分割性能。

表4 不同σ1和σ2取值下的模型測試結果
本文提出一種新型的聯合視杯視盤分割模型(MAR2U-net)。以U-net架構為基礎,通過引入注意力機制和遞歸殘差模塊,使模型更加專注于待分割的關鍵區域,并且利用遞歸卷積的特征累積特點提取到更加利于分割的深層特征,結合殘差模塊的特點,可以使深層網絡得到更好的訓練。此外本文還采用了多標簽的Focal Tversky損失函數用于聯合視杯、視盤分割,一方面提高了視杯、視盤分割效率,另一方面使模型更加專注于難分割的關鍵區域,平衡了模型分割的準確率和召回率,從而進一步提升了模型的分割精度。最后本文通過了一系列的對比實驗證明了本文方法的有效性。
雖然本文提出的方法在視杯視盤分割效果上取得了較為顯著的提升,但是對于一些較為特殊復雜的樣例,結果仍然需要進一步提高。此外,本文提出的架構在結構上相比于對比方法較為復雜,雖然實驗中通過減少卷積核數量使模型參數得到了降低,但是如何在保證高精度分割性能的前提下,進一步使模型更加簡潔和輕量化是接下來研究的重點。