999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向醫學圖像分割的多注意力融合網絡

2022-12-18 08:11:30鄒俊穎譚茜成李貴洋
計算機應用 2022年12期
關鍵詞:特征實驗模型

李 鴻,鄒俊穎,譚茜成,李貴洋

(四川師范大學 計算機科學學院,成都 610066)

0 引言

醫學圖像的語義分割是計算機輔助診斷中必不可少的步驟,在放射治療的計劃中,準確描繪腫瘤所在區域能最大限度地擴大靶區所覆蓋的范圍,同時能極大降低周圍高風險器官的毒性[1]。在臨床實踐中,腫瘤勾畫通常都是以手工或半手工方式來進行,這項工作不僅代價昂貴、單調乏味,標注人員還需要具備極強的專業知識且耗時耗力[2];因此,通過深度學習對病變區進行圖像分割來輔助醫生診斷一直是多年來研究的重點[3-4]。目前,醫學圖像分割已在多個器官上得到了應用,如肝臟分割[5-6]、腦腫瘤分割[7]、細胞分割[8]、心臟分割[9]等;但是,現階段醫學圖像分割任務仍存在數據集不足、標注位置不準確等諸多問題亟待解決[10]。

近年來,隨著計算能力的提高,深度學習通過學習輸入數據與預測結果之間的非線性映射,在醫學圖像分割上也有了突破性的進展。Long 等[11]將編碼器、解碼器結構引入圖像分割領域,提出全卷積網絡(Fully Convolutional Network,FCN),通過將全連接層改為卷積層來保存圖片的位置信息,使用反卷積(Deconvolution,Deconv)和跳躍連接相結合的方式進行上采樣,得到較為精細的分割圖。Ronneberger 等[12]提出U-Net,該網絡主要是由U 形結構和跳躍連接兩部分組成,融合圖像的低層信息和高層信息,能較好地滿足醫學圖像的語義特點。Zhou 等[13]通過整合U-Net 中每一層堆疊的特征來獲取不同感受野的圖片特征,達到分割的效果。Jégou 等[14]將U-Net 中的普 通卷積 替換為Dense Block 模塊[15],模塊中密集的跳躍連接能有效地解決梯度消失等問題,加強了U-Net 中每一層的特征傳遞,更有利于上采樣后的圖像恢復。Oktay 等[16]在跳躍連接部分使用注意力門控(Attention Gates,AGs)模塊來突出圖像的顯著特征,抑制圖像的無關特征,增強模型對前景重要特征的敏感度。Cai等[17]使用多尺度預測融合機制,通過跳躍連接將解碼器的所有特征拼接起來,獲取不同尺度的全局信息,在輸出端融合空間、通道注意力來增強模型對不同特征的敏感度。

盡管基于卷積神經網絡(Convolutional Neural Network,CNN)的模型已具有極為出色的表示能力,但由于卷積計算只有固定的接受域,難以對圖像中存在遠程依賴關系的特征進行建模,導致無法捕獲足夠的上下文信息。相較于CNN,Transformer[18]通過自注意力(Self-Attention,SA)機制不僅能有效建立長距離依賴,也能對下游任務顯示出卓越的可傳遞性。現階段,Transformer 已經受到廣大學者的關注,已有一些結合CNN 與Transformer 的一些研究,如Zheng 等[19]用Transformer 作為編碼器,壓縮原始輸入圖像的空間分辨率,逐步提取更加高級的語義特征,通過解碼器將特征映射為原始的空間分辨率來進行最終的像素級分割。Petit 等[20]提出U-Transformer 網絡結構,它使用多頭自注意力(Multi-Head Self-Attention,MHSA)來獲取圖片的遠程依賴,使用多頭交叉注意力(Multi-Head Cross-Attention,MHCA)與跳躍連接相結合進行上采樣來過濾掉非語義特征,從而強化空間特征重構,優化空間分辨率。Zhang 等[21]通過融合兩個并行的CNN分支和Transformer 分支,可以通過較淺的層數來獲取圖片的全局依賴性和局部細節特征,使用AGs 來融合不同層之間的多級特征。Valanarasu 等[22]提出局部全局(Local-Global,LoGo)訓練策略,通過淺層全局分支提取圖片的細節、紋理等幾何特征,將整張圖片進行切片,每一塊切片通過深層局部分支來提取空間位置信息,兩相結合得到最終的分割結果。Zhang 等[23]使用Transformer 金字塔,將CNN 提取的細節特征與不同分辨率的分辨圖相結合能捕獲多范圍關系,通過自適應方案來訪問不同的接受域以獲取最佳的分割結果。Ji 等[24]通過將SA 模塊嵌入基于CNN 方法的編碼器、解碼器架構中來充分利用視頻所含有的時間信息和空間信息,以實現快速準確的息肉定位。由于Transformer 無法獲取每一個切片之間的內部關系,Chu 等[25]在Transformer 中加入條件位置編碼生成器,生成隱式的位置編碼,讓像素間分片后仍保持原有的空間位置關系。

近 期,Chen 等[26]提出了 TransUNet(merit both Transformers and U-Net),它同時具有Transformer 和U-Net 的優點:在編碼器部分通過Transformer 為來自CNN 所傳入的特征圖進行編碼,以此來獲取圖片的上下文特征;在解碼器部分,對編碼后的特征進行上采樣與高分辨率特征圖拼接來獲取圖片的精確定位。但TransUNet 在Transformer 進行編碼的過程中,缺乏圖片在局部區域內的信息交互,在切片重新組合的過程中,忽略了圖像的線條、邊緣、形狀等幾何特征;在圖片解碼的過程中,只是簡單地將編碼后的特征上采樣與高分辨率特征相拼接,并未考慮兩者通道、位置之間的相關性。針對以上問題,本文提出了一種多注意力融合的網絡(Multi-attention FUsion Network,MFUNet)模型。該模型在編碼器部分通過在Transformer 中引入分組卷積[27]來為編碼特征提供長距離依賴的同時兼顧局部信息交互[28-30],增強編碼特征的魯棒性和特征間的局部聯系;在解碼器部分提出一種新穎的雙通道注意力機制[31-34],融合多級特征的通道信息,彌補了模型所缺乏的通道間的信息交互,增強模型對通道間的關鍵信息的敏感度,進而提高分割精度。實驗結果表明,MFUNet 能得到更精確的分割結果,在Dice 相似系數(Dice Similarity Coefficient,DSC)和 Hausdorff 距 離(Hausdorff Distance,HD)等指標上明顯優于其他對比模型。

1 理論基礎與基線模型

1.1 Transformer

Transformer 最早應用于機器翻譯[18,35],擅長在建模序列元素之間建立遠距離依賴關系。受到Transformer 強大表征能力的啟發,研究人員將Transformer 擴展到計算機視覺任務[36-38],與其他網絡類型相比,在各種視覺基準上(如圖片的多模態信息融合、圖片的多任務學習等)Transformer 顯示出了卓越的性能。它主要由4 個重要部分組成:

1)自注意力。自注意力機制是注意力機制的一種改進,減少了對外部信息的依賴,增強特征的內部相關性,將輸入的向量轉化為3 個不同的矩陣,分別為查詢矩陣Q、鍵值矩陣K和值矩陣V。將查詢矩陣Q與鍵值矩陣K的轉置相乘,得出兩者之間的相似度矩陣QKT,若值越大表明越相關,通過softmax 函數對相似度矩陣進行歸一化得到權重矩陣,最后將權重矩陣與值矩陣相乘得到輸入矩陣的注意力,最終結果如式(1)所示:

其中:dk表示查詢矩陣或者鍵值矩陣的維度。

2)多頭自注意力。多頭自注意力機制是Transformer 的核心組件,它由n個自注意力模塊組合而成,其中分別表示第i個自注意力的線性變換矩陣,它們分別與輸入向量Xi相乘以獲取在不同空間上的投影,增強模型的表征能力,得到對應的Q、K、V;然后把所有的輸出矩陣拼接起來,再與線性變換矩陣Wo相乘,得到最終的自注意力輸出矩陣,如式(2)(3)所示:

3)多層感知機。多層感知機主要由兩個全連接層和一個線性激活層ReLU(Rectified Linear Unit)線性組合而成,W1、b1和W2、b2分別表示兩個全連接層的權重和偏置,計算公式如式(4)所示:

4)位置編碼:不同于自然語言處理,圖像只是一個單一的個體,在獲取它的自注意力時,首先需要通過卷積神經網絡將整張圖片分割成固定大小的小塊,然后拼接成一個可學習的位置編碼矩陣來學習得到圖片的位置編碼信息。

最終,每一層Transformer 可以表達如式(5)(6):

其中:zl-1表示上一個Transformer 層的輸出,通過Transformer變換后得到的zl作為下一個Transformer 層的輸入,以此類推。LN為層歸一化,能穩定向前傳輸圖像特征,加快模型收斂。

1.2 TransUNet

TransUNet 通過將Transformer 層融入U-Net 的方式獲取圖像的全局聯系和對特征圖進行多尺度預測以及深層監督。TransUNet 在下游任務中展現了優越的可轉移性,實現了特征的精確定位[39],完成了全局建模的優化,實現了圖像的精確分割。TransUNet 主要由3 部分組成:混合型編碼器模塊、級聯的上采樣模塊和分割頭模塊。

1)混合型編碼器模塊。完成原始圖像從原始像素空間到多級特征空間的映射。混合型編碼器由CNN 和Transformer 組合而成,首先將原始圖像輸入到CNN 特征提取器中來獲取圖像的高級特征并保留部分中低級特征,以便與上采樣的特征進行拼接;然后將CNN 特征提取器輸出的高級特征作為輸入特征傳入Transformer,獲取圖像像素之間的全局聯系,實現圖像特征的提取。

2)級聯的上采樣模塊。完成從高級特征到分割掩碼的解碼過程。它由多個上采樣步驟組合而成,與U-Net[12]一致,通過上采樣將高級特征與混合型編碼器模塊中保存的相同尺度的中低級特征拼接,防止在圖像恢復過程中單純的上采樣造成的一些細節特征的丟失,并保證復原圖像的精確度。

3)分割頭模塊。完成對分割掩碼的分割預測任務。通過一個卷積核大小為3×3 的卷積層,保證輸出的分割掩碼與醫生標注的真實掩碼保持一致。隨后分別使用交叉熵和Dice 損失計算分割損失和分類損失,并將其加權平均計入總損失。

2 多注意力融合網絡

2.1 問題描述

TransUNet 模型將Transformer 融 入U-Net 中,通 過Transformer 的內部自注意力解決了卷積運算無法遠距離建模的局限性問題,通過跳躍連接和級聯上采樣有效地解決了編碼特征恢復到分割掩碼過程中所造成的部分特征丟失的問題。但TransUNet 依舊存在以下兩個問題:1)由于Transformer 只接收1D 的長序列作為輸入,在處理2D 圖像時僅僅是將圖片分為N個空間上毫不相干且大小相同的分塊,缺乏相鄰分塊序列中的局部信息交互,導致在最后圖片復原過程中相鄰分塊拼接部分細節特征丟失,影響最終的分割效果。2)在上采樣解碼的過程中,僅簡單地將高層特征進行上采樣后與低層特征拼接起來,然后通過卷積層,并未考慮通道間的信息交互,導致數據的空間層級化信息丟失,以致出現過度分割和錯誤分割等問題。

2.2 模型結構

針對TransUNet 模型的問題,本文提出了一種醫學圖像分割下的多注意力融合網絡(MFUNet)。該網絡模型通過使用CNN 特征提取模塊、帶有卷積操作的特征融合模塊(Feature Fusion Module,FFM)和帶有雙通道注意力(Double Channel Attention,DCA)的級聯上采樣模塊,建立模型的遠程上下文交互和空間上的依存關系。首先通過CNN 特征提取網絡來提取圖像的全局特征,并保存其中的N個中低級特征以防止在上采樣過程中所造成特征丟失的情況;再將得到的特征傳入帶有分組卷積操作的Transformer 特征融合模塊中,通過其本身的自注意力機制來增強圖片內部的長距離依賴,通過卷積操作來增強不同分塊之間的局部聯系,完成圖像的編碼過程;圖像的解碼是由一個級聯的上采樣組成,在每一次2 倍上采樣的過程中,加入雙通道注意力機制,從通道方向來增強特征的表征能力,彌補了模型對通道間的關鍵信息敏感度不足,進一步增強了模型在空間上的遠程依賴關系;最后,通過最小化交叉熵解決分類過程中類別不平衡的問題,通過Dice 損失約束圖像的分割大小,以完成最終的分割任務。模型如圖1 所示,其中:n_patch為Transformer 分塊個數,D為Transformer 矩陣編碼維度(默認大小為768)。Conv 模塊是由大小為3×3 的卷積和ReLU 構成,特征融合模塊(FFM)細節如圖2 所示,雙通道注意力(DCA)模塊細節如圖3 所示。

圖1 MFUNet模型Fig.1 MFUNet model

1)CNN 特征提取模塊。首先將n張圖片隨機打亂,選取其中t張圖像數據x∈RH×W×C×m輸入到由ResNet50 組成的CNN 特征提取網絡中,其中n表示圖片的總數,m表示批次數,C表示圖片的通道數,實現圖像數據從高分辨率圖像到低分辨率圖像的轉化,完成圖像特征的粗提取,同時保留N層中低層特征(N≤3),從小到大分別表示為,以便于還原上采樣所造成的信息損失。

2)帶有卷積操作的特征融合模塊。將CNN 特征提取網絡所得到的低分辨率圖像xc轉化為Transformer 所需要的1D長序列,編碼序列的長度為embedding,每個切片的分辨率大小為(P,P),默認大小為16,分組個數N=WH/P2。受到Transformer 條件位置編碼[25]和卷積的局部相關性和空間不變性特點的啟發,設計了FFM。整個網絡沿用了Transformer本身的特點,由層歸一化單元、多頭注意力和多層感知機組成,在輸出端加入卷積操作。通過將Transformer 與分組卷積操作串聯起來,在獲取圖片的長距離依賴的同時也可以增強相鄰切片之間的局部聯系,最終得到帶有自注意力機制的圖像特征。具體如圖2 所示。

圖2 特征融合模塊Fig.2 Feature fusion module

3)帶有雙通道注意力的級聯采樣模塊。為了將帶自注意力的低分辨率圖像xt恢復到原始圖像大小,首先將低分辨率圖像特征xt通過雙通道注意力模塊(DCA),將特征分別進行全局平均池化和全局最大池化,得到大小為C× 1 × 1 的圖像特征x1和x2,依次將x1和x2傳入共享的全連接層、ReLU層和全連接層,完成x1和x2的通道數由C到C/r再到C的轉變(r表示通道的縮放比例,默認為16)。通過將數據特征映射到樣本標記空間并重構,實現模型通道間跨信道交互并增強模型對通道間關鍵信息的敏感度[31]。最后將經過擠壓和擴張操作后的x1和x2相加,然后通過Sigmoid 層以獲得通道權重矩陣,再與輸入的特征進行點乘以獲取最終的通道注意力特征圖,具體如圖3 所示。然后對雙通道注意力模塊輸出的特征進行2 倍上采樣并與CNN 特征提取器中對應的高分辨率特征拼接,依次通過卷積、批歸一化、ReLU 激活函數,重復上述操作N次(N≤3)。將經過上采樣網絡輸出的特征xf∈RH×W×16通過由3×3 卷積組成的分割頭來獲取最終的分割圖像xs∈RH×W×class。最后,通過計算醫生標注圖像與解碼器所獲得掩碼圖像的交叉熵損失作為分類損失Lclass,如式(7)所示;Dice 損失作為分割損失Lseg,如式(8)所示;將兩者加權平均以得到最終的損失值,如式(9)所示,以實現最終的分割任務。

圖3 雙通道注意力模塊Fig.3 Double channel attention module

2.3 損失函數

損失函數是一種衡量損失和錯誤程度的函數,可以很好地反映分割圖像與標簽圖像之間的差異,本文采用的損失函數由交叉熵損失和Dice 損失兩部分組成[40-41]。

Lclass為交叉熵損失,用于評估圖像數據在分割過程中對像素點分類時所產生的損失,能夠衡量同一隨機變量中的兩個不同概率分布的差異程度,值越小表明模型的預測效果越好。計算公式如式(7)所示:

其中:C為標簽;yi表示是否為類別i,若為該類別,yi=1,否則yi=0;pi為樣本i屬于類別C的概率。

Lseg為Dice 損失,用于評估預測的分割圖像與真實的分割圖像之間的相似度的一種度量損失,取值范圍為[0,1]。計算公式如式(8)所示:

其中:|X∩Y|表示真實圖片與預測圖片的交集,|X|與 |Y|分別表示各自的元素個數。

MFUNet 模型的總損失函數為Ltotal,公式如式(9)所示:

3 實驗與結果分析

3.1 實驗數據集

1)Synapse 多器官 分割數據集(Synapse multi-organ segmentation dataset,Synapse)。使用MICCAI2015 挑戰賽中多圖譜腹部標記數據集中的30 張腹部電子計算機斷層掃描(Computed Tomography,CT)進行實驗,共含有3 779 張切片,每個CT 掃描中含有85~198 張切片。整個數據集被劃分為訓練集和測試集,分別包含18 個訓練樣本和12 個測試樣本。本文使用DSC 和HD 作為8 個腹部器官(主動脈、膽囊、脾臟、左腎、右腎、肝臟、胰腺、脾臟、胃)的評價指標(見3.3 節)。

2)自動心臟診斷挑戰(Automated Cardiac Diagnosis Challenge,ACDC)數據集。ACDC 數據集從100 名患者的核磁共振成像(Magnetic Resonance Imaging,MRI)掃描儀獲得,每個MRI 掃描中含有18~20 張切片;同時,MRI 掃描儀分別標記了每個患者的左心室(Left Ventricle,LV)、右心室(Right Ventricle,RV)和心肌(MYOcardium,MYO)。整個數據集被劃分為70 個訓練樣本、10 個驗證樣本和20 個測試樣本,僅使用DSC 來評估本文模型。

3.2 實驗參數設置

實驗基于PyTorch 1.7.1 深度學習框架。對于所有的訓練樣本,使用圖片旋轉和翻轉來增加數據的多樣性。在訓練過程中,先將圖片裁剪為224×224 大小,采用小批量隨機梯度下降方法,每次實驗進行150 輪迭代,訓練批次為24,動量參數為0.9,學習率為0.01,優化器中權重衰減參數為0.000 1,所有實驗在32 GB 的NVIDIA V100 下完成。

3.3 評估指標

評估指標主要用于評估模型的性能優劣,判斷當前模型是否穩定且獲取的結果是否精確。本文采用的評估指標由Dice 相似系數(DSC)和Hausdorff 距離(HD)兩部分組成[40-41]。由于DSC 對分割像素的內部填充的約束性更強,HD 對分割的邊界的敏感程度更高,將兩者結合起來評估更有利于圖像分割任務,以獲取最精確的分割結果。

1)DSC。DSC 用于度量兩個集合的相似性,通常用于計算兩個樣本之間的相似度。與Dice 損失類似,取值范圍為[0,1],值越大表明兩個樣本越相似。具體公式如式(10)所示:

2)HD。HD 是描述兩組點集之間相似程度的一種量度方式,它能捕獲兩個多邊形的細微之處,主要是指一個點集中的點到另一個點集中的點的最短距離的最大值。具體公式如式(11)所示:

3.4 結果與分析

為了驗證本文模型的分割效果,在同等條件下進行了對比實驗。本文的對比網絡采用了較為先進的分割模型,如V-Net[42]、DARR(Domain Adaptive Relational Reasoning)[26]、U-Net[12]、Att-UNet(Attention U-Net)[16]、Vit(Vision Transformer)[26]以及最近提出的TransUNet[26],R50 是指模型的編碼器是由ResNet50 構成。為了避免實驗的分割精度出現偶然峰值的情況,每組實驗經過n次訓練(n≥3),再加權平均后得到最終的實驗結果。Synapse 數據集與ACDC 數據集的實驗結果分別如表1、2 所示,圖4 為模型在Synapse 數據集上的分割實例。

3.4.1 Synapse多器官分割數據集

如表1 所示,實驗結果表明本文所提出的MFUNet 在DSC 上達到81.06%,HD 降低至28.05%,與基線模型TransUNet 相比,MFUNet 模型在DSC 上提升了4.6%,HD 減少了11.5%。為了進一步說明FFM 和DCA 模塊的有效性,本文分別進行了兩組消融實驗:1)MFUNetfffm,不包含DCA 模塊;2)MFUNetdca,不包含FFM。從數據結果可知,與基線模型TransUNet 相比,MFUNetfffm模型和MFUNetdca模型在DSC 指標和HD 指標都具有顯著的改善;同時,結合了FFM 和DCA模塊的MFUNet 分割模型所產生的分割圖像在內部填充和邊緣預測方面都明顯優于其他對比模型。

表1 不同模型在Synapse多器官分割數據集上的分割精度 單位:%Tab.1 Segmentation accuracies of different models on Synapse multi-organ segmentation dataset unit:%

圖4 是多種不同的分割模型在Sy napse 多器官分割數據集上的分割結果。圖4(d)(e)是由Att-UNet 和U-Net 兩個只基于CNN 的模型生成的圖像,由于單純卷積操作的局限性,兩者都存在對器官的過度分割,如將脾臟誤判為肝臟(圖4第二行(d)(e))。相較于本文所提出的MFUNet,圖4(c)的TransUNet 模型僅僅考慮到圖片的長距離依賴和融合上下文信息,并未考慮圖像的局部依賴關系和融合上下文信息的過程中通道信息的重要性,因此在胃上的分割存在漏標記和過度標記的情況(圖4(c)第一行和第三行)。實驗結果表明,MFUNet 模型相較于其他對比模型分割更加精確,更接近于醫生手動分割結果。

圖4 不同模型在Synapse多器官數據集上的分割結果Fig.4 Segmentation results of different models on Synapse multi-organ segmentation dataset

3.4.2 自動心臟診斷挑戰數據

相似地,將本文所提出的MFUNet 模型與其他對比模型用于自動心臟診斷挑戰數據集,實驗結果如表2 所示。從表2 可知,MFUNet 模型仍然有極好的性能,其整體分割準確度達到90.91%,并且在右心室和心肌兩部分的分割精度明顯優于現有模型。與基線模型TransUNet 相比,MFUNet 在右心室和心肌兩個器官的分割精度分別提升了1.43 和3.48 個百分點。實驗結果進一步表明本文所提出的多注意力融合網絡MFUNet 具有良好的泛化性和魯棒性。

表2 不同模型在ACDC心臟分割數據集上的分割精度 單位:%Tab.2 Segmentation accuracies of different models on ACDC heart segmentation dataset unit:%

3.5 消融實驗

為了探討不同因素對模型性能的影響,本文通過控制變量的方式在Synapse 多器官分割數據集上進行了一系列的消融實驗,主要包含了以下幾點因素對模型性能的影響:

1)跳躍連接數量。為了探討不同連接數量對模型造成的影響,在1/2、1/4、1/8 分辨率尺度下分別添加跳躍連接,連接數量分別設置為1、2 和3,結果如表3 所示。從實驗結果看出,分割性能隨跳躍連接數量的增加而提升。因此,本文將跳躍連接數量設置為3 以追求更精確的分割精度。

表3 跳躍連接數量的消融實驗 單位:%Tab.3 Ablation experiment for number of skip connections unit:%

2)模型規模大小。從表4 可見,實驗訓練兩個規模大小的模型“base”和“large”,兩個模型的隱藏層大小、Transformer層數以及每層Transformer 中注意力的個數分別為12、768、3 072 和24、1 024、4 096。從表4 可見,“large”模型能獲得更精確的分割結果,但提升不顯著且會帶來巨大的算力開銷。因此最終選擇“base”模型來進行本文實驗。

表4 模型規模大小的消融實驗 單位:%Tab.4 Ablation experiment for model scale unit:%

3)輸入分辨率。本文考慮了低分辨率圖像(224×224)和高分辨率圖像(384×384)對模型造成的影響。從表5 可見,在保證分割的切片大小一致的情況下,高分辨率圖像的輸入序列將會更大,因而提升了模型的相對性能。考慮到高分辨率圖像會使網絡的計算負荷顯著增加,本文選擇以224×224分辨率圖像作為輸入。

表5 輸入分辨率的消融實驗 單位:%Tab.5 Ablation experiment for input resolution unit:%

4)卷積分組數。本文設置了不同的分組數,分別為1、48、768:當分組數為1 時表示普通卷積,當分組數為768 時可理解為深度卷積(Depthwise Convolution,DC),深度卷積能極大地縮小卷積重復計算所帶來的巨大參數量,達到簡化模型的效果。從表6 可見,使用深度卷積時模型分割更為精確。

表6 MFUNet中卷積分組數的消融實驗 單位:%Tab.6 Ablation experiment for number of convolution groups in MFUNet unit:%

4 結語

本文提出了一種新穎的多注意力融合網絡模型(MFUNet)用于醫學圖像的分割。該模型通過在Transformer中加入分組卷積操作來增強相鄰分塊特征間的局部聯系,在上采樣部分加入雙通道注意力來進一步增強模型對通道的重要特征的敏感程度。通過對多器官分割任務和心臟分割任務的大量實驗結果表明,MFUNet 具有出色的性能和泛化能力,其實驗結果均優于其他對比模型。此外,對于如何實現更好的邊緣預測,以保證預測分割圖更貼合醫療靶區大小是需要進一步研究的問題。

猜你喜歡
特征實驗模型
一半模型
記一次有趣的實驗
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
NO與NO2相互轉化實驗的改進
主站蜘蛛池模板: 久久久久国产精品免费免费不卡| 国产免费一级精品视频 | 四虎免费视频网站| 极品私人尤物在线精品首页| 在线亚洲天堂| 精品成人一区二区三区电影 | 国产偷国产偷在线高清| 亚洲乱亚洲乱妇24p| 黄色在线不卡| 日韩欧美中文亚洲高清在线| 欧洲亚洲欧美国产日本高清| 青青草国产免费国产| 看国产毛片| 色综合天天综合中文网| 色综合久久88| 国产男女XX00免费观看| 蝌蚪国产精品视频第一页| 亚洲欧美在线综合一区二区三区 | 97在线公开视频| 国产成人精品一区二区三区| 日韩 欧美 小说 综合网 另类 | 青青草原国产| 欧美精品不卡| 777国产精品永久免费观看| 色婷婷在线播放| 国产又色又刺激高潮免费看| 四虎国产永久在线观看| 免费国产高清视频| 欧美高清国产| 亚洲免费毛片| 日韩AV手机在线观看蜜芽| 午夜日本永久乱码免费播放片| 最新亚洲人成无码网站欣赏网 | 91久久性奴调教国产免费| 天堂久久久久久中文字幕| 嫩草在线视频| 欧美日韩专区| 欧美一区二区丝袜高跟鞋| 免费网站成人亚洲| 亚洲视频一区| 久久精品一卡日本电影| 久久天天躁狠狠躁夜夜2020一| 久久午夜夜伦鲁鲁片无码免费| 91年精品国产福利线观看久久 | 国产精品妖精视频| 美女毛片在线| 中文字幕啪啪| 国产91蝌蚪窝| 欧美精品不卡| 四虎综合网| 国产精品亚洲一区二区三区在线观看| 精品久久久无码专区中文字幕| 72种姿势欧美久久久大黄蕉| 国产理论一区| 三区在线视频| 午夜影院a级片| 国产手机在线ΑⅤ片无码观看| 亚洲日韩图片专区第1页| av在线人妻熟妇| 亚洲国产欧美自拍| 欧美全免费aaaaaa特黄在线| 成人免费一级片| 国产一在线观看| 成人精品区| 亚洲成人在线网| 亚洲精品老司机| 91色国产在线| AV无码一区二区三区四区| 亚洲欧洲一区二区三区| 亚洲狼网站狼狼鲁亚洲下载| 久久黄色免费电影| 天堂岛国av无码免费无禁网站| 色婷婷色丁香| 被公侵犯人妻少妇一区二区三区| 理论片一区| 2022精品国偷自产免费观看| 在线精品亚洲国产| 欧美一级高清片欧美国产欧美| 成人在线综合| 久久伊人操| 91po国产在线精品免费观看| 亚洲美女操|