999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于CNN和Transformer并行編碼的腹部多器官圖像分割

2024-01-01 00:00:00趙欣李森李智生
吉林大學學報(理學版) 2024年5期
關鍵詞:特征信息

摘要:針對現有方法在腹部中小器官圖像分割性能方面存在的不足,提出一種基于局部和全局并行編碼的網絡模型用于腹部多器官圖像分割.首先,設計一種提取多尺度特征信息的局部編碼分支;其次,全局特征編碼分支采用分塊Transformer,通過塊內Transformer和塊間Transformer的組合,既捕獲了全局的長距離依賴信息又降低了計算量;再次,設計特征融合模塊,以融合來自兩條編碼分支的上下文信息;最后,設計解碼模塊,實現全局信息與局部上下文信息的交互,更好地補償解碼階段的信息損失.在Synapse多器官CT數據集上進行實驗,與目前9種先進方法相比,在平均Dice相似系數(DSC)和Hausdorff距離(HD)指標上都達到了最佳性能,分別為83.10%和17.80mm.

關鍵詞:多器官圖像分割;分塊Transformer;特征融合

中圖分類號:TP391.41文獻標志碼:A文章編號:1671-5489(2024)05-1145-10

Abdominal Multi-organ Image Segmentation Based onParallel Coding of CNN and Transformer

ZHAO Xin1,LI Sen12,LI Zhisheng2

(1.School of Information Engineering,DalianUniversity,Dalian 116622,Liaoning Province,China;2.Chinese People's Liberation Army 91550,Dalian 116023,Liaoning Province,China)

Abstract:Aiming at the shortcomings of existing methods in the image segmentation performance of small and medium-sized organs in the abdomen,we proposed a network model based on local and global parallel coding for multi-organ image segmentation in the abdomen.Firstly,a local coding branch was designed to extract multi-scale feature information.Secondly,the global feature coding branch adopted the block Transformer,which not only captured the global long distance dependency information but also reduced the computation amount through the combination of intra-block Transformer and inter-block Transformer.Thirdly,a feature fusion module was designed to fuse the context information from two coding branches.Finally,the decoding module was designed to realize the interaction between global information and local context information,so as to better compensate for the information loss in the decoding stage.Experiments were conducted on the Synapse multi-organ CT dataset,compared with the current nine advanced methods,the average Dice similaritycoefficient(DSC)and Hausdorff distance(HD)indicators achieve the best performance,with 83.10%and 17.80 mm,respectively.

Keywords:multi-organ image segmentation;blockTransformer;feature fusion

腹部器官的CT(computed tomography)影像分割是實現腹部疾病智能診斷的前提和基礎.通過分割出感興趣的腹部器官區域,可以使智能診斷系統的注意力集中在特定的器官上,使系統更易檢測到器官內潛在的異常病變,為后續的病灶自動分析與評估提供依據,腹部多器官分割對放化療計劃的制定也非常重要,分割出感興趣的腹部器官區域可以幫助放療醫生評估病變與周圍器官的關系,以確定適當的放射治療劑量和照射范圍.腹部多器官分割結果還可與實時手術導航相結合,為外科醫生提供精確的導航和定位信息,減少手術風險和損傷周圍健康組織的可能性,因此,設計一種高效、準確的腹部多器官圖像分割模型對輔助臨床治療有重要意義.

目前,腹部多器官圖像分割方法可分為傳統機器學習方法和深度學習方法兩大類,早期的研究主要集中在單個大器官圖像的分割上,如肝臟或腎臟,此后,多器官分割研究引起廣泛關注.傳統方法多采用基于器官結構先驗知識或多圖譜匹配的方法分割腹部器官圖像.但這些方法需要人工參與,導致圖像分割結果依賴于人為操作,準確性較低.近年來,深度學習在醫學圖像分割領域取得極大進展,目前已有許多基于深度學習的腹部多器官圖像分割方法,如文獻[5]在Unet基礎上通過使用可分離卷積代替普通卷積和一種自定義加權訓練損失,在腹部圖像中完成了肝臟、腎臟、肺和膀胱的分割.由于卷積操作的局部感受野限制,因此單獨使用卷積神經網絡(CNN)進行腹部多器官分割可能無法充分捕捉到全局上下文信息,而腹部器官之間的相互關系和空間布局對準確分割至關重要,僅使用局部感受野的特征提取無法捕獲到器官的全局結構和彼此之間的相互關系,為克服該問題,研究人員提出了一些解決方案,其中常用的方法是引入跳躍連接或多尺度特征融合機制,跳躍連接可以在不同層級上連接局部和全局特征,使網絡能同時獲得局部和全局上下文信息.多尺度特征融合則通過在不同尺度上進行特征提取,并將這些特征進行融合,以獲得更全面的信息.如Sinha等提出了一種多尺度引導注意力機制算法(MS-Dual),使用多個ResNet提取不同尺度的特征,并在跳躍連接處用注意力機制挖掘這些特征完成了肝臟和腎臟的分割.文獻[4]提出了UCTransNet網絡模型,該模型以U-Net為基礎,在跳躍連接處先用通道式交叉融合轉換器(CCT)整合多尺度上下文信息,再利用通道交叉注意力(CRES)解決語義層次的不一致問題,以提升分割性能.自然語言處理中的Transformer已被證明在學習計算機視覺的全局上下文特征方面有效,于是有研究人員開始關注Transformer在腹部多器官圖像分割中的研究[610],在肝臟、脾臟等大型器官的圖像分割上取得了進一步提升,如Chen等6提出了TransUNet網絡結構,使用Transformer將CNN特征圖編碼為輸入序列,利用解碼器對編碼特征進行上采樣,并與高分辨率CNN特征圖組合,實現精準定位.Cao等提出了Swin-UNet網絡模型,該網絡主要是基于Swin Transformer block構建了編碼器-解碼器體系結構,在編碼器中實現了從局部到全局的自注意力機制;在解碼器中,將全局特征上采樣到輸入分辨率,并進行分割預測.Huang等提出了MISSFormer網絡結構,MISSFormer將輸入圖像劃分為重疊塊,通過多層次編碼器生成多尺度特征,并在跳躍連接處通過Transformer獲取局部和全局信息,最后通過解碼器進行上采樣,得到判別性分層多尺度特征,Transformer模型更注重全局信息的建模,能更好地捕捉長距離的依賴關系,在處理腹部多器官圖像的全局特征方面更有效,但其在處理圖像局部方面能力相對較弱,雖然通過適當的位置編碼能提供一定程度的局部信息,但相對于傳統的CNN模型,Transformer在處理局部信息方面仍顯不足[1

CNN具有局部感知性,可更好地捕獲局部模式和順序信息.通過將CNN和Transformer相結合,可以更充分地引入局部信息.因此,本文提出一種基于CNN和Transformer相結合的腹部多器官圖像分割模型BCNet(block former and CNN parallel encoding of segmentation networks),通過設計兼顧全局與局部特征提取的雙分支并行編碼結構融合局部和全局信息.本文工作的創新主要體現在提出一種基于Transformer編碼和帶有注意力引導與殘差連接的多尺度卷積編碼的雙線并行編碼框架,以有效融合全局和局部信息,從而更好地實現腹部多器官圖像分割.

1本文方法

如圖1所示,BCNet包括兩個編碼分支:局部特征編碼分支和全局特征編碼分支,局部特征編碼分支采用局部特征提取模塊進行特征編碼,專注局部特征提取.全局特征編碼分支側重全局特征提取,采用分塊Transformer,通過塊內Transformer和塊間Transformer的組合,既捕獲了全局的長距離依賴信息又降低了計算量.模型首先基于全局與局部上下文交互信息,特征融合模塊從空間維度增強CNN編碼分支的局部細節,并抑制無關區域,從通道維度提升了Transformer分支的全局信息;然后將其與交互信息進行殘差連接,從而實現了特征信息的有效融合;最后設計解碼模塊作為解碼結構,解決了普通卷積對上下文信息利用不足的問題,從而提高了圖像分割性能.

1.1局部特征編碼模塊

為提取腹部器官圖像的多尺度特征,設計局部特征編碼模塊,該模塊利用分組卷積與殘差連接相結合的方式,在更細粒度級別表示多尺度特征,并通過坐標注意力[2],使其既可以捕獲多尺度特征,又可以捕獲位置敏感信息,如圖2所示.首先,將特征圖X分成4組,除第一組外其他組都有相應的3×3卷積核,每個3×3卷積操作都可以通過殘差連接融合上一組的特征信息;其次,將所有特征圖進行拼接,實現在更細粒度級別表示多尺度特征y,為在多尺度特征圖基礎上捕獲位置敏感信息,兩個一維全局池化操作分別將垂直和水平方向的輸入特征聚合成兩個獨立的方向感知映射,隨后將垂直和水平兩個方向的注意力進行矩陣相乘,獲取特征圖y坐標注意力p,并將坐標信息p嵌入到特征圖y中,從而生成權重特征圖X;最后,將特征圖X和原圖X進行線性融合,從而生成多尺度殘差坐標注意力特征圖.

1.2分塊Transformer

傳統CNN在處理每個像素時只考慮局部的感受野,無法建立圖像中像素之間的長距離依賴關系,這種處理模式不能很好地解讀腹部各器官在位置上的相對依賴關系.但Transformer技術可以通過自注意力機制在全局范圍內對圖像進行建模,從而更好地理解像素之間的語義關系,提高圖像分割的準確性.因此,本文在模型中引入Transformer技術進行腹部多器官圖像的全局依賴特征提取,設計一種基于分塊的Transformer模塊(B-Transformer),通過將輸入數據分成若干塊,每塊內進行塊內Transformer操作,并在塊間進行塊間Transformer操作,以實現更高效的計算和更好的并行性,如圖3所示.全局編碼分支的前兩層使用步長為2、大小為3×3的卷積對輸入圖像進行處理,以獲取初步的淺層特征圖,然后傳輸給分塊Transformer模塊,如圖1所示.在圖3中,經過淺層處理后的特征圖首先被輸入到塊內Transformer的特征提取流程,計算每個分塊內像素間的長距離依賴關系,處理結果與淺層輸入拼接后經過3×3的卷積進行特征融合,然后再傳輸給塊間Transformer的特征提取流程,進而生成全局上下文信息

1.2.1塊內Transformer

塊內Transformer是在每個塊內部進行的操作,其結構與傳統的Transformer相似,包含自注意力機制和前饋神經網絡.塊內Transformer將注意力放在當前塊內的元素之間,使其可以在每個塊內部并行計算,提高計算效率.塊內Transformer首先對輸入特征圖X∈RC×HXW進行3×3卷積,以獲取特征圖中的局部空間信息和順序信息,并利用1×1卷積擴大特征圖的通道生成Xc∈RmHxW,以增強表達能力.對Xc進行分塊(Patch)生成Xc∈RHxW×dm后,再將X展開為N個不重疊的序列化集合Xv∈RNxPxdm.若Patch的高和寬分別為h和w,則P=h×w,N=HXW,其中N表示Patch的數量.每個Patch用Transformer[5]計算獲得塊內像素間的長距離依賴信息XL(n)∈RN×P×dm,用公式表示為

其中Xv(n)表示某個指定Patch的空間信息,X(n)表示對應Patch的塊內像素間的長距離依賴信息.

1.2.2塊Transformer

塊間Transformer是在塊之間進行的操作,其目的是在不同的塊之間建立聯系,使塊之間的信息可以傳遞和交流,從而使不同塊之間的信息得到有效整合并生成全局依賴表達.塊內Transformer的輸出XL經過與輸入特征圖X拼接,生成融合信息Y∈RC×H×m,為增強表達能力,首先對Y進行1×1卷積將其映射到高維空間,生成Xg∈RdmH×W,為方便操作,通過對Xg進行reshape生成XE∈RHXWxdm后,再將X展開為P個不重疊的相對位置序列化集合X∈RPXNxdm,而每個相對位置序列化集合表示所有Patch某個相對位置對應像素的空間信息集合.若Patch的高和寬分別為h和w,則N=×,表示相對位置特征塊的大小,P=hw,表示相對位置特征塊的數量.每個相對位置特征塊用Transformer5]計算獲得所有Patch相對位置對應像素之間的長距離依賴信息X(p)∈RPX NXdim,用公式表示為

其中X(p)表示所有Patch某個相對位置對應像素的空間信息,X(p)表示所有Patch相對位置對應像素之間的全局上下文信息,由于在塊內Transformer每個像素已經與塊內的所有像素建立了相關性,所以X中的每個像素都可以通過Patch相對位置對應像素間接與X。中的其他像素建立相關性,從而實現建模全局上下文.最后與輸入特征圖X拼接,生成融合信息Y∈RC×HXW.

1.3特征融合模塊

設計特征融合模塊的目的是為有效結合來自 CNN 編碼的局部上下文信息及 Transformer編碼的全局上下文信息,以提高圖像分割性能.如圖4所示,ti表示 Transformer輸入的特征圖,gi表示 CNN 輸入的特征圖.ti有兩條分支,一條是經過 SE通道注意力[13]與gi經空間注意力[14]做拼接處理;另一條是與gi做點積運算,以獲取來自兩條編碼分支的交互信息.最后,使用1×1卷積對融合信息進行升通道,生成bi,并與拼接部分做殘差處理, 從而生成的融合信息fi 可有效地捕獲當前空間分辨率的全局和局部上下文信息.在此過程中,ti使用 SE 通道注意力主要是為從全局角度對 Transformer輸入的特征圖進行把握,得到t′i ;而gi使用空間注意力主要是為從細節角度對 CNN 編碼的特征圖進行把握,得到g′i.

1.4解碼模塊

由于腹部各器官圖像形態差異較大,所以在解碼過程中,需要充分利用上下文信息,因此本文設計了基于上下文Transformer[13]的解碼模塊,以實現特征圖的局部上下文與全局上下文的有效融合.模塊的輸入來自雙編碼分支對應層的特征融合與上采樣圖經過跨層連接生成的特征圖X.輸入的特征圖X分別經過3條不同的路徑處理,如圖5所示.由圖5可見:第一條路徑首先對輸入進行3×3卷積,以實現輸入的靜態上下文表示L;與第二條路徑的原始輸入拼接后,通過兩個連續的1×1卷積和reshape生成動態多頭注意力矩陣,該矩陣由原始輸入X與局部上下文信息L交互得到,從而在局部上下文信息的引導下,各像素之間的關聯性均體現在每個3×3的張量上,再對每個3×3張量進行平均池化生成自注意力圖;第三條路徑對輸入首先進行3×3卷積,然后經過與自注意力圖點乘,以實現輸入的全局上下文表示M.最后,將靜態上下文表示L與全局上下文M通過疊加進行特征信息融合,以增強在解碼過程中的特征表達能力.

2實驗與結果討論

2.1數據集

實驗采用的數據集是MICCAI2015多圖譜腹部標記挑戰賽的Synapse多器官CT數據集,其中共有30名患者提供3779張軸向腹部臨床CT切片.本文隨機選取18個樣本(共2211張軸向切片)作為訓練集,12個樣本作為測試集,在訓練過程中隨機選擇6個樣本作為驗證集.為防止模型因數據樣本過少而出現過擬合,對訓練集中的圖像分別進行水平翻轉和90°,180°,270°旋轉,將訓練集中樣本擴大為原來的5倍.

2.2實驗設置

本文實驗使用的設備是NVIDIA GeForce RTX3090GPU顯卡,內存為22GB,深度學習框架為Pytorch1.9.1.輸入圖像大小設為224×224,在Transformer分支編碼器上patch size分別設為8,4,2,batch size設為4.為更好地解決訓練樣本不平衡問題,網絡模型在訓練過程中使用FLm訓練BCNet:

其中c表示當前樣本的類別,a表示類別c對應的權重,p表示輸出概率分布對類別c的概率值,超參數y設為2.采用學習率為0.01,權重衰減為0.0001的SGD優化器進行訓練,批處理量(batchsize)設為4,迭代次數設為300.

2.3評價指標

為驗證本文網絡模型的有效性,采用DSC(平均Dice相似系數)和HD(平均Hausdorff距離)兩個性能指標對模型圖像分割結果的準確性進行評估,其中:Dice是常用于評價醫學圖像分割的標準指標,標簽與分割結果的重合面積越大,數值越大;Hausdorff距離是在度量空間中任意兩個集合之間定義的一種距離,表示分割結果與標簽兩個點集之間最短距離的最大值.這兩個評價指標分別表示為

其中A和B分別表示標簽和預測的結果,d(a,b)表示a,b兩點之間的歐氏距離.本文采用DSC作為評價指標,對8個腹部器官(主動脈、膽囊、左腎、右腎、肝臟、胰腺、脾臟、胃)圖像進行測試.

2.4結果與分析

為驗證本文網絡模型的性能和分割結果,將BCNet與9種先進的醫學圖像分割方法進行比較.表1列出了各方法的性能指標,所有方法的結果均取自原文獻.由表1可見,BCNet在評估指標平均DSC和HD上取得了最佳性能,分別為83.10%和17.80mm.與傳統的UNet算法相比,BCNet在平均DSC上提高了6.25個百分點.此外,傳統的U型編碼器-解碼器結構(如U-Net和AttentionUNet)由于卷積操作的制約,特征提取感受野大小受卷積核大小限制,難以捕獲全局特征信息,從而導致肝臟、腎臟、脾臟、胃等較大器官的圖像分割效果不如UNet與Transformer相結合的網絡模型.將UNet與Transformer相結合的網絡模型在處理局部信息方面仍顯不足,導致在小型器官(如膽囊、主動脈)的圖像分割方面性能并不理想.而BCNet成功地解決了Transformer忽略局部特征的缺點,并結合了傳統卷積編碼的優勢,在腹部多器官圖像分割方面性能優異.特別是在中小型器官(如膽囊、左腎、右腎)的分割方面,與MISSFormer相比,BCNet的分割精度分別提高了4.10,3.92,6.78個百分點.

由于部分文獻采用的數據集劃分是21個樣本作為訓練集,9個樣本作為測試集,訓練過程中選擇6個樣本作為驗證集,并用DSC作為評價指標.現將BCNet做相同的數據集劃分進行對比實驗,并對訓練集進行數據增強.表2列出了重新劃分數據集后不同方法在Synapse多器官CT數據集上的分割效果對比.由表2可見,BCNet在保證肝臟、腎臟、脾臟精度的同時,在主動脈、膽囊、胰腺以及胃部的器官圖像分割上有進一步提升,并且平均DSC相比UNETR提升了1.55個百分點.

2.5視覺效果

為清楚地顯示本文方法(BCNet)的效果,可視化了本文方法與其他方法的分割效果,如圖6所示.由圖6可見,傳統的卷積編碼器-解碼器結構對邊界信息不夠敏感,易出現過度分割的問題,例如,在第一行中,胃被UNet,Attention UNet過度分割;在第五行中,肝臟被其他模型過度分割.UNet與Transformer相結合的網絡模型雖然對邊界信息較敏感,但由于一些特征的丟失,易出現分割不足的問題.例如,在第四行中,Swin-Unet未能將膽囊預測出來,而BCNet正確預測了膽囊;在第二行中,CoT-TransUNet,Swin-UNet對右腎的分割出現誤分,而BCNet正確預測了右腎;在第一行和第三行中,CoT-TransUNet,Swin-UNet,TransUNet對胰腺的預測出現缺失,而BCNet正確預測了胰腺,并保留了很好的邊界信息.實驗結果表明,本文方法對中小型腹部器官圖像的分割效果較好,將CNN局部上下文信息與Transformer全局上下文信息進行融合,使BCNet更注重邊界信息,實現了更好的邊緣預測.

2.6消融實驗

為進一步研究本文算法各模塊的性能,設計消融實驗驗證局部特征提取模塊(Res)、分塊Transformer(Bvit)、解碼模塊(CoT)3個關鍵組件的有效性.表3列出了本文算法各組件消融實驗結果.為更好地提取腹部各器官圖像的多尺度特征,在實驗1中,以UNet作為基本模型驗證其對結果的影響.實驗2~4中,在基本模型上添加了Res,Bvit和CoT,以驗證該模塊的性能.在實驗5~7中,進行了Res,Bvit和CoT的成對組合,以驗證模塊之間相互作用對基本模型的影響,在實驗8中,將3個模塊組合在一起,以驗證Res,Bvit和CoT之間的相互作用可提高基本模型的預測精度.

由表3可見,實驗2在Synapse多器官CT數據集上的性能優于實驗1,說明使用多尺度殘差坐標注意力模塊進行編碼,不僅可以進一步提取多尺度特征,而且可以從位置信息角度提升圖像分割效果.通過比較實驗1和實驗4以及實驗5和實驗8可以發現,平均DSC顯著提高,平均Hausdorff距離顯著降低.這主要是因為CoTNet相較于普通卷積可以充分利用局部上下文信息,從而更好地完成解碼過程.通過比較實驗1和實驗3表明,以并行方式結合Transformer和CNN對圖像進行編碼比單一使用CNN對圖像進行編碼效果更好.由實驗6和實驗8可見,通過引入Bvit可以在不損失大型器官圖像分割準確性的情況下,極大提高中小型器官圖像的分割性能,尤其像胰腺這種邊界模糊的器官.

表4列出了不同模型的性能及計算復雜度,由表4可見,在與目前幾種主流的網絡進行比較后,相比于其他引入注意力機制的網絡,例如TransUNet和Swin-UNet,BCNet的參數數量更少,推理時間更快,計算復雜度(GFLOPs)更低,更輕量化.說明分塊Transformer不僅可以保證模型圖像分割的精確度,而且可以減少計算量.

綜上所述,針對現有方法在腹部中小器官圖像分割性能方面存在的不足,本文提出了一種新的融合CNN與Transformer雙重編碼結構的網絡模型(BCNet).BCNet由局部特征編碼分支和全局特征編碼分支組成,通過特征互補模塊實現融合,使用解碼模塊進行解碼,克服了普通卷積對上下文信息利用不足的問題,提高了分割性能,可為輔助醫生診斷提供有效的幫助.

參考文獻

[1]SINHA A.DOLZ J.Multi-scale Self-guided Attention for Medical Image Seg mentation[J].IEEE Journal of Biomedical and Health Informatics,2020,25(1):121-130.

[2] BERZOINI R.COLOMBO A A,BARDINI S,etal.An Optimized U-Net for Unbalanced Multi-organ Segmentation[C]//2022 44th Annual International Conference of the IEEE Engineering in Medicine 8.Biology Society(EMBC).Piscataway,NJ:IEEE,2022:3764-3767.

[3]LU H C,TIAN S W,YU L,etal.Medical Image Segmentation Using Boundary-Enhanced Guided Packet Rotation Dual Attention Decoder Network[J].Technology and Health Care,2022,30(1):129-143.

[4]WANG H N.CAO P,WANG J Q.et al.Uctransnet:Rethinking the Skip Connections in U-Net from a Channel-Wise Perspective with Transformer C]//Proceedings of the AAAI Conference on Artificial Intelligenee.PaloAlto:AAAI Press,2022:2441-2449.

[5]DOSOVITSKIY A,BEYER L.KOLESNIKOV A,etal.An Image Is Worth 16X16 Words:Transformers for Image Recognition at Scale[EB/OL].(2020-10-22)[2023-02-01].https:/arxiv.org/abs/2010.11929.

[6] CHEN J N,LU Y Y,YU Q H,etal.Transunet:Transformers Make Strong Encoders for Medical Image Segmentation[EB/OL].(2021-02-08)[2023-03-10].https:/arxiv.org/abs/2012.04306.

[7]PETIT O,THOME N,RAMBOUR C,etal.U-Net Transformer:Self and Cross Attention for Medical Image Segmentation[C]//Machine Learning in Medical Imaging:12th International Workshop.Berlin:Springer,2021:267-276.

[8]CAO H,WANG Y Y,CHEN J,etal.Swin-Unet:Unet-Like Pure Transformer for Medical Image Segmentation[C]//European Conference on Computer Vision.Berlin:Springer,2022:205-218.

[9]YAOC,HU M H,ZHAI G T,etal.TransclawU-Net:Claw U-Net with Transformers for Medical Image Segmentation[EB/OL].(2021-07-12)[2023-03-12].https://arxiv.org/abs/2107.05188.

[10]HUANG X H,DENG Z F,LID D,etal.Missformer:An Effective Medical Image Segmentation Transformer[EB/OL].(2021-09-15)[2023-01-15].https:/arxiv.org/abs/2109.07162.

[11]LIU Y,ZHANG Y.WANG Y X,etal.A Survey of Visual Transformers[J].IEEE Transactions on Neural Networks and Learning Systems,2023,35(6):7478-7498.

[12]HOU Q B.ZHOU D Q,FENG J S.Coordinate Attention for Efficient Mobile Network Design[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE,2021:13713-13722.

[13]LI Y H,YAO T,PAN Y W,etal.Contextual Transformer Networks for Visual Recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2022,45(2):1489-1500.

[14]WOO S,PARK J,LEE J Y,etal.Cbam:Convolutional Block Attention Module[C]//Proceedings of the European Conference on Computer Vision(ECCV).New York:ACM,2018:3-19.

[15]OKTAY O,SCHLEMPER J,FOLGOC L L,etal.AttentionU-Net:Learning Where to Look for the Pancreas[EB/OL].(2018-04-11)[2022-12-15].https://arxiv.org/abs/1804.03999.

[16]ZHENG P F.MT-ONet:Mixed Transformer O-Net for Medical Image Segmentation[C]//2022 International Conference on Sensing,Measurementamp;Data Analytics in the Era of Artificial Intelligence(ICSMD).Piscataway.NJ:IEEE,2022:1-4.

[17]楊鶴,柏正堯.CoT-TransUNet:輕量化的上下文Transformer醫學圖像分割網絡[J].計算機工程與應用,2023,59(3):218-225.(YANG H,BAI Z Y.CoT-TransUNet:Lightweight Contextual Transformer MedicalImage Segmentation Network[J].Journal of Computer Engineeringamp;Applications,2023,59(3):218-225.)

[18]ISENSEE F,J?GER P F,KOHL S A A,etal.Automated Design of Deep Learning Methods for Biomedical Image Segmentation[EB/OL].(2019-04-17)[2023-01-15].https:/arxiv.org/abs/1904.18128.

[19]XIE Y T,ZHANG J P,SHEN C H,etal.Cotr:Efficiently Bridging CNN and Transformer for 3D Medical Image Segmentation[C]//Medical Image Computing and Computer Assisted Intervention.Berlin:Springer,2021:171-180.

[20]HATAMIZADEH A,TANG Y,NATH V,etal.Unetr:Transformers for 3D Medical Image Segmentation[C]//Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision.Piscataway,NJ:IEEE,2022:574-584.

(責任編輯:韓嘯)

猜你喜歡
特征信息
抓住特征巧觀察
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
信息
建筑創作(2001年3期)2001-08-22 18:48:14
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 国产欧美视频综合二区| 欧美国产日产一区二区| 亚洲男人在线天堂| 欧美国产在线一区| 毛片三级在线观看| 天天色天天操综合网| 天天激情综合| 亚洲人成网站日本片| 成人字幕网视频在线观看| 人妻精品久久久无码区色视| 无码中文字幕加勒比高清| 国产成人久久综合777777麻豆| 亚洲午夜片| 日韩毛片基地| 在线观看精品自拍视频| 亚洲床戏一区| 久久综合色视频| 99这里只有精品在线| 亚洲午夜福利精品无码不卡| 毛片大全免费观看| 欧美中日韩在线| 亚洲精品在线91| 婷婷综合色| 日韩国产一区二区三区无码| 欧美亚洲欧美区| A级毛片无码久久精品免费| 色视频国产| 草草线在成年免费视频2| 国产91全国探花系列在线播放| 九九这里只有精品视频| 老司机午夜精品网站在线观看| 午夜国产小视频| 国产美女主播一级成人毛片| 欧美一区国产| 欧美笫一页| 伊人无码视屏| 欧美天天干| 强奷白丝美女在线观看| 国产成人精品亚洲77美色| 久久国产精品影院| 四虎永久免费地址| 超碰色了色| 免费A级毛片无码无遮挡| 亚洲第一在线播放| 日本成人不卡视频| 一级毛片中文字幕| 国产传媒一区二区三区四区五区| 在线观看网站国产| 国产丝袜无码精品| 色首页AV在线| a毛片基地免费大全| 凹凸国产分类在线观看| 亚洲浓毛av| 波多野结衣中文字幕一区二区 | 亚洲日本中文字幕天堂网| 在线色国产| 69国产精品视频免费| 免费一级无码在线网站 | 午夜小视频在线| 国产电话自拍伊人| 18禁色诱爆乳网站| 五月六月伊人狠狠丁香网| 久久婷婷国产综合尤物精品| 亚洲精品动漫在线观看| 亚洲伊人天堂| 国产91高跟丝袜| 亚洲成人77777| 无码人妻免费| 久久男人资源站| 99ri国产在线| 国产精品第一区在线观看| 国产美女无遮挡免费视频| 国产欧美日韩一区二区视频在线| 国产日本欧美在线观看| 熟女日韩精品2区| 99视频精品在线观看| 91国内外精品自在线播放| 国产成人综合欧美精品久久| 妇女自拍偷自拍亚洲精品| 亚洲成年人片| 中文字幕 91| 永久免费精品视频|