中圖分類號:TP391 文獻標志碼:A 文章編號:1671-6841(2025)05-0054-08
DOI:10.13705/j.issn.1671-6841.2023250
Abstract:In recent years,Transformer based automatic segmentation models for brain gliomas greatly improved in performance,but there were stillsome problems such as a large number of parameters,high computational power requirements, large sample requirements,and training diffculties,which could affect the actual deployment of the models. Therefore,a lightweight MRI glioma segmentation model MNATSPNet was proposed. Firstly,a lightweight component MobileNAT was designed to reduce the complexity of Transformer's multi-head self-attention through the adjacency attention mechanism. Secondly, the L1 structured pruning operation was introduced to remove the redundant parameters of the multi-head adjacency attention and fedforward neural network layer in MobileNAT. The experimental results demonstrated that MobileNAT and structured pruning operations could effectively reduce parameters of the model while maintaining stable segmentation performance. Finally,compared with other classc models, MNATSPNet achieved the best results.
Key words: brain glioma segmentation; attention mechanism;Transformer; lightweight; structuredpruning
0 引言
腦腫瘤可生長于腦血管、神經等顱內組織,嚴重威脅患者的生命健康。其中,腦膠質瘤由人腦中的異常神經膠質細胞所引起,分為惡性膠質瘤(HGG)和良性膠質瘤(LGG)。HGG是成年人最常見的惡性原發性腦腫瘤,約占成年人原發性腦腫瘤的70%[1] 。目前,HGG 的發病率相對較高,生長迅速,患者的平均生存時間不超過兩年,這對人類健康和社會產生了巨大影響。
腦部核磁共振成像(MRI)能夠提供精確的大腦解剖結構,從腦部MRI圖像中自動分割腦膠質瘤對診斷、治療和后期手術具有重要意義[2]。基于深度學習技術的模型對腦膠質瘤進行自動分割已取得顯著效果[3-5],尤其是以 Vision Transformer(ViT)[6]為代表的各種自注意力機制的加入,極大提升了模型的性能[5,7-8]。但是ViT會導致相關模型存在參數量過大、樣本需求量大、算力要求高、訓練困難等問題,直接影響了模型的實際部署。Mehta等[9]提出的MobileViT模型,在保持一定性能的前提下,可大幅降低ViT模型的參數。但是MobileViT模型中的多頭自注意力在進行自注意力計算時復雜度比較高,具有二次復雜度,導致計算量和參數量較大,仍需進一步改進。
本文提出一種輕量級的MRI腦膠質瘤分割網絡模型MNATSPNet,對MobileViT模型進行改進,設計了更加輕量級的組件MobileNAT,通過鄰接注意力機制[1°降低了多頭自注意力的復雜度,不僅提高了模型的分割性能,還降低了參數量;引入L1結構化剪枝操作去除MobileNAT中多頭鄰接注意力(multi-headed neighborhood attention,MHNA)和前饋神經網絡層(feedforwardnetwork,FFN)的冗余參數,進一步減少了模型參數量。
本文的創新點主要有:
1)改進MobileViT,設計了MobileNAT模塊,利用鄰接注意力機制降低復雜度,提高模型性能的同時降低參數量;2)引入LSP來消除MobileNAT模塊中的冗余參數,進一步減少參數量;3)將MobileNAT與LSP嵌人MRI腦膠質瘤分割網絡,驗證了兩種方法的有效性。
1相關工作
在腦腫瘤分割領域,目前主要采用基于深度學習的方法和基于傳統算法的方法。傳統的腦腫瘤分割方法包括基于閾值的分割方法、基于區域的分割方法、基于模糊理論的分割方法、基于邊緣檢測的分割方法和基于機器學習的方法[] O
近年來,深度學習的發展推動病灶自動分割研究取得了極大進展,相比基于傳統算法的方法,其精確度更高,分割速度更快,極大提高了醫療診斷的準確性和可靠性,降低了臨床人員的工作負擔。目前,深度學習技術分割在醫學圖像中的病灶研究受到國內外研究者的關注。Ronneberger等[12]提出編碼器-解碼器架構的分割網絡U-Net,在醫學圖像分割任務中表現優異,成為該領域的主流模型。但是,U-Net在下采樣過程中,會不斷降低圖像尺寸,導致對小體積腫瘤的分割效果較差。Cao等[8]對SwinTransformer[13]進行改進,增加了對稱解碼器和跳躍連接,用于心臟和多器官分割任務,相比TransUNet,分割精度提高 1.65% 。Wang等5]將ViT融入U-Net,通過卷積提取局部特征,利用ViT模塊學習全局特征,然后通過上采樣得到最終分割圖,有效提高了模型的分割性能。Zhang等[14]提出了一種名為SWTRU的新模型,旨在將具有強大全局上下文能力的ViT與U-Net相結合。與以往將ViT引人U-Net的方法不同,SWTRU在其解碼器中引入了改進的星形窗口Transformer,以提高整個方法的決策能力。該模型在LGG分割任務上取得了優秀結果。
上述研究證明了ViT在醫學圖像分割領域的有效性,但該方法在提升模型性能的同時也存在一些缺點。ViT易忽略局部特征,不利于較小的病灶分割;ViT需要大規模的數據集進行訓練,而醫學圖像數據集規模通常較小,極易出現過擬合現象;ViT會使模型的參數量大幅增加,訓練時間增長。因此,如何在保證性能的前提下使模型更輕量具有重要意義。
MobileViT是輕量級通用視覺Transformer模型。它以不同于ViT的方式學習全局特征,既有CNN的歸納偏置,對數據增強不敏感的特點,也有ViT的輸入適應性權重和全局處理,用更少的參數學到更好的特征。但是其中的核心組件多頭自注意力的計算具有二次復雜度,計算量仍然較高,導致模型的參數量仍然較大,訓練困難度依然較高。
本文對MobileViT進行改進,提出一種輕量級的腦膠質瘤分割網絡MNATSPNet,提高了模型的分割性能并減少模型的參數量。
2 網絡模型
2.1 模型架構
MNATSPNet以編碼-解碼器為基礎架構,如圖1所示。MNATSPNet將4種模態的MRI圖像逐通道融合為多通道(4通道)輸人,輸入圖像的尺寸為160×160 ,通道數為4。編碼器部分主要由三個卷積運算塊和兩個MobileNAT組件構成,每個卷積運算塊都包括一個批量歸一化層(batchnormalization,BN)、一個ReLU激活函數和兩個步長為2的 3×3 卷積操作,并使用最大池化操作進行下采樣。MNATSPNet編碼器的第2、3層為輕量級MobileNAT組件,該模塊通過一系列變換層(展開、折疊)模擬卷積操作,通過鄰接注意力Transformer(neighbor-hoodattentionTransformer,NAT)對內在的塊關系進行編碼,以有效結合CNN的權重參數共享、平移不變性和ViT的全局感受野能力,并通過鄰接注意力進行自注意力計算,以提升模型的分割性能并降低多頭自注意力的復雜度。解碼器部分采用4個反卷積操作將特征圖逐級恢復,與編碼器部分的分辨率保持一致。在解碼器的最后一層,多通道特征映射圖通過 1×1 卷積和Softmax激活函數得到最終的分割結果。在編碼器和解碼器之間使用跳躍連接將解碼器的輸出特征與編碼器的語義特征融合,防止特征信息丟失。此外,為了進一步降低模型復雜度,去除冗余參數,在MNATSPNet中嵌入一個LSP模塊,對NAT中每一層的MHNA和FFN層進行剪枝操作,以減少模型訓練成本。
下文將詳細介紹MNATSPNet中的關鍵組件和技術。
2.2 MobileNAT組件
MobileViT對ViT進行了輕量級改進,但Mobi-leViT的多頭自注意力復雜度仍然較高。為了構建一個輕量級的MRI腦膠質瘤分割模型,本文對MobileViT進行了改進,設計了MobileNAT組件,用MHNA替換多頭自注意力,將每個查詢向量的感受野自適應地定位其最近的像素鄰域,并隨著感受野的增大而接近自注意力。與MobileViT相比,MobileNAT不僅減少了計算成本,而且引入了類似卷積的局部歸納偏差。
圖2顯示了MobileNAT的具體結構,首先使用3×3 卷積捕獲特征 X 的局部空間特征,再使用 1×1 卷積學習輸人通道的線性組合,將張量投影到高維空間(其中 dgt;C ),以產生特征
。
圖1 MNATSPNet架構圖
Figure 1 Architecture of MNATSPNet

為使MobileNAT能夠學習具有權重參數共享與平移不變性的全局表示,將 XL 展平為 N 個不重疊的塊, XU∈RP×N×d ,其中: P=hw;N=hw/P;N 是塊的數量; h?n 和 w?n 分別是塊的高度和寬度。對于每個 p∈{1,2,…,P} ,通過NAT對塊之間的關系進行編碼,以獲得
,即
Xc(p)=NAT(Xu(p)),1?p?p
與ViT不同,MobileNAT不會丟失塊順序和每個塊內像素的空間順序。因此,將 XG∈RP×N×d 折疊得到 XF∈RH×W×d ,然后使用 1×1 卷積將 X?F 投影到C 維空間,并通過殘差級聯操作與 X 結合。使用另一個 3×3 卷積融合級聯張量中的局部和全局特征,得到最終輸出 Y 。NAT模塊由鄰接注意力(neigh-borhoodattention,NA)、多層感知器(MLP)層、層范數以及殘差連接組成。鄰接注意力的目的是使特征圖中的每個像素能夠重點關注其相鄰的像素。用ρ(i,j) 表示 (i,j) 處一個像素的鄰域,它是最接近(i,j) 像素的一個固定長度的索引集。
對于大小為 L×L 的鄰域, |ρ(i,j)|=L2 。因此,定義單個像素上的鄰接注意力,
圖2MobileNAT模塊結構圖
Figure2Detailed structure ofMobileNAT module


其中: Q,K,V 是 X 的線性投影; Bi,j 為相對位置偏差,根據相對位置將其添加到每個注意力權重中,進一步擴展到所有像素 (i,j) ,從而形成一種局部注意力的形式。函數 ρ 將一個像素映射到一組相鄰的像素,可通過類似卷積的光柵掃描滑動窗口操作生成。
2.3 LSP模塊
為進一步降低模型參數量,使模型更輕量,需要去除冗余參數。本文在NAT中融入LSP,其流程如圖3所示。在NAT模塊中的MHNA和FFN引入兩個掩碼變量 Z?MHNA 和 ZFFN ,那么MHNA和FFN可以分別表示為

Att(WQi,WKi,WVi,WOi,X)),
其中: X 是輸入向量; Nh 是head數量;
Wo 分別是Query、Key、Value和輸出的權重矩陣;Att(?) 是注意力函數; Zhead 是掩碼矩陣變量; WU 和Wp 分別是FFN的兩個權重; Zint 是掩碼矩陣變量。同時對 MHNA(X) 和 FFN(X) 的輸出在維度上進行剪枝操作,將掩碼變量 Zhidden 應用到模型中所有權重矩陣。
圖3LSP組件
Figure 3 LSP component

LSP通過 Z?MHNA 和 ZFFN 控制每一層的 MHNA 和FFN 是否剪枝,通過 Zhead 和 Zint 控制每一層中哪些head和維度需要剪枝。定義預期稀疏度以確定剪
枝閾值大小為


其中: M 是整個模型大小; L 是塊層數; d 是隱藏層維度;
是多頭自注意力的每個head的向量維度; df 是前饋網絡的維度,一般情況下 df=4d 。
在模型訓練階段,所有掩碼元素的值處于[0,1]之間。在推理階段,將低于閾值的掩碼變量映射為0,得到最終的剪枝模型,其中,閾值由每個權重矩陣的預期稀疏度來確定。為了增加閾值的稀疏程度,本文對其結果進行L1正則化,以產生更加稀疏的權值矩陣,并有效防止過擬合現象。
3 實驗評估與分析
3.1 數據集及預處理
本文實驗所采用的多模態MRI圖像數據集來自BraTS2018挑戰賽和BraTS2019挑戰賽的公開數據集[15]。BraTS2018數據集共有285個患者病例,包括210例高級別膠質瘤(HGG),75例低級別膠質瘤(LGG)。BraTS2019數據集共有335個患者病例,在BraTS2018數據集的基礎上增加了高級別膠質瘤(HGG)49例,低級別膠質瘤(LGG)1例。實驗將BraTS2018數據集用于模型訓練,其中228例患者的數據用于訓練集,57例患者的數據用于驗證集,將BraTS2019數據集的50例患者數據作為測試集。所有MRI圖像都包括了T1加權(T1) .T1 增強對比度(T1c)、T2加權(T2)和T2流體衰減反轉恢復(Flair)四種模態,圖像尺寸均為 240×240×150 ,能各自捕捉到腦膠質瘤各個區域的不同特征:浮腫(peritumoraledema,ED)區域用綠色來表示、增強腫瘤(enhancingtumor,ET)區域用黃色來表示、壞疽(non-enhancingtumor,NET)區域用紅色來表示、背景用黑色來表示。
為了進行評價,將目標分割區域合并為整體腫瘤區域(WT)腫瘤核心區域(TC)和腫瘤增強區域(ET)三個區域,其中,浮腫、壞疽和增強腫瘤區域構成整體腫瘤區域,壞疽和增強腫瘤區域構成腫瘤核心區域
四種模態的MRI圖像對比度不同,整幅圖像中背景信息所占比例較大,腫瘤區域占比非常小,在分割過程中,對每個像素點進行分類,會導致數據不平衡現象。為提升腦膠質瘤的分割性能,對MRI圖像進行預處理。首先,通過 z -score方法將每個模態的圖像數據規范化為零均值和單位標準差;其次,通過裁剪操作,切除大腦區域周圍冗余的黑色背景,僅保留腦部區域,將原始MRI圖像剪切為 160×160 :最后,為緩解類別不平衡問題,將不含病灶的切片舍棄,并組合四個模態的切片為多通道( 160×160×4 ),保存為Numpy格式,輸入分割網絡。
3.2 訓練及參數設置
實驗使用的硬件設備:Intel(R)Core(TM)i7-3700CPU@3.40GHz 處理器,內存為16GB,并搭建了Keras深度學習庫(以pytorch3.6為后端)和Python語言實驗環境,訓練過程依靠NVIDIA TES-LAT416GBGDDR6GPU進行加速。
實驗將經過預處理的多模態MRI圖像直接輸人分割網絡,并將對應的標簽圖像作為評判標準。
在模型訓練階段,設置初始學習率為0.01,batchsize為12,訓練epoch為100,優化器選擇Adam。為避免出現過擬合問題,保存網絡模型的最好結果,設置Earlystopping 為20。
3.3 實驗結果
3.3.1評價指標在本研究中,使用的評價指標有Dice、Hausdorff_95和敏感性(Sensitivity)。其中Dice、Sensitivity值越大,表示實驗效果越好,Hausdor-ff_95距離值越小,表示實驗效果越佳。
3.3.2損失函數本研究的損失函數 (L) 是由Dice損失函數( LDice )和交叉熵損失函數( Lbce )所構成的聯合損失函數,定義為


L=θLbce+(1-θ)LDice,
其中: θ 初始值設置為0.5。
3.3.3MobileNAT模塊有效性驗證要驗證Mo-bileNAT模塊的有效性,先確定模塊在編碼器階段的最佳嵌入位置。實驗首先將MobileViT分別嵌入編碼器階段的各個層次,將塊尺寸大小 P=h×w 設置為 P=10×10 ,結果見表1,其中WT、ET、TC分別代表整體腫瘤區域、增強腫瘤區域和腫瘤核心區域。
表1MobileViT模塊嵌入U-Net編碼器各層次的結果比較

注:黑體為最優值。
由表1可知,在U-Net的編碼器階段嵌入MobileViT模塊,在增加少量參數的同時顯著提升了模型的分割性能。其中,MobileViT模塊嵌人編碼器第4層所需的模型參數量最少,但分割精度較低,模型性能較差;而將MobileViT模塊嵌入編碼器第2、3層時,模型參數量比嵌人第4層雖增加了2.9M,但在3個評價指標中均取得最好結果。因此,本文在后續的比較實驗中,將MobileViT和MobileNAT均嵌入編碼器的第2、3層,
為驗證MobileNAT的有效性,本實驗用Mo-bileNAT代替表1編碼器第2、3層的MobileViT,將鄰域大小 L×L 設置為 5×5 和 3×3 兩種類別進行對比。由表2的實驗結果可知,相比MobileViT,Mo-bileNAT確實能夠有效提升分割性能并減少模型參數量,當鄰域大小設置為 3×3 時,與表1中的最優結果相比,在3個評價指標中均取得最好結果,在WT、TC、ET3個區域的平均Dice值提升了 0.014% ,模型參數量減少了 1.8M ,證明了鄰接注意力機制對于網絡模型分割精度和減少多頭自注意力二次復雜度的有效性。
表2鄰接注意力機制模塊有效性驗證
Table2 Validation of the effectiveness of the adjacency attention mechanism module

注:黑體為最優值。
為進一步驗證MobileNAT組件的有效性,將其與Transformer、Swim Transformer等進行對比,實驗結果見表3。由表3可知,在U-Net中嵌人Trasform-er模塊能夠提高腦膠質瘤各個區域的分割準確率,MobileNAT與這些組件相比,在Dice、Sensitivity、
Hausdorff_95三個評價指標中均取得最佳結果,特別是在參數量方面,與Transformer相比,MobileViT的參數量減少了6.7M,MobileNAT的參數量減少了8.5M,再次證明了MobileNAT能夠在提升模型分割性能的同時減少參數量。
表3MobileNAT組件有效性驗證

注:黑體為最優值。
3.3.4結構化剪枝模塊的有效性驗證為進一步降低模型參數量,使模型更加輕量化,本文使用結構化剪枝操作對NAT中MHNA和FFN層中的冗余參數進行剪枝操作,并加入L1正則化增加預期稀疏度值的稀疏程度,壓縮模型參數。為證明LSP能夠有效降低模型的參數量,進行消融實驗,其中SP表示結構剪枝操作,L1表示正則化。實驗結果如表4所示,與MobileNAT相比,結構化剪枝操作確實能夠去除冗余參數,顯著減少參數量,模型的分割性能略有下降,但總體仍比較穩定,在WT、TC、ET三個區域的Dice值平均下降 0.011% ,但模型參數量卻減少 2.2M 。為使結構剪枝中預期稀疏度的值更加稀疏化,閾值更加準確,接著對其值進行L1正則化,從表4可知,WT、TC、ET三個區域的Dice值平均下降了 0.009% ,模型參數量減少2.2M,這說明對預期稀疏度值進行 L1 正則化,能夠進一步壓縮模型的參數量,增加閾值的稀疏程度,提升模型的分割性能。
表4LSP的有效性驗證
Table 4 Validationofthe effectivenessofLSP

注:黑體為最優值。
3.3.5不同模型的性能對比實驗將MNATSPNet分別與U-Net、DeepResU-Net、DenseU-Net、HyResU-
等進行了對比,這些模型均在U-Net的基礎上進行了改進,模型的設置均采用了與3.2節相同的設置方法,并將訓練好的模型加以測試。實驗結果如表5所示,MNATSPNet在各方面均取得最好結果,相比U-Net,WT、TC、ET三方面的Dice值平均提升 0.067% ,而模型參數量僅增加了 0.4M 。
表5MNATSPNet與其他模型分割結果的對比
Table5 Comparison of segmentation results between MNATSPNet and other models

注:黑體為最優值。
該實驗的可視化結果如圖4所示,在U-Net、DeepResU-Net與HyResU-Net中,分割結果出現了許多錯誤的預測,例如,第2行顯示檢測壞疽的錯誤像素中,MNATSPNet的分割結果比較完整,邊界更清晰,證明MobileNAT組件和結構化剪枝操作LSP可提升模型對三個腫瘤區域的分割性能,特別是對整個腫瘤區域和腫瘤增強區域。
圖4MNATSPNet與其他模型分割結果可視化對比
Figure 4Visual comparison of segmentation results between MNATSPNet and other models

4結語
腦膠質瘤準確分割在腦腫瘤的臨床診斷、治療和手術指導中具有重要意義,但也充滿挑戰性。現有的基于Transformer的模型雖提升了分割精度,但大多面臨參數量大,復雜度高、訓練困難等問題,本文設計并提出了一個基于輕量級模塊MobileNAT和結構化剪枝LSP的分割網絡(MNATSPNet)模型。MobileNAT模塊成功地將卷積神經網絡(CNN)的權重參數共享和平移不變性與ViT的全局感受野能力相結合。通過鄰接注意力(NA)機制降低多頭自注意力的復雜度,并提高模型的分割性能;接著,使用結構化操作LSP去除MobileNAT模塊中MHNA和
FFN層的冗余參數,有效地減少了模型的總參數量。實驗結果表明,本文方法在參數量和分割性能上均獲得更好的效果,可以有效減少ViT的參數量,更好地學習腦膠質瘤特征,更適用于小規模醫學圖像分割任務。
MNATSPNet在輕量化Transformer分割模型方面具有有效性,但仍存在一些問題需進一步研究和優化。特別是在分割精度方面,需要進一步改進和提升。經過分析發現造成分割精度下降的主要原因可能與模型壓縮有關。為了對模型進行壓縮以減少參數量,可能需要權衡壓縮對分割精度的影響。在后續的研究中,將關注如何在減少模型參數量的同時保持分割精度不下降。在實驗評估中,發現本研究的模型可能無法捕捉圖像中較小或細微的結構特征,并且對于膠質瘤邊界的準確分割仍然存在一定的困難。這可能導致分割結果不完整或不準確。為了提升本方法,在未來的研究中,計劃探索更有效的特征提取和表示方法,以增強模型對細節和邊界的感知能力。此外,也會考慮引入更多的先驗知識或約束信息,以進一步提高膠質瘤分割的準確性和魯棒性。
參考文獻:
[1] LUNDERVOLD A S,LUNDERVOLD A. An overview of deep learning in medical imaging focusing on MRI[J]. Zeitschrift fur medizinischephysik,2019,29(2):102- 127.
[2] MOHAN G,SUBASHINI M M. MRI based medical image analysis: survey on brain tumor grade classification [J].Biomedical signal processing and control,2018, 39:139-161.
[3]孫福權,崔志清,鄒彭,等.基于多尺度特征的腦腫瘤 分割算法[J].計算機科學,2022,49(S1):12-16,73. SUNFQ,CUI ZQ,ZOUP,et al.Brain tumor segmentationalgorithm based on multi-scale features[J].Computer science,2022,49(S1):12-16,73.
[4] 王瑩,朱家明,徐婷宜,等.融合深度殘差結構的 Dense-UNet腦腫瘤分割[J].無線電工程,2022,52 (9):1566-1573. WANGY,ZHUJM,XUTY,etal.Dense-UNetfused with deep residual structure for brain tumor segmentation [J].Radio engineering,2022,52(9):1566-1573.
[5] WANG W X,CHEN C,DING M,et al.TransBTS: multimodal brain tumor segmentation using transformer [C]//Medical Image Computing and Computer Assisted Intervention. Cham: Springer International Publishing, 2021:109-119.
[6] DOSOVITSKIY A,BEYERL,KOLESNIKOV A,et al. An image isworth 16×16 words: transformers for image recognition at scale[EB/OL]. (2020-10-22)[2023-03- 22].http://arxiv.org/abs/2010.11929.
[7] CHENJN,LUYY,YUQH,etal.TransUNet:transtation[EB/OL].(2021-02-08)[2023-03-22].http:// arxiv. org/abs/2102.04306.
[8]CAO H, WANG Y Y, CHEN J,et al. Swin-unet: unet-like pure transformer for Medical image segmentation[M]//Lecture Notes in Computer Science. Cham:Springer International Publishing,2023:205-218.
[9]MEHTA S,RASTEGARI M. MobileViT:light-weight, general-purpose,and mobile-friendly vision transformer [EB/OL].(2021-10-05)[2023-03-22]. htp://arxiv. org/abs/2110. 02178.
[10]HASSANI A,WALTON S,LI JC,et al.Neighborhood attention transformer[C]//IEEE/CVF Conferenceon Computer Vision and Pattern Recognition. Piscataway : IEEE Press,2023:6185-6194.
[11]TIWARI A,SRIVASTAVA S,PANT M.Brain tumor segmentation and classification from magnetic resonance images:review of selected methods from 2014 to 2019 [J].Pattern recognition letters,2020,131:244-260.
[12]RONNEBERGER O,FISCHER P,BROX T. U-net: convolutional networks for biomedical image segmentation [M]// Lecture Notes in Computer Science.Cham: Springer International Publishing,2015:234-241.
[13]LIU Z,LIN Y T,CAO Y,et al. Swin transformer:hierarchical vision transformer using shifted windows[C]// IEEE/CVF International Conference on Computer Vision. Piscataway:IEEE Press,2021:9992-10002.
[14] ZHANG JY,LIU Y,WU Q H,et al. SWTRU: starshaped window transformer reinforced U-Net for medical image segmentation[J]. Computers in biology and medicine,2022,150:105954.
[15] BAKAS S,REYES M, JAKAB A,et al. Identifying the best machine learning algorithms for brain tumor segmentation,progression assessment,and overall survival prediction in the BRATS challenge[EB/OL]. (2018-11- 05)[2023-03-22]. htp://arxiv.org/abs/1811.02629.
[16] ANDRADE C. Z scores,standard scores,and composite test scores explained[J]. Indian journal of psychological medicine,2021,43(6):555-557.