999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

CT圖像下結合RCNN與U-Net的肺實質自動分割方法

2021-09-06 07:02:58畢蓉蓉王進科
哈爾濱理工大學學報 2021年3期
關鍵詞:特征模型

畢蓉蓉 王進科

摘 要:針對肺CT實質自動分割問題,提出了一種改進的U-Net模型。該模型充分結合了U-Net網絡和循環卷積神經網絡(RCNN)的優勢,可以提取圖像中更加細小的特征,在擁有較少數量網絡參數的情況下獲得良好的性能。該模型首先在編碼和解碼單元中,使用帶有殘差單元的循環卷積層代替U-Net模型中的前向卷積層。然后,從基本網絡的端到端使用了有效的特征累積方法。最后,從原始的U-Net模型中刪除了裁剪和復制單元,僅保留了級聯操作。為了驗證提出方法的性能,將提出的模型與當前最先進的模型在LUNA16數據集上進行了實驗比較,實驗結果顯示,提出的分割模型在分割精度方面體現出一定的優越性。

關鍵詞:

RCNN;U-Net;醫學圖像分割;肺CT

DOI:10.15938/j.jhust.2021.03.011

中圖分類號: TP391.4

文獻標志碼: A

文章編號: 1007-2683(2021)03-0074-09

Automatic Lung Segmentation Using RCNN Combing U-Net in CT

BI Rong-rong, WANG Jin-ke

(Rongcheng Campus, Harbin University of Science and Technology, Rongcheng 264300, China)

Abstract:Aiming at the problem of automatic lung CT segmentation, an improved U-Net model is proposed. The model fully utilizes the advantages of U-Net model and Recurrent Convolutional Neural Network(RCNN), and it helps extract very low-level features and ensure better performance with fewer numbers of network parameters. Firstly, in the encoding and decoding units, a recurrent convolution layer replaced the forward convolutional layers of the original U-Net models. Secondly, an effective feature accumulation method was utilized from one part of the network to the other. Finally, the cropping and copying units were removed from the original U-Net model and only the concatenation operations were retained. To evaluate the performance of the proposed scheme, the comparative segmentation experiments with state-of-the-art models were conducted in the LUNA16 datasets. The experimental results proved a superiority of the proposed method on segmentation accuracy.

Keywords:RCNN; U-Net; medical image segmentation; lung CT

0 引 言

醫學圖像處理技術可以幫助病人獲得更快更好的診斷,CT成像因其高性價比被廣泛應用于臨床的輔助診斷。然而,手動分割的過程緩慢且繁瑣,而自動的CT圖像分割技術可以減少人為主觀錯誤,降低時間成本和誤診率。因此,研究可靠的魯棒的自動算法,對于高效、精準的醫療診斷具有重要的臨床應用價值。

近年來,深度學習(DL)在圖像分類[1]、分割[2]、檢測[3]等方面得到了廣泛的應用,VGG[4]、GoogleNet[5]、ResidualNet[6]等著名的深度卷積神經網絡模型相繼被提出。基于DL的方法在圖像分類、圖像分割方面都表現出了優越的性能,然而,在大多數情況下,基于DL的方法在對大規模的數據集分類時(如ImageNet),分類任務的輸出是仍然是單個標簽概率值。此外,一些基于DL的方法被用于語義圖像分割(如FCN),并被廣泛應用于在計算機視覺的圖像分割領域中。而且,也相繼衍生出一些FCN的改進模型,例如SegNet[7],是一個擁有13層的VGG16網絡,其相應的解碼網絡使用逐像素分類層。

伴隨著深度卷積神經網絡(DCNN)在計算機視覺領域取得的巨大成功,它的各種變形方法也被廣泛應用于醫學圖像處理圖像,包括分割,分類,檢測,配準和醫學信息處理。在[8]中提出了一種基于DCNN的腦腫瘤分割和檢測方法,但是,仍然存在局限性,比如數據匱乏和類別不平衡。其中,由于梯度問題,很難訓練深度神經網絡,但是,可以通過激活函數(例如,修正線性單元(ReLU)或指數線性單元(ELU))來解決。 He[6]等提出了解決該問題的另一種模型,該模型是一種深度殘差模型,并且克服了利用恒等式映射來促進訓練過程的問題。大多數時候,出于某些原因,大量的訓練標簽無法使用,標記數據集需要該領域的專家人為參與,這些工作需要耗費大量的精力和時間。因而,出現了一些用于進行不同的數據轉換或增強的技術(數據白化,旋轉,移位和縮放比例),以增加可用的帶標簽樣本的數量[9]。與此同時,也包括一些基于補丁的方法,來解決類別不平衡問題。在語義分割中,可以為圖像背景分配標簽,同時,為前景或目標區域分配不同的類別,以解決類別不平衡問題。在文[9,10]中介紹的交叉熵損失和Dice相似度系數可以有效地進行分類和分割模型的訓練。

此外,全局定位和上下文信息常被用于醫學圖像定位,每個像素都被賦予與目標病變邊界相關的類別標簽,醫學圖像中的特征點檢測就是其中的一個示例。在DL方法盛行之前,多種傳統機器學習和圖像處理技術已用于醫學圖像分割,包括基于直方圖特征的閾值分割[11],基于區域的分割算法[12]和Graph-cut[13]。然而,近年來,在醫學圖像分割,病變檢測和定位領域中,利用DL的語義分割方法變得更加成功,而且,基于DL的方法在單模態(MRI,CT和X射線)成像處理中也具有很好的通用性。

此外,在深度學習領域,涌現出其它的一系列基于U-Net的方法。例如,醫學圖像分割中著名的3D全卷積神經網絡V-Net[14],該模型具有對稱結構,由編碼器和解碼器組成,通過引入基于Dice系數的新目標函數來解決類別不平衡的問題,同時,使用隨機非線性變化和直方圖匹配來擴充數據,在測試階段取得了卓越的性能; 3D U-Net[15]網絡結構,從稀疏標注的體積圖像中學習,用于體積分割;CE-Net[16],將新提出的DAC模塊和RMP模塊與骨干編碼器-解碼器結構相結合,來提高學習的效率;Seo等人提出的MU-Net[17],基于對象的上采樣,將殘差網絡中的特征自適應地合并到跳躍連接中,避免低分辨率信息的重復,增強目標的邊緣信息和小目標的全局信息;Zhou等提出的U-Net ++[18],由深度不同的U-Net組成,其解碼器通過重新設計的跳躍路徑以相同的分辨率緊密連接,可以抓取不同層次的特征,并采用了深度監督學習方案;Li等提出的H-DenseUNet[19],可以通過混合特征融合層聯合優化片內特征和3D上下文,以準確地對目標進行分割,克服了2D的CNN不能夠學習到第三維度上的空間信息、3D的CNN需要高額的計算成本以及嚴重的GPU內存消耗的問題;He等提出的Mask RCNN[20],特征提取采用ResNet-FPN的架構,在Faster R-CNN的基礎上添加了一個預測分割Mask的分支。

1 經典的U-Net模型

U-Net,被視為醫學圖像語義分割最成功的方法之一[21],其模型網絡結構如圖1所示。

U-Net網絡由兩個主要部分組成:卷積編碼和解碼單元。對編碼和解碼單元執行基本卷積操作,然后執行ReLU激活函數。在編碼單元中進行下采樣,進行了2×2最大池化操作。在解碼階段,執行反卷積操作來對特征圖進行上采樣。U-Net最早應用于從編碼單元到解碼單元裁剪和復制特征圖。

U-Net模型在圖像分割方面有很多優勢:首先,該模型允許同時使用全局位置和上下文信息。其次,它只需要很少的訓練樣本就可以在醫學圖像分割中有良好的表現。第三,端對端的處理是以圖片為整體進行分割,并直接生成分割圖。這樣可以確保U-Net保留輸入圖像完整的上下文信息,這是與基于補丁的分割方法相比的一個重要優勢。

2 基于循環卷積神經網絡的U-Net模型

2.1 改進的U-NET網絡結構

U-Net模型在具有較少網絡參數的情況下分割效果一般,且僅在訓練過程中具有很好的收斂性[10]。為了克服U-Net模型的局限性,受深度殘差模型[6],循環卷積神經網絡(RCNN)[22]的啟發,我們提出了基于U-Net的循環卷積神經網絡模型,稱為RU-Net,網絡結構如圖2所示。

從圖2可以看出,用于分類任務的CNN模型需要一個編碼單元,并提供分類概率作為輸出。在分類任務中,使用帶下采樣層的激活函數ReLU進行卷積操作,從而降低了特征圖的維度。由于輸入樣本遍布網絡的每個層,特征圖的數量增加,但是特征圖的維度減少。這顯示在模型網絡結構的第一部分(黑色實心)。由于特征圖的數量在深層中增加,因而,網絡參數的數量也相應增加。最后,使用分類函數來計算目標類的概率。

相較于U-Net模型,提出的模型對如下3個方面進行了改進:

1)卷積層。分割任務的網絡結構需要設置卷積編碼和解碼單元。編碼單元將輸入圖像編碼為大量低維特征圖。解碼單元中執行反卷積操作,生成尺寸與原始輸入圖像相同的分割圖。與分類任務相比,分割任務的網絡結構通常需要大約兩倍的網絡參數。因此,為分割任務設計有效的網絡架構非常重要。此模型中使用的卷積編碼和解碼單元與U-Net模型是相同的,但是,為了開發更加有效的模型,在編碼和解碼單元中,該模型使用RCL(recurrent convolution layer)代替常規前向卷積層,從而確保在較少數量的網絡參數的情況下獲得更好的性能。展開的RCL結構如圖3中所示。μ=2個時間步長時,構成了一個最大深度為3,最小深度為1的前饋子網絡,包含一個卷積層和兩個循環卷積層組成的子序列。μ=3個時間步長時,構成了一個最大深度為4,最小深度為1的前饋子網絡,包含一個卷積層和三個循環卷積層組成的子序列。

2)特征累積方式。文[22]中提出的U-Net改進模型與U-Net相比,在訓練過程中表現出了顯著的性能提升和良好的收斂性,但是,在測試階段使用特征求和時,并未觀察到優越性[22],說明特征求和一定程度會影響網絡的性能。本文提出模型的RCL(recurrent convolution layer)單元包含有效的特征累積方法,可以實現網絡的端到端的特征累積,其有效性可以通過基于CNN的醫學圖像分割證明。在該模型中,逐個元素的特征求和在U-Net模型之外進行,在內部進行特征積累,使得在訓練、驗證和測試三個階段均表現出優越性。不同時間步長的特征累積可進行更加豐富的特征表示。因而,有助于提取圖像中更加細小的特征,這些特征對于醫學圖像不同方式的分割任務提供不可忽視的貢獻。

3)特征映射方式。本文從U-Net原模型中刪除了裁剪和復制單元,而僅保留了級聯操作。提出的深度學習模型

RU-Net是具有正向循環的U-Net模型,從編碼單元到解碼單元的特征映射應用了級聯方式,此處μ指的是循環卷積操作,在進行了上述改進之后,將提出的模型與SegNet,U-Net和CE-Net模型相比,所提出的模型可確保在相同或更少數量的網絡參數的情況下獲得更好的性能。

2.2 改進的U-NET算法

該模型利用了深度殘差模型,RCNN和U-Net三個深度學習模型的優勢。RCNN及其變體已經在

使用不同基準的對象識別任務中顯示了卓越的性能。RCL是基于RCNN的離散時間步長執行的。

假設φi為殘差RCNN第i層中的輸入樣本,RCL中第k個特征圖上輸入樣本中的中心像素坐標為(m,n)。假設在μ時間的網絡輸出為νimnl(μ)。輸出可以表示如下:

νimnl(μ)=Cl+(θgl)T*φg(m,n)i(μ)+(θσl)T*φσ(m,n)i(λ)(1)

其中,φg(m,n)i(μ)與φσ(m,n)i(λ)分別是標準卷積層與RCL第i層的輸入,λ=μ-1,θgl與θσl的值分別是標準卷積層與RCL的第l個特征圖的權重,Cl為偏差。RCL的輸出作為ReLU激活函數g的參數為

G(φi,θi)=g(νimnl(μ))=max(0,νimnl(μ))(2)

G(φi,θi)表示RCNN單元第i層的輸出, G(φi,θi)的輸出分別用于RU-Net模型的卷積編碼和解碼單元中的下采樣和上采樣層。

與U-Net相比,提出的模型具備兩方面的優勢。一方面,在相同數量的網絡參數情況下,該模型在分割任務上表現出更好的性能;另一方面,該模型使用的循環操作不僅不會增加網絡參數的數量,而且提高了訓練、驗證和測試階段的性能。

2.3 算法評價標準

對實驗結果進行定量分析,考慮了幾個性能指標,包括準確度AC,靈敏度SE,特異性SP。為此我們使用了真陽性TP,真陰性TN,假陽性FP和假陰性FN 4個變量。計算整體準確度AC的等式為式(3)。式(4)計算敏感性SE和式(5)計算特異性SP,式(6)計算精確率,式(7)計算召回率。

AC=TN+TPFN+FP+TN+TP(3)

SE=TPFN+TP(4)

SP=TNFP+TN(5)

Precision=TPTP+FP(6)

Recall=TPTP+FN(7)

另外,根據文[23]進行了確定Dice系數(DI)損失函數的實驗,根據文[24]確定了Jaccard相似系數(JS),此處e代表金標準,f代表分割結果。式10為F1分數。

DI(e,f)=2|e∩f||e|+|f|(8)

JS(e,f)=|e∩f||e∪f|(9)

F1分數=2×Precision·RecallPrecision+Recall(10)

3 實驗環節

3.1 實驗環境與環境參數

為了驗證提出的RU-Net模型的性能,我們在CT圖像數據集上進行了方法測試,實驗采用了LUNA16的胸部CT數據集。我們刪除了切片厚度大于2.5mm的CT影像。該數據集總共包括888個肺部 CT 影像數據,每個影像包含一系列胸腔的多個軸向切片[25],原始圖像是由不同數量的二維圖像組成的三維圖像,每個圖像包含一系列胸腔的多個軸向切片。此外該數據集還包含了注釋,這些注釋是由4名有經驗的放射科專家收集的。我們選取其中 77名病人,每名病人大約有 100~400 張切片,最終形成 12489 張二維圖像數據集,原始圖像大小為512×512,但是在此實驗中,我們將圖像的大小調整為256×256像素。使用ADAM優化器,學習率設為2×10-4。我們設定公式6為DI損失函數,其中70%的樣本用于訓練,10%用于驗證,20%用于測試。所有的訓練、測試及驗證實驗在Ubuntu18.04的工作站上完成,其基本配置為:CPU Intel銀牌 4110 2.1GHz,64G DDR4內存,顯卡為RTX2080Ti。

1.2 實驗結果與分析

1)消融實驗。為了證明提出模型的有效性,我們進行了消融實驗研究。首先我們對卷積層的數量以及時間步長進行消融實驗,其次我們移除U-Net模型中的原始編碼器塊使用殘差單元來代替、移除常規前向卷積層使用RCL來代替、移除裁剪和復制單元多方面進行消融研究。

①卷積層及步長。在卷積塊中使用不同數量的卷積層評估模型,并根據時間步長μ確定層數。表1顯示了不同卷積塊中的網絡結構以及相應的特征圖數量。從表1中可以清楚地看到:當μ=2時,卷積塊中特征圖的數量保持不變;當μ=3時,隨著卷積塊中卷積層的增加,網絡參數的數量也會增加。

我們使用殘差,循環和循環殘差逐元素加法操作執行特征融合。在網絡結構的編碼單元中,每個卷積塊由兩個或3個RCL組成,其中應用了3×3卷積內核,ReLU激活層,以及批處理歸一化層。對于下采樣,在卷積塊之間使用2×2最大池化層,其后是1×1卷積層。在解碼單元中,每個塊由卷積轉置層、緊隨其后的兩個卷積層和級聯層組成。在網絡中的編碼和解碼單元中的特征之間執行級聯操作。然后,將1×1卷積核與sigmoid激活函數一起使用,將特征映射到單個輸出特征圖。最后,使用0.5閾值生成分割區域。

②殘差單元、RCL、特征積累方式在不同步長下的消融研究。

本文提出的方法基于U-Net的基線模型。采用殘差單元來代替U-Net的原始編碼器塊,旨在增強學習能力,稱之為Trunk;

提出的模型采用RCL代替常規前向卷積層,目的是在較少數量的網絡參數的情況下獲得更好的性能;

此外,本文改變特征積累方式,刪除了U-Net模型中的裁剪和復制單元,僅保留了級聯操作,旨在提取圖像中更加細微的特征。

如表2的第2行至第5行所示,當μ=2時,RU-Net、U-Net、Trunk和Trunk+RCL相比,在準確度方面,分別提高了0.85%、0.81%和0.29%;當μ=3時,RU-Net模型在各方面的性能表現如表2的第6行至第9行所示,在準確度方面分別高出0.84%、0.30%和0.20%。

從表2中我們還可以看出,即使網絡參數的數量相對于卷積層中的時間步長稍有增加,各方面性能也略有提高。

2)與其它模型的性能比較。

本文選取了3種不同模型(SegNet,U-Net,CE-Net)與提出的模型(RU-Net)進行了肺CT分割比較實驗。

肺CT典型分割結果如圖4所示,其中第一列為輸入樣本,第二列為金標準,第三,第四,第五和第六列分別給SegNet,U-Net,CE-Net和RU-Net模型的輸出。

從第一行結果可以看出,RU-Net的分割效果較好,其內部細節與真實細節比較相似。從第二行結果可以看出,RU-Net的輸出可以顯示出較好的細分,以及較準確的內部細節,左肺的內孔較清楚地顯示了出來。從第三行結果可以看出,RU-Net模型相比SegNet和U-Net模型提供了更為準確的細分結果,捕獲了病變以外的圖像部分。

本文針對RCL單位中的時間步長μ=2評估了RU-Net模型。表3給出了提出的模型與同等的SegNet,U-Net,CE-Net模型相比,各方面性能的表現。在準確度方面,與同等的SegNet和U-Net,CE-Net模型相比,RU-Net模型分別提高了0.61%、0.85%和0.23%。

表4總結了μ=3時與同等的SegNet、U-Net和CE-Net模型相比,RU-Net模型在各方面的性能表現。在準確度方面分別提高了0.42%、0.24%和0.10%。

AUC和ROC曲線是用于醫學圖像分割任務的常用評估方法。在本文中,我們使用了該方法來評估所提出方法的性能,帶有AUC的ROC曲線圖如下圖5所示,可以看出提出的RU-Net模型在AUC曲線下面積均略高于其它3種方法—SegNet,U-Net和CE-Net。

驗證集的精確度如圖6所示,可以看出RU-Net模型顯示出更好的性能,這說明提出的模型對圖像的分割任務具有更強的魯棒性。

為了進一步研究RU-Net模型的性能,我們針對不同的訓練樣本數目展開性能比較研究。我們選取了μ=2時的U-Net,CE-Net和RU-Net模型,這些模型包含1.07M網絡參數。對于SegNet,我們考慮了[7]中提出的具有1.7M網絡參數的類似網絡結構。在實驗開始時,將整個數據集分為兩組,其中80%的樣本用于訓練和驗證,而其余20%的樣本在每個試驗期間用于測試。在此實驗中,我們選用了[0.9、0.7、0.5、0.3和0.1]的不同拆分比率,隨著訓練樣本的數量增加,每個連續跟蹤的驗證樣本的數量減少。例如,拆分比率為0.9意味著僅10%的樣本用于訓練,其余90%的樣本用于驗證。同樣,0.7的拆分率意味著僅30%的樣本用于訓練,其余70%的樣本用于驗證。

圖7和圖8顯示了關于訓練和驗證的DI系數誤差。實驗表明,所提出的RU-Net模型在所有測試的分割率下均顯示出較低的訓練和驗證誤差,但在驗證情況下,分割率等于0.5的結果除外。在這種情況下,RU-Net模型的誤差比U-Net、CE-Net模型的誤差稍大。結果表明,RU-Net模型在訓練階段用于提取、表示和學習能力較強,有助于獲取更好的性能。

此外,在每個試驗中,我們用殘差的20%的樣本對模型進行了測試,測試誤差如圖9所示。與SegNet、U-Net和CE-Net模型獲得的誤差相比,RU-Net模型的誤差較低 。

3)計算時間。在測試階段,LUNA16數據集的每個樣本的處理時間平均是2.86 s。執行肺分割時,分割整個圖像均可以在1.15 s之內完成。RU-Net模型處理每個樣品大約需要7 s,這在臨床使用情況下是可以接受的。

4 結 論

在本文中,我們提出了使用循環卷積神經網絡對U-Net網絡結構的改進。優勢在于:第一,在深層結構訓練中使用了殘差學習單元;第二,具有循環殘差卷積層的特征累積確保為分割任務提供更好的特征表示;第三,可以設計更好的具有相同數量網絡參數的U-Net架構,以獲取更優的CT圖像分割性能。在實驗部分,采用公共的肺部CT數據集對提出的模型進行評估。實驗結果表明,與現有的三種先進方法相比(Seg-Net,U-Net,CE-Net),RU-Net模型在處理具有相同數量網絡參數的分段任務時,往往能夠展現出更加優越的性能。通過定量和定性比較,以及訓練樣本數量與性能之間的折中實驗分析,表明RU-Net模型在訓練過程中具備更強的學習能力,從而確保獲得更高的分割精準度。本文提出的模型仍然具有較大的改進空間。首先,為了使模型性能減少對樣本數量和質量的依賴,需對樣本進行進一步優化,統一的清洗校驗;其次,編碼和解碼單元的特征融合策略還可以進一步優化,在今后的研究工作中,我們將繼續研究新穎的特征融合策略來探索更加高效的網絡結構。

參 考 文 獻:

[1] SZEGEDY Christian, LIU Wei, JIA Yangqing, et al. Going Deeper with Convolutions[C]//IEEE Conference on Computer Vision and Pattern Recognition, Boston, June 7-12, 2015.

[2] 劉俠, 匡瑞雪, 王波, 等. 基于隱馬爾可夫場的脊柱CT 圖像分割算法[J].哈爾濱理工大學學報, 2018, 230(2): 1.

LIU Xia, KUANG Rui-xue, WANG Bo, et al. Segmentation Algorithm of Spine CT Image Based on Hidden Markov Random Field[J]. Journal of Harbin University of Science and Technology, 2018, 23(2):1.

[3] 張培培, 呂震宇, 趙爽, 等. 高速高精度帶鋼表面檢測系統的設計與實現[J].哈爾濱理工大學學報, 2016, 21 (6):? 44.

ZHANG Peipei, LV Zhenyu, ZHAO Shuang, et al. Research and Implementation for High-speed and High-precision Strip Surface Detection System[J]. Journal of Harbin University of Science and Technology, 2016, 21(6): 44.

[4] 李浩, 霍雯, 裴春營, 等. 融合VGG和FCN網絡模型的智能出租車訂單預測系統[J].計算機工程, 2019(12): 1.

LI Hao, HUO Wen, PEI Chunying, et al. Intelligent Taxi Order Prediction System Based on VGG and FCN Network Model[J]. Computer Engineering, 2019(12): 1.

[5] 梁雪慧,程云澤,張瑞杰等.基于卷積神經網絡的橋梁裂縫識別和測量方法[J].計算機應用, 2020, 40(4):? 1056.

LIANG Xuehui,CHENG Yunze,ZHANG Ruijie, et al. Bridge Crack Classification and Measurement Method Based on Deep Convolutional Neural Network[J]. Journal of Computer Applications, 2020, 40(4): 1056.

[6] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep Residual Learning for Image Recognition[C]//IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, June 17-30, 2016:770.

[7] MD Zahangir Alom, MAHMUDUL Hasan, CHRIS Yakopcic, et al. Improved Inception-Residual Convolutional Neural Network for Object Recognition[J]. arXiv preprint 2017,? arXiv:1712.09888.

[8] LITJENS G, KOOI T, BEJNORDI B E, et al. A Survey on Deep Learning in Medical Image Analysis[J]. arXiv preprint 2017, arXiv: 1702.05747.

[9] ZG N iek, AHMED Abdulkadir, SOEREN S, et al. 3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention. Springer International Publishing, 2016:424.

[10]RONNEBERGER, OLAF, PHILIPP Fischer, et al. U-net: Convolutional Networks for Biomedical Image Segmentation[C]//International Conference on Medical Image Computing and Computer-assisted Intervention, Germany, October 5-9. Springer, Cham, 2015.

[11]CAI Y, LANDIS M, LAIDLEY D T, et al. Multi-modal Vertebrae Recognition Using Transformed Deep Convolution Network[J]. Computerized Medical Imaging and Graphics, 2016(51): 11.

[12]RAMESH N, YOO J H, SETHI I K. Thresholding Based on Histogram Approximation[J]. IEE Proceedings-Vision Image and Signal Processing,1995,142(5):271.

[13]SHARMA, NEERAJ, AMIT Kumar Ray. Computer Aided Segmentation of Medical Images Based on Hybridized Approach of Edge and Region Based Techniques[C]//Proceedings of International Conference on Mathematical Biology, Athematical Biology Recent Trends by Anamaya Publishers, 2006:150.

[14]MILLETARI, FAUSTO, NASSIR Navab, Seyed-Ahmad Ahmadi. V-net: Fully Convolutional Neural Networks for Volumetric Medical Image Segmentation[C]//Fourth International Conference on 3D Vision (3DV), 2016:356.

[15]OZG N C, i,cek, Ahmed Abdulkadir, Soeren S. Lienkamp, et al. 3DU-Net: Learning Dense Volumetric Segmentation from Sparse Annotation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention, Springer International Publishing, 2016:424.

[16]GU Zaiwang, CHENG Jun, FU Huazhu, et al. CE-Net: Context Encoder Network for 2D Medical Image Segmentation[J]. IEEE Transactions on Medical Imaging, 2019, 38(10): 2281.

[17]HYUNSEOK Seo, CHARLES Huang, MAXIME Bassenne, et al. Modified U-Net (mU-Net) with Incorporation of Object-Dependent High Level Features for Improved Liver and Liver-Tumor Segmentation in CT Images[J]. IEEE Transactions on Medical Imaging, 2019: 1316.

[18]ZHOU Zongwei, Md Mahfuzur Rahman Siddiquee, Nima Tajbakhsh, et al. UNet++: Redesigning Skip Connections to Exploit Multiscale Features in Image Segmentation[J]. IEEE Transactions on Medical Imaging. 2019, 39(6): 1856.

[19]LI Xiaomeng, CHEN Hao, QI Xiaojuan, et al.? H-DenseUNet: Hybrid Densely Connected UNet for Liver and Tumor Segmentation from CT Volumes[J]. IEEE Transactions on Medical Imaging, 2018, 37(12):? 2663.

[20]HE Kaiming, Georgia Gkioxari, Piotr Dollar, et al. Mask r-cnn[C]//Proceedings of the IEEE International Conference on Computer Vision, 2017:2961.

[21]程立英, 高宣爽, 申海, 等. 基于U-Net網絡的肺部組織分割[J]. 沈陽師范大學學報(自然科學版), 2020, 38(02): 278.

CHENG Liying, GAO Xuanshuang, SHEN Hai, et al. Lung Tissue Segmentation Based on U-Net Network[J] Journal of Shenyang Normal University (Natural Science Edition), 2020, 38(2): 278.

[22]Liang, Ming, HU Xiaolin. Recurrent Convolutional Neural Network for Object Recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015:3367.

[23]DICE LEE R. Measures of the Amount of Ecologic Association Between Species[J]. Ecology, 1945, 26(3): 297.

[24]JACCARD Paul. The Distribution of the Flora in the Alpine Zone[J]. New Phytologist, 1912,11(2): 37.

[25]Setio A A A, Traverso A, De Bel T, et al. Validation, comparison, and combination of algorithms for automatic detection of pulmonary nodules in computed tomography images: the LUNA16 challenge[J]. Medical image analysis, 2017, 42: 1.

(編輯:王 萍)

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線三等角』
新型冠狀病毒及其流行病學特征認識
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 国产不卡一级毛片视频| 原味小视频在线www国产| 亚洲精品动漫在线观看| 亚洲婷婷丁香| 久久婷婷五月综合色一区二区| 久久综合五月| 国产www网站| 国产在线拍偷自揄拍精品| 国产白浆一区二区三区视频在线| 蝌蚪国产精品视频第一页| 国产精品99久久久| 亚洲无线国产观看| 日韩成人高清无码| 91无码网站| 精品国产网站| 天堂网国产| 国产美女免费| 国产18在线| 日韩成人在线一区二区| 亚洲人精品亚洲人成在线| 欧洲熟妇精品视频| 小说 亚洲 无码 精品| 亚洲侵犯无码网址在线观看| 色久综合在线| 亚洲一欧洲中文字幕在线| 玩两个丰满老熟女久久网| 97se亚洲| 91视频免费观看网站| 无码人妻热线精品视频| 美女高潮全身流白浆福利区| 女人av社区男人的天堂| 精品偷拍一区二区| 婷婷六月综合| 在线国产资源| 亚洲国产AV无码综合原创| 日本三区视频| 久久人搡人人玩人妻精品一| 精品国产女同疯狂摩擦2| 99免费在线观看视频| 曰韩人妻一区二区三区| 国产精欧美一区二区三区| 色婷婷亚洲综合五月| 国内精品久久久久鸭| 在线视频一区二区三区不卡| 97色婷婷成人综合在线观看| 国产鲁鲁视频在线观看| 91在线日韩在线播放| 亚洲午夜片| 亚洲精品在线影院| 免费在线看黄网址| 欧美日韩在线国产| 国产激情第一页| 99er这里只有精品| 男人的天堂久久精品激情| 亚洲成aⅴ人片在线影院八| 亚洲福利片无码最新在线播放| 尤物亚洲最大AV无码网站| 国产毛片片精品天天看视频| 一本大道香蕉高清久久| 精品国产美女福到在线不卡f| 国产成年女人特黄特色大片免费| 无码国产偷倩在线播放老年人 | 九九热免费在线视频| 欧美国产在线一区| 在线观看视频99| 亚洲人成成无码网WWW| 久久天天躁狠狠躁夜夜躁| 精品国产一区二区三区在线观看| 97成人在线视频| 美女高潮全身流白浆福利区| 欧美a在线视频| 色综合五月| 色AV色 综合网站| 特级欧美视频aaaaaa| 久热这里只有精品6| 国产欧美在线| 免费国产无遮挡又黄又爽| 国产精品福利在线观看无码卡| 久久99精品久久久久纯品| 福利姬国产精品一区在线| aⅴ免费在线观看| 久久久波多野结衣av一区二区|