999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的超聲圖像左心耳自動分割方法

2019-12-23 07:19:04韓路易黃韞梔竇浩然白文娟劉奇
計算機應用 2019年11期
關鍵詞:深度學習

韓路易 黃韞梔 竇浩然 白文娟 劉奇

摘 要:從超聲圖像中分割出左心耳(LAA)是得出臨床診斷指標的重要步驟,而準確自動分割的首要步驟和難點就是實現(xiàn)目標的自動定位。針對這一問題,提出了一種結合基于深度學習框架的自動定位和基于模型的分割算法的方法來實現(xiàn)超聲圖像中LAA的自動分割。首先,訓練YOLO模型作為LAA自動定位的網(wǎng)絡架構;其次,通過驗證集確定最優(yōu)的權重文件,并預測出LAA的最小包圍盒;最后,在正確定位的基礎上,將YOLO預測的最小包圍盒放大1.5倍作為初始輪廓,利用CV模型完成LAA的自動分割。分割結果用5項指標加以評價:正確性、敏感性、特異性、陰性、陽性。實驗結果表明,所提方法能夠?qū)崿F(xiàn)不同分辨率條件和不同顯示模式下LAA的自動定位,小樣本數(shù)據(jù)在1-000 次迭代時已經(jīng)達到最優(yōu)的定位效果,正確定位率達到72.25%,并且在正確定位的基礎上,CV模型的分割準確率能夠達到98.09%。因此,深度學習技術在實現(xiàn)LAA超聲圖像的自動分割上具備較大的潛力,能夠為基于輪廓的分割算法提供良好的初始輪廓。

關鍵詞:自動分割;深度學習;CV模型;左心耳;超聲圖像

中圖分類號:TP391.1

文獻標志碼:A

Automatic method for left atrial appendage segmentation from

ultrasound images based on deep learning

HAN Luyi1, HUANG Yunzhi1,2, DOU Haoran3, BAI Wenjuan4, LIU Qi1*

1. College of Electrical Engineering, Sichuan University, Chengdu Sichuan 610065, China;

2. College of Materials Science and Engineering, Sichuan University, Chengdu Sichuan 610065, China;

3. School of Biomedical Engineering, Shenzhen University, Shenzhen Guangdong 518060, China;

4. Department of Cardiology, West China Hospital of Sichuan University, Chengdu Sichuan 610000, China

Abstract:

Segmenting Left Atrial Appendage (LAA) from ultrasound image is an essential step for obtaining the clinical indicators, and the prerequisite and difficulty for automatic and accurate segmentation is locating the target accurately. Therefore, a method combining with automatic location based on deep learning and segmenting algorithm based on model was proposed to accomplish the automatic segmentation of LAA from ultrasound images. Firstly, You Only Look Once (YOLO) model was trained as the network structure for the automatic location of LAA. Secondly, the optimal weight files were determined by the validation set and the bounding box of LAA was predicted. Finally, based on the correct location, the bounding box was magnified 1.5 times as the initial contour, and CV (ChanVese) model was utilized to realize the automatic segmentation of LAA. The performance of automatic segmentation was evaluated by 5 metrics, including accuracy, sensitivity, specificity, positive, and negative. The experimental results show that the proposed method can achieve a good automatic segmentation in different resolutions and visual modes, small samples data achieve the optimal location performance at 1-000 iterations with a correct position rate of 72.25%, and CV model can reach the accuracy of 98.09% based on the correct location. Therefore, deep learning is a rather promising technique in the automatic segmentation of LAA from ultrasound images, and it can provide a good initial contour for the segmentation algorithm based on contour.

Key words:

automatic segmentation; deep learning; CV (ChanVese) model; Left Atrial Appendage (LAA); ultrasound image

0?引言

房顫患者心房附壁血栓脫落可以導致體循環(huán)血栓栓塞,其中腦卒中是最常見和最嚴重的血栓栓塞事件[1]。最近研究顯示左心耳(Left Atrial Appendage, LAA)封堵術可以有效預防房顫患者血栓栓塞[2-5],封堵術成功的關鍵在于左心耳形狀的準確選擇。對左心耳圖像準確的自動分割是自動計算封堵裝置的形狀參數(shù)以及判斷房顫的指標的重要前提,具有重要的臨床意義。在分析大量醫(yī)學數(shù)據(jù)時,由醫(yī)生進行人工分割LAA邊界繁雜耗時且主觀性強, 因此,需要設計重復性強、魯棒性高的自動分割算法,以實現(xiàn)后續(xù)的自動計算并同時減輕醫(yī)護人員的工作負擔。為此,LAA超聲圖像自動分割模型,需克服兩大難點:1)克服圖像中其他目標的干擾,實現(xiàn)快速準確地自動定位;2)克服超聲圖像中的固有斑噪和LAA內(nèi)部的梳狀肌和肌小梁所造成的影響,實現(xiàn)準確的輪廓演化。

1?相關工作

目前,活動輪廓模型(Active Contour Model, ACM)已經(jīng)廣泛應用于圖像自動分割的方案中,ACM的基本思想是通過演化目標輪廓曲線來求解其能量泛函的最小值。常見的基本形變模型有:1)主動外觀模型(Active Appearance Model, AAM);2)主動形狀模型(Active Shape Model,ASM);3)模板模型(Atlas Model,AM)。由Chan等[6]提出的CV(ChanVese)模型是最受歡迎的模型之一,CV模型在邊界較弱的圖像上有更好的表現(xiàn),但不能很好地適用于圖像強度不均勻的情況。Li等[7-8]提出由局部二值擬合(Local Binary Fitting,LBF)和局部擴展擬合(RegionScalable Fitting,RSF)為能量驅(qū)動的方法。RSF在模型中引入了圖像局部區(qū)域的強度信息,從而實現(xiàn)對強度不均勻的圖像的有效分割。該類方法能夠克服基于圖像像素分類的分割算法的缺陷:1)魯棒性不高;2)需要大量的人工參與以提高準確性。方法的計算量大,且如果初始輪廓選擇不當,非凸的能量函數(shù)會導致模型陷入局部最小值,甚至分割失敗。對于LAA圖像,大部分研究采用一些基本幾何形狀作為初始輪廓,如果無法準確定位會極大地延長收斂時間,甚至收斂出錯誤的輪廓。因此,本文從提高分割精度和魯棒性角度出發(fā),要實現(xiàn)自動分割,其首要步驟就是從超聲圖像中快速、自動定位出LAA。

基于特征工程的機器學習方法需要人工參與,設計有效良好的特征提取方案,以將原始數(shù)據(jù)轉(zhuǎn)換成可區(qū)分的特征向量。但是人工參與的工程技能和專業(yè)知識在量化過程中會有一定主觀差異,對于分類結果會有一定的影響。基于卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)[9]的深度學習方法可以利用原始圖像數(shù)據(jù)作為輸入,通過組合每一層簡單的非線性模塊,就可以將輸入轉(zhuǎn)換成高層的表達輸出,且整個表達學習的過程幾乎不需要人工參與。在目標檢測任務上,深度學習方法主要分為兩類:1)基于選擇性搜索的區(qū)域卷積神經(jīng)網(wǎng)絡(Regionbased Convolutional Neural Network,RCNN)[10-13];2)實現(xiàn)端到端檢測的YOLO(You Only Look Once)[14-16]。基于RCNN的方法利用聚類方式,對圖像進行分割分組,得到多個候選框的層次組。RCNN計算的候選框數(shù)量多且有大量重疊,冗余計算量非常大,為提高運行速度,F(xiàn)ast RCNN[11]方案中候選框只經(jīng)過一個CNN,F(xiàn)aster RCNN[12]則直接利用CNN來計算候選框。然而,基于RCNN的方案,復雜的流程通常導致計算速度慢且很難實現(xiàn)優(yōu)化。而YOLO把物體框的選擇與識別進行了結合,一步輸出,識別速度非常快,達到每秒45~150幀。

目前針對LAA輪廓提取的研究和文獻非常少,現(xiàn)有的LAA定量分析軟件是以左室的形態(tài)結構作為模型的。為減小所選封堵裝置的誤差,提高自動分割的運算效率和準確性,本文提出了一種基于深度學習網(wǎng)絡和參數(shù)活動輪廓模型的全自動LAA提取方法,整個流程如圖1所示。

首先,利用深度學習網(wǎng)絡YOLO訓練LAA超聲圖像得到網(wǎng)絡的權值參數(shù),完成LAA的準確自動定位;進而,在只含有LAA單一目標的有限范圍內(nèi),利用改進的CV模型[17-18]完成LAA的自動分割。

2?左心耳自動分割方法

2.1?基于YOLO模型的自動定位

通常,完成一個心動周期所需要的時間為0.8s, 由于人眼的視覺暫留效應,當幀率高于每秒24幀時,就認為是連貫的,因此為滿足實時定位并識別超聲圖像中的LAA,采用YOLO的網(wǎng)絡架構,即使不采用批處理,利用GPU加速模式,對于物體識別和定位的速度也可以達到每秒45~150幀[11],能夠滿足對LAA的處理速度。基于YOLO網(wǎng)絡的LAA自動定位架構如圖2所示,自動定位架構主要分為訓練和測試兩大模塊:訓練時使用由醫(yī)生標記的訓練集對YOLO模型的權值參數(shù)進行更新;測試時固定權值參數(shù),對測試集圖像進行預測,輸出LAA區(qū)域的位置估計與類別回歸得到的包圍盒。

圖2中所使用的YOLO網(wǎng)絡的具體結構及參數(shù)設置如圖3所示,整個卷積神經(jīng)網(wǎng)絡包含了24個卷積層,并連接了2個全連接層。卷積層通過局部連接對圖像局部特征進行提取;池化層降低圖像尺度同時增加了卷積層的感受野范圍;全連接層則整合了全局信息,能夠更好地預測LAA區(qū)域。YOLO網(wǎng)絡的具體參數(shù)設置如下:

1)網(wǎng)絡輸入縮放成統(tǒng)一大小,且輸入圖像矩陣分割成s×s 的單元格,通常將s設為7。

2)每個單元格負責輸出b個矩形框,其中共包含兩部分信息:①數(shù)組(x, y, w, h)表示其位置信息,x、 y表示中心相對于單元格左上角的位置偏移,記單元格左上角為(0, 0),右下角為(1, 1),w、 h表示矩形框的寬與高,都是相對于整個圖片的相對值,全幅圖片大小為(1, 1)。②概率P(object)表示該框是物體的概率。

3)每個單元格再負責輸出c個類別的概率,用概率P(class|object)表示,最終輸出時物體的概率乘以類別概率,才是整體識別到是一個物體的概率,即:

P(class)=P(class|object)×P(object)

如果一個物體的中心落入一個單元格,則該單元格上的b個矩形框的位置信息都為該物體的位置信息,c個概率中對應該物體類別值為1,其他為0。由于訓練的數(shù)據(jù)集分為左心耳和非左心耳兩類,所以將b、c均設為2。

4)最終輸出層共包含有s×s×(b×5+c)個單元。網(wǎng)絡每一層之間的連接,類比神經(jīng)元的稀疏激活性,輸入信號的稀疏特性使得學習網(wǎng)絡并不需要很強的線性可分機制,因此在網(wǎng)絡訓練時,整個網(wǎng)絡除了最后一層為線性激活,其他層都采用如式(1)的泄露型線性矯正激活方式[19]:

Φ(x)=x,x>00.1x,其他 (1)

YOLO每一個單元格能夠預測多個包圍盒,在訓練時,每一個物體只需要一個包圍盒,因此,根據(jù)當前最高的交并比(Intersection over Union,IoU),指定一個預測的包圍盒對應待檢測物體。但是,輸入圖片的大部分單元格中并沒有落入物體中心,為增強整個網(wǎng)絡的穩(wěn)定性,引入?yún)?shù)λcoord和λnoobj,對類別概率和最小包圍盒的誤差進行分析。訓練過程中,為使包圍盒的預測偏差受目標大小的影響較小,最終優(yōu)化的損失函數(shù)如式(2)所示:

J=λcoord∑s×si=0∑2j=0[Tobji,j(xi-i)2+(yi-i)2]+

λcoord∑s×si=0∑2j=0[Tobji,j(wi-i)2+(hi-i)2]+

∑s×si=0∑2j=0Tobji,j(ci-i)2+λnoobj∑s×si=0∑2j=0Tnoobji,j(ci-i)2+

∑s×si=0Tobji∑c∈classes(pi(c)-i(c))2(2)

其中:Tobji表示是否出現(xiàn)在單元格i中,Tobji,j表示使用第i個單元格中第j個類別的預測器,數(shù)組(xi,yi,wi,hi)和(i,i,i,i)分別表示目標在第i個單元格中的篩選框坐標及其估計。針對同一個物體可能識別出來多個選框的情況,YOLO采用非極大值抑制(NonMaximum Suppression,NMS)去掉重復框。根據(jù)每一個框?qū)闹眯怕剩嘤嗫虻木唧w步驟如下:

1)按置信率排序由高到低排序;

2)取最大置信率的框為物體框;

3)剩余多個框中,去掉與最大置信率框的重疊率大于特定閾值的框;

4)重復步驟3),直到?jīng)]有剩余框;

5)確定最終被標記為物體的框。

2.2?基于CV模型的自動分割

由于YOLO學習網(wǎng)絡能夠輸出只包含單一目標——LAA的最緊包圍盒,非左心耳區(qū)域所占比例較小,因此利用CV模型實現(xiàn)左心耳腔和其余組織的分離。作為幾何形變模型,CV模型并沒有用到圖像的梯度信息,而是利用了目標和背景的灰度差異,因此,CV模型的一個優(yōu)勢是能夠分割出邊界梯度變化不明顯的結構,并且能夠?qū)崿F(xiàn)多目標分割,能夠滿足本實驗中不同顯示模態(tài)和不同掃描條件下LAA的自動分割。CV模型的能量方程定義如式(3)所示:

E=μ·Length(L)+υ·Area(inside(L))+λ1∫inside(L)I(x,y)-l12dxdy+λ2∫outside(L)I(x,y)-l22dxdy(3)

其中:L表示演化輪廓,I表示圖像灰度,μ和υ為相應項的非負系數(shù),λ1和λ2為相應項的正系數(shù),l1和l2分別表示演化輪廓內(nèi)部和外部所有像素的平均灰度。前兩項為演化輪廓的內(nèi)部能量,用以正則化輪廓的幾何特性;后兩項為演化輪廓的外部能量,用以將輪廓收斂到正確的位置。

3?實驗結果和分析

3.1?實驗數(shù)據(jù)和實驗平臺

1)實驗數(shù)據(jù)。所有的LAA超聲圖片都是由四川大學華西醫(yī)院超聲心內(nèi)科提供,醫(yī)生利用Phillip iE33超聲診斷儀并配合經(jīng)食道的探頭X72t采獲。數(shù)據(jù)來自不同的患者,一共512例,每一例中有1張LAA圖像由醫(yī)生同時標注包圍框和LAA輪廓。其中測試數(shù)據(jù)集包含192例,訓練數(shù)據(jù)集320例,并從訓練集中隨機選擇192例作為驗證集。

2)實驗平臺。硬件環(huán)境:Intel Xeon E52630 CPU 2.40GHz,8GB內(nèi)存,NIVIDIA GeForce GTX 1080Ti顯卡。軟件環(huán)境:權值參數(shù)訓練在UBUNTU 14.0.4系統(tǒng),Python 2.7環(huán)境下進行;自動定位和自動分割實驗在Windows 10系統(tǒng),Matlab 2015a環(huán)境下進行。

3.2?實驗設置

在數(shù)據(jù)采集階段,共由3名醫(yī)生完成對超聲圖像LAA區(qū)域的標記,標記結果為LAA在診斷圖像中的最緊包圍盒。在訓練數(shù)據(jù)階段,從采集數(shù)據(jù)中隨機抽取512張,其中320張用于訓練YOLO網(wǎng)絡的權值,剩余192張作為該訓練網(wǎng)絡的測試。為保證整個網(wǎng)絡架構的迭代收斂,網(wǎng)絡參數(shù)設置如下:

1)統(tǒng)一圖像輸入尺寸為418×418;

2)由于本次的數(shù)據(jù)集有限,為了更好地引導網(wǎng)絡朝向極值所在的方向?qū)W習,因此采用全數(shù)據(jù)集的形式輸入;

3)為保證學習速度和學習的準確率,最終能夠找到極值,YOLO網(wǎng)絡的訓練使用了自適應動量估計(Adaptive moment estimation,Adam)優(yōu)化方法,學習率設置為0.001,批處理個數(shù)設置為8。對于式(2)所示的損失函數(shù),λcoord設置為5,λnoobj設置為0.5。

訓練階段結束后,導出網(wǎng)絡的權重文件,并隨機抽取采集樣本數(shù)據(jù)輸入到訓練網(wǎng)絡測試整個學習網(wǎng)絡性能。自動定位的輸出結果為包圍LAA的最小包圍盒,其中,定位結果只顯示置性度高于0.5的包圍盒。

3.3?定位結果

得益于多層卷積網(wǎng)絡,和傳統(tǒng)的基于灰度信息和機器學習分類的方法相比,基于深度學習的自動定位從圖像整體角度出發(fā),從微觀到宏觀地分析圖像中的像素、邊、物體,因此能夠克服傳統(tǒng)超聲圖像固有的低分辨率缺陷。圖4展示了學習網(wǎng)絡在不同掃描條件下的定位結果,其中:圖4(a)為LAA處于舒張末期,雖然目標明確,但掃描結果分辨率較低情況下自動定位的結果;圖4(b)為目標占整幅圖像比例較小,但掃描結果分辨率較高情況下的結果;圖4(c)為目標清晰,但為雙幀顯示模式下的定位結果;圖4(d)為分辨率中等水平、LAA處于收縮末期時邊界不明顯情況下的定位結果。因此,利用YOLO網(wǎng)絡,可以完成LAA在不同顯示模式、不同掃描條件下的自動定位。

3.4?定位誤差

為確定學習網(wǎng)絡的最優(yōu)迭代次數(shù),提取出訓練階段中在不同迭代次數(shù)下得到的權重文件進行測試,并將自動定位的結果歸為以下4類:1)遺漏、2)錯誤、3)部分重合、4)完全重合。其中:遺漏是指LAA區(qū)域并未出現(xiàn)包圍盒;錯誤是指包圍盒出現(xiàn)在非左心耳區(qū)域;部分重合是指包圍盒未包含完全左心耳,但至少包含了90%的左心耳區(qū)域;完全重合是指包圍盒和醫(yī)生標記的完全重合。遺漏和錯誤歸為是偏差(NEGATIVE)定位,而部分重合和重合認為是正確(POSTIVE)的定位。本次實驗利用192例驗證集樣本,對1-000 ~ 7-000次迭代得到的權值進行驗證,表1和圖5顯示了以上4類的統(tǒng)計結果。

若僅從完全重合率來看,在5-000次迭代時重疊的樣本數(shù)是最多的,但相應的錯誤率也較高,因此,從整體正確定位率可以看出,由于樣本數(shù)量有限,在1-000次迭代時,自動定位的效果最好。并且從圖5中可以看出,不同迭代次數(shù)下,統(tǒng)計結果差異變化較小,因此,1-000次迭代后,整個網(wǎng)絡都處于一個穩(wěn)定收斂的狀態(tài)。值得指出的是,本次實驗中正確自動定位的概率不是很高,主要歸結為以下3方面原因:1)醫(yī)學數(shù)據(jù)的訓練樣本數(shù)有限;2)左心耳形狀的個體差異性;3)左心耳具有多樣化的病理形態(tài),而訓練樣本中只包括了一部分病理形態(tài)。

3.5?分割精度

針對192例測試樣本中完成正確定位的數(shù)據(jù),利用CV模型的自動分割結果如圖6所示。其中,圖6(a)為在目標定位結果與實際位置完全重合的情況下得到的分割結果,圖6(b)則為在目標定位結果與實際位置部分重合的情況下得到的分割結果。為保證部分重合能夠包含所有的區(qū)域,在自動分割之前,將包圍盒自動擴增1.5倍。可以看出,正確定位后的數(shù)據(jù)均能夠得到較好的分割結果。

將醫(yī)生勾勒的輪廓作為“金標準”,采用5個指標:準確性(Accuracy)、敏感性(Sensitivity)、特異性(Specificity)、陽性預測值(Positive)、陰性預測值(Negative)[15]為指標,評價基于YOLO網(wǎng)絡自動定位的左心耳自動分割方案:

Accuracy=(TP+TN)/(TP+TN+FP+FN)

Sensitivity=TP/(TP+FN)

Specificity=TN/(TN+FP)

Positive=TP/(TP+TN)

Negtive=FP/(FP+FN)

從概率上講,TP(True Positive)表示正樣例分類成正樣例;TN(True Negative)表示負樣例分類成負樣例;FP(False Positive)表示負樣例分類成正樣例;FN(False Negative)表示正樣例分類成負樣例。

針對1-000次迭代權重下,192例測試樣本中正確定位的數(shù)據(jù)(共計138例),表2在各項指標下對比了CV、LBF和RSF三種模型的分割效果。可以看出,在YOLO網(wǎng)絡提供自動定位的初始輪廓的情況下,三種模型的分割準確率都非常高,且各項指標均表現(xiàn)優(yōu)秀。表3中所示為三種模型的CPU耗時比較,CV模型耗時最少。因此,在三種模型精確度相近的情況下,CV模型更適用于左心耳分割任務。但是,當左心耳接近收縮末期時,整個分割結果會受到其內(nèi)部的梳狀肌和肌小梁影響,因而仍會導致漏檢。在未來的工作中,將會為進一步提高全自動分割的準確性,結合其他技術和信息,對左心耳超聲圖像進行分析。

4?結語

盡管超聲設備目前的應用廣泛,但是超聲圖像的分割一直受限于圖像本身的質(zhì)量,雖然近年來已有相關的硬件改善,但是影響成像質(zhì)量仍受病人狀態(tài)、醫(yī)生經(jīng)驗等多種因素制約。相較于目前大量的關于超聲圖像自動分割的研究,幾乎都是基于圖像本身的灰度、梯度、相位信息,或是解剖結構的先驗信息構建出基于邊界或是區(qū)域的能量模型,通過求解得到使能量最小的值來完成分割工作,但是模型受限于目標區(qū)域的局部特征,并且需要經(jīng)過較多的預處理步驟才能在特定條件的圖像上取得較為滿意的效果。

為盡量克服圖像質(zhì)量和個體差異帶來的自動分割的困難,并提高從超聲圖像中全自動分割出左心耳的準確性,基于YOLO模型自動定位的自動分割方法主要的創(chuàng)新如下:

1)依托于深度學習的理念,應用CNN結構,根據(jù)YOLO搭建出的學習網(wǎng)絡,實現(xiàn)了左心耳超聲圖像中目標的自動定位。基于YOLO模型的自動定位架構能夠較好地克服超聲成像固有的低分辨率、斑點噪聲的干擾,成功定位出心動周期內(nèi)各種狀態(tài)下的左心耳,同時,能夠完成不同分辨率條件和不同顯示模式結果下的自動定位。

2)在定位準確的基礎上,左心耳已經(jīng)被鎖定包含單一目標的矩形框內(nèi),利用CV模型能夠較為準確分割出目標。

由于醫(yī)學樣本量通常受限于患者意愿,因此測試數(shù)據(jù)量相對較小,在以后的工作中會進一步收集樣本,擴大訓練和測試樣本數(shù)量,進一步使得自動定位和分割的結果具有更強的魯棒性。

參考文獻 (References)

[1]?ALSAADY N M, OBEL O A, CAMM A J. Left atrial appendage: structure, function, and role in thromboembolism[J]. Heart, 1999, 82(5):547-554.

[2]?KONG B, LIU Y, HUANG H, et al. Left atrial appendage closure for thromboembolism prevention in patients with atrial fibrillation: advances and perspectives[J]. Journal of Thoracic Disease. 2015, 7(2): 199-203.

[3]?LEAL S, MORENO R, de SOUSA ALMEIDA M, et al. Evidencebased percutaneous closure of the left atrial appendage in patients with atrial fibrillation[J]. Current Cardiology Reviews. 2012, 8(1):37-42.

[4]?WHITLOCK R P, HEALEY J S, CONNOLLY S J. Left atrial appendage occlusion does not eliminate the need for warfarin [J]. Circulation, 2009, 120(19):1927-1932.

[5]?ABDELMONEIM S S, MULVAGH S L. Techniques to improve left atrial appendage imaging[J]. Journal of Atrial Fibrillation, 2014, 7(1): No.1059.

[6]?CHAN T F, VESE L A. Active contours without edges[J]. IEEE Transactions on Image Processing, 2001, 10(2): 266-277.

[7]?LI C, KAO C Y, GORE J C, et al. Implicit active contours driven by local binary fitting energy[C]// Proceedings of the 2007 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2007: 1-7.

[8]?LI C, KAO C Y, GORE J C, et al. Minimization of regionscalable fitting energy for image segmentation[J]. IEEE Transactions on Image Processing, 2008, 17(10): 1940-1949.

[9]?LeCUN Y, BENGIO Y, HINTON G. Deep learning[J]. Nature, 2015, 521(7553): 436-444.

[10]?GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]// Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2014:580-587.

[11]?GIRSHICK R. Fast RCNN[EB/OL]. [2019-04-20]. https://arxiv.org/pdf/1504.08083.pdf.

[12]?REN S, HE K, GIRSHICK R, et al. Faster RCNN: towards realtime object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

[13]?GOULD S, GAO T, KOLLER D. Regionbased segmentation and object detection[C]// Advances in Neural Information Processing Systems 22. Cambridge, MA: MIT Press, 2009:655-663.

[14]?REDMON J,DIVVALA S,GIRSHICK R, et al. You only look once: unified, realtime object detection[EB/OL]. [2019-04-20]. https://arxiv.org/pdf/1506.02640.pdf.

[15]?REDMON J, FARHADI A. YOLO9000: better, faster, stronger[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017:6517-6525.

[16]?REDMON J, FARHADI A. YOLOv3: an incremental improvement[EB/OL]. [2018-05-25]. https://arxiv.org/pdf/1804.02767.pdf.

[17]?MAKA M, DANK O, GARASA S, et al. Segmentation and shape tracking of whole fluorescent cells based on the ChanVese model[J]. IEEE Transactions on Medical Imaging, 2013, 32(6): 995-1006.

[18]?WANG X, ZHENG C, LI C. Automated CT liver segmentation using improved ChanVese model with global shape constrained energy[C]// Proceedings of the 2011 Annual International Conference of the IEEE Engineering in Medicine and Biology Society. Piscataway: IEEE, 2011: 3415-3418.

[19]?MAAS A L, HANNUN A Y, NG A Y, et al. Rectifier nonlinearities improve neural network acoustic models[EB/OL]. [2018-05-28].http://robotics.stanford.edu/~amaas/papers/relu_hybrid_icml2013_final.pdf

This work is partially supported by the Project of Chengdu Science and Technology Bureau (2015-HM01-00525-SF).

HAN Luyi, born in 1995, M. S. candidate. His research interests include medical image processing.

HUANG Yunzhi, born in 1989, Ph. D. candidate. Her research interests include medical signal processing, medical image processing.

DOU Haoran, born in 1995, M. S. candidate. His research interests include medical image analysis.

BAI Wenjuan, born in 1982, Ph. D. candidate, associate senior doctor. Her research interests include dynamic evaluation of heart valve disease.

LIU Qi, born in 1966, Ph. D., professor. His research interests include machine vision, medical image processing, medical information.

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數(shù)據(jù)遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
利用網(wǎng)絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學習場域建構
大數(shù)據(jù)技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 欧美全免费aaaaaa特黄在线| 欧美激情第一区| av尤物免费在线观看| 人妻熟妇日韩AV在线播放| 国产jizz| 亚洲高清国产拍精品26u| 亚洲娇小与黑人巨大交| 国产成人综合亚洲网址| 亚洲无码熟妇人妻AV在线| 最新亚洲av女人的天堂| 99草精品视频| 亚洲成A人V欧美综合| 在线观看热码亚洲av每日更新| 亚欧美国产综合| 国产欧美成人不卡视频| 99er精品视频| 狠狠干综合| 无码aⅴ精品一区二区三区| 天天综合亚洲| 久久99精品久久久久纯品| 精品国产自在在线在线观看| 日韩欧美中文在线| 2020最新国产精品视频| 性视频久久| 999国内精品久久免费视频| 国产一在线| 伊伊人成亚洲综合人网7777| 欧美黄色网站在线看| 手机成人午夜在线视频| 播五月综合| 国产AV无码专区亚洲精品网站| 欧美成人午夜视频| 欧美第二区| 国内精自线i品一区202| 女人18毛片久久| 欧美不卡二区| 国产另类视频| 青草视频网站在线观看| 99在线观看国产| 日本高清免费一本在线观看 | 亚洲色婷婷一区二区| 亚洲成人在线网| 成年片色大黄全免费网站久久| 国产丰满成熟女性性满足视频| 亚洲a免费| 蜜桃臀无码内射一区二区三区 | 色综合中文| 成人免费视频一区二区三区 | 国产小视频免费| 日韩欧美国产精品| 亚洲自偷自拍另类小说| 欧美精品成人| 欧美在线观看不卡| 欧美一区中文字幕| 亚洲欧美日韩中文字幕一区二区三区 | 亚洲国产精品一区二区第一页免| 亚洲人成在线精品| 免费一看一级毛片| 蜜臀AV在线播放| 欧洲欧美人成免费全部视频| 免费看美女毛片| 最新国产网站| 国产午夜小视频| 在线无码av一区二区三区| 青青青亚洲精品国产| 国产黄色片在线看| 日韩在线成年视频人网站观看| 国产sm重味一区二区三区| 午夜激情婷婷| 色噜噜狠狠色综合网图区| 国产成人av一区二区三区| 东京热一区二区三区无码视频| 亚洲久悠悠色悠在线播放| 日韩黄色在线| 88国产经典欧美一区二区三区| 性色在线视频精品| 免费人成黄页在线观看国产| 亚洲精品在线91| 亚洲经典在线中文字幕| 国产xx在线观看| 国产麻豆另类AV| 色婷婷狠狠干|