周芳芳,王一達,宋陽,楊光
華東師范大學物理與電子科學學院/上海市磁共振重點實驗室,上海200062
胰腺癌近年來在全球范圍內呈上升趨勢,難以治療且死亡率很高[1]。精確的自動器官分割是定量評估和計算機輔助診斷的前提,但是胰腺體積小、個體差異性大、形狀不規則、背景場的干擾很大,精確分割十分困難[2-3]。近年來,隨著深度學習的發展,研究者們越來越多地使用自然圖像語義分割模型來解決醫學圖像的分割任務[4],如全卷積網絡(FCN)[5]和UNet[6]。其中UNet 通過跨層連接,其編碼器進行特征提取時可以檢測整個圖像中目標組織的更多特征,且解碼器進行特征融合時,可以獲取到比FCN 更精確的細節信息。在卷積神經網絡中加入深度監督,能夠減輕訓練過程中潛在的梯度消失問題,且能夠有效地提高模型性能[7-8]。
傳統的圖像分割,常常在二維圖像上進行分割[9-10],這種方法忽略了器官的3D 信息,往往達不到最佳的效果,所以很多研究人員將整個三維圖像作為輸入[11-14],這種方法對計算資源特別是GPU 內存的要求很高,高內存消耗限制了網絡的深度和特征圖的個數,而這又恰恰是性能改進的兩個關鍵性因素[15]。為解決上述問題,一些研究者開始嘗試兩步分割[10,16-17]。例如,Zhou 等[10]為減小背景區域的干擾,使用了先粗分割再細分割的方法。首先應用一個2D FCN 對整個CT 圖像進行胰腺的粗分割,然后根據粗分割結果定位胰腺區域并對圖像進行裁剪,得到包含胰腺區域的較小的圖塊,再將其輸入另一個2D FCN 對胰腺進行細分割。……