王可, 姜原, 黃嘉豪, 王祥鵬, 張曉東, 王霄英
脂肪組織是人體最大的隔室之一,由于肥胖及相關代謝異常的發(fā)生率日益增高,臨床評價肝臟代謝異常、糖尿病患者情況時要求評價全身脂肪定量信息。除了脂肪定量,脂肪分布也與疾病有相關性,已有明確證據提示內臟脂肪過度沉積導致患者發(fā)生心血管疾病和代謝性疾病風險明顯增加[1]。因此無創(chuàng)地分割和準確測量脂肪組織體積的需求日益顯現出來[2,3]。測定總體脂和局部體脂方法很多如簡易參數測量法(body mass index,BMI;waist-hip ratio,WHR)、生物電阻抗法、雙能X線吸收法(dual-energy X-ray absorptiometry,DEXA)、CT、MRI和超聲等。MR有多種掃描序列可選擇性地對脂肪組織成像,可無創(chuàng)、準確地顯示局部脂肪分布,與其他影像學檢查相比有明顯優(yōu)勢[4]。
雖MR圖像可很好地顯示脂肪組織,但在臨床工作中仍不能對每個病例都準確地定量測量脂肪組織體積,不能將患者各個部位、不同區(qū)域脂肪體積生成在影像報告中限制了MR脂肪定量實際臨床應用。近年來深度學習技術在醫(yī)學圖像處理中有了長足的進步,多種基于深度學習軟件可用于醫(yī)學圖像分割、分類和目標檢測等[5,6]并能將多種測量結果自動傳入結構化報告中可達到與醫(yī)生相似報告結果[7],大大提高了影像醫(yī)生的工作效率。本研究訓練3D-Unet網絡模型,在MRI圖像中分割體部脂肪組織并生成定量測量結果,初步探索這種技術在臨床應用的可行性。
此研究獲得了本院倫理審查委員會批準【2017(1382)】,按照本單位人工智能(artificial intelligence,AI)模型訓練規(guī)范執(zhí)行研究方案。
用例定義:根據本單位AI訓練管理方法,首先定義研發(fā)體部脂肪MR分割模型的用戶樣例(use case)。包括體部脂肪MR分割AI模型ID、臨床問題、場景描述、模型在實際工作中調用流程、模型輸入輸出數據結構等。AI模型返回結果定義為不同身體部位(胸部、腹部、盆腔)脂肪區(qū)域,分為皮下脂肪、內臟脂肪;各區(qū)域總脂肪體積、平均脂肪體積、皮下脂肪與內臟脂肪的比例、體部徑線等。
數據搜集:回顧性搜集2020年4月1日-8月5日連續(xù)病例資料用于分割模型建立和評價。入選標準:①于本院完成胸部、腹部、盆腔MR檢查;②有GRE DIXON軸面掃描圖像且重建了脂像。排除標準:①影像上見明顯結構破壞;②有明顯的金屬偽影;③術后造成了明顯結構改變;④圖像質量差。按檢查時間順序共搜集53例患者67個序列包括17例胸部、26例腹部、24例盆腔MR掃描序列用于分割模型建立。
數據標注:選擇GRE DIXON軸面掃描重建脂像,將DICOM格式圖像轉換為Nifty格式。先以閾值分割方法將圖像二值化,將MR圖像分為脂肪與非脂肪成分,閾值分割參數為0.2~0.4,1。2位有經驗影像科醫(yī)師標注作為分割金標準。使用ITK-SNAP軟件在軸面MR圖像上進行標注,手工調整窗寬窗位至最佳顯示水平。將圖像上脂肪組織分為皮下、肌骨、內臟3個區(qū)域,手工標注皮下脂肪、內臟脂肪得到標簽。
訓練分割模型:使用硬件為GPU NVIDIA Tesla P100 16G,軟件為Python3.6、Pytorch 0.4.1、Opencv、Numpy、SimpleITK等,Adam為訓練優(yōu)化器。將67例數據隨機分為訓練集(train dataset,n=52)、調優(yōu)集(validation dataset,n=6)和測試集(test dataset,n=9)。圖像預處理參數:size=96×256×256(z,y,x),自動窗寬、窗位。圖像擴增參數包括水平翻轉、平移、隨機噪聲等。訓練3D U-net模型時,輸入數據為MR圖像(image)、醫(yī)生標注皮下脂肪(label_subcutaneous fat)和內臟脂肪(label_visceralFat)的標簽,輸出數據為模型預測標簽(predicted_label_subcutaneous fat,predicted_label_visceral fat)。在應用U-net網絡進行模型訓練時n_filters=16, batch_size=1,image_size= 96,256,256,num_epochs=400, learning_rate=0.0001。
客觀評價指標為Dice相似系數(dice similarity coefficient,DSC)值。DSC是一種集合相似度度量指標,通常用于計算兩個樣本的相似度,可以理解為醫(yī)師標注區(qū)域與模型預測區(qū)域重合度。DSC值范圍0~1,分割結果最好時值1,最差時值0,其具體計算公式為DSC=2∣I1∩I2∣/(∣I1∣+∣I2∣)。
主觀評價是由影像科醫(yī)師對模型分割結果與MR圖像對比,結合手工標注及模型預測填充圖、手工標注-模型預測重疊圖、手工標注-模型預測差值圖(圖1)分別對內臟脂肪及皮下脂肪的手工標注、模型預測輸出結果(圖2)進行主觀評價。評價內容及評分標準見表1。

圖1 應用多種方法顯示同一層面分割結果。a)填充圖示分割區(qū)域覆蓋范圍及邊界;b) 手工標注-模型預測重疊圖,紅色為手工標注范圍,藍色為模型預測范圍,可直觀顯示兩種方法分割區(qū)域差別; c) 手工標注-模型預測差值圖示兩種方法分割有差別區(qū)域主要集中在臟器邊緣。 圖2 模型輸出的皮下及內臟脂肪自動分割結果。藍色區(qū)域為皮下脂肪,紅色區(qū)域為內臟脂肪。a) 胸部; b)上腹部; c) 盆部。

表1 MR體部脂肪(內臟/皮下脂肪)分割模型主觀評價
自動輸出脂肪分割結果,通過圖像處理計算體部皮下脂肪、內臟脂肪定量測量值,包括各區(qū)域脂肪體積、平均脂肪體積、皮下脂肪與內臟脂肪的比例和體部徑線等并將上述結果返回到結構化報告中(圖3)。

圖3 MR脂肪定量結構化報告示例
應用SPSS 20.0及PRISM 8軟件進行統計學分析。應用Wilcoxon配對檢驗比較手工標注與模型預測輸出圖像的主觀評價結果。應用Pearson相關性分析、Bland-Altman分析、組內相關系數(intraclass correlation coefficient,ICC)分析手工標注與模型預測分割結果的定量測量值。P<0.05認為差異有統計學意義。
入組53例患者中男33例,女20例,平均年齡(64.01±13.98)歲。掃描設備為西門子1.5T MR、飛利浦3.0MR,均為GRE DIXON序列生成脂像。訓練集、調優(yōu)集、測試集中胸部、腹部、盆腔圖像比例分別為14:22:16;1:1:4和2:3:4。

表2 MR體部脂肪分割模型的DSC
胸部、腹部、盆腔平均DSC值均較高。
由影像科醫(yī)師對脂肪分割結果進行主觀評價。模型預測及手工標注皮下脂肪、內臟脂肪主觀評分中位數均為10.00,兩種方法脂肪分割結果主觀評價結果無統計學差異(P>0.05)。其中模型預測、手工標注的皮下及內臟脂肪評分為10分比例均>77.6%,不同部位的評分情況見圖4。

圖4 各部位脂肪分割結果主觀評分各分數比例。a) 皮下脂肪; b) 內臟脂肪。 圖5 客觀評價手工標注與模型預測結果Bland-Altman分析散點圖(所有部位,n=67)。a) 脂肪體積; b) 平均脂肪體積; c) 皮下脂肪與內臟脂肪比例; d) 左右徑及前后徑。
模型預測的皮下脂肪/內臟脂肪分割結果中94%/85.1%的圖像被評價為覆蓋率3分(覆蓋了幾乎全部區(qū)域),100%/100%圖像被評價為超出率3分(幾乎未超出范圍),92.5%/91%圖像被評價為邊緣契合度3分(非常好),7.5%/1.5%皮下脂肪/內臟脂肪分割圖像出現了包含其他間隙脂肪組織的情況,僅1例內臟脂肪出現了包含非脂肪結構情況(偽影)。手工標注的分割結果與模型預測的結果相似(P>0.05)。
67例數據模型輸出與醫(yī)生手工標注測量值及相應pearson相關系數、ICC值見表3, Bland-Altman分析結果見圖5。

表3 MR體部脂肪分割輸出定量測量值
隨著代謝綜合征危害性逐漸被認識,使用醫(yī)學影像方法對脂肪組織的體積進行定量測量成為重要的臨床需求[8]。目前可在體部CT圖像上進行脂肪分割的軟件包有NIHImage、SliceOmatic、Analyze、HippoFat和EasyVision等,能夠手動、自動與全自動地進行CT圖像上腹部脂肪分割[9]。但是這些軟件對操作者經驗依賴性很強,耗時較長,多數用于科學研究,在臨床實際工作中不易廣泛推廣應用。雖然CT圖像脂肪分割掃描更加快速、便捷,應用更廣,但是應用CT進行以脂肪分割為目的的檢查時需要考慮射線造成輻射劑量問題。而MR具有無輻射優(yōu)勢且GRE DIXON、PDFF等序列掃描速度快,因此可以對患者進行大范圍掃描,對研究脂肪代謝、脂肪與疾病關系等有著較大優(yōu)勢。另外,在MR圖像上脂肪與其他軟組織對比也優(yōu)于CT,當脂肪間隔較小時也可以更好地進行分割。近年來,在MR圖像上基于圖像處理和深度學習的脂肪分割方法也有報道,基于深度學習的脂肪檢測方法在實際工作中有很高適應性與穩(wěn)定性[10-12]。
本研究結果顯示3DU-Net模型用于脂肪分割可很完整地計算脂肪組織的多種定量參數,主觀評價和客觀評價的結果均較好,與既往研究結果類似。本研究進一步將模型生成的測量結果自動地填寫入結構化報告,配合關鍵圖像可直觀地顯示給患者和臨床醫(yī)生。本研究對不同部位、不同設備MR圖像進行了測度,基于目前小樣本結果可認為模型適應性強,測量結果穩(wěn)定性好。未來將脂肪分割AI與體部定位AI相結合可輕松完成圖像中各部位脂肪含量的單獨計算,為脂肪定量和疾病臨床分型提供便捷而有效途徑。未來模型的應用場景既可以是全身MR成像也可用于局部圖像。用更多數據訓練后還有望用于其他與脂像圖像性質相似的序列如T1WI等。所以,脂肪定量報告既可以適用于專門行脂肪定量MR檢查也可用于其他MR檢查。由于模型處理圖像和自動生成報告幾乎不需要醫(yī)生付出額外的人力,這種附加信息可以方便地生成在所有適用的檢查項目中,為臨床評價和科學研究提供大量基礎數據。
本研究在數據標注過程中使用了閾值分割做初步處理,提高了標注的效率。閾值分割的輸出結果可將脂肪與其他結構區(qū)分開,但不能區(qū)分皮下脂肪與內臟脂肪。因此,本研究中把閾值分割做為初步標注的工具,首先應用閾值分割將圖像二值化,再由醫(yī)生在二值圖中標注皮下脂肪和內臟脂肪區(qū)域。之后應用深度學習的方法對不同部位脂肪進一步地分割,將脂肪區(qū)域分為皮下脂肪、內臟脂肪等不同區(qū)域。使用閾值分割做標注的作用是提高人工標注效率,深度學習的作用是對不同脂肪間隔做分類。目前主流的圖像分割技術主要基于閾值、區(qū)域、邊緣和特定理論的分割方法等。通過圖像分割技術把圖像分為具備不同特征的區(qū)域以提取出感興趣區(qū),在有些情況下可以直接完成臨床任務。既往有研究者嘗試在CT圖像中用閾值分割的方法測量脂肪體積取得了一定效果,但也有瑕疵。MR圖像對比豐富,不可能通過簡單的閾值分割方法直接完成單一組織分割,但在閾值分割基礎上再進行標注可提高標注效率,對模型訓練是有益的。本研究使用了基于直方圖的閾值分割,未來分割還可嘗試利用多種自適應的優(yōu)化方法,從基于圖像特征如圖像灰度值特征、目標邊界特征、紋理特征、形態(tài)學特征等到利用基于這些特征所計算提取出高級別特征如信息熵、能量泛函等等[13,14]。相信有效的預處理方式會提高標注的效率且可嘗試將預處理圖像作為模型訓練時輸入數據與MR原始圖像共同學習,對提升模型預測準確性可能有一定幫助。
本研究有一定的局限性。首先,脂肪分割參考標準是由醫(yī)生標注的,未獲取組織學定量測量值做為金標準,在活體成像脂肪組織分割同類研究中基本都是相似的[15]。其次,由于本研究為回顧性研究,所獲得圖像掃描范圍不能嚴格定義,只能把圖像大致區(qū)分為胸部、腹部、盆部,這3個區(qū)域在不同患者之間掃描范圍不一致導致不能評價患者間的脂肪定量值差異,未來應規(guī)范掃描序列才有可能用模型自動測量進行人群流行病學分析[16]。第三,對脂肪間隙標注時我們僅把脂肪區(qū)域簡單地區(qū)分為皮下脂肪、肌骨脂肪和內臟脂肪,而對重要的細分結構沒有標注出來如皮下脂肪可細分為淺層脂肪和深層脂肪,肌骨脂肪可細分為肌間脂肪、肌內脂肪和骨髓脂肪組織,內臟脂肪還可以細分為心包脂肪、腎周脂肪和腎竇脂肪等區(qū)域;對于主要為脂肪成分特殊區(qū)域如腋窩、腹股溝等也未單獨進行標注,未來可針對特定臨床需求單獨分割[17,18]。
總之,在MR圖像上應用基于深度學習方法行體部脂肪組織自動分割和定量測量可在技術上實現。此模型處理數據重復性和穩(wěn)定性高,有望用于臨床工作中脂肪定量報告的自動生成,可減少醫(yī)生的測量時間。