999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的蝶鞍自動(dòng)分割研究

2023-06-15 14:07:20馮琦劉曙顏颋馮紅超
計(jì)算機(jī)時(shí)代 2023年6期
關(guān)鍵詞:深度學(xué)習(xí)

馮琦 劉曙 顏颋 馮紅超

摘? 要: 研究蝶鞍的形態(tài)變化及生長(zhǎng)規(guī)律對(duì)于口腔醫(yī)生獲取額外診斷信息具有重要意義。本文開(kāi)發(fā)并評(píng)估了一個(gè)基于深度學(xué)習(xí)的蝶鞍自動(dòng)分割模型。實(shí)驗(yàn)將包含400張頭顱側(cè)位片的數(shù)據(jù)集隨機(jī)劃分成兩個(gè)子集,其中360張圖像作為訓(xùn)練集來(lái)訓(xùn)練蝶鞍的自動(dòng)分割網(wǎng)絡(luò)U-net,40張圖像作為測(cè)試集來(lái)測(cè)試模型的分割性能。Dice系數(shù)用于評(píng)估模型的分割性能,訓(xùn)練好的蝶鞍自動(dòng)分割網(wǎng)絡(luò)的Dice系數(shù)為0.9074。所提方法能夠快速準(zhǔn)確地在頭顱側(cè)位片上自動(dòng)分割出蝶鞍區(qū)域。

關(guān)鍵詞: 蝶鞍; 頭顱側(cè)位片; 深度學(xué)習(xí); 圖像分割; U-net

中圖分類號(hào):TP399? ? ? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A? ? 文章編號(hào):1006-8228(2023)06-134-05

Sella turcica automatic segmentation based on deep learning

Feng Qi1, Liu Shu2, Yan Ting2, Feng Hongchao1,2

(1. College of Medicine, Guizhou University, Guiyang, Guizhou 550025, China; 2. Guiyang Hospital of Stomatology)

Abstract: It is significance to study the morphological changes and growth rules of sella turcica for stomatologist to obtain additional diagnostic information. This paper aims to develop and evaluate a deep learning-based model for automatic segmentation of sella turcica. The experimental dataset containing 400 cephalometric radiographs is randomly divided into two subsets, in which 360 images are used as training dataset to train sella turcica automatic segmentation network, and 40 images are used as test dataset to test the segmentation performance of the model. Dice coefficient is used to evaluate the segmentation performance of the model, and the Dice coefficient of the trained sella turcica automatic segmentation network is 0.9074. The proposed method can quickly and accurately segment the sella turcica on cephalometric radiographs.

Key words: sella turcica; cephalometric radiographs; deep learning; image segmentation; U-net

0 引言

蝶鞍是垂體窩和鞍背的合稱,位于顱中窩正中部、蝶骨體上部,形似馬鞍狀。蝶鞍的前緣為鞍結(jié)節(jié),后緣為鞍背,其骨組織包圍形成垂體窩,容納腦垂體。位于蝶鞍中心的蝶鞍點(diǎn),是頭影測(cè)量學(xué)中常用的標(biāo)記點(diǎn)之一[1]。在胚胎發(fā)育過(guò)程中,神經(jīng)嵴細(xì)胞由蝶鞍區(qū)向鼻部、額部和上頜等區(qū)域遷移,共同參與了蝶鞍、垂體前葉和牙齒的形成和發(fā)育[2]。蝶鞍在幫助臨床醫(yī)生預(yù)測(cè)患者的生長(zhǎng)發(fā)育、評(píng)估顱面形態(tài)特征以及發(fā)現(xiàn)垂體異常或病理改變上有重要提示作用,研究蝶鞍的形態(tài)變化及生長(zhǎng)規(guī)律具有重要意義[3]。

目前對(duì)蝶鞍形態(tài)的分析主要依賴于人工,而人工測(cè)量分析耗時(shí)費(fèi)力且受主觀因素影響較大。隨著計(jì)算機(jī)視覺(jué)的快速發(fā)展,深度學(xué)習(xí)被廣泛應(yīng)用于醫(yī)學(xué)圖像處理領(lǐng)域。Shakya等人于2022年提出一個(gè)使用卷積神經(jīng)網(wǎng)絡(luò)在頭顱側(cè)位片上自動(dòng)分割蝶鞍的新方法[4]。Ahn Y等人于2020 年開(kāi)發(fā)并驗(yàn)證了一種肝脾自動(dòng)分割與體積測(cè)量的深度學(xué)習(xí)算法[5]。Park等人于2020年提出基于U-net實(shí)現(xiàn)血管壁的自動(dòng)分割[6]。這些研究基于深度學(xué)習(xí)算法實(shí)現(xiàn)了目標(biāo)區(qū)域的自動(dòng)分割,并在此基礎(chǔ)上完成了對(duì)目標(biāo)區(qū)域的形態(tài)分析。本文開(kāi)發(fā)并評(píng)估一個(gè)能夠在頭顱側(cè)位片上自動(dòng)分割出蝶鞍的深度學(xué)習(xí)模型,為進(jìn)一步實(shí)現(xiàn)蝶鞍形態(tài)的自動(dòng)測(cè)量提供可能,幫助口腔醫(yī)生評(píng)估蝶鞍區(qū)域的形態(tài)變化。

1 材料與方法

1.1 數(shù)據(jù)集的構(gòu)建和標(biāo)注

1.1.1 數(shù)據(jù)集的構(gòu)建

本研究使用的圖像為2015 ISBI挑戰(zhàn)賽公共數(shù)據(jù)集中的回顧性影像數(shù)據(jù)。該數(shù)據(jù)集中共包含400張X射線頭顱側(cè)位片,圖像的分辨率為1935*2400,圖像的原始格式為bmp,實(shí)驗(yàn)中將其轉(zhuǎn)換為jpg格式的圖像。這400張圖像被隨機(jī)劃分成兩部分:360張圖像作為訓(xùn)練集來(lái)訓(xùn)練自動(dòng)分割網(wǎng)絡(luò),實(shí)現(xiàn)蝶鞍的自動(dòng)分割,40張圖像作為測(cè)試集。蝶鞍在X線頭顱側(cè)位片上,呈現(xiàn)為致密白線所分界的圓弧形的窩狀結(jié)構(gòu),可以容易地在圖像上觀察到[7],如圖1所示。

1.1.2 數(shù)據(jù)的標(biāo)注

由主要研究人員使用標(biāo)注工具Labelme(version 5.0.1)對(duì)蝶鞍進(jìn)行手動(dòng)分割,生成相應(yīng)的分割掩膜。蝶鞍在頭顱側(cè)位片中顯示為一條致密白線所分界的圓弧形窩狀結(jié)構(gòu),沿著這條白線分割出蝶鞍區(qū)域。具體的標(biāo)注規(guī)則為:以鞍結(jié)節(jié)頂點(diǎn)(TS)為起點(diǎn),鞍背頂點(diǎn)(DS)為終點(diǎn),沿著骨白線勾畫蝶鞍輪廓,然后連接DS點(diǎn)和TS點(diǎn),所形成的閉合區(qū)域即為蝶鞍分割的ground-truth。如圖2所示,標(biāo)注完成之后每張圖像會(huì)生成一張對(duì)應(yīng)的掩膜圖像。所有圖像的標(biāo)注由同一名觀察人員來(lái)完成,并請(qǐng)一名經(jīng)驗(yàn)豐富的正畸科醫(yī)生對(duì)標(biāo)注結(jié)果進(jìn)行復(fù)核,對(duì)存在爭(zhēng)議的圖像進(jìn)行討論并重新標(biāo)注,確保ground-truth的可靠性。

1.2 蝶鞍自動(dòng)分割模型的建立

1.2.1 實(shí)驗(yàn)環(huán)境

實(shí)驗(yàn)環(huán)境配置如表1所示。

1.2.2 數(shù)據(jù)預(yù)處理

在訓(xùn)練蝶鞍的自動(dòng)分割網(wǎng)絡(luò)之前,先要對(duì)所有的圖像做預(yù)處理,主要包括三個(gè)預(yù)處理操作。①ROI提取,目的是剔除圖像中的無(wú)關(guān)背景。由于原始圖像分辨率為1935*2400,而待分割目標(biāo)蝶鞍在原始圖像中只占一小塊區(qū)域,若將原始圖像整個(gè)輸入到分割網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,會(huì)極大的浪費(fèi)計(jì)算機(jī)的顯存資源,且不利于蝶鞍的特征提取。目前醫(yī)學(xué)圖像ROI粗提取方法主要有基于先驗(yàn)知識(shí)[8]、模板匹配和基于目標(biāo)檢測(cè)的邊框回歸等。在Song等人的研究中運(yùn)用模板匹配的方法完成ROI的自動(dòng)提取,將一副測(cè)試圖像與所有訓(xùn)練圖像配準(zhǔn)需要大約20分鐘[9],比較耗時(shí)。而基于目標(biāo)檢測(cè)的邊框回歸需要增加大量的模型參數(shù)[10]。考慮到數(shù)據(jù)集中圖像的尺寸相同,同時(shí),雖然不同人的蝶鞍形態(tài)不同,但蝶鞍在不同頭顱側(cè)位片上的位置變化范圍不大。因此,我們考慮基于先驗(yàn)知識(shí),通過(guò)設(shè)定坐標(biāo)參數(shù)并調(diào)用OpenCV中的函數(shù),完成ROI提取。坐標(biāo)參數(shù)為image[y1:y2,x1:x2],其中,(x1,y1)為ROI的左上角坐標(biāo),(x2,y2)為ROI的右下角坐標(biāo)。就本實(shí)驗(yàn)而言,我們隨機(jī)觀察10張圖像的蝶鞍位置,將坐標(biāo)參數(shù)設(shè)置為[800:1200,600:1000]。然后調(diào)用OpenCV中的相關(guān)函數(shù),基于坐標(biāo)參數(shù)遍歷并剪裁數(shù)據(jù)集中的所有圖像,即可快速準(zhǔn)確的完成ROI的提取。②直方圖均衡化,目的是增強(qiáng)圖像的對(duì)比度。通過(guò)直方圖均衡化處理,可以使蝶鞍的形態(tài)結(jié)構(gòu)在圖像中更加清晰。③中值濾波,目的是去除圖像中孤立的噪聲點(diǎn)。中值濾波既能去除一些孤立的噪聲點(diǎn),又能保持圖像的細(xì)節(jié)。經(jīng)過(guò)預(yù)處理操作后,所有圖像變?yōu)?00*400大小的單通道圖像。圖像的預(yù)處理過(guò)程如圖3所示。

1.2.3 訓(xùn)練U-net實(shí)現(xiàn)蝶鞍的自動(dòng)分割

U-net是一個(gè)基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分割網(wǎng)絡(luò),常用于醫(yī)學(xué)圖像的分割[11]。U-net的網(wǎng)絡(luò)結(jié)構(gòu)主要由卷積層、最大池化層、反卷積層、跳躍連接以及非線性激活函數(shù)Relu組成。本研究將訓(xùn)練數(shù)據(jù)集中的360張預(yù)處理之后的圖像及其對(duì)應(yīng)的掩膜圖像輸入到U-net中進(jìn)行訓(xùn)練,訓(xùn)練好的自動(dòng)分割網(wǎng)絡(luò)模型能夠自動(dòng)分割出測(cè)試圖像中的蝶鞍。在本研究中,U-net網(wǎng)絡(luò)模型的超參數(shù)設(shè)置如表2所示。

Dice系數(shù)是一種集合相似度度量函數(shù),常用于驗(yàn)證圖像分割模型的分割精度。本研究使用Dice系數(shù)來(lái)評(píng)估蝶鞍自動(dòng)分割網(wǎng)絡(luò)模型的分割性能,Dice系數(shù)的定義如下:

[Dice=2A∩BA+B]

其中,A表示ground-truth的集合,B表示利用模型預(yù)測(cè)的分割結(jié)果[12]。待模型訓(xùn)練完成之后,保存分割表現(xiàn)最好的模型作為最佳模型,運(yùn)用最佳模型自動(dòng)分割測(cè)試集中所有圖像的蝶鞍區(qū)域,分割結(jié)果保存為二值圖像。蝶鞍的自動(dòng)分割過(guò)程如圖4所示。

1.2.4 分割結(jié)果的后處理

部分自動(dòng)分割結(jié)果中可能存在一些小的噪聲斑點(diǎn),因此需要做進(jìn)一步處理,去除自動(dòng)分割結(jié)果中的噪聲斑點(diǎn)。后處理操作首先使用OpenCV庫(kù)中的“findCountours”函數(shù),來(lái)檢測(cè)二值分割結(jié)果中所有獨(dú)立對(duì)象的邊界,然后僅保留內(nèi)部具有最大數(shù)量像素的單個(gè)邊界,即可實(shí)現(xiàn)噪聲斑點(diǎn)的去除。完成后處理操作后,所有二值圖像中惟一的白色聯(lián)通區(qū)域即為對(duì)應(yīng)的蝶鞍分割結(jié)果。圖5所示為圖像執(zhí)行后處理操作的一個(gè)示例,其中5a為測(cè)試集中的一張待分割圖像,5b為基于自動(dòng)分割網(wǎng)絡(luò)的分割結(jié)果,圓圈中的白色斑點(diǎn)為自動(dòng)分割結(jié)果中的噪聲點(diǎn),5c為執(zhí)行后處理操作后的分割結(jié)果。可以看出,后處理操作可以有效的去除分割結(jié)果中的噪聲點(diǎn)。

2 實(shí)驗(yàn)結(jié)果

在本研究中,使用訓(xùn)練數(shù)據(jù)集中的360張圖像對(duì)U-net進(jìn)行訓(xùn)練,直到loss收斂、Dice系數(shù)沒(méi)有更多改善時(shí)訓(xùn)練停止。U-net模型訓(xùn)練過(guò)程中的loss變化曲線和Dice系數(shù)變化曲線如圖6所示。從圖6中可以看出,經(jīng)過(guò)1-6個(gè)epoch,loss快速收斂,Dice系數(shù)已經(jīng)接近0.9。隨著epoch的增加,Dice系數(shù)略有改善。

經(jīng)過(guò)50個(gè)epoch的訓(xùn)練,分割網(wǎng)絡(luò)的Dice系數(shù)達(dá)到0.9074,使用表現(xiàn)最好的模型分割測(cè)試數(shù)據(jù)集中的圖像,可以在半秒內(nèi)完成蝶鞍的自動(dòng)分割。圖7展示了測(cè)試數(shù)據(jù)集中多個(gè)圖像的蝶鞍分割結(jié)果。

3 結(jié)束語(yǔ)

蝶鞍對(duì)臨床醫(yī)生預(yù)測(cè)患者顱面發(fā)育、評(píng)估顱面形態(tài)特征、發(fā)現(xiàn)腦垂體異常或病理改變具有重要的提示作用。我們初步提出并評(píng)估了一個(gè)基于深度學(xué)習(xí)實(shí)現(xiàn)蝶鞍的自動(dòng)分割新方法,能夠快速、準(zhǔn)確的在頭顱側(cè)位片上分割出蝶鞍區(qū)域,為蝶鞍形態(tài)的自動(dòng)分析測(cè)量提供了可能。目前關(guān)于蝶鞍自動(dòng)分割的研究較少,Shakya等人于2022年提出了一種使用卷積神經(jīng)網(wǎng)絡(luò)在頭顱側(cè)位片上自動(dòng)分割蝶鞍的新技術(shù),他們的研究比較了VGG19、ResNet34、InceptionV3和ResNext50實(shí)現(xiàn)蝶鞍自動(dòng)分割的分割性能,得到的Dice系數(shù)分別為0.7794,0.7487,0.4714,0.4363[4],與該研究相比,我們達(dá)到的Dice系數(shù)為0.9074,自動(dòng)分割精度有明顯提升。對(duì)比兩項(xiàng)研究,我們的方法主要在圖像的預(yù)處理上做了一些改進(jìn),通過(guò)ROI提取、直方圖均衡化和中值濾波提高圖像質(zhì)量,使分割網(wǎng)絡(luò)能夠更容易完成對(duì)圖像的特征提取。此外,我們的研究增加了后處理操作去除分割結(jié)果中的斑點(diǎn)噪聲,進(jìn)一步提高了自動(dòng)分割結(jié)果的準(zhǔn)確率。

雖然我們的方法有效地實(shí)現(xiàn)了蝶鞍的自動(dòng)分割,但是研究中仍有幾點(diǎn)有待完善。第一,實(shí)驗(yàn)使用的圖像數(shù)量較少。對(duì)于深度學(xué)習(xí)算法,訓(xùn)練樣本量的增加理論上可以提高模型的分割性能。第二,使用的分割模型較為單一。如果能夠?qū)λ惴ㄟM(jìn)行一些改進(jìn),如在模型架構(gòu)中加入注意力機(jī)制或殘差結(jié)構(gòu)等,可能會(huì)獲得更好的分割性能。第三,因?yàn)榈靶螒B(tài)的研究大多是在二維圖像上進(jìn)行的,所以本研究以二維圖像為研究對(duì)象。但隨著CBCT技術(shù)的臨床應(yīng)用,一些研究者開(kāi)始關(guān)注三維圖像上的蝶鞍形態(tài)[13]。因此,后續(xù)工作中我們可以嘗試實(shí)現(xiàn)三維圖像上的蝶鞍分割。我們主要有兩點(diǎn)設(shè)想。①通過(guò)增加樣本量、改進(jìn)算法進(jìn)一步優(yōu)化蝶鞍的自動(dòng)分割性能。②在蝶鞍的自動(dòng)分割結(jié)果上,利用蝶鞍輪廓上的特征點(diǎn)和OpenCV中的相關(guān)技術(shù),進(jìn)一步實(shí)現(xiàn)蝶鞍形態(tài)的自動(dòng)測(cè)量,為蝶鞍的形態(tài)研究提供一套完整的自動(dòng)測(cè)量分析工具。

參考文獻(xiàn)(References):

[1] MUHAMMED F K, ABDULLAH A O, LIU Y. A

morphometric study of the sella turcica: race, age, and gender effect [J]. Folia Morphol (Warsz), 2020,79(2):318-26

[2] KJAER I. Sella turcica morphology and the pituitary gland-

a new contribution to craniofacial diagnostics based on histology and neuroradiology [J]. Eur J Orthod,2015,37(1):28-36

[3] ANDREDAKI M, KOUMANTANOU A, DOROTHEOU D,

et al. A cephalometric morphometric study of the sella turcica[J]. Eur J Orthod,2007,29(5):449-56

[4] SHAKYA K S, LADDI A, JAISWAL M. Automated

methods for sella turcica segmentation on cephalometric radiographic data using deep learning (CNN) techniques [J]. Oral Radiol,2022

[5] AHN Y, YOON J S, LEE S S, et al. Deep Learning

Algorithm for Automated Segmentation and Volume Measurement of the Liver and Spleen Using Portal Venous Phase Computed Tomography Images [J]. Korean J Radiol,2020,21(8):987-97

[6] PARK J H, LEE S J. Ultrasound Deep Learning for Wall

Segmentation and Near-Wall Blood Flow Measurement[J]. IEEE Trans Ultrason Ferroelectr Freq Control,2020,67(10):2022-32

[7] 鄭博文,邊慧慧,劉奕,等.蝶鞍的類型和鞍橋的發(fā)生率[J].

口腔醫(yī)學(xué),2016,36(8):756-60

[8] 方宏文.基于多先驗(yàn)知識(shí)的乳腺病灶顯著性檢測(cè)算法研究[D].

碩士,廣東工業(yè)大學(xué),2021

[9] SONG Y, QIAO X, IWAMOTO Y, et al. Automatic

Cephalometric Landmark Detection on X-ray Images Using a Deep-Learning Method[J]. Applied Sciences,2020,10(7)

[10] WANG G, LI W, OURSELIN S, et al. Automatic Brain

Tumor Segmentation Using Cascaded Anisotropic Convolutional Neural Networks[M].Brainlesion: Glioma, Multiple Sclerosis,Stroke and Traumatic Brain Injuries,2018:178-90

[11] YIN X X, SUN L, FU Y, et al. U-Net-Based Medical

Image Segmentation[J]. J Healthc Eng,2022:4189781

[12] SHAMIR R R, DUCHIN Y, KIM J, et al. Continuous Dice

Coefficient: a Method for Evaluating Probabilistic Segmentations[J]. bioRxiv,2018:306977

[13] AKAY G, EREN I, KARADAG O, et al. Three-

dimensional assessment of the sella turcica: comparison between cleft lip and palate patients and skeletal malocclusion classes[J]. Surg Radiol Anat,2020,42(9):977-83

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類器的圖書館亂架圖書檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 18禁不卡免费网站| 中文字幕 91| 一本大道在线一本久道| 国产呦视频免费视频在线观看| 首页亚洲国产丝袜长腿综合| 婷婷在线网站| 亚洲一区二区日韩欧美gif| 色老头综合网| 国产呦视频免费视频在线观看 | 亚洲乱码在线播放| 玖玖精品在线| 久草网视频在线| 美女一级免费毛片| 亚洲日韩久久综合中文字幕| 亚洲最新地址| 国产白浆视频| 国产99欧美精品久久精品久久| 免费观看国产小粉嫩喷水| 亚洲人成高清| 亚洲精品国产综合99| 国产精品v欧美| 91精品视频播放| 456亚洲人成高清在线| 亚洲国产欧美目韩成人综合| 青草娱乐极品免费视频| 亚洲综合狠狠| 国产一在线| 国产成年女人特黄特色毛片免| 91午夜福利在线观看| 精品成人免费自拍视频| 国产91麻豆免费观看| 欧美日韩一区二区在线播放| 波多野结衣视频网站| 一级毛片在线免费视频| 久久香蕉国产线| 国产jizzjizz视频| 亚洲最新在线| 国产成人精品免费视频大全五级| 国产成人午夜福利免费无码r| 丁香婷婷激情综合激情| 综合网久久| 久久精品丝袜| 国产精品欧美亚洲韩国日本不卡| 日韩福利在线视频| av在线5g无码天天| 国产亚卅精品无码| 精品欧美一区二区三区在线| 日韩精品视频久久| 日本人又色又爽的视频| 日本www在线视频| 亚洲日韩Av中文字幕无码| 中文字幕一区二区人妻电影| 国产一区二区精品福利| 精品久久久久久成人AV| 午夜福利在线观看入口| 国产精品尤物在线| 欧美激情视频二区三区| 亚洲精品无码不卡在线播放| 野花国产精品入口| 国产网站在线看| 亚洲综合极品香蕉久久网| 亚洲人成影院在线观看| 亚洲国产成人精品一二区| 精品黑人一区二区三区| 嫩草影院在线观看精品视频| 欧美h在线观看| 欧美亚洲国产日韩电影在线| 97久久免费视频| 亚洲欧美另类色图| 好吊日免费视频| www.国产福利| 国产毛片基地| 99在线视频免费| 91精品小视频| 91探花在线观看国产最新| 99精品热视频这里只有精品7| 午夜精品一区二区蜜桃| 亚洲欧美另类中文字幕| 99在线观看视频免费| 亚洲性影院| 欧美乱妇高清无乱码免费| 日韩福利视频导航|