




摘要:文章研究了一種基于U-Net++模型的舌圖像分割方法,采用一種加權交叉熵損失函數來提升圖像分割效果。在實驗階段,使用開源的舌圖像數據集對方法進行測試。為了評估模型的綜合性能,采用交并比和Dice系數作為評價指標。結果表明,采用加權交叉熵損失函數的模型在分割精度上有顯著提升,尤其是在交并比和Dice系數2個指標上優于傳統方法。該結果驗證了加權交叉熵損失函數在舌圖像分割任務中的有效性。
關鍵詞:U-Net++模型;舌圖像;圖像分割;損失函數;加權優化
中圖分類號:TP181 文獻標志碼:A
0 引言
在醫學影像處理領域,舌圖像的自動化分割與分析已成為一個重要研究方向[1-2]。舌頭的形態特征能夠反映許多潛在疾?。?-4]。因此,舌圖像的精準分割對臨床診斷具有重要意義。然而,舌圖像通常具有背景復雜、舌頭形狀不規則和表面紋理變化大等特點,使得傳統的圖像分割方法難以取得較好的效果。因此,如何提高舌圖像分割的精度和魯棒性成為當前研究的一個重要課題。
近年來,深度學習技術中的卷積神經網絡(Convolutional Neural Network,CNN)在醫學影像分析中的研究取得了顯著進展[5]。U-Net作為一種典型的卷積神經網絡架構,也已被廣泛應用于醫學圖像的分割任務中[6]。U-Net++是U-Net的一個改進版本,通過引入密集跳躍連接和深度監督機制來進一步提高圖像分割的準確性與穩定性[7-8]。然而,盡管U-Net++在眾多醫學圖像分割任務中取得了良好進展,但該模型在舌圖像分割中的表現仍有待進一步提高,特別是在復雜背景下和細節捕捉方面。
為了進一步提升U-Net++在舌圖像分割中的性能,本文提出了一種基于加權交叉熵損失函數的優化方法。首先對U-Net++的基本結構與原理進行了深入研究,接著探討了基于加權交叉熵損失函數的優化策略,通過在開源舌圖像數據集上進行實驗,驗證該方法的有效性。實驗結果表明,所提出的優化方法相比傳統的交叉熵損失函數在舌圖像分割任務表現出更加優越的性能。本研究不僅為舌圖像的自動分割提供了一種新思路,也為其他醫學圖像分割任務的優化提供了理論參考。
1 基于U-Net++的圖像分割方法
U-Net++是一種可以用于圖像分割的深度學習模型,該模型通過跳躍連接與深度監督機制來提升分割效果。模型的基本結構如圖 1 所示,包含了多層次的卷積操作、上采樣和下采樣過程,通過多級跳躍連接將不同層次的特征圖進行融合,從而提高圖像分割任務的精度和魯棒性。
2 基于加權交叉熵損失函數的優化方法
在該U-Net++模型中,常用損失函數為標準的交叉熵損失函數[9-10],用來衡量模型輸出的分割結果與真實標簽之間的差異。然而,傳統的交叉熵損失函數未能充分考慮類別不平衡問題,導致模型在訓練過程中可能忽視少數類別的樣本從而影響分割效果。為了克服這一局限性,本文提出了基于加權交叉熵(Weighted Cross-Entropy,WCE)損失函數的優化方法。該方法通過為每個類別分配不同的權重來使模型更加關注那些在訓練過程中較難識別的類別,尤其是當某一類別樣本數量較少時,通過賦予其更高的權重來提升分割精度。
這種方法假設類別出現頻率越低,權重應越大,從而增加低頻類別的損失貢獻,以促使模型在訓練時更加關注這些類別。通常,可以對所有類別的權重進行歸一化處理,使得總權重不受數據規模的影響。
通過引入加權交叉熵損失函數,U-Net++能有效地提高模型對少數類別的分割精度,特別是在數據集存在較大類別不平衡的情況下。該方法不僅能提高分割精度,還能減少模型在訓練過程中對大類別的偏好,從而提升模型的整體性能。
3 實驗與分析
3.1 數據集與實驗環境
實驗中,采用舌圖像數據集對本文所提出的方法進行測試,該數據集包含300張576×768像素的舌圖像。為了確保實驗結果的準確性,數據集中的每張圖像均配有人工標注的分割結果,用來作為真實標簽用于模型訓練與評估。該數據集的廣泛使用以及高質量的標注,使其成為圖像分割領域的一個重要參考,特別是在舌圖像分割任務中。
在實驗過程中,本文使用該數據集的舌圖像進行訓練和測試,以進一步評估加權交叉熵損失函數和U-Net++模型的分割性能。本實驗環境以Python為基礎,實驗開發環境如表1所示。
3.2 實驗方法與結果
在上述數據集和開發環境下,基于U-Net++模型進行舌圖像的分割測試,實驗方案如下。
(1)數據集準備與預處理:對原始圖像進行標準化,將像素值縮放到[0, 1]范圍內以提高模型訓練的穩定性。同時,將標簽圖像標準化為[0, 1],其中0表示背景,1表示舌頭區域。為了增強模型的泛化能力,對圖像進行數據增強,包括旋轉(-10°~10°)、水平翻轉、垂直翻轉、平移等操作。數據增強能夠幫助模型更好地應對現實中的變化,如舌圖像的不同角度、大小等。
(2)模型構建:實驗采用U-Net++架構進行舌圖像分割,圖像輸入尺寸為576×768,U-Net++編碼器部分采用4個卷積層逐漸提取特征,解碼器部分則通過反卷積逐步恢復圖像。
(3)模型訓練:訓練輪次為100次,批量大小設定為16批,這一設置在保證計算效率的同時,可以有效避免過擬合。
在測試階段,圖像的分割效果如圖2所示,其中,圖2(a)和圖2(c)為2個原始圖像,圖2(b)和圖2(d)分別為對應的圖像分割效果??梢钥闯觯疚姆椒梢院芎玫胤指畛錾囝^的區域(圖2(b)和圖2(d)中的白色區域)。
為了對比加權交叉熵損失函數(本文方法)和傳統的交叉熵損失函數(傳統方法)的效果,本文將測試集隨機分為4組,采用交并比(Intersection Over Union,IoU)和Dice系數對U-Net++模型的分割效果進行評估[11],實驗結果對比如表2所示。
從表1可知,使用加權交叉熵損失函數的U-Net++模型,在4組實驗中的IoU值,普遍高于使用傳統交叉熵損失函數的模型。例如,在組1中,IoU值從0.799提升到0.842,表明加權交叉熵損失函數顯著提高了模型分割的重疊區域比例。在其他組別中,加權交叉熵損失函數同樣表現出較為穩定的優勢,尤其在組3中,IoU值達到0.853,相較于傳統方法的0.791,有了顯著提升。其次,Dice系數的結果與IoU指標類似,進一步驗證了加權交叉熵損失函數的有效性。在組1中,Dice系數從0.886提升至0.912,組2從0.873提升至0.908,組3從0.880提升至0.920,組4從0.869提升至0.910??梢钥吹?,采用加權交叉熵損失函數的模型在Dice系數上,表現出更高的相似度和更好的分割效果。
總體來看,加權交叉熵損失函數相較于傳統交叉熵損失函數,在舌圖像分割任務中表現出更加優越的性能。這進一步表明,本方法在解決舌圖像分割中的挑戰方面具有實際應用價值。
4 結語
本文結合加權交叉熵損失函數,研究了基于U-Net++的舌圖像分割方法,有效解決了傳統分割方法在舌圖像處理中遇到的類別不平衡問題。通過改進損失函數,本模型不僅提升了對舌頭區域的識別精度,還增強了分割結果的細節保留能力。實驗結果表明,在不同的隨機分組中,采用加權交叉熵損失函數的模型,在IoU和Dice系數2項評價指標上,均優于傳統交叉熵損失函數,充分驗證了該方法在舌圖像分割任務中的有效性。本文的理論和實驗均體現了加權交叉熵損失函數在實際應用中的優勢,尤其適用于處理具有顯著類別不平衡的圖像分割任務。未來的研究,可進一步探索改進模型架構或結合其他優化方法,以進一步提升舌圖像分割的精度和效率。
參考文獻
[1]文武,楊清鈞,李杰.面向舌圖像分割的高分辨率網絡設計[J].微電子學與計算機,2023(7):65-72.
[2]彭開來.基于深度學習的齒痕舌圖像分割方法[D].杭州:杭州電子科技大學,2022.
[3]蔣依吾,陳建仲,張恒鴻,等.電腦化中醫舌診系統[J].中國中西醫結合雜志,2000(2):66-68,80.
[4]朱梟龍.基于中醫舌象的胃癌深度學習預測方法研究[D].太原:中北大學,2023.
[5]吳玉超,林嵐,王婧璇,等.基于卷積神經網絡的語義分割在醫學圖像中的應用[J].生物醫學工程學雜志,2020(3):533-540.
[6]張歡,仇大偉,馮毅博,等.U-Net模型改進及其在醫學圖像分割上的研究綜述[J].激光與光電子學進展,2022(2):1-17.
[7]MORTAZAVI-ZADEH S A,AMINI A,SOLTANIAN-ZADEH H. Brain tumor segmentation using U-net and U-net++ networks[C]//2022 30th International Conference on Electrical Engineering(ICEE), May 17-19,2022,Sangmyung University. New York: IEEE,2022:841-845.
[8]黃鴻,呂容飛,陶俊利,等.基于改進U-Net++的CT影像肺結節分割算法[J].光子學報,2021(2):73-83.
[9]任進軍,王寧.人工神經網絡中損失函數的研究[J].甘肅高師學報,2018(2):61-63.
[10]楊蓮,石寶峰.基于Focal Loss修正交叉熵損失函數的信用風險評價模型及實證[J].中國管理科學,2022(5):65-75.
[11]于營,王春平,付強,等.語義分割評價指標和評價方法綜述[J].計算機工程與應用,2023(6):57-69.
(編輯 沈 強編輯)
Research on tongue image segmentation and optimization method based on U-Net++
LIAO "Zhehao LIU "Yining
(1.Guilin University of Electronic Technology, Guilin 541004,China;
2.Wenzhou University of Technology, Wenzhou 325027, China)
Abstract: "The article investigates a tongue image segmentation method based on the U-Net++ model and utilizes a weighted cross-entropy loss function to improve segmentation performance. During the experimental phase, the method is tested using an open-source tongue image dataset. To evaluate the overall performance of the model, the Intersection Over Union (IoU) and Dice coefficient are used as evaluation metrics. The results indicate that the model using the weighted cross-entropy loss function shows significant improvement in segmentation accuracy, especially outperforming traditional methods in both IoU and Dice coefficient. This result confirms the effectiveness of the weighted cross-entropy loss function in the tongue image segmentation task.
Key words: U-Net++ model; tongue images; image segmentation; loss function; weighted optimization