999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

兩階段分析的異常簇團宮頸細胞檢測方法

2022-05-25 08:16:22梁義欽趙司琦王海濤何勇軍
哈爾濱理工大學學報 2022年2期

梁義欽 趙司琦 王海濤 何勇軍

摘要:異常細胞檢測是宮頸癌智能輔助診斷的關(guān)鍵技術(shù),直接影響著檢測系統(tǒng)的性能。但宮頸異常細胞大多以簇團的形式存在,細胞相互粘連、復雜多樣,給異常細胞檢測帶來了挑戰(zhàn)。為解決這一問題,本文提出了一種兩階段簇團宮頸異常細胞檢測方法。該方法在第一階段采用YOLO-v5目標檢測網(wǎng)絡(luò),利用可變形卷積替換網(wǎng)絡(luò)中的標準卷積,使卷積核的大小和位置可以根據(jù)當前病理圖像內(nèi)容進行動態(tài)調(diào)整,以適應(yīng)不同簇團宮頸細胞的形狀、大小等幾何形變。在第二階段利用監(jiān)督對比學習網(wǎng)絡(luò)學習正、異常簇團宮頸細胞之間的特征差異,實現(xiàn)高準確率的正、異常簇團宮頸細胞分類。實驗表明,簇團宮頸細胞召回率達到89.69%,相比基線網(wǎng)絡(luò)YOLO-v5提升了1.43%,正、異常簇團宮頸細胞分類準確率達到87.81%,相比基線網(wǎng)絡(luò)ResNet提升了10.31%。

關(guān)鍵詞:簇團宮頸細胞分類;目標檢測;對比學習

DOI:10.15938/j.jhust.2022.02.010

中圖分類號: TP315.69

文獻標志碼: A

文章編號: 1007-2683(2022)02-0076-09

Two-stage Detection Method for Abnormal Cluster Cervical Cells

LIANG Yi-qin ZHAO Si-qi WANG Hai-tao HE Yong-jun

(1.School of Computer and Technology, Harbin University of Science and Technology, Harbin 150080, China;

2.The First Affiliated Hospital of Harbin Medical University, Harbin, 150001, China)

Abstract:Abnormal cell detection is a key technique for intelligent assisted diagnosis of cervical cancer, which directly affects the performance of the detection system. However, most cervical abnormal cells exist in the form of clusters. Cells adhere to each other, complex and diverse, which brings challenges to abnormal cell detection. To solve this problem, we proposed a two-stage detection method for cluster cervical abnormal cells. In the first stage, we use YOLO-v5 target detection network. The standard convolution in the network is replaced by deformable convolution. The size and location of convolution kernel can be dynamically adjusted according to the current pathological image content, so as to adapt to the shape, size and other geometric changes of cervical cells in different clusters. In the second stage, the supervised contrastive learning network is used to learn the feature differences between positive and abnormal clusters of cervical cells, so as to achieve high accuracy classification of positive and abnormal clusters of cervical cells. The experimental results show that the recall rate of cluster cervical cells reaches 89.69 %, which is 1.43 % higher than that of baseline network YOLO-v5. The classification accuracy of positive and abnormal cluster cervical cells reaches 87.81 %, which is 10.31 % higher than that of baseline network ResNet.

Keywords:cluster cervical cell classification; target detection; contrastive learning

0引言

宮頸癌是最常見的婦科惡性腫瘤之一。近年來其發(fā)病趨于年輕化,已成為威脅女性健康的嚴重問題。根據(jù)GLOBOCAN 2018年全球癌癥觀測數(shù)據(jù)庫顯示[1],在2018 年全球大約有570000例宮頸癌病例與311000例死亡病例,死亡率達到 54.56%,早診斷早治療是應(yīng)對這一問題的有效手段。目前宮頸癌診斷依賴于人工閱片,工作量大、效率低、診斷準確率高度依賴專業(yè)人員的技術(shù)水平,導致宮頸癌發(fā)病率、死亡率居高不下。因此,采用人工智能技術(shù)輔助醫(yī)生做病灶位置初篩、宮頸癌前輔助診斷具有重要意義。

在實際宮頸癌前篩查中,異常的宮頸細胞大多擁擠成團,簇團宮頸細胞中包含了豐富的診斷信息。而現(xiàn)有研究大多針對單個宮頸細胞的定位與識別,缺乏針對簇團宮頸細胞的相關(guān)研究,充分利用簇團宮頸細胞中包含的豐富的診斷信息是提升智能診斷準確率的關(guān)鍵。針對宮頸細胞病理圖像的分析,目前常用的方法[2-4]是結(jié)合醫(yī)生的經(jīng)驗設(shè)計大量的手工特征來描述細胞的形狀、紋理和外觀,然后將生成的特征通過特征選擇做進一步處理,最后輸入到各種分類器(例如隨機森林、SVM、softmax回歸、神經(jīng)網(wǎng)絡(luò)等)中執(zhí)行分類。由于細胞病理圖像內(nèi)容復雜、細胞之間形狀和外觀的差異大、細胞質(zhì)邊界的對比度差以及細胞之間的重疊,簇團宮頸細胞中的細胞或細胞核的分割仍然是一個未解決的問題。為避免手工特征難提取、細胞和細胞核難分割問題,目標檢測方法可較好實現(xiàn)簇團宮頸細胞的定位與分類。R-CNN[5]是第一個將深度學習廣泛用于目標檢測的方法。R-CNN 遵循傳統(tǒng)的目標檢測思路。首先生成區(qū)域提議框,再對每個區(qū)域提議框提取特征向量,然后使用線性SVM分類,最后對每個區(qū)域提議框使用邊界框回歸進行目標檢測。為了提高R-CNN的效率,F(xiàn)ast R-CNN[6]使用RoI池化,統(tǒng)一了圖像分類和邊界框回歸。并且使用softmax 代替了SVM,以及提出了多任務(wù)損失函數(shù)。但是Fast R-CNN中的提取框與R-CNN中的提取框相同,都采用了不能在GPU上運行的選擇性搜索算法。相反地Faster R-CNN[7]提供了一個區(qū)域提議網(wǎng)絡(luò)(region proposal network,RPN)來查找目標區(qū)域,并且可以在 GPU 上運行整個目標檢測網(wǎng)絡(luò)以提高效率。Faster R-CNN已成功應(yīng)用于細胞檢測任務(wù)。Liu Y等[8]使用自建的循環(huán)腫瘤細胞(circulating tumor cell,CTC)數(shù)據(jù)集訓練了Faster R-CNN模型來檢測腫瘤細胞,為了提高檢測效率,文中減小了檢測圖像的面積,并增加了錨框的數(shù)量。Qiu W等[9]使用Faster R-CNN檢測紅細胞。此方法首先使用Faster R-CNN查找細胞位置,然后使用ResNet進行分類。Kaushik S等[10]采用Faster R-CNN和Yolo檢測乳腺癌細胞,并驗證了目標檢測的有效性。Liang Y等[11]引入了Faster R-CNN來檢測宮頸癌,并使用對比檢測訓練策略來提高準確性。由于分類多,訓練數(shù)據(jù)少,其準確率低至 26.3%,召回率達 35.7%,無法滿足實際應(yīng)用的需要。

相比兩階段目標檢測算法, 單階段目標檢測算法的結(jié)構(gòu)簡單、計算高效, 同時具備不錯的檢測精度, 在實時目標檢測領(lǐng)域中具有較高的研究和應(yīng)用價值。例如YOLO-v1[12]直接在輸出層回歸邊界框的位置和邊界框所屬類別,使其檢測速度能滿足實時應(yīng)用。針對YOLO-v1漏檢率高的問題,單次多邊框檢測網(wǎng)絡(luò)[13](single shot multiBox detector,SSD)在多尺度的特征圖上進行目標檢測,提出了與兩階段網(wǎng)絡(luò)相似的有錨框方法,不但確保了較高的檢測速率,而且降低了漏檢率。YOLO-v2[14]結(jié)合SSD的特點,骨干網(wǎng)絡(luò)采用Darknet19進行特征提取,并且去掉了全連接層,同樣引入了錨框方法,實現(xiàn)以不同尺寸的圖像訓練網(wǎng)絡(luò),解決了YOLO-v1準確率低的問題。YOLO-v3[15]通過融合多標簽分類預(yù)測、跨尺度預(yù)測、Darknet53等多種先進方法改進了YOLO系列。YOLO-v4[16]和YOLO-v5融合了更多的技巧,實現(xiàn)了速率和精度比較均衡的目標檢測網(wǎng)絡(luò)。鄭欣等[17]提出利用ResNet50模型作為YOLO-v2網(wǎng)絡(luò)的基礎(chǔ)特征提取模塊,實現(xiàn)簇團宮頸細胞的識別與分類,識別準確率為75.9%。周佳琳[18]在原有SSD網(wǎng)絡(luò)模型的基礎(chǔ)上,結(jié)合正反向特征融合對低層級高分辨率的特征圖進行改進,加入中心損失改善類內(nèi)差別大于類間差別的現(xiàn)象,在其自建數(shù)據(jù)集上mAP達到81.53%。

由于單階段目標檢測網(wǎng)絡(luò)沒有專門生成候選框的子網(wǎng)絡(luò),無法將候選框的數(shù)量減小到一個比較小的數(shù)量級,導致了絕大多數(shù)候選框都是背景類,即負樣本。大量的負樣本會覆蓋少量的正樣本的損失,從而導致模型退化,分類準確率低。因此,本文提出一種兩階段分析的異常簇團宮頸細胞檢測方法,首先利用改進的YOLO-v5網(wǎng)絡(luò)檢出盡可能多的簇團宮頸細胞,然后利用有監(jiān)督對比學習網(wǎng)絡(luò)[19](supervised contrastive learning,SupContrast)實現(xiàn)更精確的正、異常簇團宮頸細胞分類。因為在檢測出來的目標上進一步分類,大大減少了簇團宮頸細胞的分析數(shù)目,所以本方法相比現(xiàn)有的目標檢測方法,在相對較少的數(shù)據(jù)量上既加快了檢測速度,又提升了檢測精度。

1異常簇團宮頸細胞檢測方法

1.1異常簇團宮頸細胞檢測方法主體流程

子宮頸細胞病理學診斷系統(tǒng)(the bethesda system,TBS)定義了單個宮頸細胞的診斷標準,然而實際獲得的細胞病理圖像中宮頸細胞大多粘連成團,簇團宮頸細胞包含了大量的診斷信息。但是宮頸細胞圖像內(nèi)容豐富,情況復雜,通過傳統(tǒng)機器學習方法難以精確提取正、異常簇團宮頸細胞之間的特征差異,現(xiàn)有的深度學習方法也難以精確分割出單個宮頸細胞進行分析診斷。利用目標檢測網(wǎng)絡(luò)進行簇團宮頸細胞的定位與分類時,難以平衡其召回率和準確性。

因此,我們提出了一種兩階段分析的異常簇團宮頸細胞檢測方法,整體流程如圖1所示。第一階段利用改進的YOLO-v5算法快速發(fā)現(xiàn)并定位單張全景病理切片掃描圖像(whole slide images,WSI)中的粘連簇團宮頸細胞;第二階段利用分類器對第一階段檢測出的簇團宮頸細胞進行正、異常簇團宮頸細胞分類,該分類器是利用對比學習方法訓練所得。

1.2第一階段網(wǎng)絡(luò)結(jié)構(gòu)

深度學習網(wǎng)絡(luò)中利用卷積核提取圖像特征,圖像特征的提取能力直接影響了模型的性能。標準的卷積核通常是固定尺寸、固定大小(如3x3,5x5,7x7),利用標準卷積核提取特征后感受野尺寸都相同,對于未知的變化適應(yīng)性差,泛化能力不強。然而,在細胞病理圖像中,粘連簇團的宮頸細胞種類繁多,形態(tài)各異(簇團宮頸細胞典型類別示例如圖2所示)。

不同的位置可能對應(yīng)有不同尺度或者不同形變的簇團宮頸細胞。特征提取層需要自動調(diào)整尺度或者感受野,從而讓卷積核適應(yīng)不同簇團宮頸細胞的形狀、大小等幾何形變。可變形卷積[20]對卷積核中每個采樣點的位置都增加了一個偏移的變量,通過這些變量,卷積核就可以在當前位置附近隨意的采樣,而不再局限于之前的規(guī)則格點。

因此,本文在YOLO-v5算法的基礎(chǔ)上提出了基于可變形卷積的目標檢測(deformable convolution network YOLO,DCN-YOLO)方法。該方法在下采樣過程中將傳統(tǒng)卷積替換為可變形卷積,使卷積核的大小和位置可以根據(jù)當前病理圖像內(nèi)容進行動態(tài)調(diào)整,從而可以更好的提取簇團宮頸細胞特征,提高了目標檢測網(wǎng)絡(luò)的泛化能力。

DCN-YOLO主要由骨干網(wǎng)絡(luò)(backbone)、特征融合網(wǎng)絡(luò)(neck)和檢測網(wǎng)絡(luò)(detect)組成。其網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。首先,將動態(tài)裁剪后的WSI圖像大小調(diào)整為相同尺度輸入網(wǎng)絡(luò),經(jīng)過Focus結(jié)構(gòu)對輸入圖像的寬高信息整合到圖像通道空間中,即將圖像切分為4份,然后在通道維度進行拼接,最后經(jīng)過由二維卷積、批歸一化和激活函數(shù)組成的標準卷積層(Conv)得到無信息丟失的下采樣特征圖。然后,通過可變形卷積層(deformable convolution layer,DCL)與跨階段局部融合網(wǎng)絡(luò)[21](cross stage partial network,CSPNet)構(gòu)成的殘差塊連接組成骨干網(wǎng)絡(luò)。DCL由可變形卷積、批量歸一化和激活函數(shù)依次連接構(gòu)成。CSP由局部卷積塊和局部過渡塊構(gòu)成。局部卷積塊通過對梯度流進行分裂,使梯度流通過不同的網(wǎng)絡(luò)路徑傳播,具體體現(xiàn)為將淺層特征映射為兩部分。一部分經(jīng)過卷積塊,一部分直接連接到卷積塊末端。局部過渡塊是一種層次化的特征融合機制,利用梯度流的聚合策略來防止不同層學習重復的梯度信息,具體體現(xiàn)為將兩部分的特征圖拼接后進行梯度更新。CSP結(jié)構(gòu)能夠在減少計算量的同時實現(xiàn)更豐富的梯度組合。

接著,特征融合網(wǎng)絡(luò)利用空間金字塔池化[22](spatial pyramid pooling,SPP)增加感受野,可使任意大小的特征圖轉(zhuǎn)換成固定大小的特征向量,消除了卷積神經(jīng)網(wǎng)絡(luò)對于固定大小輸入的要求。具體體現(xiàn)為可變形卷積層后經(jīng)過不同窗口大小和移動步長的最大池化層,提取不同尺度的圖像特征,然后將最大池化層的輸出結(jié)果拼接起來,獲得固定大小的特征向量,進而利用路徑聚合網(wǎng)絡(luò)[23](path aggregation network,PANet)收集不同階段的特征圖并進行特征融合。網(wǎng)絡(luò)的低層特征中含有更多的位置信息,高層特征中含有更多的語義信息。特征金字塔網(wǎng)絡(luò)[24](feature pyramid networks,F(xiàn)PN)在網(wǎng)絡(luò)在下采樣結(jié)束后,再返回來進行上采樣,并通過橫向連接獲取同級下采樣的信息,其目的就是將高層的語義信息回向傳遞,利用高層語義信息來提高低層的效果。PANet在FPN的基礎(chǔ)上又增加了一個低層到高層的通道,將低層信息直接向上進行傳遞,縮短了信息傳播路徑,提高了底層信息的利用率,同時每個提議框利用了金字塔所有層的特征,避免了提議框的隨意分配,有利于分類與定位。最后使用CIoU損失函數(shù)進行精細化分類和回歸,測試時使用DIoU去掉重復的預(yù)測框。DIoU和CIoU損失函數(shù)如下:

式中:A、B分別為預(yù)測框和真實框面積;IoU用于評價預(yù)測框和真實框的距離;b,b分別為預(yù)測框和真實框的中心點;ρ為計算兩個中心點間的歐氏距離;c為能夠同時包含預(yù)測框和真實框的最小閉包區(qū)域的對角線距離;υ為度量預(yù)測框和真實框長寬比的相似性;α為權(quán)重函數(shù);L的優(yōu)化目標為減小預(yù)測框和真實框之間中心點距離。L在L的基礎(chǔ)上引入了預(yù)測框和真實框之間長寬比的相似性。

1.3SupContrast網(wǎng)絡(luò)結(jié)構(gòu)

由宮頸細胞病理TBS診斷標準可知,正、異常宮頸細胞存在一定的特征差異,病理專家通過對比正常的宮頸細胞形態(tài),發(fā)現(xiàn)異常的宮頸細胞。我們借鑒病理醫(yī)生對比分析和診斷的思想,利用深度學習技術(shù)讓網(wǎng)絡(luò)模型最大程度的區(qū)分正、異常簇團宮頸細胞之間的特征差異,實現(xiàn)高準確率的正、異常簇團宮頸細胞的分類。正、異常宮頸細胞示例如圖4所示。

在ImageNet數(shù)據(jù)集上,利用對比學習思想的自監(jiān)督模型SimCLR[25]訓練的分類器與有監(jiān)督ResNet50性能相匹配,達到了76.5%的top-1準確率。但是,自監(jiān)督學習和有監(jiān)督學習在綜合性能方面依然存在差距,同時SimCLR沒有考慮到屬于同一個類別的不同圖像之間特征的相關(guān)性。為解決上述問題,我們利用SupContrast實現(xiàn)正、異常簇團宮頸細胞分類。SupContrast將圖像的類別信息加入模型中,在有監(jiān)督對比學習中讓同類圖像的特征距離更近,不同類圖像的特征距離更遠,提高了正、異常簇團細胞的分類準確率。

SupContrast網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。SupContrast組成結(jié)構(gòu)分為數(shù)據(jù)增強模塊、編碼器網(wǎng)絡(luò)、映射網(wǎng)絡(luò)三部分。首先,從數(shù)據(jù)中隨機選擇個樣本,然后進行數(shù)據(jù)增強獲得個數(shù)據(jù)樣本。數(shù)據(jù)增強是將輸入圖像生成兩張隨機增強的子圖像,這兩張子圖像代表原始數(shù)據(jù)的不同視圖。數(shù)據(jù)增強分為兩個階段:第一階段是對數(shù)據(jù)進行隨機裁剪,然后將其調(diào)整為原分辨率大小;第二階段使用了3種不同的增強方法,具體包括自動增強、隨機增強和Sim增強,依次進行隨機顏色失真和高斯模糊。然后,編碼器對數(shù)據(jù)增強后的每對子圖像進行特征提取,再使用池化層得到一個2048維的表征向量h。編碼器網(wǎng)絡(luò)主要由一些骨干網(wǎng)絡(luò)組成,用于圖像的特征提取和表示,并將增強后的圖像映射到表征空間。接著,映射網(wǎng)絡(luò)將表征向量h經(jīng)過兩層非線性多層感知器(multi-layer perceptron,MLP)映射成128維表征向量z,使得編碼器網(wǎng)絡(luò)可以學習到更好的表征特征。然后,利用有監(jiān)督對比損失進行相似度計算,讓同類圖像的表征向量彼此接近,讓不同類圖像的表征向量彼此遠離,從而實現(xiàn)類別的劃分。最后,利用交叉熵損失函數(shù)訓練一個線性分類器。

SupContrast損失函數(shù)是對自監(jiān)督對比損失函數(shù)的推廣,SupContrast損失函數(shù)拓展了正樣本的數(shù)量,將所有標簽信息相同的子圖像都視為正樣本。其損失函數(shù)的表達式為

式中:·為內(nèi)積操作;z為i樣本對應(yīng)的表征向量,z是A(i)樣本集合中某個樣本對應(yīng)的表征向量,z是P(i)樣本集合中某個樣本對應(yīng)的表征向量,表征向量由編碼映射后得到;A(i)為下標為i之外的其他所有樣本組成的集合;τ為溫度參數(shù);P(i)為正樣本集合,包含下標為i的樣本和與i樣本相同類別的所有樣本;|P(i)|為正樣本集合的大小。相比自監(jiān)督對比損失函數(shù),SupContrast損失函數(shù)具有以下特性:①使用了大量的正樣本,包含數(shù)據(jù)增強得到的正樣本和類別標簽一致的正樣本;②保留了對于負樣本的求和,噪聲樣本越多,對比效果越明顯;③自監(jiān)督對比損失函數(shù)的梯度激勵從難以區(qū)分的正、負樣本之間學習特征差異。

2實驗與分析

2.1簇團宮頸細胞數(shù)據(jù)集構(gòu)建方法

本文采用的典型宮頸細胞病理篩查病例來源有:①阿里天池大賽之宮頸癌風險智能檢測比賽數(shù)據(jù);②第三方檢驗中心;③哈爾濱醫(yī)科大學附屬第二醫(yī)院。阿里天池大賽數(shù)據(jù)是經(jīng)過專業(yè)醫(yī)師標注的宮頸細胞病理圖像,其中陽性病例500例,陰性病例300例,第三方檢驗中心和哈爾濱醫(yī)科大學附屬第二醫(yī)院提供由LCT(liquid-based cytology test,液基薄層細胞學檢查)制片技術(shù)制作宮頸細胞病理涂片,我們利用WISLEAP-10掃描儀獲得宮頸細胞病理圖像,并從中篩選出200例標本質(zhì)量合格、掃描圖像清晰的宮頸細胞病理圖像,其中陽性病例100例,陰性病例100例。最后邀請專業(yè)病理醫(yī)生對病理圖像進行正、異常宮頸細胞的標注。經(jīng)過統(tǒng)計可知,我們一共獲得的標注數(shù)據(jù)有600例陽性病例圖像,100例陰性病例圖像。

病理篩選規(guī)則及數(shù)據(jù)標注說明如下:①正常簇團宮頸細胞標注圖像來源于陰性病例,疑似病變的簇團宮頸細胞標注圖像來源于陽性病例;②篩選病理圖像時,主要排除了樣本質(zhì)量不合格、掃描圖像不清晰、細胞顏色層次不鮮明、細胞重疊率高、出血區(qū)域大、干封和干燥宮頸細胞病理圖像;③由于本文主要探索粘連簇團宮頸細胞的相關(guān)內(nèi)容,因此著重挑選宮頸細胞相對密集,簇團細胞數(shù)量相對較多的病理圖像;④標注類別為:正常和異常。

2.2數(shù)據(jù)準備

2.2.1第一階段實驗數(shù)據(jù)

在深度學習中,網(wǎng)絡(luò)模型對樣本數(shù)據(jù)量要求較高,訓練數(shù)據(jù)集的規(guī)模在一定程度上決定了模型的性能。但是在實際中,病理醫(yī)生標注的高質(zhì)量的粘連團簇宮頸細胞數(shù)據(jù)十分有限。利用數(shù)據(jù)增強方法擴大數(shù)據(jù)量是提高模型效果和泛化能力的重要手段。

目標檢測樣本數(shù)據(jù)需要固定尺寸,而大小不一的簇團宮頸細胞在固定圖像尺寸內(nèi)會導致目標尺度變化較大,目標相對于圖像面積的比值波動范圍較大,不利于模型學習簇團宮頸細胞特征。因此,本文利用動態(tài)裁剪方法進行WSI圖像裁剪。根據(jù)目標大小以不同的概率選擇裁剪大?。簩τ谛∧繕耍蟾怕适褂幂^小的裁剪;對于大目標,大概率使用較大的裁剪;對于同一個簇團宮頸細胞可進行多次裁剪,使得同一個簇團宮頸細胞可以處于不同的背景中。動態(tài)裁剪方法不僅擴大了樣本數(shù)據(jù)集數(shù)量,還緩解了目標尺度變化劇烈的問題,極大的輔助了模型的訓練。

本文將隨機將數(shù)據(jù)增強后的所有數(shù)據(jù)劃分為訓練數(shù)據(jù)集、測試數(shù)據(jù)。各個數(shù)據(jù)集的數(shù)據(jù)量比例為8:2。目標檢測數(shù)據(jù)集具體分布情況如表1所示。

2.2.2第二階段實驗數(shù)據(jù)

分類實驗數(shù)據(jù)來源于2.1節(jié)構(gòu)建的宮頸細胞病理圖像數(shù)據(jù)集。由于該數(shù)據(jù)集是按照TBS診斷標準進行標注,因此我們首先需要裁剪出所有標注為ASC-US、ASC-H、LSIL、HSIL的圖像,作為異常簇團宮頸細胞數(shù)據(jù),裁剪出所有標注為NILM的圖像,作為正常簇團宮頸細胞數(shù)據(jù)。然后利用標注矩形框的面積閾值粗篩出簇團宮頸細胞圖像,最后再仔細從中篩選出非簇團宮頸細胞。數(shù)據(jù)清洗完之后將所有數(shù)據(jù)按照類別隨機劃分為訓練數(shù)據(jù)集和測試數(shù)據(jù)集,其比例為8∶2。分類模型的樣本數(shù)據(jù)統(tǒng)計結(jié)果如表2所示。

2.3模型訓練

2.3.1第一階段基礎(chǔ)模型選擇

YOLO-v5按照網(wǎng)絡(luò)模型的深度和寬度分為YOLO-v5s、YOLO-v5m、YOLO-v5l、YOLO-v5x。為了從中選擇最優(yōu)的網(wǎng)絡(luò)模型進行改進,我們驗證了4個網(wǎng)絡(luò)模型在本數(shù)據(jù)集上的性能,并從評價指標mAP@0.5、模型訓練時間、模型大小和檢測速度4方面進行分析和驗證,如圖6、7所示。

從圖6分析可得,經(jīng)過150輪的訓練,YOLO-v5s、YOLO-v5m、YOLO-v5l、YOLO-v5x模型都收斂成功,并且4個網(wǎng)絡(luò)模型的mAP@0.5趨于一致,表明更深和更寬的模型在本數(shù)據(jù)集上并沒有體現(xiàn)出顯著的優(yōu)勢。

從圖7分析可得,YOLO-v5s的訓練時間、模型大小和檢測速度都優(yōu)于其余3個網(wǎng)絡(luò)模型。因此,本文選擇在YOLO-v5s的網(wǎng)絡(luò)模型基礎(chǔ)上進行改進和實驗。

2.3.2第一階段模型訓練

第一階段的目標檢測模型采用的深度學習框架為Pytorch,模型訓練參數(shù)設(shè)置如下:epochs為100輪,batch-size為16,圖像縮放尺寸為1024×1024。各個模型訓練過程中mAP@0.5指標的變化情況如圖8所示。

從圖8可以看出,各個模型在50輪以后都逐漸收斂?;赮OLO-v5s改進的DCN-YOLO模型相比其余模型的mAP@0.5存在顯著提升。

2.3.3第二階段模型訓練

模型訓練參數(shù)設(shè)置如下:epochs為100輪,batch-size為20,學習率為0.05,圖像縮放尺寸為200×200,momentum為0.9,SupContrast中的溫度參數(shù)為0.7,SupContrast中的編碼器采用了不同深度的編碼器,分別為ResNet-18、ResNet-34和ResNet-50。基線分類網(wǎng)絡(luò)ResNet使用了官方預(yù)訓練模型。第二階段各個分類模型訓練過程中分類準確率如圖9所示。經(jīng)過有監(jiān)督對比學習預(yù)訓練后的SupContrast在線性分類器最初訓練則開始收斂,并且,不同編碼器得到的SupContrast模型在訓練階段的分類準確率都高于基線ResNet分類模型。由此表明,對比學習不同類別間特征的差異性可提高分類的準確率。

2.4實驗結(jié)果分析

2.4.1第一階段網(wǎng)絡(luò)實驗結(jié)果分析

為驗證第一階段中不同目標檢測模型的性能,我們利用測試數(shù)據(jù)集對已訓練的YOLO-v5s、SSD-300、 Faster RCNN、Deformable DETR[26]、DCN-YOLO模型進行測試,各個目標檢測網(wǎng)絡(luò)的測試結(jié)果如表3所示。

目標檢測中使用平均精度均值(mean average precision,mAP)來評估檢測準確度,mAP@0.5為交并比閾值為0.5時的平均精度均值,其值越大證明目標檢測模型檢測準確度越高。召回率為預(yù)測正確的正實例占所有實例的比例。DCN-YOLO的mAP@0.5和召回率相比SSD-512、Faster R-CNN、Deformable DETR、YOLO-v5s均存在顯著提升。表3不同目標檢測模型的性能對比分析表明DCN-YOLO利用可變形卷積可以提取到不規(guī)則信息,增強了簇團宮頸細胞的特征表示,提高了第一階段模型的檢測準確率。同時,較高的簇團宮頸細胞的檢出率可降低宮頸癌前篩查病理片的漏診率,這對自動閱片系統(tǒng)具有重要意義。

2.4.2第二階段網(wǎng)絡(luò)實驗結(jié)果分析

為驗證第二階段的分類網(wǎng)絡(luò)相比基線分類網(wǎng)絡(luò)ResNet的性能差異,我們利用分類測試數(shù)據(jù)集對已訓練好的SupContrast-ResNet18、SupContrast- ResNet34、SupContrast-ResNet50、ResNet-18、ResNet-34、ResNet-50模型進行測試。不同分類模型的F1值和精確率如圖10所示。

精確率為預(yù)測正確的正實例占所有正實例的比例。F1值為分類模型的精確率和召回率的調(diào)和平均值,F(xiàn)1值越高表明分類模型的精確率和召回率差異較小。由圖10分析可得,相同深度的SupContrast模型相比ResNet模型的F1值和精確度存在顯著提升。由此表明SupContrast通過對比正異常簇團宮頸細胞之間的特征差異可有效提高其分類準確率。

2.4.3多類別與單類別目標檢測模型實驗結(jié)果分析

為驗證多類別與單類別的目標檢測模型的性能差異,我們將目標檢測數(shù)據(jù)集中標注為ASC-US、ASC-H、LSIL、HSIL的圖像作為異常簇團宮頸細胞,將標注為NILM的圖像作為正常簇團宮頸細胞數(shù)據(jù)。然后,利用此數(shù)據(jù)集訓練一個2類別的YOLO-v5s和DCN-YOLO模型,利用測試數(shù)據(jù)分別測試2類別(即正、異常簇團宮頸細胞類別)YOLO-v5s、DCN-YOLO模型和1類別(即簇團宮頸細胞類別)YOLO-v5s、DCN-YOLO模型,獲得各個模型的精確度和召回率曲線,如圖11所示。

精確率和召回率越高,模型性能越好,從圖11分析可得,精確率和召回率曲線越靠近右上部分,模型分類能力越好。在我們構(gòu)建的簇團宮頸細胞目標檢測數(shù)據(jù)集中,1類別的目標檢測模型性能顯著優(yōu)于2類別。

2.4.4兩階段與一階段方法實驗結(jié)果分析

為驗證兩階段分析的異常簇團宮頸細胞檢測方法相比一階段目標檢測模型進行定位和分類方法的性能差異。我們利用第一階段測試數(shù)據(jù)集對已訓練好的2分類和1分類DCN-YOLO模型進行簇團宮頸細胞檢測。為了平衡2分類DCN-YOLO模型的精確度和召回率,其置信度閾值設(shè)為0.5。為了在第一階段盡可能多的檢出簇團宮頸細胞,1分類DCN-YOLO模型的置信度閾值設(shè)為0.1。第二階段利用SupContrast-ResNet模型對1分類DCN-YOLO模型檢測出的簇團宮頸細胞圖像進行分類,計算出兩種方法的混淆矩陣、準確率、召回率、精確率、F1值和檢測速度。對比結(jié)果如圖12所示。

由圖12分析可得,兩階段分析方法相比一階段分析方法的準確率、召回率、精確率和F1值都有顯著提升。由于兩階段分析方法需要先定位簇團宮頸細胞團再分類,使其檢測速度相比一階段分析方法慢10FPS(frames per second, 每秒傳輸幀數(shù)),但是兩階段分析方法的檢測速度可滿足實際應(yīng)用需求。綜合分析可得,兩階段分析方法能夠在盡可能多的檢出簇團宮頸細胞的情況下,實現(xiàn)快速的、高準確率的簇團宮頸細胞的正、異常分類任務(wù)。

3結(jié)論

宮頸癌輔助診斷要求全面的、精準的定位和識別異常簇團宮頸細胞,但是現(xiàn)有目標檢測方法中精確度和召回率呈負相關(guān),難以在較高檢出率的情況下實現(xiàn)精準分類。因此,我們提出了一種兩階段分析的異常簇團宮頸細胞檢測方法。在第一階段盡可能多的檢出簇團宮頸細胞,利用可變形卷積提升了簇團宮頸細胞的召回率,降低了簇團宮頸細胞病變篩查的漏檢率;在第二階段實現(xiàn)高精確率的正、異常簇團宮頸細胞分類,借鑒病理醫(yī)生對比正常細胞進而發(fā)現(xiàn)異常細胞的思想,利用有監(jiān)督對比學習網(wǎng)絡(luò)提升了分類的準確率。經(jīng)實驗驗證,本文方法具有較高的檢測速度和正、異常細胞識別準確度,有力的支撐自動閱片系統(tǒng)。

參 考 文 獻:

[1]BRAY F, FERLAY J, SOERJOMATARAM I, et al. Global Cancer Statistics 2018: GLOBOCAN Estimates of Incidence and Mortality Wordwide for 36 Cancers in 185 Countries[J]. CA: A Cancer Journal for Clinicians, 2018, 68(6):394.

[2]WILLIAM, WASSWA, et al. Cervical Cancer Classification from Pap-smears Using an Enhanced Fuzzy C-Means Algorithm[J]. Informatics in Medicine Unlocked, 2019,14:23.

[3]BORA, KANGKANA, et al. Automated Classification of Pap Smear Images to Detect Cervical Dysplasia[J]. Computer Methods & Programs in Biomedicine, 2017, 138:31.

[4]LIN Dongyun, et al. Biomedical Image Classification Based on a Cascade of an SVM with a Reject Option and Subspace Analysis[J]. Computers in Biology & Medicine, 2018,96:128.

[5]GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580.

[6]GIRSHICK, ROSS. Fast r-cnn[C]//Proceedings of the IEEE International Conference on Computer Vision, 2015:1440.

[7]REN S, HE K, GIRSHICK R, et al. Faster r-cnn: Towards Real-time Object Detection with Region Proposal Networks[J]. Advances in Neural Information Processing Systems, 2015:91.

[8]LIU Y, SI H, CHEN Y, et al. Faster R-CNN based Robust Circulating Tumor Cells Detection with Improved Sensitivity[C]// Proceedings of the 2nd International Conference on Big Data Technologies. ACM, 2019:252.

[9]QIU W, GUO J, LI X, et al. Multi-label Detection and Classification of Red BloodCells in Microscopic Images [J]. arXiv preprint arXiv, 2019, 1910.02672.

[10]KAUSHIK S, RAGHAVAN S V, SIVASELVAN B. A Study of Deep Learning Methods for Mitotic Cell Detection Towards Breast Cancer Diagnosis[C]// International Conference on Advances in Computing and Data Sciences. Springer, Singapore, 2019:254.

[11]LIANG Y, TANG Z, YAN M, et al. Comparison-Based Convolutional Neural Networks for Cervical Cell/Clumps Detection in the Limited Data Scenario[J]. arXiv preprint arXiv, 2018, 1810.05952.

[12]REDMON J, DIWALA S, GIRSHICK R, et al. You Only Look Once: Unified, Real-time Object Detection[C]//Proceedings of the Conference on Computer Vision and Pattern Recognition (CVPR),2016:779.

[13]LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single Shot Multibox Detector[C]//Proceedings of the European Conference on Computer Vision (ECCV), 2016:21.

[14]REDMON J, FARHADI A. YOLO9000: Better, Faster, Stronger[C]// Proceedings of the Conference on Computer Vision and Pattern Recognition (CVPR),2017:7263.

[15]REDMON J, FARHADI A. Yolov3: An Incremental Improvement[J]. arXiv preprint arXiv:1804.02767, 2018.

[16]BOCHKOVSKIY A, WANG C Y, LIAO H.YOLOv4: Optimal Speed and Accuracy of Object Detection[J].arXiv preprint arXiv:2004.10934, 2020.

[17]鄭欣,田博,李晶晶.基于YOLO模型的宮頸細胞簇團智能識別方法[J].液晶與顯示,2018,33(11):965.

ZHENG Xin, TIAN Bo, LI Jingjing. Intelligent Recognition Method of Cervical Cell Cluster Based on YOLO Model[J]. Chinese Journal of Liquid Crystals and Displays, 2018, 33(11):965.

[18]周佳琳. 基于改進SSD網(wǎng)絡(luò)的宮頸細胞分類檢測系統(tǒng)[D].北京:北京交通大學,2019.

[19]KHOSLA P, TETERWAK P, WANG C, et al. Supervised Contrastive Learning[J]. Advances in Neural Information Processing Systems, 2020, 33: 18661.

[20]LEI Tao, WANG Risheng, ZHANG Yuxiao, et al. DefEnCe-Net: Deformable Encoding Context Networkfor Liver and Liver-Tumor Segmentation[J]. IEEE Transactions on Radiation and Plasma Medical Sciences, 2021,6(1):68.

[21]WANG C Y, LIAO H, YEH I H, et al. CSPNet: A New Backbone that Can Enhance Learning Capability of CNN[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. 2020: 390.

[22]HE K, ZHANG X, REN S, et al. Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2014, 37(9):1904.

[23]LIU Shu, QI Lu, QIN Haifang, et al. Path Aggregation Network for Instance Segmentation[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2018:8759.

[24]LIN T Y, DOLLAR P, GIRSHICK R, et al. Feature Pyramid Networks for Object Detection[C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017:2117.

[25]CHEN T, KORNBLITH S, NOROUZI M, et al. A Simple Framework for Contrastive Learning of Visual Representations[C]//International Conference on Machine Learning. PMLR, 2020: 1597.

[26]ZHU X, SU W, LU L, et al. Deformable DETR: Deformable Transformers for End-to-End Object Detection[J]. arXiv Preprint arXiv:2010.04159, 2020.

(編輯:溫澤宇)

主站蜘蛛池模板: 国产成人久久综合一区| 日本在线国产| 国产爽妇精品| 国产精品视屏| 91精品国产91久无码网站| 国产视频入口| 日韩无码真实干出血视频| 中文字幕不卡免费高清视频| 亚洲美女一区二区三区| 国产天天射| 亚洲va欧美ⅴa国产va影院| 五月激情婷婷综合| 亚洲精品第五页| 国产精品三级专区| 久久精品免费国产大片| 999精品在线视频| 亚洲无码高清免费视频亚洲| 无码福利日韩神码福利片| 色噜噜在线观看| 国产欧美日韩综合在线第一 | 99国产在线视频| 五月婷婷精品| 国产免费福利网站| 日韩第九页| 国产成+人+综合+亚洲欧美| 老色鬼久久亚洲AV综合| 亚洲天堂日韩av电影| 国产在线日本| 成人福利视频网| 四虎国产精品永久一区| 毛片手机在线看| 狠狠色丁香婷婷综合| 人人艹人人爽| 一区二区理伦视频| 狠狠做深爱婷婷综合一区| 欧美成人国产| 久久99这里精品8国产| 夜夜操天天摸| 久久精品国产精品青草app| 国产成人无码AV在线播放动漫| 欧美日本激情| 欧洲精品视频在线观看| 亚洲欧美综合另类图片小说区| 中文字幕在线免费看| 国产午夜一级毛片| 国产网站免费| 日韩视频福利| 成人综合久久综合| 国产va在线观看免费| 永久免费无码日韩视频| 九九热这里只有国产精品| 久久www视频| 丁香五月亚洲综合在线| 亚洲第一成年网| 97青青青国产在线播放| 亚洲91在线精品| 亚洲九九视频| 91美女视频在线| 精品色综合| 国产免费观看av大片的网站| 欧美日韩北条麻妃一区二区| 在线观看国产黄色| 国产激爽大片高清在线观看| 成人一级免费视频| 在线看国产精品| 人妻出轨无码中文一区二区| 日韩在线播放欧美字幕| 国产日韩丝袜一二三区| 色婷婷亚洲综合五月| 欧美成人看片一区二区三区| 青青久在线视频免费观看| 曰AV在线无码| 久久精品国产国语对白| 亚洲国产欧美中日韩成人综合视频| 精品久久国产综合精麻豆| 亚洲国产精品日韩av专区| 国产毛片片精品天天看视频| 免费一级毛片在线播放傲雪网| 97人妻精品专区久久久久| 午夜福利免费视频| 九九九久久国产精品| 国产在线98福利播放视频免费|