999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于人工智能算法STN-GResnet的肝硬化識(shí)別

2024-01-02 08:35:26鞠維欣趙希梅
軟件導(dǎo)刊 2023年12期
關(guān)鍵詞:特征優(yōu)化模型

鞠維欣,趙希梅

(1.青島酒店管理職業(yè)技術(shù)學(xué)院 會(huì)計(jì)學(xué)院,山東 青島 266100;2.青島大學(xué) 計(jì)算機(jī)科學(xué)技術(shù)學(xué)院,山東 青島 266071;3.山東省數(shù)字醫(yī)學(xué)與計(jì)算機(jī)輔助手術(shù)重點(diǎn)實(shí)驗(yàn)室,山東 青島 266000)

0 引言

肝硬化是目前人類的常見慢性疾病,對(duì)其進(jìn)行早期檢測以防止病情惡化至關(guān)重要[1]。計(jì)算機(jī)輔助診斷[2](Computer-Aided Design,CAD)技術(shù)在醫(yī)學(xué)影像領(lǐng)域發(fā)展迅速,其可以高效識(shí)別出肝的病理圖像,不僅可以降低醫(yī)生人為主觀誤判概率[3],而且可以提高工作效率。目前肝硬化識(shí)別計(jì)算機(jī)輔助診斷從早期的傳統(tǒng)機(jī)器學(xué)習(xí)人工提取特征,到深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)提取樣本特征進(jìn)行分類都有著較多研究和應(yīng)用,也獲得了較好的識(shí)別效果。

基于傳統(tǒng)機(jī)器學(xué)習(xí)的人工提取特征方法主要包括LBP、Gabor 變換、HOG 和灰度共生矩陣等。雷一鳴等[4]用小波變換先對(duì)圖像進(jìn)行特征預(yù)處理,利用二維Gabor 變換,通過LBP 方法提取特征,再利用SVM 作為分離器,識(shí)別率達(dá)到了95.4%。韓秀芝等[5]使用稀疏矩陣作為多特征分類器,并用LBP 對(duì)樣本提取特征,實(shí)現(xiàn)了肝類疾病的多分類識(shí)別,且性能較為穩(wěn)定。在基于深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的肝硬化識(shí)別中,鞠維欣等[6]將卷積神經(jīng)網(wǎng)絡(luò)與概率神經(jīng)網(wǎng)絡(luò)相結(jié)合,提出GoogleNet-PNN 的新模型,達(dá)到了較高的識(shí)別率。張歡等[7]將STN 模塊和異構(gòu)卷積濾波器應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò),達(dá)到了較好的二分類效果。

肝臟具有特殊的解剖形態(tài),屬于雙重動(dòng)脈供血。在超聲照影檢查時(shí),肝硬化在影像中主要呈現(xiàn)密度高低不均、肝葉不成比例等情況,在診斷時(shí)不僅耗時(shí)耗力,而且面對(duì)細(xì)微的變化也容易產(chǎn)生人為主觀誤差,并且隨著神經(jīng)網(wǎng)絡(luò)層數(shù)的加深,會(huì)增加梯度離散和梯度爆炸的風(fēng)險(xiǎn),同時(shí)模型訓(xùn)練效率也會(huì)降低。針對(duì)上述問題,為降低卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的復(fù)雜性,簡化模型參數(shù),更好地優(yōu)化梯度,同時(shí)提高提取特征質(zhì)量,本文提出一種新的模型結(jié)構(gòu)STNGResnet 應(yīng)用于超聲肝硬化樣本識(shí)別。因Resnet 殘差網(wǎng)絡(luò)打破了網(wǎng)絡(luò)越深、性能越好的共識(shí),且殘差結(jié)構(gòu)能加速學(xué)習(xí),使得模型更加容易學(xué)習(xí),也能有效防止梯度爆炸或消失。Resnet18 在保持性能的前提下模型參數(shù)也更少,因此以Resnet18[8]為基礎(chǔ),在其中加入Ghostmodule 模塊增強(qiáng)冗余信息,結(jié)合空間變換網(wǎng)絡(luò)使特征具有空間不變性,同時(shí)在模型中加入附加角裕度損失函數(shù)(ArcFace)來增強(qiáng)超聲肝CT 影像紋理特征與顆粒度的差異性[9-10],并將該網(wǎng)絡(luò)與傳統(tǒng)的AlexNet[11]、VGG[12]、GoolgeNet[13]從識(shí)別準(zhǔn)確率和運(yùn)行效率兩方面進(jìn)行對(duì)比分析。

1 相關(guān)理論

1.1 Ghost模塊

在向模型中輸入超聲肝CT 影像時(shí),經(jīng)過Resnet 中的殘差塊在進(jìn)行卷積操作時(shí)會(huì)產(chǎn)生一定量的冗余特征圖,而這些冗余特征可能是提取特征過程中重要的組成部分,或者存在一定的映射聯(lián)系,利用Ghost 模塊[14]用少量參數(shù)進(jìn)行特征的映射變換和疊加。本文每經(jīng)過一個(gè)殘差塊,都會(huì)加入Ghost 模塊,提取到保留冗余信息的特征圖,從而提高特征提取質(zhì)量。

Ghost 模塊如圖1 所示。對(duì)于輸入的特征,首先進(jìn)行普通的卷積操作得到常規(guī)特征圖,再利用深度卷積Depthwise對(duì)生成的常規(guī)特征圖進(jìn)行cheap operate 操作,最終得到Ghost特征圖,然后再與第一步普通卷積的特征圖通過concat操作得到完整的特征輸出[15]。

Fig.1 Ghost module圖1 Ghost模塊

輸入特征圖為h×w×Ch_in時(shí),經(jīng)過常規(guī)普通卷積得到特征圖輸出為h'×w'×CH_out。常規(guī)的特征圖將輸入的特征圖分為n份,卷積核的尺度大小為c。

普通卷積操作運(yùn)算量為:

Ghost模塊操作運(yùn)算量為:

由上述公式得知,Ghost 模塊先進(jìn)行普通卷積,再利用Depthwise 深度卷積對(duì)特征進(jìn)行壓縮,然后兩者相加最終得到Ghost特征圖。

1.2 空間變換網(wǎng)絡(luò)

由DeepMind[16]提出的空間變換網(wǎng)絡(luò)(Spatial Transformer Network,STN)以仿射變換矩陣為基礎(chǔ),動(dòng)態(tài)地對(duì)圖像進(jìn)行空間幾何操作,以增強(qiáng)網(wǎng)絡(luò)的幾何不變性。空間轉(zhuǎn)換模塊主要由3 部分組成:①本地化網(wǎng)絡(luò)(Localisation Network);②參數(shù)化采樣網(wǎng)絡(luò)(Parameterised Sampling Grid);③圖像采樣(Image Sampling)。空間變換網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

Fig.2 Spatial transformation network structure圖2 空間變換網(wǎng)絡(luò)結(jié)構(gòu)

(1)本地化網(wǎng)絡(luò)。該部分主要是將輸入圖片U∈R(H,W,C)經(jīng)過一系列特征提取操作后輸入到回歸層,輸出變換系數(shù)為θ,θ=floc(U)。

(2)參數(shù)化采樣網(wǎng)絡(luò)。對(duì)本地化網(wǎng)絡(luò)輸出的變換系數(shù)θ進(jìn)行仿射變換,并對(duì)其中的坐標(biāo)進(jìn)行歸一化,以此輸出特征圖。得到的特征變換關(guān)系如公式(3)所示。

(3)圖像采樣。圖像通過本地化網(wǎng)絡(luò)和參數(shù)采樣層網(wǎng)絡(luò)得到坐標(biāo)信息,再與原圖坐標(biāo)信息相融合產(chǎn)生新的輸出特征。其參數(shù)采樣網(wǎng)絡(luò)關(guān)系可表示為:

其中,k()為采樣內(nèi)核,Φx、Φy為采樣核輸入的內(nèi)置參數(shù),為輸入特征,為特征圖經(jīng)過通道C對(duì)應(yīng)的坐標(biāo)。

輸入的圖像經(jīng)過一系列仿射變換,其與原始特征圖融合輸出后的特征帶有空間不變性。該網(wǎng)絡(luò)即可作為完整網(wǎng)絡(luò),也可作為一個(gè)模塊嵌入到模型中以增強(qiáng)特征提取能力,且參數(shù)較少,運(yùn)行速度快。

1.3 附加角裕度損失函數(shù)

solftmax 作為Resnet 分類函數(shù),將預(yù)測分類結(jié)果都轉(zhuǎn)化為非負(fù)數(shù),并將多個(gè)神經(jīng)元的輸出映射到(0,1)區(qū)間進(jìn)行分類,且轉(zhuǎn)化的數(shù)值相加為1。

其中,k為樣本數(shù),n為種類數(shù),b為卷積神經(jīng)網(wǎng)絡(luò)的偏置,W為網(wǎng)絡(luò)權(quán)重,x為特征向量,yi為第i個(gè)樣本所屬種類為第i個(gè)樣本所屬類別的權(quán)重矩陣,矩陣的轉(zhuǎn)置為偏置矩陣。

在足夠的數(shù)據(jù)集能夠涵蓋不同類別的情況下,solftmax 函數(shù)能夠?qū)γ恳粋€(gè)樣本進(jìn)行歸屬分類,保證類別的可分性。在區(qū)分過程中,所屬類別的樣本如果能更緊湊地?cái)M合在一起,并且類與類之間有一定距離,即類內(nèi)緊湊和類間分離,則分類過程會(huì)更加嚴(yán)謹(jǐn)。因此,本文引入附加角裕度損失函數(shù)(ArcFace)進(jìn)行優(yōu)化。首先對(duì)特征進(jìn)行歸一化處理,將其映射到(0,1)范圍內(nèi),設(shè)置式(3)中的和偏置固定為0,并設(shè)置,再代入,得到公式如下:

之后,特征會(huì)以超球平面的形式分布在每個(gè)特征中心的周圍。為使每一個(gè)特征中心圍繞的特征更加緊湊,同時(shí)拉開特征中心之間的距離,即增強(qiáng)類內(nèi)緊湊性和加大類間差異性,將公式(2)的進(jìn)行縮放,并將增大至+β。具體公式如下:

經(jīng)過附加角裕度損失函數(shù)(ArcFace)的優(yōu)化訓(xùn)練,使得超聲肝CT 影像的特征分布在類內(nèi)更加聚合,同時(shí)反向傳播優(yōu)化β值的角間距離,使得不同特征之間的中心距離拉大,增強(qiáng)樣本特征的差異性。

1.4 遷移學(xué)習(xí)與數(shù)據(jù)增強(qiáng)

因醫(yī)學(xué)超聲肝CT 影像樣本集是在青醫(yī)附院醫(yī)生的指導(dǎo)下采集完成的,且數(shù)量遠(yuǎn)小于自然數(shù)據(jù)集的數(shù)量,為保證模型不因樣本集數(shù)量產(chǎn)生過擬合現(xiàn)象,本文采用遷移學(xué)習(xí)和數(shù)據(jù)增強(qiáng)兩種方法。

1.4.1 遷移學(xué)習(xí)

采用自然樣本集的數(shù)據(jù)對(duì)模型進(jìn)行預(yù)訓(xùn)練,保留訓(xùn)練后的參數(shù)應(yīng)用到自己的樣本集中。在卷積神經(jīng)網(wǎng)絡(luò)中,較低層次的網(wǎng)絡(luò)學(xué)到的特征圖都是比較簡單的,包括輪廓、形狀等,這些特征往往是通用的。但隨著網(wǎng)絡(luò)層數(shù)的加深,學(xué)到的特征也更加明顯和差異化,此時(shí)可將預(yù)訓(xùn)練樣本與自己真正的樣本進(jìn)行比較。如果樣本差異性較大,可進(jìn)行參數(shù)微調(diào);如果樣本差異性較小,可直接保留參數(shù)。因此,當(dāng)樣本集過小時(shí),通過該方法可有效避免過擬合[17-19]。

1.4.2 數(shù)據(jù)增強(qiáng)

對(duì)于原先的數(shù)據(jù)集,通過設(shè)定數(shù)據(jù)變換規(guī)則對(duì)樣本進(jìn)行有效擴(kuò)充[20]。數(shù)據(jù)增強(qiáng)主要分為有監(jiān)督增強(qiáng)和無監(jiān)督增強(qiáng),有監(jiān)督的數(shù)據(jù)增強(qiáng)又包括單樣本增強(qiáng)和多樣本增強(qiáng)。其中,單樣本增強(qiáng)包括翻轉(zhuǎn)變換(flip)、亮度對(duì)比度變化(Color Jittering)、平移變換(Shift)、水平/垂直翻轉(zhuǎn)(Horizontally/Vertically Flip)與噪聲擾動(dòng)(noise)。

本文采用有監(jiān)督學(xué)習(xí)中單樣本集的平移旋轉(zhuǎn)來擴(kuò)充樣本數(shù)據(jù),設(shè)置旋轉(zhuǎn)角度為30°,平移幅度為0.2,并將逆時(shí)針剪切變換角度和隨機(jī)縮放程度都設(shè)置為0.2,通過該方式將樣本集擴(kuò)充了840個(gè)。

1.5 STN-GResnet網(wǎng)絡(luò)

本文提出一種新的模型結(jié)構(gòu)STN-GResnet,引用部分Resnet18 中的ResBlock 模塊并改為直連,使得到的特征直接輸入到Ghost 模塊中。該模塊中用 Depthwise 進(jìn)行卷積和恒定映射,得到帶有冗余信息的特征圖,增強(qiáng)了信息獲取能力,同時(shí)引入空間變換網(wǎng)絡(luò),提高卷積神經(jīng)網(wǎng)絡(luò)的平移不變性,并且可以定位到目標(biāo)區(qū)域,達(dá)到區(qū)域變換的最優(yōu)狀態(tài),增強(qiáng)特征提取能力。

該模型由4 個(gè)ResBlock 模塊作為主框架,如圖3 和表1所示,其中保留了殘差網(wǎng)絡(luò)模型中ResBlock 塊內(nèi)的殘差運(yùn)算,但模塊間改為直連結(jié)構(gòu)。模塊1-3 中,Conv1 中卷積核大小為3×3,步長設(shè)為2;模塊4 中Conv1 卷積核大小為3×3,步長設(shè)為1;模塊1-4 中Conv2 卷積核大小都為1×1,步長都設(shè)為1。在每一個(gè)ResBlock 模塊前引入Ghost 模塊,每個(gè)模塊通過公式(2)得到帶有冗余信息的特征圖,再傳入下一個(gè)殘差模塊,同時(shí)Ghost 模塊的輸入channel 與上一個(gè)殘差塊輸出的channel 保持一致。模型中Ghost 模塊的常規(guī)卷積核大小為1×1,深度卷積核大小為3×3,步長都為1,模塊中分組數(shù)為Groups=out_channels/ratio,并向上取整,ratio 設(shè)為2。通過以上結(jié)構(gòu),肝CT 樣本通過提取該殘差塊的特征,再輸入到Ghost 模塊,從而提取到帶有冗余信息的特征,因而能獲得更多信息,提高了特征質(zhì)量。同時(shí),與空間變換網(wǎng)絡(luò)相結(jié)合,該網(wǎng)絡(luò)具有較好的魯棒性。在本模型中,該網(wǎng)絡(luò)作為一個(gè)模塊融合到模型中,在增強(qiáng)網(wǎng)絡(luò)模型整體性的同時(shí),也增強(qiáng)了卷積神經(jīng)網(wǎng)絡(luò)平移、旋轉(zhuǎn)后的空間不變性,進(jìn)一步提升了分類效果。

Table 1 STN-GResnet network structure parameters表1 STN-GResnet網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)

Fig.3 Structure of STN-GResnet model圖3 STN-GResnet模型結(jié)構(gòu)

最后,本文在分類層加入附加角裕度損失函數(shù)(Arc-Face)、loss 函數(shù),如公式(5)所示。通過該方法增強(qiáng)了類內(nèi)緊湊性,并加大了類間距離,以此增強(qiáng)超聲肝CT 影像特征之間的差異性,提升對(duì)正常肝和肝硬化的識(shí)別精度。

2 實(shí)驗(yàn)結(jié)果分析

2.1 數(shù)據(jù)采集

本文的醫(yī)學(xué)實(shí)驗(yàn)數(shù)據(jù)集均來自于青島大學(xué)附屬醫(yī)院肝膽科的超聲科室,該樣本數(shù)據(jù)經(jīng)醫(yī)院醫(yī)師許可,僅用于科學(xué)研究目的,不會(huì)泄露患者隱私信息。如圖4—圖6 所示,正常肝的影像紋理清晰、質(zhì)地均勻;而肝硬化的影像肝實(shí)質(zhì)回聲增粗增強(qiáng),質(zhì)地不均勻,呈波浪狀、鋸齒狀,且門靜脈內(nèi)徑變寬。

Fig.4 Schematic diagram of two types of liver images and their sample extraction圖4 兩類肝臟圖像及其樣本提取示意圖

Fig.5 Schematic diagram of liver sample(liver cirrhosis)圖5 肝樣本部分示意圖(肝硬化)

Fig.6 Schematic diagram of liver sample(normal liver)圖6 肝樣本部分示意圖(正常肝)

2.2 數(shù)據(jù)構(gòu)成

為了在保證數(shù)據(jù)集充足的同時(shí),盡可能保留肝影像特征,本文數(shù)據(jù)集通過MATLAB 對(duì)原始圖像ROI 區(qū)域選取樣本。在肝CT 每張影像中取不同位置且大小的樣本,一共300 人的病理影像,其中正常肝150 人,肝硬化150 人。通過ROI 取樣得到正常樣本600,肝硬化樣本600,并通過數(shù)據(jù)增強(qiáng)的方法擴(kuò)充400 樣本,最終實(shí)驗(yàn)樣本為1 600 張(正常肝影像840 張,肝硬化影像760 張)jpg、png 格式的超聲肝CT 影像。在運(yùn)行過程中,會(huì)對(duì)數(shù)據(jù)集統(tǒng)一進(jìn)行預(yù)處理,并初始化數(shù)據(jù)標(biāo)簽。0 為正常肝,1 為肝硬化,并將每組前60%的數(shù)據(jù)作為訓(xùn)練集,60%~80%的數(shù)據(jù)作為驗(yàn)證集,后20%的數(shù)據(jù)作為測試集。

2.3 實(shí)驗(yàn)環(huán)境

(1)硬件環(huán)境。CPU 為Core(TM)i7-11400H,內(nèi)存為32G,顯卡為RTX 3070(8G)獨(dú)立顯卡。

(2)軟件環(huán)境。Pytorch1.9,CUDA11.2,Python 3.8.12,操作系統(tǒng)為Win10(64位)。

2.4 實(shí)驗(yàn)分析

2.4.1 評(píng)價(jià)指標(biāo)

為保證數(shù)據(jù)的有效性,將實(shí)驗(yàn)中的初始化參數(shù)設(shè)為一致,即設(shè)置學(xué)習(xí)率為0.001,輸入樣本批大小為16,迭代次數(shù)為100,同時(shí)對(duì)測試模型進(jìn)行了遷移學(xué)習(xí)的預(yù)訓(xùn)練,并優(yōu)化參數(shù),以保證分析的公平性。在對(duì)比分析中,將從識(shí)別率和復(fù)雜度兩個(gè)維度進(jìn)行對(duì)比,其中識(shí)別率判斷公式如下:

式中,xi表示正確分類的樣本數(shù)量,yj表示第j個(gè)樣本,計(jì)算出全部正確分類的樣本數(shù)量在全部樣本數(shù)量中的占比,推出模型識(shí)別率。

復(fù)雜度包括網(wǎng)絡(luò)的時(shí)間復(fù)雜度和空間復(fù)雜度。網(wǎng)絡(luò)時(shí)間復(fù)雜度與模型訓(xùn)練和預(yù)測時(shí)間成正比,而模型有限的運(yùn)算次數(shù)會(huì)影響復(fù)雜度大小,其單位為Flops(Floatingpoint Operations),設(shè)每一個(gè)卷積層的時(shí)間復(fù)雜度如下:

式中,M表示該層中每一個(gè)卷積核輸出的featuremap大小,卷積核的大小設(shè)置為K,Cin、Cout分別為輸入和輸出通道數(shù)。最終得到整體時(shí)間復(fù)雜度為:

式中,第l層網(wǎng)絡(luò)深度為D,Cl-1為上一層的卷積核個(gè)數(shù)(輸出通道數(shù)),Cl為第l個(gè)卷積層的卷積核個(gè)數(shù)。

空間復(fù)雜度是指模型的參數(shù)總量,以及每一個(gè)卷積層輸出的特征圖大小,其公式如下:

由式(11)可知,空間復(fù)雜度的總參數(shù)量與卷積核大小K、通道數(shù)C、層數(shù)D有關(guān),而各層輸出的特征圖僅與輸入數(shù)據(jù)的大小M和通道C有關(guān)。

2.4.2 識(shí)別率與復(fù)雜度分析

由于STN-GResnet 是在Resnet18 基礎(chǔ)上改進(jìn)并拓展創(chuàng)新的一種網(wǎng)絡(luò)模型,因此將本文模型與Resnet18、GResnet 的識(shí)別率、召回率和運(yùn)行時(shí)間(訓(xùn)練加測試時(shí)間)進(jìn)行比較,如表2所示。

Table 2 Comparison of 3 models表2 3種模型比較

由表2 分析可得,加入Ghost 模塊以及引入附加角裕度損失函數(shù)后,STN-GResnet 網(wǎng)絡(luò)模型相比于Resnet18 和加入Ghostmoduled 的模型,識(shí)別率分別提高了5.2%和3.6%。并且采用附加角裕度損失函數(shù)優(yōu)化后,增加了超聲肝CT 影像的類間差異性和類內(nèi)聚合度,加大了不同病理影像之間的差異,也提高了模型的魯棒性。通過引入Ghost 模塊并且引用Resnet18 部分殘差塊,參數(shù)量也少于原Resnet18。

本文同時(shí)比較了目前使用較多且性能較好的分類網(wǎng)絡(luò)模型,如Vggnet、HRNet、Alexnet、Goolgenet(V3),如圖7、圖8 所示。在運(yùn)行時(shí)間上以訓(xùn)練加測試時(shí)間的和來比較整體模型運(yùn)行效率,通過比較也可得到該模型屬于參數(shù)較少的輕量級(jí)神經(jīng)網(wǎng)絡(luò),從而保證了整體的運(yùn)行性能。不同模型比較如表3所示。

Table 3 Comparison of different models表3 不同模型比較

Fig.7 Comparison of accuracy of different models圖7 不同模型識(shí)別率比較

Fig.8 Comparison of loss value of different models圖8 不同模型loss值比較

2.4.3 不同優(yōu)化器比較

本文同時(shí)比較了不同優(yōu)化器對(duì)網(wǎng)絡(luò)模型性能的影響。在實(shí)驗(yàn)中,學(xué)習(xí)率與迭代次數(shù)分別設(shè)置為0.001 和100,得到比較結(jié)果如表4、圖9、圖10所示。

Table 4 Comparison of different optimizers表4 不同優(yōu)化器比較

Fig.9 Comparison of optimizer accuracy圖9 優(yōu)化器識(shí)別率比較

Fig.10 Comparison of optimizer Loss圖10 優(yōu)化器Loss值比較

Adam[21]相比于其他優(yōu)化器的性能更好,該優(yōu)化器結(jié)合了Momentum 和Adaptive 動(dòng)量算法,將SGD 的一階動(dòng)量和AdaDelta 的二階動(dòng)量相加使用。

SGD 的一階動(dòng)量如下:

AdaDelta 的二階動(dòng)量如下:

β1、β2為矩估計(jì)的指數(shù)衰減率,并初始化m0=0,V0=0。但在梯度運(yùn)算初期,mt和Vt會(huì)向0 逼近。為解決該問題,通過公式(14)(15)進(jìn)行修正。

修正后再使用公式(16)進(jìn)行運(yùn)算。

式中,∈為維持?jǐn)?shù)值穩(wěn)定性的常數(shù),通常設(shè)置為10-8,η為學(xué)習(xí)率。通過上述公式,可以動(dòng)態(tài)調(diào)整一階動(dòng)量和二階動(dòng)量的運(yùn)算,通過對(duì)不同參數(shù)設(shè)置各自的適應(yīng)性學(xué)習(xí)率,使其快速收斂并完成對(duì)梯度的優(yōu)化。

通過上述分析結(jié)果得知,使用Adam 優(yōu)化器在識(shí)別精度上相比于其他優(yōu)化器更加適應(yīng)于本文模型。

2.4.4 不同損失函數(shù)比較

通過比較不同損失函數(shù)約束模型的分類效果來驗(yàn)證其有效性,本文算法訓(xùn)練過程中的設(shè)置與對(duì)比模型實(shí)驗(yàn)一致,訓(xùn)練批次為16,迭代次數(shù)為100,使用Adam 作為優(yōu)化器,通過消融實(shí)驗(yàn)保障最佳的模型性能,比較結(jié)果如圖5所示。

由表5 可以看出,融入了Triplet Loss、Sphereface、Arcface 等損失函數(shù)進(jìn)行優(yōu)化的模型,其分類準(zhǔn)確率均優(yōu)于交叉熵?fù)p失函數(shù)。在加入附加角裕度損失函數(shù)對(duì)Loss 進(jìn)行訓(xùn)練優(yōu)化后,識(shí)別率提升了5.2%,具有較好的識(shí)別效果。

Table 5 Comparison of different Loss functions表5 不同損失函數(shù)比較

3 結(jié)語

針對(duì)傳統(tǒng)神經(jīng)網(wǎng)絡(luò)泛化性弱、識(shí)別率較低、參數(shù)量大,且特征提取質(zhì)量不高等問題,本文提出一種新的STNGResnet 網(wǎng)絡(luò)模型,結(jié)合了部分Resnet18 殘差塊并改為直連結(jié)構(gòu),加入Ghost 模塊,使其在超聲肝CT 影像中能提取到保留冗余信息的特征圖,并結(jié)合空間變換網(wǎng)絡(luò),使提取到的特征具有空間不變性,進(jìn)而提高特征提取質(zhì)量。在分類層加入附加角裕度損失函數(shù)(ArcFace),增強(qiáng)類內(nèi)緊湊性,并加大類間距離,從而增強(qiáng)了超聲肝CT 影像特征之間的差異性,提升了對(duì)正常肝和肝硬化的識(shí)別精度,使模型達(dá)到了較高識(shí)別率。

相比傳統(tǒng)的深度學(xué)習(xí)識(shí)別算法,本文在保證較高識(shí)別率的同時(shí),其模型大小也相對(duì)較小,便于其在應(yīng)用上的部署。但對(duì)于硬件的算力要求較高,因此部署成本也較高。研究目前尚處于測試階段,后續(xù)將進(jìn)一步優(yōu)化算法,并能夠?qū)崿F(xiàn)多分類任務(wù)目標(biāo),精確地進(jìn)行多類常見肝疾病的檢測,如脂肪肝、血管瘤等,實(shí)現(xiàn)在肝膽科的臨床應(yīng)用。

猜你喜歡
特征優(yōu)化模型
一半模型
超限高層建筑結(jié)構(gòu)設(shè)計(jì)與優(yōu)化思考
民用建筑防煙排煙設(shè)計(jì)優(yōu)化探討
關(guān)于優(yōu)化消防安全告知承諾的一些思考
一道優(yōu)化題的幾何解法
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
不忠誠的四個(gè)特征
抓住特征巧觀察
主站蜘蛛池模板: 天天视频在线91频| 最近最新中文字幕在线第一页 | 国产91久久久久久| 国产18在线播放| 国产综合在线观看视频| 麻豆精品在线视频| 久久特级毛片| 亚洲首页国产精品丝袜| 国产欧美日韩视频一区二区三区| 亚洲高清无在码在线无弹窗| 成人免费黄色小视频| 久久精品嫩草研究院| 制服丝袜无码每日更新| 老司机精品久久| 亚洲制服丝袜第一页| 国产精品福利尤物youwu| 2020亚洲精品无码| 成人国产小视频| 精品无码一区二区三区电影| 亚洲美女高潮久久久久久久| 国产精品主播| 成人在线观看不卡| 欧美成人午夜视频| 啊嗯不日本网站| 国产 日韩 欧美 第二页| 国产久草视频| 国产一区二区丝袜高跟鞋| 亚洲男人天堂久久| 色综合网址| 国产福利一区在线| 97免费在线观看视频| 日韩久草视频| 日韩欧美国产成人| 亚洲第一视频免费在线| 亚洲天堂视频网站| 欧美特黄一级大黄录像| 丝袜久久剧情精品国产| 亚洲男人在线天堂| 九色综合伊人久久富二代| 911亚洲精品| 国产一区二区精品福利| 日本人妻丰满熟妇区| 国产农村精品一级毛片视频| 欧美精品亚洲精品日韩专区va| 91在线无码精品秘九色APP| 欧美日韩中文国产va另类| 成人无码一区二区三区视频在线观看| 婷五月综合| 高清欧美性猛交XXXX黑人猛交| 久久久久国色AV免费观看性色| 成人午夜视频在线| 亚洲天堂视频在线观看| 在线国产你懂的| 久久久久无码精品国产免费| 亚洲区第一页| 一级爆乳无码av| 毛片手机在线看| 高清不卡毛片| 亚洲综合精品香蕉久久网| 在线看片免费人成视久网下载| 亚洲最黄视频| 日本午夜三级| 国产青榴视频| 国产网站黄| 欧美国产精品不卡在线观看| 无套av在线| 国产永久在线视频| 亚洲成人www| 免费a级毛片18以上观看精品| 欧美午夜在线观看| 免费看a毛片| 国产精品久线在线观看| 一级做a爰片久久免费| 黄色福利在线| 欧美性天天| 欧美在线免费| 国模视频一区二区| 中文精品久久久久国产网址| 精品一区二区三区中文字幕| 国产成人无码综合亚洲日韩不卡| 亚洲中文字幕23页在线| 亚洲天堂网2014|