999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種改進(jìn)DeepLabV3+的巖屑圖像語(yǔ)義分割算法

2023-03-30 08:52:24羅崇興師明元王正勇滕奇志
現(xiàn)代計(jì)算機(jī) 2023年2期
關(guān)鍵詞:語(yǔ)義特征信息

羅崇興,師明元,王正勇*,滕奇志

(1.四川大學(xué)電子信息學(xué)院,成都 610065;2.河北省地質(zhì)礦產(chǎn)勘查開發(fā)局第六地質(zhì)大隊(duì),石家莊 050080)

0 引言

在礦產(chǎn)資源勘探和開發(fā)工作中,巖屑錄井是非常重要的一步工作,對(duì)巖屑進(jìn)行準(zhǔn)確識(shí)別是地質(zhì)勘探人員研究地層特征和地質(zhì)建模的重要基礎(chǔ)和保障。在巖屑采集現(xiàn)場(chǎng),多種因素的影響,使得采集過(guò)程中獲取到的巖屑并不只是一種巖性,而是混合著多種巖性。為更好地分析巖屑巖性,需要對(duì)巖屑圖像進(jìn)行語(yǔ)義分割。隨著科學(xué)技術(shù)的發(fā)展,深度學(xué)習(xí)開始廣泛應(yīng)用于巖屑圖像語(yǔ)義分割,深度學(xué)習(xí)的引入加快了巖屑圖像處理速度,提高了巖屑識(shí)別的準(zhǔn)確率。

自2012 年,AlexNet 模型[1]在ImageNet 比賽上大放光彩,在那之后,深度學(xué)習(xí)網(wǎng)絡(luò)模型層出不窮。2014年,Simonyan 等[2]提出VGG 網(wǎng)絡(luò),采用連續(xù)的小尺寸卷積核代替了較大卷積核,卻存在需要計(jì)算更多的參數(shù),對(duì)內(nèi)存和時(shí)間要求高的問(wèn)題。之后,Long 等[3]在VGG?16 網(wǎng)絡(luò)原有結(jié)構(gòu)基礎(chǔ)上提出全卷積網(wǎng)絡(luò)(fully convolu?tional networks,FCN),采用卷積層代替了傳統(tǒng)卷積中的全連接層,使圖像能進(jìn)行像素級(jí)別的語(yǔ)義分割,但是還存在分割結(jié)果粗糙等問(wèn)題。Chen 等[4]針對(duì)語(yǔ)義分割中存在的池化導(dǎo)致信息丟失,標(biāo)簽之間的概率關(guān)系未利用的問(wèn)題,基于FCN 網(wǎng)絡(luò)提出了DeepLab V1 網(wǎng)絡(luò),在該網(wǎng)絡(luò)中引入了全連接條件隨機(jī)場(chǎng)(conditional random field,CRF),以改善原始分割結(jié)果不精細(xì)的問(wèn)題,同時(shí)利用空洞卷積使網(wǎng)絡(luò)在不改變參數(shù)量和計(jì)算量的情況下擴(kuò)大網(wǎng)絡(luò)感受野,獲取圖像更多的信息。在那之后,DeepLab 系列不斷發(fā)展,衍生出DeepLab V2[5],DeepLab V3[6]等網(wǎng)絡(luò)模型。2015 年,Ronneberger 等[7]基于對(duì)稱的編碼器-解碼器結(jié)構(gòu)提出了U?Net 網(wǎng)絡(luò),以方便融合分辨率相同的特征。2015 年,劍橋大學(xué)團(tuán)隊(duì)借鑒FCN 網(wǎng)絡(luò)和U?Net 網(wǎng)絡(luò),提出SegNet 模型[8],該模型的編碼結(jié)構(gòu)構(gòu)建了最大池化層索引存儲(chǔ),以內(nèi)存為代價(jià)換取輕微的精度損失,解決邊界信息丟失問(wèn)題。2017 年,香港大學(xué)和商湯科技聯(lián)合提出PSPNet 網(wǎng)絡(luò)[9],提出了金字塔池化模型,融合不同尺度和不同區(qū)域之間的信息,通過(guò)全局先驗(yàn)信息有效獲取高質(zhì)量的語(yǔ)義分類結(jié)果。Lu 等[10]首次將圖卷積模型應(yīng)用于分類,通過(guò)卷積特征圖構(gòu)建圖結(jié)構(gòu),并將其轉(zhuǎn)化為圖節(jié)點(diǎn)分類問(wèn)題,解決了卷積神經(jīng)網(wǎng)絡(luò)在提取特征的過(guò)程中局部位置信息損失的問(wèn)題。北京大學(xué)聯(lián)合商湯科技基于類的動(dòng)態(tài)圖卷積自適應(yīng)提出CDGCNet模型[11],利用構(gòu)造圖的動(dòng)態(tài)圖卷積結(jié)果學(xué)習(xí)特征聚集和權(quán)重分配,融合原始特征和精煉特征獲取最終預(yù)測(cè)。He等[12]提出了一種基于協(xié)作學(xué)習(xí)的多源領(lǐng)域框架,將多標(biāo)記源模型適應(yīng)到無(wú)標(biāo)記源中,并用于語(yǔ)義分類。

在巖屑分割領(lǐng)域,2020年,萬(wàn)川等[13]對(duì)U?Net模型進(jìn)行了改進(jìn),并應(yīng)用于巖屑圖像分割中,運(yùn)用金字塔池化模塊聚合不同區(qū)域的上下文特征信息,更好地利用了全局信息。2022年,嚴(yán)良平等[14]在VGG16的基礎(chǔ)上提出了一種深度圖像引導(dǎo)的巖石顆粒分割算法,利用深度圖像的三維距離信息,提高了巖石圖像的分割精度。

為更好地對(duì)巖屑圖像進(jìn)行語(yǔ)義分割,本文在DeepLabV3+算法上進(jìn)行改進(jìn),并提出了一種改進(jìn)DeepLabV3+的巖屑圖像語(yǔ)義分割算法。

1 相關(guān)算法原理

DeepLabV3+算法采用編碼器-解碼器結(jié)構(gòu)。編碼器主要用于巖屑圖像特征提取,解碼器是將編碼器提取的特征映射到高維空間,以實(shí)現(xiàn)圖像像素級(jí)別的語(yǔ)義分類,通過(guò)反卷積操作不斷恢復(fù)圖像的空間維度,從而實(shí)現(xiàn)圖像語(yǔ)義分割。

DeepLabV3+的網(wǎng)絡(luò)結(jié)構(gòu)如圖1(a)所示,其編碼器部分由Xception[15]和ASPP 模塊[5]組成,Xception是利用若干個(gè)大小不同的卷積提取輸入特征,在減小計(jì)算量的同時(shí)獲取不同感受野,經(jīng)過(guò)Xception 模型,圖像分辨率降低為原始圖像的1/16,之后再送入ASPP 模塊。ASPP 模塊如圖1(b)所示,由不同采樣率的空洞卷積并聯(lián)組成,將結(jié)果融合在一起之后,利用1 × 1 的卷積降低輸出的通道數(shù),以實(shí)現(xiàn)用多個(gè)比例捕捉圖像上下文信息的目的。DeepLabV3+網(wǎng)絡(luò)的解碼部分,首先是將輸出的特征圖進(jìn)行上采樣操作,將特征圖尺寸擴(kuò)大四倍,之后將該特征圖和低級(jí)特征進(jìn)行拼接融合,最后再進(jìn)行上采樣,實(shí)現(xiàn)圖像語(yǔ)義分割,得到最終預(yù)測(cè)結(jié)果。

圖1 DeepLabV3+網(wǎng)絡(luò)結(jié)構(gòu)及ASPP模塊圖

2 改進(jìn)的DeepLabV3+

2.1 MobileNetV3

原始的DeepLabV3+模型使用Xception 特征提取網(wǎng)絡(luò)作為主干網(wǎng)絡(luò),但Xception 對(duì)模型的參數(shù)規(guī)模和運(yùn)算速度控制不佳,使得在進(jìn)行巖屑圖像語(yǔ)義分割的過(guò)程中存在參數(shù)量大、推理速度慢的問(wèn)題,所以本文采用MobileNetV3[5]代替原網(wǎng)絡(luò)中的Xception 模塊來(lái)提取巖屑圖像特征,在不降低模型精度的同時(shí)提高模型的速度。該模型借鑒了MobileNetV1[16]的深度可分離卷積、MobileNetV2[17]的具有線性瓶頸的逆殘差結(jié)構(gòu),并且引入了Squeeze and excitation[18]的輕量級(jí)注意力結(jié)構(gòu),采用了一種新的非線性激活函數(shù)h?swish,計(jì)算公式如下:

該函數(shù)能減少運(yùn)算量并提高模型性能。

MobileNetV3 網(wǎng)絡(luò)模型的基本模塊bneck 結(jié)構(gòu)如圖2 所示,首先利用1 × 1 的卷積進(jìn)行升維操作,之后經(jīng)過(guò)5 × 5 的深度可分離卷積提取圖像特征,然后利用注意力機(jī)制調(diào)整每個(gè)通道的權(quán)重,最后再通過(guò)1 × 1的卷積降維。

圖2 bneck結(jié)構(gòu)

2.2 注意力機(jī)制EPSANet

在神經(jīng)網(wǎng)絡(luò)中,模型學(xué)習(xí)能力越強(qiáng),需要存儲(chǔ)的信息也就越大,這會(huì)引起信息超載。為了更好地引導(dǎo)模型聚焦于巖屑圖像中的重要信息,本文在ASPP 模塊引入了注意力機(jī)制EPSANet[19]。如圖3所示,EPSANet能夠有效捕獲不同尺度特征圖的空間信息,同時(shí)豐富特征空間,建立長(zhǎng)期依賴關(guān)系,進(jìn)而學(xué)習(xí)更豐富的特征表示。

圖3 EPSANet

EPSANet 首先將輸入特征圖X拆分為S個(gè)部分(X0,X1,…,XS-1),然后利用多尺度卷積核分組卷積提取不同尺度特征圖的空間信息,計(jì)算公式如下:

然后將這些特征圖拼接起來(lái),計(jì)算公式如下:

最后對(duì)這些擁有不同尺度信息的特征圖進(jìn)行通道注意力權(quán)重加權(quán),計(jì)算公式如下:

為更好地交互多尺度通道信息,利用Softmax進(jìn)一步標(biāo)定權(quán)重信息,計(jì)算公式如下:

這本書內(nèi)容很豐富,有人體之謎、宇宙之謎、地理之謎、天文之謎、生物之謎、科技之謎、動(dòng)物之謎、歷史之謎等,讓我知道了很多我想知道的問(wèn)題。

最后將對(duì)應(yīng)的權(quán)重和特征圖進(jìn)行通道級(jí)別的相乘,計(jì)算公式如下:

在ASPP模塊中引入EPSANet得到EPSANet?ASPP 模塊,如圖4 所示,能夠引導(dǎo)模型在融合特征時(shí)更好地聚焦于巖屑圖像中的重要信息,降低對(duì)無(wú)關(guān)信息的關(guān)注。

圖4 EPSANet?ASPP模塊

2.3 改進(jìn)后的網(wǎng)絡(luò)模型

改進(jìn)DeepLabV3+的巖屑圖像語(yǔ)義分割算法的網(wǎng)絡(luò)結(jié)構(gòu)如圖5(a)所示,該模型的編碼器部分 由MobileNetV3 和EPSANet?ASPP 模 塊 組 成,首先經(jīng)過(guò)MobileNetV3 提取巖屑圖像特征,在不降低模型精度的同時(shí)提高模型的速度,以得到不同尺度的圖像特征;然后將最小尺寸的圖像特征送入EPSANet?ASPP模塊,EPSANet?ASPP模塊如圖5(b)所示,引入EPSANet機(jī)制的EPSANet?ASPP 模塊能夠幫助網(wǎng)絡(luò)更好地提取出特征中的重要信息,從而更高效地捕獲巖屑圖像中不同尺度信息。

圖5 改進(jìn)后的DeepLabV3+模型及ERSANet?ASPP模塊圖

由于在特征提取的過(guò)程中,低層次的特征包含較多的細(xì)節(jié)信息,更容易反映圖像特征,同時(shí)目標(biāo)位置更加準(zhǔn)確,但是缺乏語(yǔ)義特征信息。高層次特征具有更多的語(yǔ)義信息,卻只有較少的細(xì)節(jié)信息和位置信息。有效融合低級(jí)特征和高級(jí)特征能更有助于巖屑圖像語(yǔ)義分割,因此,在解碼器部分,本文借鑒FPN[20]的多尺度特征融合思想,在編碼器和解碼器之間構(gòu)建橫向連接,使模型在對(duì)特征圖進(jìn)行上采樣時(shí)能夠融合編碼器中MobileNetV3 提取的不同尺度特征,進(jìn)而獲取更多的圖像細(xì)節(jié)信息和更準(zhǔn)確的目標(biāo)位置信息,得到更精細(xì)的巖屑圖像語(yǔ)義分割結(jié)果,實(shí)現(xiàn)巖屑圖像語(yǔ)義分割。

3 實(shí)驗(yàn)結(jié)果及分析

為更好地評(píng)估本文算法性能,本文介紹了幾種常用的語(yǔ)義分割評(píng)價(jià)指標(biāo),在相同的實(shí)驗(yàn)配置條件下,對(duì)比分析了7種不同的語(yǔ)義分割網(wǎng)絡(luò)在巖屑圖像語(yǔ)義分割數(shù)據(jù)集上的表現(xiàn),分別為Danet[21]、FCN[3]、DeepLabV3+[22]、PSPNet[9]、UNet[7]、UPerNet[23]、HRNet[24]。實(shí)驗(yàn)證明,本文算法具有更高的語(yǔ)義分割精度,優(yōu)于其他對(duì)比網(wǎng)絡(luò)。

3.1 實(shí)驗(yàn)環(huán)境

本實(shí)驗(yàn)在Linux 操作系統(tǒng)下進(jìn)行,實(shí)驗(yàn)使用顯卡型號(hào)為NVIDIA GeForce RTX 2080 Ti,處理器為Inter(R)Core(TM)i7?9700 CPU,使用的編程語(yǔ)言是Python3.8.0,深度學(xué)習(xí)框架為PyTorch1.8.0,CUDA Version為11.1,內(nèi)存為32 GB。

3.2 實(shí)驗(yàn)數(shù)據(jù)集

為驗(yàn)證本文算法的有效性,首先利用巖屑圖像采集設(shè)備采集巖屑圖像,得到尺寸為4000×3750的原始巖屑圖像,部分原始巖屑圖像如圖6所示,共采集巖屑圖像126張,然后通過(guò)圖像裁剪、數(shù)據(jù)增強(qiáng)等方法將原始巖屑圖像制作成512×512 的巖屑圖像語(yǔ)義分割數(shù)據(jù)集共9682 張,其中7746 張用于訓(xùn)練模型,1936 張用于測(cè)試模型。實(shí)驗(yàn)數(shù)據(jù)集共有20個(gè)類別,其中包含背景和19種巖屑樣本,巖屑種類分別是油斑粉砂巖、紫紅色安山巖、深灰色安山巖、灰綠色安山巖、褐色流紋巖、灰綠色砂巖、含礫粗砂巖、紫灰色泥質(zhì)粉砂巖、灰色粉砂巖、褐色粉砂巖、灰綠色凝灰?guī)r、方解石、石灰?guī)r、頁(yè)巖、石英、灰泥巖、灰黑色泥巖、深灰黑色泥巖、棕紅泥巖,部分巖屑樣本展示如圖7所示。

圖6 原始巖屑圖像

圖7 部分巖屑樣本展示

3.3 實(shí)驗(yàn)結(jié)果及分析

語(yǔ)義分割是對(duì)圖像進(jìn)行像素級(jí)別的分類,常用的評(píng)價(jià)指標(biāo)有像素準(zhǔn)確率(pixel accuracy,PA)、類別平均像素準(zhǔn)確率(mean pixel accuracy,mPA)、交并比(intersection over union,IoU)和平均交并比(mean intersection over union,mIoU)。PA是指類別預(yù)測(cè)正確的像素?cái)?shù)目占總像素的比例,計(jì)算公式如下:

mPA是每個(gè)類別的PA的求和再平均的值,計(jì)算公式如下:

IoU是類別預(yù)測(cè)結(jié)果和真實(shí)結(jié)果的交集與并集的比值,計(jì)算公式如下:

mIoU是每個(gè)類別IoU的和再平均的結(jié)果,計(jì)算公式如下:

其中,Cij代表在巖屑圖像中預(yù)測(cè)分類為i類、真實(shí)分類為j類的總像素?cái)?shù),如當(dāng)i=j,代表在巖屑圖像中像素點(diǎn)的預(yù)測(cè)為i類,同時(shí)實(shí)際值也是i類,這類結(jié)果表示為真;當(dāng)i!=j,代表在巖屑圖像中像素點(diǎn)的預(yù)測(cè)是j類,但是實(shí)際分類值為i類,這類結(jié)果為假。

3.3.2 消融實(shí)驗(yàn)結(jié)果與分析

為驗(yàn)證改進(jìn)的DeepLabV3+巖屑圖像語(yǔ)義分割模型的有效性,分別對(duì)MoblieNetV3 模塊,注意力機(jī)制EPSANet 模塊和編解碼聯(lián)系模塊進(jìn)行消融實(shí)驗(yàn)。選取DeepLabV3+網(wǎng)絡(luò)模型作為基線模型。在自制的巖屑數(shù)據(jù)集上性能對(duì)比結(jié)果如表1所示。

從表1 可以看出,原始的DeepLabV3+網(wǎng)絡(luò)在自制巖屑數(shù)據(jù)集上的評(píng)價(jià)指標(biāo)mPA為0.68,mIoU僅有0.57;用MoblieNetV3 替換Xception 進(jìn)行特征提取后,mPA比基線模型提升了0.05,mIoU比基線模型提升了0.03,參數(shù)量減少了10.17 M,速度提升了1.75 s;在ASPP 中加入注意力機(jī)制EPSANet 后,mPA比基線模型提升了0.02,mIoU比基線模型提升了0.04;在改進(jìn)了編解碼聯(lián)系模塊后,mPA比基線模型提升了0.03,mIoU比基線模型提升了0.06。實(shí)驗(yàn)表明,本文所提出的幾個(gè)改進(jìn)方法在性能上相較于原始的DeepLabV3+網(wǎng)絡(luò)均有不同程度的提高。

表1 消融實(shí)驗(yàn)的mPA、mIoU、參數(shù)量、單張圖像處理時(shí)間對(duì)比

3.3.3 與其他模型的比較

表2是不同算法在自制的巖屑圖像語(yǔ)義分割數(shù)據(jù)集下性能對(duì)比結(jié)果,其中加粗?jǐn)?shù)字是橫向比較最優(yōu)結(jié)果。從表2可以看出本文算法在巖屑圖像數(shù)據(jù)集上的mPA為0.78,mIoU為0.68,分割的整體性能優(yōu)于其他對(duì)比網(wǎng)絡(luò),具有更高的分割精度。

表2 不同算法的性能對(duì)比

為更直觀地比較不同算法的性能表現(xiàn),圖8展示了不同算法在巖屑圖像上語(yǔ)義分割結(jié)果。對(duì)比了7種不同的語(yǔ)義分割算法,圖中左上方框中的巖屑是灰綠色砂巖,從圖中可以看出Deep?LabV3+、UNet、UperNet、HRNet 算法將其錯(cuò)誤識(shí)別為灰綠色安山巖。右下方框中的巖屑是深灰色安山巖,Danet、FCN、DeepLabV3+、UNet、UperNet 算法未能很好地區(qū)分該巖屑和背景。從圖8 可以看出,本文改進(jìn)的DeepLabV3+算法語(yǔ)義分割結(jié)果優(yōu)于對(duì)比算法。

圖8 不同模型的語(yǔ)義分割對(duì)比圖組1

圖9展示了不同算法在密集巖屑圖像上的語(yǔ)義分割結(jié)果,圖中方框中的巖屑是灰綠色凝灰?guī)r,Danet、DeepLabV3+、PSPNet、UNet、Uper?Net、HRNet 算法將該巖屑的部分像素錯(cuò)誤分類為灰綠色安山巖。從圖中可以看出,本文算法性能優(yōu)于其他對(duì)比算法。

圖9 不同模型的語(yǔ)義分割對(duì)比圖組2

4 結(jié)語(yǔ)

本文針對(duì)巖屑圖像語(yǔ)義分割問(wèn)題,利用巖屑采集設(shè)備采集巖屑圖像制成數(shù)據(jù)集,并提出了基于DeepLabV3+算法的改進(jìn)方法。本文算法首先采用MobileNetV3 作為主干網(wǎng)絡(luò),以快速提取巖屑圖像不同尺度的特征,接著采用融合了EPSANet 的ASPP 網(wǎng)絡(luò),用于有效獲取巖屑圖像的重要信息并更好地融合圖像特征,最后借鑒FPN 思想,在解碼過(guò)程中融合編碼提取的不同尺度特征,從而得到更精準(zhǔn)的巖屑圖像語(yǔ)義分割結(jié)果。實(shí)驗(yàn)表明,本文算法在自制的巖屑數(shù)據(jù)集上mPA為0.78,mIoU為0.68,分割的整體效果優(yōu)于其他對(duì)比網(wǎng)絡(luò),巖屑顆粒的邊緣分割也更加精確。

猜你喜歡
語(yǔ)義特征信息
語(yǔ)言與語(yǔ)義
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
“上”與“下”語(yǔ)義的不對(duì)稱性及其認(rèn)知闡釋
認(rèn)知范疇模糊與語(yǔ)義模糊
展會(huì)信息
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
語(yǔ)義分析與漢俄副名組合
主站蜘蛛池模板: 日韩中文精品亚洲第三区| 亚洲日韩国产精品无码专区| 国产亚洲男人的天堂在线观看 | 一级毛片基地| 日韩高清欧美| 麻豆国产原创视频在线播放| 精品免费在线视频| 国产精品部在线观看| 一级香蕉人体视频| 三级欧美在线| 99视频在线看| 伊人久久精品亚洲午夜| 园内精品自拍视频在线播放| 国产精品一区不卡| 中文字幕欧美成人免费| 欧美亚洲另类在线观看| 自拍偷拍一区| 亚洲av综合网| 538精品在线观看| 国产jizz| 日韩福利在线视频| 久久综合九色综合97网| 国产青青草视频| 91久久青青草原精品国产| 麻豆精品视频在线原创| 亚洲成人高清无码| 成人va亚洲va欧美天堂| 中文字幕在线永久在线视频2020| 亚洲三级色| 无码免费试看| 91精品啪在线观看国产| 亚洲欧美日韩中文字幕一区二区三区| 奇米影视狠狠精品7777| 日韩a在线观看免费观看| 欧美精品高清| www成人国产在线观看网站| 日韩精品亚洲人旧成在线| 久久成人免费| 色综合久久88| 狠狠色丁香婷婷综合| 制服无码网站| 亚洲午夜天堂| 一区二区偷拍美女撒尿视频| 丁香婷婷在线视频| 日韩激情成人| 国产交换配偶在线视频| 国产自在线播放| 无码中文字幕乱码免费2| 欧洲成人免费视频| 直接黄91麻豆网站| 欧美成人精品一级在线观看| 综合成人国产| 精品国产aⅴ一区二区三区| 欧美成人h精品网站| 亚洲高清日韩heyzo| av在线无码浏览| 青草91视频免费观看| 日韩在线欧美在线| 免费又黄又爽又猛大片午夜| 国产又粗又猛又爽视频| 天天色天天综合网| 99久久精品久久久久久婷婷| 怡红院美国分院一区二区| 97成人在线视频| 九九热这里只有国产精品| 国产三级精品三级在线观看| 国产精品护士| 88av在线看| 人妻中文久热无码丝袜| 国产成人久视频免费| 亚洲a级毛片| 伊人无码视屏| 高清亚洲欧美在线看| 黄色国产在线| 色吊丝av中文字幕| 99精品国产自在现线观看| 亚洲精品卡2卡3卡4卡5卡区| 欧美日韩中文国产| 美女国产在线| 日本一区中文字幕最新在线| 人妻丰满熟妇啪啪| 欧美成人一级|