999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)BiSeNet的輕量級(jí)水利語(yǔ)義分割算法

2022-06-16 03:29:34張育敬陶青川
現(xiàn)代計(jì)算機(jī) 2022年7期
關(guān)鍵詞:語(yǔ)義水利特征

張育敬,陶青川

(四川大學(xué)電子信息學(xué)院,成都 610065)

0 引言

水利在現(xiàn)代社會(huì)的發(fā)展過(guò)程中扮演了重要的角色,是經(jīng)濟(jì)建設(shè)、農(nóng)業(yè)建設(shè)和環(huán)境改善不可或缺的一部分,它對(duì)水資源的保護(hù)和監(jiān)管具有重要意義。傳統(tǒng)水利的監(jiān)管方法主要是通過(guò)人工進(jìn)行監(jiān)管,組織巡查隊(duì)進(jìn)行24 小時(shí)輪崗監(jiān)管,這樣的方式比較耗費(fèi)人力物力,監(jiān)管的范圍也比較小,不適合河道全方位、全天候的統(tǒng)一實(shí)時(shí)管理。隨著信息化時(shí)代的發(fā)展,信息化建設(shè)滲透到社會(huì)的各個(gè)領(lǐng)域,水利信息化也逐漸替代傳統(tǒng)水利,成為我國(guó)水利現(xiàn)代化的基礎(chǔ)支撐和重要標(biāo)志。目前,很多地區(qū)的水利部門都在進(jìn)行智能視頻監(jiān)控建設(shè),在各自關(guān)注的重點(diǎn)河道都架起了視頻監(jiān)控點(diǎn),智能監(jiān)控系統(tǒng)逐步投入使用。智能監(jiān)控包括視頻采集、視頻分析和信息反饋,其中最重要的就是對(duì)水利視頻進(jìn)行分析,識(shí)別并提取出水利場(chǎng)景中的各種必要的信息。

目前,對(duì)水利場(chǎng)景進(jìn)行分析的算法大多基于傳統(tǒng)的機(jī)器視覺(jué),例如幀間差分法、邊緣檢測(cè)算法、形態(tài)學(xué)分析等,這些傳統(tǒng)方法適用于簡(jiǎn)單、固定的場(chǎng)景,但水利場(chǎng)景比較復(fù)雜,包含多種類、多尺度的目標(biāo),例如水域、水尺、漂浮物等,傳統(tǒng)方法難以適用,算法精確度較低。隨著深度學(xué)習(xí)的發(fā)展,目標(biāo)檢測(cè)和語(yǔ)義分割技術(shù)逐漸應(yīng)用于水利場(chǎng)景中。在水利場(chǎng)景中,水域往往覆蓋面很廣,目標(biāo)檢測(cè)雖然能檢測(cè)出目標(biāo)的種類,但是很難展現(xiàn)出水域的輪廓信息,而語(yǔ)義分割從像素級(jí)別對(duì)圖像進(jìn)行解釋,給每個(gè)像素或者分組像素提供不同的語(yǔ)義類別,輸入一張圖像通過(guò)語(yǔ)義分割網(wǎng)絡(luò)得到一張逐像素標(biāo)注的圖像。語(yǔ)義分割不僅能識(shí)別出目標(biāo),還可以標(biāo)記出目標(biāo)的邊界,滿足水利場(chǎng)景分析的要求。近年來(lái),涌現(xiàn)了許多優(yōu)秀的語(yǔ)義分割網(wǎng)絡(luò),例如FCN、SegNet、DeepLab v3+等,它們大多是編碼器-解碼器結(jié)構(gòu),擁有不俗的分割效果,但模型較大,不夠輕量,實(shí)時(shí)性不強(qiáng)。

2018 年,曠視科技提出了一個(gè)可實(shí)現(xiàn)實(shí)時(shí)語(yǔ)義分割的雙向網(wǎng)絡(luò)BiSeNet(bilateral segmentation network),不同于一般語(yǔ)義分割的編碼器-解碼器結(jié)構(gòu),采用了雙向路徑來(lái)保留空間信息和擴(kuò)大感受野,相比于SegNet、DeepLab v3+等網(wǎng)絡(luò)在速度和計(jì)算量方面都有不小的提升。針對(duì)水利場(chǎng)景的特點(diǎn),本文在BiSeNet 基礎(chǔ)上進(jìn)行結(jié)構(gòu)化改進(jìn),將上下文路徑替換成更加輕量的MobileNet v2,并嵌入SE 通道注意力機(jī)制,減小了模型的計(jì)算量;然后在主干網(wǎng)絡(luò)末端引入金字塔 池化模塊(pyramid pooling module,PPM),通過(guò)聚合不同區(qū)域、不同尺度的特征信息來(lái)獲取增強(qiáng)的上下文信息特征;最后對(duì)空間路徑進(jìn)行優(yōu)化,復(fù)用上下文路徑的淺層特征信息來(lái)替換原版的空間路徑,減少因?yàn)橐腩~外路徑所造成的不必要耗時(shí)。改進(jìn)后的BiSeNet 網(wǎng)絡(luò)在水利樣本集上取得了不錯(cuò)的分割效果。

1 研究方法

1.1 BiseNet網(wǎng)絡(luò)概述

BiSeNet 是曠視科技在ECCV 2018 提出的一個(gè)實(shí)時(shí)雙邊語(yǔ)義分割網(wǎng)絡(luò),它不同于一般語(yǔ)義分割網(wǎng)絡(luò)的編碼器-解碼器結(jié)構(gòu),而是采用雙邊分割結(jié)構(gòu),包含兩個(gè)部分:空間路徑(spatial path)和上下文路徑(context path),這兩個(gè)部分分別用來(lái)解決空間信息缺失和感受野不足的問(wèn)題。對(duì)于Spatial Path,BiSeNet 設(shè)計(jì)了三個(gè)帶有小步長(zhǎng)的卷積層,使用較多通道數(shù)和較淺的網(wǎng)絡(luò)來(lái)保留圖像的空間信息,生成高分辨率的feature map;對(duì)于Context Path,BiSeNet 采用ResNet 或者Xception 作為主干,使用較少通道數(shù)和較深的網(wǎng)絡(luò)進(jìn)行快速下采樣來(lái)獲取最大的感受野。此外,BiSeNet 還設(shè)計(jì)了注意力優(yōu)化模塊(attention refinement module,ARM)和特征融合模塊(feature fusion module,F(xiàn)FM)來(lái)優(yōu)化和融合兩個(gè)路徑的輸出。具體網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

圖1 BiSeNet網(wǎng)絡(luò)結(jié)構(gòu)示意圖

1.1.1 注意力優(yōu)化模塊(ARM)

ARM 用于優(yōu)化Context Path 下采樣階段的feature map。Context Path 最后一層使用全局平均池化(GAP,global average pooling)來(lái)融合每個(gè)階段經(jīng)過(guò)ARM 的輸出特征,將底層和較深層的語(yǔ)義信息進(jìn)行拼接。具體結(jié)構(gòu)如圖2所示。

圖2 ARM結(jié)構(gòu)示意圖

ARM 屬于通道注意力機(jī)制,先使用GAP 來(lái)得到全局語(yǔ)義信息,歸一化之后用sigmoid 激活層計(jì)算注意力特征向量,指導(dǎo)特征學(xué)習(xí)。該模塊對(duì)下采樣中每個(gè)階段的輸出特征進(jìn)行優(yōu)化,而且無(wú)需上采樣就可以集成全局特征信息,計(jì)算成本可以忽略不計(jì)。

1.1.2 特征融合模塊(FFM)

FFM 用于融合Spatial Path 的淺層空間信息和Context Path 的深層語(yǔ)義信息。具體結(jié)構(gòu)如圖3所示。

圖3 FFM結(jié)構(gòu)示意圖

由于兩個(gè)路徑表達(dá)的信息在不同的層次,Spatial Path 主要捕獲低層級(jí)的空間信息,其編碼了絕大多數(shù)的細(xì)節(jié)信息,而Context Path 的輸出特征主要編碼高層次語(yǔ)境信息,二者在全局特征中占有的權(quán)重不一樣,因此不能簡(jiǎn)單相加。所以在雙邊路徑層級(jí)給定的情況下,首先將兩個(gè)部分的feature map通過(guò)concat方式疊加,然后通過(guò)卷積歸一化平衡特征的尺度。接著,將融合的特征進(jìn)行GAP,計(jì)算出每個(gè)通道的權(quán)重向量,并跟原始特征進(jìn)行加權(quán)求和。通過(guò)計(jì)算權(quán)重向量的方式,可以重新對(duì)兩個(gè)路徑的feature map進(jìn)行加權(quán),起到特征選擇和組合的作用。

1.2 網(wǎng)絡(luò)改進(jìn)

Context Path 采用ResNet 或者Xception 作為特征提取網(wǎng)絡(luò),提取特征的能力很強(qiáng)大,但不夠輕量,而且額外增加卷積層作為Spatial Path也無(wú)疑降低了算法的效率。此外,雖然Context Path 多次使用GAP 來(lái)融合全局上下文信息,但是其對(duì)信息的融合和提取能力有限,而且簡(jiǎn)單地使用GAP 將信息壓縮為一個(gè)通道很容易損失很多有用的信息。因此為了保證精度和滿足嵌入式邊緣設(shè)備的運(yùn)行要求,本文采用的改進(jìn)方法是,首先將主干特征提取網(wǎng)絡(luò)替換成MobileNet v2,并嵌入SE 注意力機(jī)制模塊,然后在末端增加一個(gè)金字塔池化層,得到多尺度的深層特征,然后用MobileNet v2 的淺層特征來(lái)替代原Spatial Path,最后將淺層特征和深層特征送入到FFM,進(jìn)行最終的分割。改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

圖4 改進(jìn)后的BiSeNet網(wǎng)絡(luò)模型

1.2.1 MobileNet v2嵌入SE注意力機(jī)制

MobileNet v2 是一個(gè)輕量級(jí)的卷積神經(jīng)網(wǎng)絡(luò),它使用深度可分離卷積(depthwise separable convolution)來(lái)減少運(yùn)算量以及倒殘差結(jié)構(gòu)(inverted resdiual block)來(lái)加強(qiáng)特征的提取。SE(squeeze-and-excitation)屬于注意力機(jī)制,它根據(jù)feature map 不同通道的重要程度,計(jì)算各自的注意力權(quán)重向量,從而增強(qiáng)有用特征,抑制無(wú)用特征。本文在主干網(wǎng)絡(luò)的最后一層嵌入SE 模塊,由于SE 模塊比較輕量,幾乎不會(huì)增加額外的參數(shù)。

為了便于分辨和復(fù)用低層次特征信息,將主干網(wǎng)絡(luò)分為4個(gè)下采樣階段,分別是(Stage 1,…,Stage 4),其中將Stage1 產(chǎn)生的高分辨率feature map作為新的Spatial Path的輸出。整體結(jié)構(gòu)如表1所示,其中為倒殘差結(jié)構(gòu)的擴(kuò)張率,為輸出通道數(shù),為重復(fù)次數(shù),為步長(zhǎng)。

表1 主干網(wǎng)絡(luò)結(jié)構(gòu)

1.2.2 金字塔池化

本文在改進(jìn)的主干網(wǎng)絡(luò)末端使用一個(gè)金字塔池化模塊(PPM)對(duì)深層特征進(jìn)行處理,如圖5所示。具體流程是使用不同尺寸的池化核對(duì)深層特征進(jìn)行池化,得到不同的特征區(qū)域,然后通過(guò)上采樣與原特征進(jìn)行concat,利用1x1 conv調(diào)整通道數(shù)。

圖5 PPM結(jié)構(gòu)示意圖

PPM 是一種獲取上下文信息比較好的方式,這種多尺度的池化可以在不同的尺度下保留全局信息,比起普通的單一池化結(jié)構(gòu)更能保留全局上下文信息。

2 實(shí)驗(yàn)與分析

2.1 樣本集

為了保證樣本的多樣性,本研究的樣本集數(shù)據(jù)通過(guò)網(wǎng)上爬取、成都九眼橋河道拍攝和成都河長(zhǎng)制水利局拍攝得到,采集的樣本圖片包含不同地點(diǎn)、不同天氣的水利場(chǎng)景,并通過(guò)對(duì)圖片進(jìn)行加噪、裁剪等操作對(duì)樣本進(jìn)行擴(kuò)充,一共得到2321 張圖像。使用Labelme 軟件對(duì)原始圖像進(jìn)行標(biāo)注,生成對(duì)應(yīng)的json 文件,并通過(guò)腳本將同一類的圖像區(qū)域標(biāo)記為同一顏色,類別與RGB值的映射關(guān)系如表2所示。

表2 映射關(guān)系表

通過(guò)上述步驟后,將樣本集以9 ∶1劃分訓(xùn)練集和驗(yàn)證集,有2089 張訓(xùn)練集和232 張驗(yàn)證集。原圖和標(biāo)注圖如圖6所示。

圖6 人工標(biāo)注

2.2 網(wǎng)絡(luò)訓(xùn)練

由于采集的樣本分辨率不等,所以先對(duì)圖像進(jìn)行不失真的resize,壓縮到512×512,然后再送入網(wǎng)絡(luò)進(jìn)行訓(xùn)練。訓(xùn)練分為兩個(gè)部分,一是主干凍結(jié)訓(xùn)練,二是整體解凍訓(xùn)練。第一個(gè)階段使用MobileNet v2 在ImageNet 數(shù)據(jù)集的預(yù)訓(xùn)練權(quán)值來(lái)初始化主干網(wǎng)絡(luò)參數(shù),在該階段主干的權(quán)值參數(shù)不更新。第二階段更新整體網(wǎng)絡(luò)的參數(shù),進(jìn)行解凍訓(xùn)練。整個(gè)流程如圖7所示。

圖7 訓(xùn)練流程

訓(xùn)練使用的優(yōu)化算法是Adam(adaptive moment estimation),權(quán)重衰減率設(shè)置為2e,初始學(xué)習(xí)率設(shè)置為5e,根據(jù)迭代次數(shù)的增大逐漸減小學(xué)習(xí)率,如公式(1)所示。

其中,是當(dāng)前的迭代次數(shù),max_是總迭代次數(shù),設(shè)置為0.9。

訓(xùn)練采用的loss 由Cross Entropy Loss 和Dice Loss 組成。Cross Entropy Loss 是普通的交叉熵?fù)p失,Dice Loss 將語(yǔ)義分割的評(píng)價(jià)指標(biāo)作為L(zhǎng)oss,Dice Loss = 1-Dice,其中Dice 系數(shù)是一種集合相似度度量函數(shù),通常用于計(jì)算兩個(gè)樣本的相似度,取值范圍在[0,1],如公式(2)所示。

其中是預(yù)測(cè)結(jié)果,為真實(shí)結(jié)果。訓(xùn)練過(guò)程中的總loss隨epoch的變化曲線如圖8所示。

圖8 loss曲線

2.3 結(jié)果分析

本文實(shí)驗(yàn)環(huán)境為Pytorch1.8.0、 Cuda11.1、Python3.8、Ubuntu18.04LTS;處理器為英特爾酷睿I5-7400;CPU 頻率為3.0 GHz;內(nèi)存8 GB;GPU 顯卡為NVIDIA GTX 1080TI,顯存11 GB。

本實(shí)驗(yàn)對(duì)BiSeNet、DeepLab v3+、以及本文基于BiSeNet 改進(jìn)的網(wǎng)絡(luò)進(jìn)行性能和效果的對(duì)比。測(cè)試集的分割效果如圖9所示。

圖9 分割結(jié)果對(duì)比

實(shí)驗(yàn)采用平均交并比MIoU(mean intersection overunion)來(lái)評(píng)價(jià)兩個(gè)模型在量化后的分割效果。在語(yǔ)義分割任務(wù)中,計(jì)算真實(shí)值和預(yù)測(cè)值兩個(gè)集合的交集和并集之比,將每一類累加并取平均。如公式(3)所示。

其中為分割的類別數(shù),P為預(yù)測(cè)為第類且與真實(shí)值相同的像素點(diǎn),P為預(yù)測(cè)為第類但真實(shí)值為第類的像素點(diǎn),P為預(yù)測(cè)為第類但真實(shí)值為第類的像素點(diǎn),在求并集時(shí)P區(qū)域多加了一次,所以要減掉一次。對(duì)驗(yàn)證集分別計(jì)算、、模型大小等指標(biāo),如表3所示。

表3 分割性能對(duì)比

表3 和圖9 給出了BiSeNet、DeepLab v3+和改進(jìn)后BiSeNet 網(wǎng)絡(luò)在水利數(shù)據(jù)集上的表現(xiàn)和分割情況。從分割性能表可以看出,改進(jìn)后的BiSeNet 能夠達(dá)到72.12% 的,比原版的BiSeNet 高了4.66%,也比DeepLab v3+網(wǎng)絡(luò)高了2.67%,同時(shí)模型的參數(shù)量大大減少,速度雖稍低于原BiSetNet網(wǎng)絡(luò),但也滿足了水利場(chǎng)景實(shí)時(shí)性的要求。從分割效果圖可以看出,改進(jìn)后的BiSeNet 網(wǎng)絡(luò)解決了原網(wǎng)絡(luò)中對(duì)于目標(biāo)物體邊緣細(xì)節(jié)分割不太準(zhǔn)確的問(wèn)題,在水利數(shù)據(jù)集上的分割效果更好。

3 結(jié)語(yǔ)

本文針對(duì)水利場(chǎng)景語(yǔ)義分割任務(wù)中,場(chǎng)景復(fù)雜多樣、傳統(tǒng)算法難以適應(yīng)、常見(jiàn)語(yǔ)義分割網(wǎng)絡(luò)不夠輕量的問(wèn)題,在BiSeNet 網(wǎng)絡(luò)基礎(chǔ)上,對(duì)主干結(jié)構(gòu)進(jìn)行針對(duì)性改進(jìn)。先將原有主干的特征提取網(wǎng)絡(luò)替換成更加輕量的MobileNet v2 網(wǎng)絡(luò),并嵌入SE 注意力機(jī)制,接著在網(wǎng)絡(luò)末端增加一個(gè)金字塔池化層,通過(guò)聚合不同區(qū)域的上下文,得到多尺度的深層特征,然后與優(yōu)化后的空間路徑進(jìn)行特征融合進(jìn)行最終的分割。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的BiSeNet 網(wǎng)絡(luò)相比于原網(wǎng)絡(luò)的提升了4.66%,平均精度更高,大大減少了模型的參數(shù)量,在水利數(shù)據(jù)集的表現(xiàn)效果更好。

猜你喜歡
語(yǔ)義水利特征
為奪取雙勝利提供堅(jiān)實(shí)水利保障(Ⅱ)
為奪取雙勝利提供堅(jiān)實(shí)水利保障(Ⅰ)
水利工會(huì)
語(yǔ)言與語(yǔ)義
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
“上”與“下”語(yǔ)義的不對(duì)稱性及其認(rèn)知闡釋
認(rèn)知范疇模糊與語(yǔ)義模糊
水利
江蘇年鑒(2014年0期)2014-03-11 17:09:39
主站蜘蛛池模板: 欧美另类图片视频无弹跳第一页| 99热国产这里只有精品无卡顿"| 国产一区二区三区视频| 日韩精品无码一级毛片免费| 国产手机在线ΑⅤ片无码观看| 国产女人在线| 欧美色图久久| 91成人在线观看| 亚洲欧美日韩视频一区| 免费Aⅴ片在线观看蜜芽Tⅴ| 18禁黄无遮挡网站| 亚洲最大福利网站| www.亚洲国产| 日本高清免费一本在线观看 | 呦系列视频一区二区三区| 无码aaa视频| 亚洲无码熟妇人妻AV在线| 日本少妇又色又爽又高潮| 精品第一国产综合精品Aⅴ| 69免费在线视频| 人妻中文久热无码丝袜| 亚洲狠狠婷婷综合久久久久| 国内自拍久第一页| 国产在线一二三区| 狠狠干综合| 五月激情婷婷综合| 中文字幕一区二区视频| 黄片一区二区三区| 天天干天天色综合网| 99精品国产自在现线观看| 日本三区视频| 国产成人h在线观看网站站| 成人无码一区二区三区视频在线观看| 夜夜爽免费视频| 国产精品亚洲一区二区三区在线观看| 91精品国产91久久久久久三级| 亚洲国产精品一区二区第一页免| 伦精品一区二区三区视频| 久久人搡人人玩人妻精品| 国产三级a| 亚洲第一成年免费网站| 亚洲美女一级毛片| 污污网站在线观看| 一级毛片视频免费| 国产人人射| 国产精品污视频| 欧美性猛交一区二区三区| 国产欧美精品一区二区| 色婷婷成人网| 91久久偷偷做嫩草影院| 亚洲国产欧美国产综合久久| 最新国产麻豆aⅴ精品无| 久久久噜噜噜久久中文字幕色伊伊 | 国产自在线拍| 国国产a国产片免费麻豆| 九九热精品视频在线| 97se亚洲| 日韩免费成人| 热久久国产| 22sihu国产精品视频影视资讯| 亚洲精品视频免费观看| 99精品视频九九精品| 无码乱人伦一区二区亚洲一| 鲁鲁鲁爽爽爽在线视频观看| 欧美色视频日本| 一区二区三区在线不卡免费| 免费国产在线精品一区 | 日本免费福利视频| 福利姬国产精品一区在线| 日韩精品成人在线| 国产微拍一区二区三区四区| 久久久久中文字幕精品视频| 国产毛片一区| 五月天综合婷婷| 永久免费无码成人网站| 国产永久无码观看在线| 国产成本人片免费a∨短片| 久久亚洲高清国产| 熟女日韩精品2区| 亚洲欧洲美色一区二区三区| 欧美福利在线播放| 中国特黄美女一级视频|