999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進DeepLab V3+的果園場景多類別分割方法

2023-01-05 03:55:38姜建濱賈衛東莊珍珍
農業機械學報 2022年11期
關鍵詞:語義模型

劉 慧 姜建濱 沈 躍 賈衛東 曾 瀟 莊珍珍

(1.江蘇大學電氣信息工程學院,鎮江 212013;2.江蘇大學農業工程學院,鎮江 212013)

0 引言

我國是果業大國,露天果園環境的病蟲害防治主要途徑是農藥噴灑。隨著我國農業機械化水平的提高和現代化果園的規模化種植,果園噴霧機器人成為林果園植保機械的重要研究內容和發展方向[1-2]。果園噴霧機器人的噴霧決策離不開果園環境感知,尤其是靶標識別,目前常用的果園噴霧靶標探測技術包括超聲波探測、紅外線探測、激光雷達探測等[3-4]。紅外傳感器易受光照強度影響且只能探測靶標的有無,無法探測靶標的形態特征;超聲波探測精度低,范圍小,需多傳感器配合;激光雷達成本較高[5]。果園場景的實時感知和多目標分割,能夠為噴霧機器人的變量施藥和安全作業提供有效決策,是果園噴霧機器人精準作業的重要前提和保障[3]。近些年來,計算機視覺、圖像處理技術在農業生產中得到了廣泛的應用[6-9]。基于深度學習的語義分割[10-13]和目標檢測[14-15]已成為大量學者的研究方向,果園噴霧機器人使用計算機視覺技術對周圍場景實時檢測,對靶標精準識別,可以提高農藥利用率,從而減少農藥污染。

近些年來,學者們提出了一系列基于深度學習的圖像語義分割方法[16],其中DeepLab V3+在PASCAL VOC 2012和Cityscapes數據集上分別達到89.0%和82.1%的測試集性能[17],其精度可以滿足在果園環境下分割達到較高準確率的要求。但其主干網絡Xception[18]計算量大,消耗大量顯存,且模型占用計算機內存大,尚未滿足在機器人移動設備上部署的要求。

為了保證果園噴霧機器人精準作業,本文旨在實現精準識別靶標,基于DeepLab V3+算法進行改進和優化,采用MobileNet V2作為主干網絡,并對卷積進行改進,同時減少網絡計算量,設計更為輕量化的網絡結構,提高網絡的運行速度和分割精度,以滿足在移動端部署的要求,從而達到在復雜果園環境中,噴霧機器人進行精準噴霧和安全作業的目的。

1 果園場景語義分割模型

1.1 DeepLab V3+網絡

DeepLab V3+是在DeepLab V3的基礎上進行了改進,它是一種新的編碼器-解碼器結構。DeepLab V3作為其編碼器部分,添加了一個簡單有效的解碼器模塊,DeepLab V3+總體原理如圖1所示。

圖1 DeepLab V3+總體原理圖

編碼器使用空洞空間金字塔池化,以Xception網絡作為特征提取網絡,并引入深度可分離卷積進行改進應用到ASPP中,采用多網格法,3個卷積采用不同的擴張率,將得到的圖像級特征輸入256個濾波器的1×1卷積并進行批量歸一化處理。

Xception由具有殘差連接的深度可分離卷積線性堆疊,分為Entry flow、重復16次的Middle flow以及Exit flow。在經過批量歸一化處理后進行1×1卷積,對通道降維以得到編碼器部分的輸出。

解碼器部分旨在連接低層次特征與高層次特征,解碼器部分同樣應用深度可分離卷積,將編碼器部分輸出(高層次特征,output_stride為16)經過4倍雙線性上采樣得到的特征層與編碼器中對應著相同分辨率的特征層(低層次特征,output_stride為4)進行1×1卷積降維后融合,再經過一個3×3卷積細化,最終再經過4倍雙線性上采樣得到原圖分辨率的預測結果。

1.2 改進的DeepLab V3+果園場景語義分割模型

1.2.1改進DeepLab V3+主干網絡的輕量化設計

DeepLab V3+在語義分割方面已經能達到較高精度,但其主干網絡Xception參數量龐大,消耗大量的顯存,在Xception組成部分中,雖然網絡層數最多的是Middle flow,但顯存消耗最大的卻是Entry flow,這是由于在Entry flow里的特征還未被充分下采樣,分辨率相當高,同時Entry flow里的通道數很多,這也是導致Xception計算量大的一個重要原因,因而需要耗費較長的時間。

農業機器人需快速獲取周圍環境信息,形成決策并控制執行器做出反應。為了在果園噴霧機器人上部署,引入輕量化網絡MobileNet V2[19],MobileNet系列網絡以深度可分離卷積[20](Depthwise separable convolution)來減少運算量及參數量,適合在移動設備上部署。將MobileNet V2作為基礎網絡,為了滿足精度與速度之間的平衡,且對于一般情況下的果園噴霧機器人而言,達到較為精準和快速的作業即可,故而在MobileNet V2的基礎上,將ASPP中的ReLU[21]激活函數替換成ClippedReLU[22]激活函數,ClippedReLU激活函數是ReLU激活函數的變形,在ReLU的基礎上增加了上限z,即

f(x)=min(relu(x),z)=min(max(0,x),z)

(1)

式中f(x)——ClippedReLU激活函數的輸出

x——輸入特征值

z——ClippedReLU激活函數上限

令z=6,則得到ReLU6激活函數,對于果園噴霧機器人移動設備部署,主要是對果樹進行識別,在果園噴霧存在誤差的低精度場景下,ReLU6較ReLU具有更好的魯棒性[14]。

1.2.2混合擴張卷積

自DeepLab V2起,空洞(擴張)卷積被運用在ASPP中,空洞卷積是在標準的卷積圖注入空洞,以此增加感受野,與標準的卷積相比,空洞卷積多了一個超參:擴張率,即卷積圖上卷積核之間的間隔數。在語義分割領域,將原始圖像輸入到卷積網絡中,傳統的方法會對圖像卷積后再做池化處理,降低圖像尺寸的同時增大感受野,但語義分割是像素級的預測,在最后會進行上采樣以得到與原圖圖像尺寸一樣的預測結果,但在先減小后增大尺寸的過程中,伴隨著信息的損失,而空洞卷積的引入一定程度上可解決這一問題,因空洞卷積在非池化操作卷積的情況下,增大了感受野。但空洞卷積存在網格效應問題,網格效應指多次疊加多個具有相同擴張率的卷積核會造成網格中有一些像素自始至終都沒有參與運算。當空洞卷積在高層使用的擴張率變大時,對輸入的采樣會變得很稀疏,不利于學習,因為一些局部信息完全丟失,而長距離上的一些信息可能并不相關;并且網格效應可能會打斷局部信息之間的連續性,雖然ASPP疊加擴張率不同的卷積,但這些擴張率并不互質,仍然會存在網格效應。

語義分割不同于目標檢測,不僅僅識別目標,還需了解像素分布,尤其是針對果園噴霧機器人,果樹形態分布對噴霧的控制決策十分重要,即果樹的特征信息很重要,而DeepLab V3+的ASPP采用的空洞卷積存在信息丟失問題。故本文針對空洞卷積網格效應的問題,引入混合擴張卷積[23],混合擴張卷積將卷積的擴張率設置為鋸齒狀,如[r1,r2,…,ri,…,rn],…,[r1,r2,…,ri,…,rn]的循環結構,并滿足

Mi=max(Mi+1-2ri,Mi+1-2(Mi+1-ri),ri)

(2)

其中

Mn=rn

式中Mi——第i層卷積最大擴張率

ri——第i層卷積的擴張率

式(2)應滿足M2≤K(卷積核大小為K×K),以此來保證至少能夠以擴張率1來彌補所有空洞,即至少以標準卷積計算。

在此基礎之上,將ASPP中的卷積擴張率設置為1、2、5、9,以此實現對不同像素占比大小目標的特征捕獲,大的擴張率對應像素占比大的目標,小擴張率對應像素占比小的目標。HDC的優點是使用任意滿足式(2)的擴張率,可以在不增加額外模塊的情況下擴大網絡的感受野。

改進后的ASPP模塊如圖2所示,圖中DW表示深度卷積(Depthwise convolution),PW表示逐點卷積(Pointwise convolution),DW+PW則組成深度可分離卷積,BN表示批量歸一化(Batch normalization),Dilated表示該卷積為空洞(擴張)卷積。

圖2 改進后的ASPP模塊

1.2.3改進后的DeepLab V3+網絡結構

將Mobilenet V2替代DeepLab V3+的Xception主干網絡,將HDC的思想應用到DeepLab V3+的ASPP模塊中,把ASPP模塊中的卷積擴張率設置成鋸齒狀結構,這些擴張率互質,改進后的網絡簡圖如圖3所示。

圖3 改進后的DeepLab V3+網絡

2 果園場景分割試驗

2.1 試驗平臺

深度學習硬件平臺為一臺配有Intel(R)Core(TM)i9-10900K CPU 64 GB內存、NVIDIA Quadro RTX 4000 GPU的計算機,安裝有CUDA10.0版本的并行計算框架和CUDNN7.0版本的深度神經網絡加速庫。在Linux操作平臺基于Pytorch框架實現本文的DeepLab V3+語義分割模型并完成對模型的訓練、驗證及測試。

2.2 試驗數據采集及標注

由于目前還有很多未包含多類別的果園場景公開數據集,所以本試驗中使用的是實景拍攝并制作的數據集。用車載Realsense D435型相機(圖4,相機距離地面1.34 m)在果園內共拍攝了360幅RGB圖像,圖像分辨率為960像素×720像素。包含8類果園常見場景目標:天空、樹、人、路、車(農用車)、建筑、地面及標志物(灌溉管、支撐桿和標志牌等)。

圖4 噴霧機器人試驗平臺

采用GamVid數據集格式[24],使用其官方標注工具InteractLabeler對每幅圖像進行像素級數據標注,得到真實框(Ground truth)用于訓練,將標注圖像保存為PNG格式,如圖5所示。除8類常見果園場景目標外,在對采集圖像進行標注時,像素占比小的目標標注較為困難且存在誤差,將其新增為一類:其他類,即未標注類。將數據集按照比例4∶1分為訓練集和測試集。

圖5 數據集圖像示意圖

2.3 模型訓練

為防止訓練過擬合、提高網絡準確率、減少圖像中光照影響,同時擴增圖像的數量,首先采用直方圖均衡化增強圖像的對比度,再通過隨機翻轉、隨機平移、隨機裁剪、隨機反射進行數據增強,圖像數量擴充為1 440幅,圖像分辨率為960像素×720像素,在訓練前將DeepLab V3+在GamVid數據集上的公開預訓練模型的參數值除分類層之外都賦給本文模型的初始化參數,分類層采用均值為0、標準差為0.01的高斯分布隨機初始化。用于訓練的優化算法是動量隨機梯度下降算法。損失函數L為交叉熵損失函數;訓練迭代次數設為30 000,沖量設為0.9,學習率設為0.01,采用Poly策略,批量大小設為8,每100次迭代驗證一次并保存為最新訓練模型,最終選取保存精度最高的模型。計算式為

(3)

式中N——當前batch樣本量

M——類別

yic——指示變量,如果i類別和樣本c類別相同則為1,否則是0

pic——觀測樣本i屬于類別c的預測概率

3 試驗結果與分析

3.1 分割評價指標

分割評價的指標包括像素精度(Pixel accuray, PA)、平均像素精度(Mean pixel accuray, MPA)、交并比(Intersection over union, IoU)、平均交并比(Mean intersection over union, MIoU)。

3.2 改進DeepLab V3+模型對果園場景的分割結果

分別對改進前后的模型進行測試,8類主要場景目標分割結果對比如表1所示。

表1 改進前后DeepLab V3+模型的8類果園場景目標分割結果對比

由表1可知,除車外,改進后模型各類別的分割精度和交并比均比改進前有不同程度的提高。由于在果園中,車出現的頻率較小,且在行間行走時,一般不會同時有多輛噴霧機器人同時作業,所以對車類的識別不會影響噴霧機器人作業安全和效率。除了車以外,標志物也是出現頻率很低的目標,所以這兩者精度和平均交并比都較低,但對于果園噴霧機器人而言,果樹是主要的識別目標,改進后的模型對樹的PA比改進前提高1.31個百分點,IoU提高2.48個百分點,這說明改進后的模型更利于果園噴霧機器人的靶標識別,對精準噴霧具有指導決策的作用。

3.3 不同模型的分割結果對比分析

針對不同主干網絡,基于Pytorch分割結果如圖6所示。圖6c~6f分別為4種模型的分割結果,其中圖6e為改進前以Xception為主干網絡的DeepLab V3+分割結果,圖6f為本文DeepLab V3+分割結果。本文方法以MobileNet V2為主干網絡的DeepLab V3+模型總體優于主干網絡為Xception、ResNet50以及ResNet101的模型,對像素占比大的目標,分割效果更為明顯;改進前以Xception為主干網絡的DeepLab V3+模型識別錯誤率相對較高(尤其是對天空出現大片的錯誤識別),本文改進的DeepLab V3+未出現大片的誤識別,說明改進的DeepLab V3+模型其分割準確率有了一定的提升。除天空外,4種模型對像素占比大的目標識別相差不大,但對距離較遠,像素占比小的目標識別卻有差別,如改進前以Xception為主干網絡的DeepLab V3+模型對遠處像素占比小的建筑并不敏感,并未識別出遠處像素占比小的建筑;對于灌溉管的識別,改進后的模型表現明顯優于其他3種;對人的識別,改進前以Xception為主干網絡的DeepLab V3+模型表現也不如其他3種,改進后模型對人的識別,輪廓的分割更為清晰,更與標注貼近;改進前以Xception為主干網絡的DeepLab V3+模型對支撐桿并不敏感,雖然與樹干的顏色相近,但其他3種對支撐桿都有一定的識別。

圖6 不同模型的分割結果

使用不同主干網絡,不同模型的分割效果及模型參數量對比如表2所示。由表2可知,本文改進后的DeepLab V3+模型的像素精度達到91.84%,比改進前以Xception為主干網絡的DeepLab V3+模型提高2.75個百分點,高出以ResNet50為主干網絡的DeepLab V3+模型0.7個百分點,比以ResNet101為主干網絡的DeepLab V3+低0.26個百分點。本文改進后DeepLab V3+模型的MPA和MIoU分別達到62.81%和56.64%,比改進前以Xception為主干網絡的DeepLab V3+分別提升5.52個百分點和8.75個百分點,且單幅圖像分割時間也縮短0.09 s。MPA和MIoU略低于DeepLab V3+(ResNet50)和DeepLab V3+(ResNet101),但其分割速度快于DeepLab V3+(ResNet50)和DeepLab V3+(ResNet101),尤其是參數量較以ResNet50、ResNet101和Xception為主干網絡的模型分別壓縮83.73%、93.30%和88.67%。試驗結果表明改進后模型表現較好,且速度有一定的提升,更利于語義分割模型在果園農業設備上的部署和應用。

表2 DeepLab V3+不同主干網絡的分割結果對比

4 結論

(1)提出了改進的DeepLab V3+語義分割模型,并將其用于果園場景多類別的分割。引入MobileNet V2,替代原有Xception主干網絡,并在ASPP模塊中用ReLU6激活函數替代原有ReLU激活函數,將HDC思想應用到DeepLab V3+的ASPP中,把ASPP中的卷積擴張率設置成鋸齒狀結構,且擴張率互質。

(2)根據果園中常見的場景目標制作了數據集,包含果樹、行人、天空等8類常見場景目標,分別用于改進前后DeepLab V3+語義分割模型的訓練和測試。結果表明,改進后的Deeplab V3+模型具有較高的準確性和實時性,平均像素精度、平均交并比分別達到62.81%和56.64%,比改進前以Xception為主干網絡的DeepLab V3+模型分別提高5.52、8.75個百分點;尤其是對樹的識別在平均像素精度、平均交并比分別達到95.61%和89.61%,比改進前提高1.31、2.48個百分點;改進后模型參數量壓縮88.67%,單幅圖像分割時間為0.08 s。但改進前后模型共同存在的問題是對遠處像素占比小的目標,其識別分割效果一般,但對于果園內行駛的噴霧機器人只需對近處的物體進行快速、準確識別和分割即可,從而實施精準噴霧作業。

猜你喜歡
語義模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
語言與語義
3D打印中的模型分割與打包
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
認知范疇模糊與語義模糊
“深+N季”組配的認知語義分析
當代修辭學(2011年6期)2011-01-29 02:49:50
語義分析與漢俄副名組合
外語學刊(2011年1期)2011-01-22 03:38:33
主站蜘蛛池模板: 国产乱子伦一区二区=| 一区二区午夜| 国产资源站| 中文一级毛片| 国产成人精品免费视频大全五级| 免费可以看的无遮挡av无码| 91免费在线看| 久久亚洲国产视频| 欧美日韩国产系列在线观看| 亚洲青涩在线| 亚洲婷婷六月| 在线观看国产精美视频| 国产欧美高清| 中文国产成人精品久久一| 亚洲九九视频| yy6080理论大片一级久久| 日本不卡视频在线| 精品国产Av电影无码久久久| 亚洲日本中文综合在线| 视频国产精品丝袜第一页| 91蜜芽尤物福利在线观看| 播五月综合| 92午夜福利影院一区二区三区| 亚洲精品国产首次亮相| 中文字幕在线看| 色综合久久无码网| 爆操波多野结衣| 国产成人精品一区二区不卡| 五月天久久综合| 国产一级视频久久| 亚洲第一黄片大全| 国产亚洲欧美在线视频| 欧美翘臀一区二区三区| 成人午夜视频免费看欧美| 三上悠亚精品二区在线观看| 免费aa毛片| 国产精品无码一区二区桃花视频| 丁香亚洲综合五月天婷婷| 免费一级α片在线观看| 无码啪啪精品天堂浪潮av| 精品撒尿视频一区二区三区| 青草午夜精品视频在线观看| 欧美三级日韩三级| 国产地址二永久伊甸园| 大陆精大陆国产国语精品1024| 午夜日本永久乱码免费播放片| 激情综合五月网| 亚洲综合激情另类专区| 欧美 亚洲 日韩 国产| 国产高清自拍视频| 强奷白丝美女在线观看 | 国产18页| 国产欧美在线观看视频| 男人的天堂久久精品激情| 精品久久久久久中文字幕女| 97影院午夜在线观看视频| 亚洲av无码片一区二区三区| 国产噜噜噜视频在线观看| 欧美国产精品不卡在线观看| 国产黑人在线| 丁香六月激情综合| 日韩在线第三页| 日韩av高清无码一区二区三区| 日日拍夜夜嗷嗷叫国产| 免费午夜无码18禁无码影院| 国产精品页| 久久无码av三级| 亚洲毛片网站| 国产精品吹潮在线观看中文| 国产99精品久久| 91福利国产成人精品导航| 亚洲Av综合日韩精品久久久| 波多野结衣一区二区三区四区| 久久成人免费| 亚洲无码免费黄色网址| 欧美日韩国产成人在线观看| 亚洲成人精品| 国产精品区视频中文字幕| 熟女成人国产精品视频| 波多野结衣视频网站| 国产午夜无码专区喷水| 97无码免费人妻超级碰碰碰|