999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)DeepLabV3+的梨樹(shù)冠層分割方法

2024-01-01 00:00:00陳魯威曾錦袁全春夏燁潘健呂曉蘭
關(guān)鍵詞:深度學(xué)習(xí)

摘要:

針對(duì)雜草和陰影等較復(fù)雜背景影響梨樹(shù)冠層圖像信息提取精度的問(wèn)題,提出一種改進(jìn)DeepLabV3+的梨樹(shù)冠層圖像分割方法。該方法將注意力機(jī)制引入到DeepLabV3+編碼部分的主干網(wǎng)絡(luò)與空洞空間金字塔池化模塊之間和解碼部分的主干網(wǎng)絡(luò)之后,重要的特征信息將得到關(guān)注,提高模型分割精度的同時(shí)保證分割效率。以Y字形棚架梨園為試驗(yàn)對(duì)象,通過(guò)無(wú)人機(jī)采集梨樹(shù)冠層照片,進(jìn)行冠層分割試驗(yàn)。結(jié)果表明,提出的CBAM-DeepLabV3+模型對(duì)梨樹(shù)冠層圖像分割的平均交并比、類(lèi)別平均像素準(zhǔn)確率和準(zhǔn)確率分別為88.72%、94.56%和96.65%,分割單張圖像時(shí)間為0.107 s。CBAM-DeepLabV3+模型分割梨樹(shù)冠層的類(lèi)別平均像素準(zhǔn)確率相比DeepLabV3+和SE-DeepLabV3+分別提高2.28%和0.56%。

關(guān)鍵詞:梨樹(shù)冠層;圖像分割;DeepLabV3+;注意力機(jī)制;深度學(xué)習(xí)

中圖分類(lèi)號(hào):S661.2; TP391.41

文獻(xiàn)標(biāo)識(shí)碼:A

文章編號(hào):2095-5553 (2024) 04-0155-07

收稿日期:2022年10月17日" 修回日期:2023年2月2日

基金項(xiàng)目:國(guó)家現(xiàn)代農(nóng)業(yè)產(chǎn)業(yè)技術(shù)體系(CARS-28);江蘇省農(nóng)業(yè)科技自主創(chuàng)新資金項(xiàng)目(CX(21)2025)

第一作者:陳魯威,男,1997年生,江蘇新沂人,碩士研究生;研究方向?yàn)橹悄苻r(nóng)業(yè)裝備與計(jì)算機(jī)視覺(jué)。E-mail: justchenlw@163.com

通訊作者:呂曉蘭,女,1980年生,山東濰坊人,博士,研究員;研究方向?yàn)楣麍@智能農(nóng)機(jī)裝備。E-mail: lxlanny@126.com

Pear canopy segmentation method based on improved DeepLabV3+

Chen Luwei1, 2, Zeng Jin2, 3, Yuan Quanchun2, 3, Xia Ye1, 2, Pan Jian2, Lü Xiaolan1, 2, 3

(1. School of Agricultural Engineering, Jiangsu University, Zhenjiang, 212013, China; 2. Institute of Agricultural

Facilities and Equipment, Jiangsu Academy of Agricultural Science, Nanjing, 210014, China; 3. Key Laboratory of

Modern Horticultural Equipment, Ministry of Agriculture and Rural Affairs, Nanjing, 210014, China)

Abstract:

In order to solve the problem that more complex backgrounds such as weeds and shadows affect the accuracy of pear canopy image information extraction, a pear canopy image segmentation method based on improved DeepLabV3+ is proposed. This method introduces the attention mechanism into the backbone network of the DeepLabV3+ encoding part, between the hole space pyramid pooling module and the backbone network of the decoding part. After that, the important feature information will be paid attention to, which improves the model segmentation accuracy and ensures the segmentation efficiency. Taking the pear orchard with Y-shaped trellis as the test object, the canopy segmentation experiment was carried out by collecting the canopy photos of pear trees by UAV. The results showed that the average intersection ratio, category average pixel accuracy and accuracy of the CBAM-DeepLabV3+ model proposed in this paper for pear canopy image segmentation were 88.72%, 94.56% and 96.65%, respectively, and the segmentation time of a single image was 0.107 s. Compared with DeepLabV3+ and Se DeepLabV3+, the classification average pixel accuracy of CBAM-DeepLabV3+ model for pear canopy segmentation was improved by 2.28% and 0.56%, respectively.

Keywords:

pear tree canopy; image segmentation; DeepLabV3+; attention mechanism; deep learning

0 引言

冠層信息可以直接或間接地反映出梨樹(shù)生長(zhǎng)發(fā)育的狀況,準(zhǔn)確且高效地獲取梨樹(shù)冠層圖像信息,對(duì)于快速掌握梨樹(shù)生長(zhǎng)發(fā)育狀況具有重要意義[1]。然而,當(dāng)前果園的各種信息主要依靠人工獲取,其獲取信息的效率低、精度差、時(shí)效差和主觀性等缺點(diǎn)對(duì)于果園后續(xù)的決策將造成一定的影響[2]。

無(wú)人機(jī)以其效率高、覆蓋區(qū)域廣和成本低等優(yōu)點(diǎn)在農(nóng)業(yè)監(jiān)測(cè)和生產(chǎn)中得以廣泛應(yīng)用,是獲取梨樹(shù)多種信息的重要手段[3, 4]。準(zhǔn)確和高效獲取梨樹(shù)信息對(duì)于果園后續(xù)的精準(zhǔn)管理,如施肥、噴藥和修剪等具有重要意義[5]。然而,由于梨樹(shù)冠層覆蓋的連續(xù)性較低,受裸露的土地、陰影和雜草等因素干擾[6],其冠層分割的準(zhǔn)確性受到較大干擾,而精準(zhǔn)分割梨樹(shù)冠層圖像是實(shí)現(xiàn)其信息精準(zhǔn)獲取的重要前提,因此,迫切需要研究一種更加精準(zhǔn)的梨樹(shù)冠層分割方法。

近年來(lái),國(guó)內(nèi)外學(xué)者對(duì)果蔬茶的分割開(kāi)展了大量研究,主要包括傳統(tǒng)分割方法和基于深度學(xué)習(xí)的分割方法[7-9]。目前,傳統(tǒng)分割方法主要為基于區(qū)域的分割方法、基于閾值的分割方法和基于邊緣等分割方法[10]。束美艷等[11]使用基于區(qū)域分割的分水嶺算法進(jìn)行柑橘單木分割,在分辨率為0.1 m時(shí)效果更佳,而在其它分辨率時(shí)錯(cuò)分和漏分現(xiàn)象較多。孫建桐等[12]使用基于邊緣分割的Canny算法對(duì)番茄進(jìn)行分割,獲得果實(shí)輪廓點(diǎn),一定程度上解決了果實(shí)粘連或少量遮擋的分割問(wèn)題,但是遺漏率較高。隨著計(jì)算機(jī)視覺(jué)的快速發(fā)展,深度學(xué)習(xí)中的語(yǔ)義分割開(kāi)始流行,大量的語(yǔ)義分割模型相繼涌現(xiàn)。這些語(yǔ)義分割模型相繼被應(yīng)用到農(nóng)業(yè)及各個(gè)領(lǐng)域的圖像分割任務(wù)中[13-15],如DeepLab系列網(wǎng)絡(luò)[16],是如今最為流行的語(yǔ)義分割網(wǎng)絡(luò)模型之一。DeepLabV1[16]模型在主干網(wǎng)絡(luò)中加入空洞卷積,增大感受野,且分辨率不會(huì)下降,減少有效信息丟失的問(wèn)題,DeepLabV2模型提出空洞空間金字塔池化,使用多個(gè)采樣率采樣得到的多尺度分割對(duì)象獲得了更好的分割效果,DeepLabV3模型改進(jìn)ASPP模塊,將空洞卷積應(yīng)用在級(jí)聯(lián)模塊。DeepLabV3+[17]將DeepLabV3作為encoder模塊,并添加簡(jiǎn)單有效的decoder模塊,是目前實(shí)際應(yīng)用中最為廣泛且有效的語(yǔ)義分割模型之一,在多數(shù)場(chǎng)景下均有較好的分割效果[18],但是在梨樹(shù)冠層的圖像分割中鮮有研究,其分割準(zhǔn)確性有待進(jìn)一步提高與驗(yàn)證。

綜上,為進(jìn)一步提高梨樹(shù)冠層圖像分割的準(zhǔn)確性,本文提出將注意力機(jī)制融到DeepLabV3+網(wǎng)絡(luò)中,根據(jù)輸入圖像的每個(gè)通道和空間特征的重要程度,賦予不同的權(quán)值,使得改進(jìn)后的模型能夠更好關(guān)注到重要特征,然后將計(jì)算資源重點(diǎn)分配給重要的任務(wù),從而提高梨樹(shù)冠層分割的準(zhǔn)確性。

1 數(shù)據(jù)采集與預(yù)處理

1.1 數(shù)據(jù)采集

2022年5月5—7日,本試驗(yàn)在江蘇省農(nóng)業(yè)科學(xué)院Y字形棚架梨園內(nèi)進(jìn)行。果園梨樹(shù)栽植密度為3 m×5 m,樹(shù)高2.5 m左右。利用大疆精靈4多光譜版無(wú)人機(jī)對(duì)果園梨樹(shù)冠層圖像進(jìn)行采集。本次試驗(yàn)為低空拍攝,航線設(shè)置飛行高度20 m,采集圖片142張,刪除重復(fù)數(shù)據(jù)及異常樣本后,共得到有效圖像58張,圖像尺寸為1 600像素×1 300像素,圖片保存為JPG格式。

1.2 數(shù)據(jù)預(yù)處理

由于使用深度學(xué)習(xí)方法進(jìn)行圖像分割需要大量的訓(xùn)練樣本才能獲得較好的效果,且為了緩解GPU內(nèi)存占用過(guò)多的問(wèn)題,本試驗(yàn)將采集到的原始圖像裁切成多個(gè)533像素×650像素的圖片,共計(jì)348張。

本試驗(yàn)采用樣本標(biāo)注工具labelme對(duì)梨樹(shù)冠層圖片進(jìn)行標(biāo)注,為提升模型的魯棒性,將數(shù)據(jù)集樣本的數(shù)量進(jìn)行擴(kuò)充,采用數(shù)據(jù)增強(qiáng)的方法[19, 20],如圖1所示。

對(duì)圖片進(jìn)行添加隨機(jī)像素、高斯噪聲、椒鹽噪聲、高斯模糊、水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)、等比例縮放、不等比例縮放、隨機(jī)平移和隨機(jī)亮度共10種處理方式,將數(shù)據(jù)集擴(kuò)充到3 480張,并根據(jù)采集時(shí)間,按照8∶1∶1的比例劃分為訓(xùn)練集(2 784張)、驗(yàn)證集(348張)和測(cè)試集(348張)。

2 梨樹(shù)冠層分割模型

2.1 經(jīng)典的DeepLabV3+模型

DeepLabV3+是語(yǔ)義分割領(lǐng)域中一種典型的網(wǎng)絡(luò)模型[17],其網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,該網(wǎng)絡(luò)是在DeepLabV3網(wǎng)絡(luò)的基礎(chǔ)上進(jìn)行的改進(jìn),引入Decoder部分,從而形成Encoder-Decoder架構(gòu),將底層特征和高層特征進(jìn)行融合,改善分割邊界的準(zhǔn)確性。其中Encoder部分采用Xception[18]網(wǎng)絡(luò)對(duì)原始數(shù)據(jù)提取特征,然后利用ASPP架構(gòu)對(duì)圖像特征進(jìn)行融合,再分別以多種采樣率的并行空洞卷積進(jìn)行特征空間信息提取,最后進(jìn)行1×1卷積通道融合。Decoder部分,將Xception輸入流模塊的輸出淺層特征圖和ASPP架構(gòu)輸出的多尺度特征信息進(jìn)行融合,然后進(jìn)行4倍雙線性插值上采樣,最后輸出分割圖像的最終結(jié)果。

2.2 主干網(wǎng)絡(luò)的選擇

目前主流的主干網(wǎng)絡(luò)有Xception、MobileNet、ResNet和VGGNet等。因Xception主干網(wǎng)絡(luò)參數(shù)量較大,在模型訓(xùn)練過(guò)程中對(duì)GPU要求較高,且難以滿(mǎn)足在嵌入式設(shè)備中對(duì)于實(shí)時(shí)性具有較高要求的場(chǎng)景,而本試驗(yàn)GPU算力有限,為加快運(yùn)行速度且方便后續(xù)在移動(dòng)端或嵌入式設(shè)備中運(yùn)行,本文選擇輕量化網(wǎng)絡(luò)MobileNetV2作為DeepLabV3+的主干網(wǎng)絡(luò)。MobileNetV2是專(zhuān)注于移動(dòng)端或嵌入式設(shè)備中的輕量化卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN),在準(zhǔn)確率僅有極小幅度降低的情況下,參數(shù)量與運(yùn)算量得到大幅減小。該網(wǎng)絡(luò)采用的是倒殘差結(jié)構(gòu),基本結(jié)構(gòu)如圖3所示。

首先對(duì)輸入的特征矩陣使用1×1卷積進(jìn)行升維,增加通道的數(shù)量,其激活函數(shù)為Relu6,然后使用3×3的Dw卷積核進(jìn)行卷積,其激活函數(shù)也為Relu6,最后通過(guò)1×1的卷積核降維處理,不再使用Relu6激活函數(shù),而是Linear激活函數(shù)。

2.3 注意力機(jī)制引入

為DeepLabV3+模型更好地應(yīng)用在冠層圖像分割任務(wù)中,仍需進(jìn)一步改進(jìn)來(lái)提高其分割準(zhǔn)確率。本文分別引入SE和CBAM兩種注意力模塊,通過(guò)對(duì)比試驗(yàn),比較出性能更優(yōu)的注意力模塊,使得網(wǎng)絡(luò)能夠獲得特征圖更多的注意力信息,以提高梨樹(shù)冠層圖像的分割準(zhǔn)確率。

注意力機(jī)制就是在神經(jīng)網(wǎng)絡(luò)傳播中將不同的特征通道或者特征點(diǎn)賦予不同的權(quán)重,對(duì)于權(quán)重較大的特征通道或者特征點(diǎn),則將計(jì)算資源重點(diǎn)分配過(guò)去進(jìn)行處理,而權(quán)重較小的則降低關(guān)注,甚至過(guò)濾掉無(wú)關(guān)信息,從而提高任務(wù)處理的效率和準(zhǔn)確性。

SE(Squeeze-and-Excitation Module)是一種根據(jù)各種通道重要性的差異來(lái)提取通道特征權(quán)重,讓網(wǎng)絡(luò)可以自動(dòng)獲取每個(gè)特征通道重要信息的卷積神經(jīng)網(wǎng)絡(luò)注意力機(jī)制,其結(jié)構(gòu)如圖4所示。

SE注意力機(jī)制包含Squeeze和Excitation兩步操作,首先對(duì)特征進(jìn)行壓縮,采用全局平均池化,將一個(gè)通道中的整個(gè)空間特征H×W×C壓縮成1×1×C的一維特征向量,如式(1)所示,且輸入的特征通道數(shù)與輸出的通道數(shù)相等,然后進(jìn)行激勵(lì)操作來(lái)獲取各個(gè)特征通道之間的關(guān)系,激勵(lì)階段由兩個(gè)全連接層構(gòu)成,第一個(gè)全連接層用來(lái)降維,且經(jīng)過(guò)ReLU進(jìn)行激活,第二個(gè)全連接層則起到恢復(fù)至原始維度的作用,如式(2)所示。再通過(guò)Sigmoid激活函數(shù)得到1×1×C的一維向量,最后將各個(gè)通道的權(quán)重與激勵(lì)部分得到的一維向量進(jìn)行相乘,即可得到H×W×C的輸出特征圖,如式(3)所示。

式中:

x——

尺寸大小為H×W×C的三維特征圖;

xc——

三維特征圖中第c個(gè)通道的二維特征矩陣;

z——壓縮后產(chǎn)生的實(shí)數(shù);

g——經(jīng)全連接層表達(dá)的非線性函數(shù);

W1、W2——

全連接層中的第一層和第二層權(quán)重參數(shù);

x^——重新標(biāo)定的特征圖;

σ(z^)——?dú)w一化權(quán)重值。

CBAM(Convolutional Block Attention Module)是一種分別根據(jù)通道和空間兩個(gè)維度的重要性差異進(jìn)行特征提取的卷積神經(jīng)網(wǎng)絡(luò)注意力機(jī)制,其包含通道注意力機(jī)制(Channel Attention Module,CAM)和空間注意力機(jī)制(Spatial Attention Module,SAM)兩個(gè)部分。相較于SE只關(guān)注通道的注意力機(jī)制,CBAM多了空間注意力機(jī)制,在較多場(chǎng)景下可以取得更好的效果。其結(jié)構(gòu)如圖5所示,圖像上半部分為通道注意力機(jī)制,首先對(duì)輸入特征分別進(jìn)行全局平均池化和全局最大池化,然后利用共享的全連接層處理,再將獲取到的兩個(gè)結(jié)果進(jìn)行相加,接著進(jìn)行Sigmoid運(yùn)算即可獲得輸入特征層每個(gè)通道的權(quán)值,最后將權(quán)值與輸入特征層相乘即可獲得輸出特征F′。圖像下半部分為空間注意力機(jī)制,該模塊首先對(duì)輸入進(jìn)來(lái)的特征F′的每一個(gè)特征點(diǎn)的通道上取最大值和平均值,然后將這個(gè)兩個(gè)結(jié)果堆疊在一起,再使用通道數(shù)為1的卷積調(diào)整通道數(shù),然后進(jìn)行Sigmoid運(yùn)算獲得每個(gè)特征點(diǎn)的權(quán)值,最后將權(quán)值與輸入特征層相乘即可得到輸出特征圖。

2.4 改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)

本文通過(guò)在DeepLabV3+模型編碼部分的主干網(wǎng)絡(luò)與空洞空間金字塔池化(Atrous Spatial Pyramid Pooling, ASPP)模塊之間和解碼部分的主干網(wǎng)絡(luò)之后引入注意力模塊,分別是SE和CBAM兩種注意力機(jī)制。將SE模塊融入DeepLabV3+模型內(nèi),稱(chēng)其為SE-DeepLabV3+,將CBAM模塊融入DeepLabV3+模型內(nèi),稱(chēng)其為CBAM-DeepLabV3+,改進(jìn)后的兩種網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

3 試驗(yàn)與結(jié)果分析

3.1 試驗(yàn)環(huán)境及參數(shù)

本試驗(yàn)使用Python編程語(yǔ)言并基于深度學(xué)習(xí)框架Pytorch進(jìn)行搭建,環(huán)境的具體配置如表1所示。

為比較不同模型的分割性能與效果,相關(guān)的模型訓(xùn)練參數(shù)均保持一致,模型參數(shù)配置如表2所示。

3.2 評(píng)價(jià)指標(biāo)

模型的評(píng)價(jià)指標(biāo)主要有:平均交并比(Mean Intersection over Union, MIoU)、類(lèi)別平均像素準(zhǔn)確率(Mean Pixel Accuracy, MPA)和準(zhǔn)確率(Accuracy,Acc)。

MIoU是模型的每類(lèi)預(yù)測(cè)結(jié)果和真實(shí)值的交集與并集的比值,然后求和再算均值,計(jì)算如式(4)所示。

3.3 分割性能結(jié)果分析

為驗(yàn)證本文提出的DeepLabV3+網(wǎng)絡(luò)中引入SE和CBAM注意力機(jī)制后的SE-DeepLabV3+與CBAM-DeepLabV3+模型的梨樹(shù)冠層分割性能,分別將基于DeepLabV3+改進(jìn)的兩種模型與經(jīng)典的DeepLabV3+模型進(jìn)行分割比較。

SE-DeepLabV3+和CBAM-DeepLabV3+兩種模型與經(jīng)典的DeepLabV3+模型在測(cè)試集上對(duì)梨樹(shù)冠層的分割試驗(yàn)結(jié)果如表4所示。其中SE-DeepLabV3+模型比經(jīng)典的DeepLabV3+模型在平均交并比、類(lèi)別平均像素準(zhǔn)確率和準(zhǔn)確率上分別提升2.28個(gè)、1.72個(gè)和0.75個(gè)百分點(diǎn),但是SE-DeepLabV3+模型比經(jīng)典的DeepLabV3+模型在參數(shù)量上僅有0.02M的增加,而平均分割時(shí)間也只增加0.002s,可知,雖然SE-DeepLabV3+模型中因存在注意力機(jī)制而增加了參數(shù)量,但是圖像分割時(shí)間只是略微增加,而SE-DeepLabV3+模型的圖像分割性能相對(duì)DeepLabV3+卻有顯著提升。其次CBAM-DeepLabV3+的平均交并比、類(lèi)別平均像素準(zhǔn)確率和準(zhǔn)確率相比SE-DeepLabV3+模型分別提高1.36個(gè)、0.56個(gè)和0.45個(gè)百分點(diǎn),平均分割時(shí)間同時(shí)也增加0.003s,這是因?yàn)镃BAM的網(wǎng)絡(luò)結(jié)構(gòu)相較于SE模塊增加了空間注意力模塊,分別從通道和空間兩種維度提取梨樹(shù)冠層的圖像特征,使得CBAM-DeepLabV3+模型可以更好地關(guān)注到重要的特征信息,從而提高圖像分割的準(zhǔn)確率。綜合考量圖像分割精度和分割時(shí)間,CBAM-DeepLabV3+模型分割梨樹(shù)冠層更具魯棒性。

3.4 分割效果分析

本文分別采用DeepLabV3+、SE-DeepLabV3+和CBAM-DeepLabV3+基于隨機(jī)選取的兩張梨樹(shù)冠層圖片進(jìn)行分割,結(jié)果如圖7所示。

從圖7中可以看到,融入注意力機(jī)制的改進(jìn)的DeepLabV3+模型對(duì)梨樹(shù)冠層圖像的分割效果更好,準(zhǔn)確性具有一定的提升。從矩形框處可以看出,DeepLabV3+模型將多個(gè)區(qū)域的背景陰影誤分割為梨樹(shù)冠層,而SE-DeepLabV3+模型在圖示樣本1的兩個(gè)矩形框處比DeepLabV3+模型更加精準(zhǔn)地分割出了梨樹(shù)冠層區(qū)域,但是在圖示樣本2的矩形框處,相較于CBAM-DeepLabV3+模型錯(cuò)誤地將背景陰影區(qū)域分割為梨樹(shù)冠層區(qū)域,從圖示樣本1和樣本2的多個(gè)矩形框可以看出,CBAM-DeepLabV3+模型相較于上述兩種模型分割效果更好。

3.5 不同算法對(duì)比

為保證算法評(píng)價(jià)的公平性,將本文提出的改進(jìn)的DeepLabV3+模型(CBAM-DeepLabV3+)與DenseASPP、BiSeNet、DeepLabV3+分割網(wǎng)絡(luò)在梨樹(shù)冠層分割任務(wù)中進(jìn)行分割精度對(duì)比,結(jié)果如表5所示。

DenseASPP結(jié)合并行和級(jí)聯(lián)使用空洞卷積層的優(yōu)點(diǎn),能夠在大范圍產(chǎn)生更多尺度特征,但是分割精度不高,平均交并比僅有83.1%。BiSeNet包含空間路徑和語(yǔ)義路徑兩個(gè)并行模塊,兼顧多尺度特征和感受野,DeepLabV3+包含編碼和解碼兩部分結(jié)構(gòu),能夠逐漸獲得清晰的物體邊界,BiSeNet網(wǎng)絡(luò)與其分割精度(MIoU)相近,而本文改進(jìn)后的網(wǎng)絡(luò)相較于上述語(yǔ)義分割算法,平均交并比達(dá)到88.72%,且在MPA和Acc精度指標(biāo)上均具有優(yōu)勢(shì),也再次證明本文提出的在DeepLabV3+模型中融合注意力機(jī)制模塊的重要性。

4 結(jié)論

本文提出一種融合注意力機(jī)制進(jìn)行改進(jìn)的DeepLabV3+模型對(duì)梨樹(shù)冠層進(jìn)行分割,在DeepLabV3+模型編碼部分的主干網(wǎng)絡(luò)與空洞空間金字塔池化模塊之間和解碼部分的主干網(wǎng)絡(luò)之后引入注意力模塊,對(duì)重要的目標(biāo)特征賦予較高的權(quán)值,以獲取梨樹(shù)冠層的重要特征信息,并減少?gòu)?fù)雜背景信息的干擾,從而提高分割精準(zhǔn)度。

1)" 在梨樹(shù)冠層圖像分割測(cè)試集上的試驗(yàn)結(jié)果表明,本文提出的CBAM-DeepLabV3+模型平均交并比、類(lèi)別平均像素準(zhǔn)確率和準(zhǔn)確率分別為88.72%、94.56%和96.65%,分割單張圖像時(shí)間為0.107 s。與融入SE注意力機(jī)制的模型相比,CBAM-DeepLabV3+模型綜合考量分割準(zhǔn)確度和運(yùn)行速度,在運(yùn)行速度變化極小的情況下,分割平均交并比、類(lèi)別平均像素準(zhǔn)確率和準(zhǔn)確率分別提升3.64%、2.28%和1.2%。

2)" 融入注意力機(jī)制的改進(jìn)DeepLabV3+模型較經(jīng)典的DeepLabV3+模型在平均交并比、類(lèi)別平均像素準(zhǔn)確率和準(zhǔn)確率上均有顯著提升,所以融入注意力機(jī)制可以使得網(wǎng)絡(luò)關(guān)注到更加重要的特征信息,降低對(duì)無(wú)關(guān)特征的關(guān)注,從而更加關(guān)注梨樹(shù)冠層特征信息,并減少背景信息的干擾。由于注意力的加入將會(huì)增加模型的參數(shù)量,將會(huì)增加訓(xùn)練模型的權(quán)重,對(duì)分割速度會(huì)有一定的影響,后續(xù)研究可構(gòu)建更加輕量化的注意力機(jī)制模塊融入DeepLabV3+網(wǎng)絡(luò)中,提高模型運(yùn)行速度的同時(shí)提高分割精度。

參 考 文 獻(xiàn)

[1] 史云, 沈磊, 陳山, 等. 基于低空遙感的果樹(shù)冠層信息提取方法研究[J]. 中國(guó)農(nóng)業(yè)信息, 2022, 34(1): 1-10.

Shi Yun, Shen Lei, Chen Shan, et al. Research on the extraction method of fruit tree canopy information based on low-altitude remote sensing [J]. China Agricultural Informatics, 2022, 34(1): 1-10.

[2] 季金亮, 馮建中, 賀日興, 等. 混合云果園監(jiān)測(cè)系統(tǒng)設(shè)計(jì)與開(kāi)發(fā)[J]. 中國(guó)果樹(shù), 2021(9): 82-86.

Ji Jinliang, Feng Jianzhong, He Rixing, et al. The design and development of hybrid cloud orchard monitoring system [J]. China Fruits, 2021(9): 82-86.

[3] 白明雄, 張超, 陳棋, 等. 基于無(wú)人機(jī)可見(jiàn)光遙感的單木樹(shù)高提取方法研究[J]. 林業(yè)資源管理, 2021(1): 164-172.

Bai Mingxiong, Zhang Chao, Chen Qi, et al. Study on the extraction of individual tree height based on UAV visual spectrum remote sensing [J]. Forest Resources Management, 2021(1): 164-172.

[4] Amaral L R, Zerbato C, Freitas R G, et al. UAV applications in Agriculture 4.0 [J]. Revista Ciencia Agronomica, 2020, 51: 1-15.

[5] 楊洲, 李洋, 段潔利, 等. 基于毫米波雷達(dá)的果園單木冠層信息提取[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2021, 37(21): 173-182.

Yang Zhou, Li Yang, Duan Jieli, et al. Extraction of the crown information of single tree in orchard based on millimeter wave radar [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(21): 173-182.

[6] 李美炫, 朱西存, 白雪源, 等. 基于無(wú)人機(jī)影像陰影去除的蘋(píng)果樹(shù)冠層氮素含量遙感反演[J]. 中國(guó)農(nóng)業(yè)科學(xué), 2021, 54(10): 2084-2094.

Li Meixuan, Zhu Xicun, Bai Xueyuan, et al. Remote sensing inversion of nitrogen content in apple canopy based on shadow removal in UAV multi-spectral remote sensing images [J]. Scientia Agricultura Sinica, 2021, 54(10): 2084-2094.

[7] Song Z Z, Zhou Z X, Wang W Q, et al. Canopy segmentation and wire reconstruction for kiwifruit robotic harvesting [J]. Computers and Electronics in Agriculture, 2021, 1811(1).

[8] Chen Z J, Ting D V, Newbury R, et al. Semantic segmentation for partially occluded apple trees based on deep learning [J]. Computers and Electronics in Agriculture, 2021, 181: 105952.

[9] Liu X L, Deng Z D, Yang Y H. Recent progress in semantic image segmentation [J]. Artificial Intelligence Review, 2019, 52(2): 1089-1106.

[10] 黃鵬, 鄭淇, 梁超. 圖像分割方法綜述[J]. 武漢大學(xué)學(xué)報(bào)(理學(xué)版), 2020, 66(6): 519-531.

Huang Peng, Zheng Qi, Liang Chao. Overview of image segmentation methods [J]. Journal of Wuhan University (Natural Science Edition), 2020, 66(6): 519-531.

[11] 束美艷, 李世林, 魏家璽, 等. 基于無(wú)人機(jī)平臺(tái)的柑橘樹(shù)冠信息提取[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2021, 37(1): 68-76.

Shu Meiyan, Li Shilin, Wei Jiaxi, et al. Extraction of citrus crown parameters using UAV platform [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(1): 68-76.

[12] 孫建桐, 孫意凡, 趙然, 等. 基于幾何形態(tài)學(xué)與迭代隨機(jī)圓的番茄識(shí)別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2019, 50(S1): 22-26, 61.

Sun Jiantong, Sun Yifan, Zhao Ran, et al. Tomato recognition method based on iterative random circle and geometric morphology [J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(S1): 22-26, 61.

[13] 薛君蕊, 王昱潭, 曲愛(ài)麗, 等. 基于改進(jìn)FCN-8s的靈武長(zhǎng)棗圖像分割方法[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2021, 37(5): 191-197.

Xue Junrui, Wang Yutan, Qu Aili, et al. Image segmentation method for Lingwu long jujubes based on improved FCN-8s [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(5): 191-197.

[14] Wang C, Du P, Wu H, et al. A cucumber leaf disease severity classification method based on the fusion of DeepLabV3+ and U-Net [J]. Computers and Electronics in Agriculture, 2021, 189: 106373.

[15] Wu Z, Yang R, Gao F, et al. Segmentation of abnormal leaves of hydroponic lettuce based on DeepLabV3+ for robotic sorting [J]. Computers and Electronics in Agriculture, 2021, 190: 106443.

[16] Chen L C, Papandreou G, Kokkinos I, et al. DeepLab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(4): 834-848.

[17] Chen L C, Zhu Y, Papandreou G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation [M]. Computer Vision-ECCV, 2018.

[18] 張蕊, 李錦濤. 基于深度學(xué)習(xí)的場(chǎng)景分割算法研究綜述[J]. 計(jì)算機(jī)研究與發(fā)展, 2020, 57(4): 859-875.

Zhang Rui, Li Jintao. A survey on algorithm research of scene parsing based on deep learning [J]. Journal of Computer Research and Development, 2020, 57(4): 859-875.

[19] 呂昊遠(yuǎn), 俞璐, 周星宇, 等. 半監(jiān)督深度學(xué)習(xí)圖像分類(lèi)方法研究綜述[J]. 計(jì)算機(jī)科學(xué)與探索, 2021, 15(6): 1038-1048.

Lü Haoyuan, Yu Lu, Zhou Xingyu, et al. Review of semi-supervised deep learning image classification methods [J]. Journal of Frontiers of Computer Science and Technology, 2021, 15(6): 1038-1048.

[20] 陳國(guó)防, 陳兆英, 王玉亮, 等. 基于數(shù)據(jù)增強(qiáng)深度學(xué)習(xí)的蘋(píng)果花檢測(cè)方法研究[J]. 中國(guó)農(nóng)機(jī)化學(xué)報(bào), 2022, 43(5): 148-155.

Chen Guofang, Chen Zhaoying, Wang Yuliang, et al. Research on detection method of apple flower based on data-enhanced deep learning [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(5): 148-155.

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類(lèi)器的圖書(shū)館亂架圖書(shū)檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 三上悠亚一区二区| 成人福利视频网| 亚洲AV无码乱码在线观看裸奔| 亚洲日韩精品无码专区97| 国产精品福利导航| 无码中文字幕精品推荐| 福利一区三区| 在线国产欧美| 亚洲综合在线最大成人| 色哟哟国产成人精品| 亚洲久悠悠色悠在线播放| 又大又硬又爽免费视频| 精品视频一区二区观看| 亚洲视频免费在线看| 国产综合在线观看视频| 99久视频| 精品无码一区二区在线观看| 五月激情婷婷综合| 国产精品专区第1页| 亚洲精品麻豆| 制服丝袜在线视频香蕉| 凹凸国产熟女精品视频| 国产97视频在线| 无码福利日韩神码福利片| 日韩无码精品人妻| 久久www视频| 日韩中文精品亚洲第三区| 亚洲精品片911| 91美女视频在线| 中美日韩在线网免费毛片视频| 国产成人综合亚洲欧洲色就色| 亚洲综合一区国产精品| 国产中文一区二区苍井空| 欧美一区国产| 亚洲大学生视频在线播放| 久久永久精品免费视频| 久久精品无码中文字幕| 国产靠逼视频| 日本精品一在线观看视频| 青草视频久久| 福利国产微拍广场一区视频在线| 亚洲无码A视频在线| 精品久久香蕉国产线看观看gif| 国产啪在线91| 国产精品视频导航| 国产精品亚欧美一区二区| 欧美亚洲国产精品第一页| 亚洲欧美成人在线视频| 日本中文字幕久久网站| 91精品啪在线观看国产91九色| 亚洲性影院| 欲色天天综合网| 亚洲人成电影在线播放| 国产欧美视频综合二区| 亚洲日韩精品欧美中文字幕 | 波多野结衣一区二区三区四区视频 | 熟妇丰满人妻av无码区| 亚洲国产成人自拍| 国产高清不卡| 国产美女一级毛片| 久久人妻xunleige无码| 亚洲成人高清在线观看| 精品久久久久无码| 精品在线免费播放| 重口调教一区二区视频| 国产福利影院在线观看| 丁香五月亚洲综合在线 | 国产第一页屁屁影院| 亚洲无码不卡网| 国产呦精品一区二区三区网站| 国产不卡在线看| 都市激情亚洲综合久久 | 超碰免费91| 在线观看免费人成视频色快速| 婷婷六月综合网| 亚洲不卡影院| 91色在线观看| 热九九精品| 性色生活片在线观看| 国产资源免费观看| 99re66精品视频在线观看| 亚洲国产欧美中日韩成人综合视频|