999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進(jìn)DeepLabV3+網(wǎng)絡(luò)的遙感影像農(nóng)作物分割方法

2022-06-09 11:59:16任鴻杰史俊才
計算機(jī)工程與應(yīng)用 2022年11期
關(guān)鍵詞:特征提取特征模型

任鴻杰,劉 萍,岱 超,史俊才

太原理工大學(xué) 大數(shù)據(jù)學(xué)院,山西 晉中 030600

農(nóng)作物種植面積估計是農(nóng)業(yè)監(jiān)測的一個重要部分[1]。傳統(tǒng)的農(nóng)作物種植面積估計是通過統(tǒng)計方法來獲得,主要有兩種方法:一是層層上報,按照縣、地區(qū)、省和國家為單位逐級進(jìn)行統(tǒng)計并最后上報;二是通過抽樣調(diào)查,設(shè)置有代表性的樣本,根據(jù)抽樣統(tǒng)計原理來估算大區(qū)域內(nèi)的農(nóng)作物種植面積[2]。傳統(tǒng)方法耗費了大量的人力物力,統(tǒng)計速度慢,結(jié)果不夠客觀,并且不能時空動態(tài)監(jiān)測。

遙感技術(shù)由于其具有監(jiān)測范圍廣、獲取資料速度快、獲取的信息量大以及能夠時空動態(tài)監(jiān)測等特點,逐漸取代了傳統(tǒng)的人工區(qū)域調(diào)查方法,被廣泛應(yīng)用于農(nóng)業(yè)遙感監(jiān)測的各個方面[3-4]。

傳統(tǒng)的農(nóng)業(yè)遙感檢測常使用人工目視解譯的方法,但是人工目視解譯對于解譯人員的技術(shù)要求高,并且其效率不能滿足海量的遙感數(shù)據(jù)處理。近幾年來,深度學(xué)習(xí)在圖像處理、自然語言處理、數(shù)據(jù)分析等領(lǐng)域取得了大量關(guān)鍵性突破,成為當(dāng)今最受關(guān)注的科學(xué)研究之一[5]。隨著深度學(xué)習(xí)的快速發(fā)展與廣泛應(yīng)用,基于卷積神經(jīng)網(wǎng)絡(luò)的分割算法在分割技術(shù)上取得了突破性進(jìn)步[6]。當(dāng)前廣泛使用的語義分割網(wǎng)絡(luò)以Long等[7]提出全卷積神經(jīng)網(wǎng)絡(luò)(fully convolutional network,F(xiàn)CN)為代表,通過使用卷積層替換全連接層,輸出保留上下文空間特征的圖像,實現(xiàn)圖像像素級別端到端的預(yù)測。基于FCN架構(gòu),鄭二功等[8]利用無人機(jī)影像實現(xiàn)了對玉米倒伏區(qū)域自動提取;黃云等[9]以Sentinel-2衛(wèi)星遙感影像為數(shù)據(jù)基礎(chǔ),利用Segnet網(wǎng)絡(luò)對河南省新蔡縣花生種植區(qū)域提取,Segnet網(wǎng)絡(luò)基于FCN網(wǎng)絡(luò)進(jìn)行了一些改進(jìn),添加了編碼解碼(encoder-decoder,ED)結(jié)構(gòu),每個編碼層對應(yīng)一個解碼層,使得反卷積的結(jié)果更加精細(xì),分類精度與總體效率都有所提升。雖然以上研究為農(nóng)作物自動提取做出了一定貢獻(xiàn),但是在精度和邊緣識別效果等方面仍有較大的改進(jìn)空間。DeepLab語義分割系列模型提出空洞空間金字塔池化(atrous spatial pyramid pooling,ASPP)[10],在不改變分辨率的條件下擴(kuò)大感受野,同時對不同層級的特征進(jìn)行融合,對物體的邊界劃分效果較好。DeepLabV3+結(jié)合了ED結(jié)構(gòu)和ASPP模塊的優(yōu)點,成為當(dāng)前綜合性能優(yōu)異的語義分割算法。Zhu等[11]采用DeepLabV3+對高分辨率遙感甘蔗田進(jìn)行提取,提取精度較高;楊蜀秦等[12]基于DeepLabV3+網(wǎng)絡(luò),利用無人機(jī)多光譜遙感影像對向日葵、玉米等多類農(nóng)作物提取,農(nóng)作物邊緣分割效果較好。

以上研究表明,DeepLabV3+相對于常用于農(nóng)作物提取的FCN、Segnet等分割模型具有更好的分割效果,但是由于其本身網(wǎng)絡(luò)結(jié)構(gòu)較為復(fù)雜,上采樣幅度過大導(dǎo)致特征圖中重要像素信息丟失,對于當(dāng)前遙感影像農(nóng)作物提取仍存在識別精度較低、邊緣識別效果較差、提取速度慢等問題。為改善農(nóng)作物分割效果,更加高效準(zhǔn)確獲取農(nóng)作物的種植信息,本文提出了一種改進(jìn)Deep-LabV3+網(wǎng)絡(luò)的遙感影像農(nóng)作物分割方法。首先,將傳統(tǒng)用于DeepLabV3+模型特征提取的Xception[13]網(wǎng)絡(luò)改為更輕量級的MobileNetV2[14]網(wǎng)絡(luò),大幅減少了模型的參數(shù)計算量,降低內(nèi)存占用;其次,將ASPP模塊中普通卷積改為深度可分離卷積(deep separable convolution,DSC),進(jìn)一步減少模型參數(shù),提高模型計算速度;最后,在特征提取模塊以及ASPP模塊加入雙注意力機(jī)制(double attention mechanism,DAM)[15],從而訓(xùn)練出更準(zhǔn)確的分割模型。此外針對農(nóng)作物數(shù)據(jù)集類別不平衡問題,引入加權(quán)損失函數(shù),給予玉米、薏米與背景類不同的權(quán)重,提高模型對農(nóng)作物區(qū)域分割精度。以2019年某地區(qū)的無人機(jī)遙感影像為研究對象,對玉米、薏米兩種農(nóng)作物進(jìn)行分割,實驗結(jié)果表明,本文提出的方法能夠兼顧準(zhǔn)確率、平均召回率、平均交并比、檢測速度、網(wǎng)絡(luò)大小等各方面的要求,對農(nóng)作物具有更好的分割效果。

1 數(shù)據(jù)來源與預(yù)處理

本文數(shù)據(jù)來源于阿里云天池大賽提供的某地區(qū)無人機(jī)遙感影像,影像大小為44 647×32 881像素,影像分辨率為1 m,原圖格式為RGBA的四通道影像。本文為便于研究,采用RGB三通道數(shù)據(jù)合成新的影像作為研究對象,標(biāo)注分為玉米、薏米以及背景值三類。背景區(qū)域主要包括人造建筑和道路、裸地、草地等非人造建筑。對影像進(jìn)行無重疊滑動切割,由于影像中存在mask無效區(qū)域,為了避免無效樣本對實驗的干擾,滑動切割完之后剔除掉影像中含有mask無效區(qū)域的樣本,最終裁剪出無重疊的9 538張256×256像素的RGB影像作為實驗數(shù)據(jù),并按7∶1∶2的比例將圖像隨機(jī)劃分成訓(xùn)練集、驗證集和測試集,其樣本數(shù)量分別為6 671幅、953幅和1 914幅。部分?jǐn)?shù)據(jù)集影像示例如圖1所示,對應(yīng)標(biāo)簽示例如圖2所示,其中橙色為薏米,黃色為玉米,黑色為背景。

圖1 部分?jǐn)?shù)據(jù)集影像示例Fig.1 Partial dataset image example

圖2 對應(yīng)標(biāo)簽示例Fig.2 Corresponding label example

2 研究方法

2.1 傳統(tǒng)的DeepLabV3+網(wǎng)絡(luò)分割算法

DeepLabV3+是一種用于語義分割的典型網(wǎng)絡(luò),該網(wǎng)絡(luò)是對DeepLabV3網(wǎng)絡(luò)的改進(jìn),以殘差網(wǎng)絡(luò)為底層網(wǎng)絡(luò),添加了ED結(jié)構(gòu),通過恢復(fù)空間信息獲得清晰的對象邊界,從而優(yōu)化邊界分割。編碼端利用Xception網(wǎng)絡(luò)對輸入圖像作特征提取,之后利用ASPP模塊將圖像特征進(jìn)行融合,避免信息損失。其中Xception為含輸入流、中間流和輸出流的深度卷積神經(jīng)網(wǎng)絡(luò),ASPP則為含多個空洞卷積擴(kuò)張率的多尺度金字塔特征提取模塊。解碼端融合Xception輸入流模塊輸出低層特征和編碼端輸出高層特征再進(jìn)行雙線性插值上采樣,輸出分割結(jié)果,最終提高了網(wǎng)絡(luò)分割的精度。網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

圖3 傳統(tǒng)DeepLabV3+模型結(jié)構(gòu)圖Fig.3 Structure diagram of traditional DeepLabV3+model

2.2 改進(jìn)的DeepLabV3+網(wǎng)絡(luò)分割算法

DeepLabV3+網(wǎng)絡(luò)是目前最為優(yōu)秀的語義分割模型之一,其在VOC數(shù)據(jù)集上取得優(yōu)異成績[16]。但Deep-LabV3+模型也存在一些不足。首先,編碼端特征提取過程中逐漸縮減輸入數(shù)據(jù)的空間維度導(dǎo)致有用信息丟失,在解碼時不能很好地實現(xiàn)細(xì)節(jié)恢復(fù);其次,ASPP模塊的引入雖然可以提高模型對目標(biāo)的邊界提取能力,但是不能完整地模擬出目標(biāo)局部特征間的聯(lián)系,使目標(biāo)分割存在空洞現(xiàn)象,導(dǎo)致對目標(biāo)分割的準(zhǔn)確率降低;最后,為了追求分割精度,選擇網(wǎng)絡(luò)層數(shù)較多、參數(shù)量較大的Xception作為特征提取網(wǎng)絡(luò),并且ASPP模塊中卷積方式為普通卷積,進(jìn)一步增加了參數(shù)量,模型深度的加深以及參數(shù)量的增加,導(dǎo)致模型的復(fù)雜度增加,對硬件的要求更高,增加了網(wǎng)絡(luò)訓(xùn)練難度,網(wǎng)絡(luò)訓(xùn)練速度更慢、收斂更慢。為了提高網(wǎng)絡(luò)分割性能,改善以上不足,本文在傳統(tǒng)DeeplabV3+網(wǎng)絡(luò)結(jié)構(gòu)上做了以下改進(jìn):

首先,將傳統(tǒng)用于DeepLabV3+模型特征提取的Xception網(wǎng)絡(luò)改為更輕量級的MobileNetV2網(wǎng)絡(luò),大幅地減少了模型的參數(shù)計算量,降低內(nèi)存占用,提高模型的計算速度;其次,將ASPP模塊中的普通卷積改為DSC,進(jìn)一步減少模型參數(shù),提高模型計算速度;最后,在特征提取模塊以及ASPP模塊加入DAM,減少精度損失,從而訓(xùn)練出更準(zhǔn)確的分割模型。此外針對農(nóng)作物數(shù)據(jù)集類別不平衡問題,引入加權(quán)損失函數(shù),給予玉米、薏米與背景類不同的權(quán)重,提高模型對農(nóng)作物區(qū)域分割精度。網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

圖4 改進(jìn)DeepLabV3+模型結(jié)構(gòu)圖Fig.4 Structure diagram of improved DeepLabV3+model

2.2.1 特征提取模塊

在編碼層,將DeepLabV3+特征提取模塊Xception網(wǎng)絡(luò)改為更輕量級的MobileNetV2網(wǎng)絡(luò)。該網(wǎng)絡(luò)的提出是為了解決在圖像模型訓(xùn)練過程中出現(xiàn)的卷積神經(jīng)網(wǎng)絡(luò)龐大、硬件訓(xùn)練不足等問題,相較于Xception網(wǎng)絡(luò),該網(wǎng)絡(luò)網(wǎng)絡(luò)層數(shù)更淺,參數(shù)量更少,模型復(fù)雜度更低,網(wǎng)絡(luò)訓(xùn)練速度更快,收斂更快。MobileNetV2網(wǎng)絡(luò)主要分為3個部分。第一部分為一個3×3的卷積塊,用于提取特征;中間部分是多個含有DSC層的網(wǎng)絡(luò)結(jié)構(gòu),由多個1×1和3×3的卷積塊組成;最后一部分由兩個1×1的卷積塊和一個7×7的平均池化塊組成。結(jié)合DeepLabV3+網(wǎng)絡(luò)結(jié)構(gòu),本文用到了該網(wǎng)絡(luò)的前兩個部分,具體網(wǎng)絡(luò)結(jié)構(gòu)如表1所示,其中t是輸入通道的倍增系數(shù)(即擴(kuò)張倍數(shù)),c是輸出通道數(shù),n是該模塊的重復(fù)次數(shù),s是stride。

表1 MobileNetV2網(wǎng)絡(luò)結(jié)構(gòu)Table 1 MobileNetV2 network structure

2.2.2 DAM模塊

注意力在人類感知中起著重要作用,人類利用一系列局部觀察,并選擇性地專注于顯著部分,以便更好地捕捉視覺結(jié)構(gòu)[17]。近年來,許多研究人員[18-20]通過添加注意力機(jī)制來改善卷積神經(jīng)網(wǎng)絡(luò)在大規(guī)模分類任務(wù)中的性能。本文在特征提取模塊以及ASPP模塊加入DAM。具體操作為:首先分別在特征的空間維度和通道維度抓取特征之間的全局依賴關(guān)系,捕獲上下文特征信息,增強(qiáng)特征的表達(dá)能力;然后將兩個注意力模塊的輸出相加,以進(jìn)一步改進(jìn)特征表示;最后獲得更精確的分割結(jié)果。該模塊的結(jié)構(gòu)如圖5所示。

圖5 DAM模塊Fig.5 DAM module

通道注意力機(jī)制。通道注意力機(jī)制通過整合所有通道圖中的相關(guān)特征,有選擇地強(qiáng)調(diào)相互關(guān)聯(lián)的通道圖。因此,本文通過增加通道注意力機(jī)制模塊來顯式地建模通道之間的相互依賴關(guān)系。具體操作為:給定輸入特征圖F∈RC×W×H,其中C表示輸入特征圖的通道數(shù),W和H分別表示特征圖的寬度和高度。首先采用并行的全局最大池化和全局平均池化兩種池化方式對輸入特征圖F進(jìn)行空間維度壓縮分別得到背景描述然后經(jīng)多層感知機(jī)MLP組成的共享網(wǎng)絡(luò)計算相加進(jìn)行Sigmoid函數(shù)最終獲得通道注意力機(jī)制映射特征圖Mc∈RC×1×1;最后,將生成的特征圖進(jìn)行特征映射,使其大小變?yōu)镃×W×H,并將原始輸入特征圖逐元素相乘,從而得到通道注意力加權(quán)圖F Cout∈RC×W×H。具體計算過程如下所示:

其中,σ表示Sigmoid激活函數(shù),?表示元素間的乘法,F(xiàn) c表示將Mc沿著空間維度進(jìn)行復(fù)制得到C×W×H的特征向量。

通道注意力機(jī)制模塊的網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

圖6 通道注意力機(jī)制模塊Fig.6 Channel attention mechanism module

空間注意力機(jī)制。空間注意力機(jī)制通過所有位置的特征加權(quán)總和選擇性地聚集每個位置的特征。無論距離遠(yuǎn)近,相似的特征都會相互關(guān)聯(lián)。因此為了建立更豐富的局部特征間的上下文關(guān)系,引入空間注意力機(jī)制模塊。具體操作為:給定輸入特征圖F∈RC×W×H,其中C表示輸入特征圖的通道數(shù),W和H分別表示特征圖的寬度和高度。首先采用并行的全局最大池化和全局平均池化兩種池化方式對輸入特征圖F進(jìn)行通道壓縮分別得到背景描述并將兩個特征圖合并,經(jīng)一個7×7卷積操作降維到1通道;然后經(jīng)Sigmoid函數(shù)獲得空間注意力機(jī)制映射特征圖M s∈R1×W×H;最后,將生成的特征圖進(jìn)行特征映射,使其大小變?yōu)镃×W×H,并將原始輸入特征圖逐元素相乘,得到空間注意力加權(quán)圖F Sout∈RC×W×H。具體計算過程如下所示:

其中,σ表示Sigmoid激活函數(shù),f7×7表示卷積操作,卷積核大小為7×7,?表示元素間的乘法,F(xiàn) s表示將M s沿著通道方向進(jìn)行復(fù)制得到C×W×H的特征向量。

空間注意力機(jī)制模塊的網(wǎng)絡(luò)結(jié)構(gòu)如圖7所示。

圖7 空間注意力機(jī)制模塊Fig.7 Spatial attention mechanism module

2.2.3 加權(quán)損失函數(shù)

對于一個輸入樣本,模型的輸出值與該樣本真實值之間的差異稱為損失。損失函數(shù)是描述這種差異的函數(shù)。對于一個深度學(xué)習(xí)模型,模型中的神經(jīng)網(wǎng)絡(luò)權(quán)重通過損失反向傳播來完成訓(xùn)練[21]。因此,損失函數(shù)決定了深度學(xué)習(xí)模型的訓(xùn)練效果,至關(guān)重要。本研究農(nóng)作物數(shù)據(jù)集標(biāo)注分為玉米、薏米以及背景值三類,所以使用多類別交叉熵作為損失函數(shù)。但由于數(shù)據(jù)集中背景類別占比大,導(dǎo)致網(wǎng)絡(luò)在訓(xùn)練時偏向于對背景類特征的學(xué)習(xí),不能有效地提取農(nóng)作物區(qū)域的特征,從而造成農(nóng)作物區(qū)域分割精度低的問題。為了解決農(nóng)作物數(shù)據(jù)集類別不平衡導(dǎo)致對農(nóng)作物區(qū)域分割精度低的問題,引入了一種加權(quán)損失函數(shù),在原始多分類交叉熵?fù)p失函數(shù)的基礎(chǔ)上,給予玉米、薏米與背景類不同的權(quán)重,具體計算公式如下所示:

3 實驗與分析

3.1 實驗環(huán)境

本文實驗所使用的CPU為AMD A10-7300,內(nèi)存為8 GB,GPU為Telas V100,內(nèi)存為16 GB,開發(fā)環(huán)境為TensorFlow1.14.0、keras2.3.1、cuda9.0、python3.5。

3.2 評價指標(biāo)

本研究針對農(nóng)作物數(shù)據(jù)集進(jìn)行分割性能評估,實驗選取像素準(zhǔn)確率(PA)、平均交并比(mIou)、平均召回率(mRecall)指標(biāo)評價網(wǎng)絡(luò)分割性能。

其中PA為預(yù)測正確的像素點與總像素點的比值,計算公式如下:

mIou為語義分割實驗中最常用的度量指標(biāo),其取值為先計算每類上真實值和預(yù)測值兩個集合交集與并集的比值,再求所有類別交并比的平均值,即均交并比,計算公式如下:

mRecall為每一類分類正確的像素點數(shù)與預(yù)測為該類的所有像素點數(shù)的比值之和的平均值,計算公式如下:

式中,k表示總的類別數(shù),P ij表示本屬于i類但被預(yù)測為j類的像素數(shù)量,P ii表示預(yù)測正確的數(shù)量,P ij和P ji分別稱為假正和假負(fù)。

3.3 實驗結(jié)果及分析

3.3.1 實驗過程

模型訓(xùn)練超參數(shù)的確定。文獻(xiàn)[16]中提出原始DeeplabV3+模型,在初始學(xué)習(xí)率為0.007,batch-size為16的前提下,模型在pascalVOC2012和城市景觀數(shù)據(jù)集上的平均交并比分別為89.0%和82.1%,取得了良好的分割效果。在此基礎(chǔ)上,查閱相關(guān)文獻(xiàn),獲取到網(wǎng)絡(luò)訓(xùn)練超參數(shù)常用經(jīng)驗值,經(jīng)過反復(fù)實驗,最終確定原始DeeplabV3+網(wǎng)絡(luò)的最優(yōu)學(xué)習(xí)率為0.007,最優(yōu)batch-size為32,改進(jìn)DeeplabV3+網(wǎng)絡(luò)的最優(yōu)學(xué)習(xí)率為0.000 1,最優(yōu)batch-size為32。

本文模型訓(xùn)練細(xì)節(jié)。實驗階段,按7∶1∶2的比例將圖像隨機(jī)劃分成訓(xùn)練集、驗證集和測試集。初始學(xué)習(xí)率設(shè)置為0.000 1,batch-size設(shè)置為32,為了提高模型精度,在模型訓(xùn)練之前加載MobileNetV2預(yù)訓(xùn)練權(quán)重參數(shù),使用加權(quán)損失函數(shù)作為分割模型的損失函數(shù),給予玉米、薏米與背景類不同的權(quán)重,提高模型對農(nóng)作物區(qū)域分割精度。

模型訓(xùn)練結(jié)果比較。傳統(tǒng)DeepLabV3+網(wǎng)絡(luò)和改進(jìn)DeepLabV3+網(wǎng)絡(luò)的訓(xùn)練過程如圖8所示,其中紅色為傳統(tǒng)DeepLabV3+網(wǎng)絡(luò)訓(xùn)練過程,藍(lán)色為改進(jìn)Deep-LabV3+網(wǎng)絡(luò)訓(xùn)練過程。由圖可知,當(dāng)訓(xùn)練迭代次數(shù)超過100時,損失值和精度趨于穩(wěn)定。總體來看二者的損失值隨迭代次數(shù)的增加而減少,精度隨迭代次數(shù)的增加而增加,最終逐漸趨于穩(wěn)定。但相較于傳統(tǒng)的Deep-LabV3+網(wǎng)絡(luò)來看,改進(jìn)的DeepLabV3+網(wǎng)絡(luò)收斂速度更快,后期波動更小。這是由于DAM模塊有效結(jié)合空間通道維度,抓取特征之間的全局依賴關(guān)系,捕獲上下文特征信息,增強(qiáng)了特征的表達(dá)能力,使網(wǎng)絡(luò)學(xué)習(xí)能力和排除干擾信息的能力得到加強(qiáng),且改進(jìn)DeepLabV3+網(wǎng)絡(luò)參數(shù)量更少,進(jìn)一步加快了收斂速度。

圖8 網(wǎng)絡(luò)訓(xùn)練結(jié)果曲線Fig.8 Network training result curve

3.3.2 消融實驗

為了驗證將傳統(tǒng)用于DeepLabV3+模型特征提取的Xception網(wǎng)絡(luò)改為更輕量級的MobileNetV2網(wǎng)絡(luò)、ASPP模塊中的普通卷積改為DSC的必要性,以及同時在特征提取模塊以及ASPP模塊加入DAM的有效性,利用語義分割常用評價指標(biāo),設(shè)置了四組不同的改進(jìn)方案進(jìn)行消融實驗。實驗結(jié)果如表2所示。

表2 消融實驗結(jié)果Table 2 Results of ablation experiment

(1)方案一:在傳統(tǒng)DeepLabV3+網(wǎng)絡(luò)的基礎(chǔ)上,將特征提取網(wǎng)絡(luò)改為更輕量級的MobileNetV2網(wǎng)絡(luò),將ASPP模塊中的普通卷積改為DSC。

(2)方案二:在方案一的基礎(chǔ)上,在特征提取模塊加入DAM。

(3)方案三:在方案一的基礎(chǔ)上,在ASPP模塊加入

DAM。

(4)方案四:在方案一的基礎(chǔ)上,在特征提取模塊及ASPP模塊分別加入DAM。

由表2消融實驗結(jié)果可得,相對于傳統(tǒng)DeepLabV3+,方案一模型參數(shù)量、訓(xùn)練時間以及單圖預(yù)測時間明顯減少,表明將傳統(tǒng)用于DeepLabV3+模型特征提取的Xception網(wǎng)絡(luò)改為更輕量級的MobileNetV2網(wǎng)絡(luò)、將ASPP模塊中的普通卷積改為DSC可極大減少模型的參數(shù)量,明顯提高模型訓(xùn)練時間以及預(yù)測速度。相對于方案一,方案二、方案三與方案四在像素準(zhǔn)確率(PA)、平均召回率(mRecall)、平均交并比(mIou)方面均有所提升,但方案四提升幅度更大一些,表明在特征提取模塊或者ASPP模塊加入DAM都可以一定程度上提高模型分割精度,但是同時在特征提取模塊以及ASPP模塊加入DAM模型分割精度提升更明顯。

為了進(jìn)一步驗證加權(quán)損失函數(shù)對提高農(nóng)作物區(qū)域分割精度的有效性,對方案四和本文方法在農(nóng)作物分割數(shù)據(jù)集上的分割精度進(jìn)行了詳細(xì)對比實驗,實驗結(jié)果如表3所示。

由表3分割精度詳細(xì)對比結(jié)果可得,相對于方案四,本文方法在玉米和薏米的召回率(Recall)上有所提升,但在背景的召回率(Recall)上略有下降,在玉米、薏米以及背景的交并比(Iou)上均有所提升。從整體來看,本文方法的像素準(zhǔn)確率(PA)、平均召回率(mRecall)以及平均交并比(mIou)相較于實驗四均有所提升。實驗數(shù)據(jù)證明,加權(quán)損失函數(shù)的引入能夠提高模型對農(nóng)作物區(qū)域的分割精度,從而進(jìn)一步提升模型整體分割精度。

表3 分割精度詳細(xì)對比結(jié)果Table 3 Detailed comparison results of segmentation accuracy %

3.3.3 不同分割方法性能分析

為了進(jìn)一步驗證改進(jìn)DeepLabV3+模型的分割性能,將本文方法與傳統(tǒng)DeepLabV3+、Unet、Segnet等常用于農(nóng)作物語義分割的模型進(jìn)行對比,對比結(jié)果如表4所示。

從表4可以看出,在像素準(zhǔn)確率(PA)方面,傳統(tǒng)DeepLabv3+算法的像素準(zhǔn)確率為92.5%,Unet的像素準(zhǔn)確率為92.9%,Segnet算法的像素準(zhǔn)確率為92.3%,本文改進(jìn)方法的像素準(zhǔn)確率為94.0%,較傳統(tǒng)DeepLabV3+算法、Unet算法和Segnet算法分別提高了1.5、1.1和1.7個百分點;在平均召回率(mRecall)方面,傳統(tǒng)DeepLabv3+算法的平均召回率為88.4%,Unet的平均召回率為87.9%,Segnet算法的平均召回率為86.4%,本文改進(jìn)方法的平均召回率為91.1%,較傳統(tǒng)DeepLabV3+算法、Unet算法和Segnet算法分別提高了2.7、3.2和4.7個百分點;在平均交并比(mIou)方面,傳統(tǒng)DeepLabv3+算法的平均交并比為80.6%,Unet的平均交并比為81.1%,Segnet算法的平均交并比為80.0%,本文改進(jìn)方法平均交并比為84.2%,較傳統(tǒng)DeepLabV3+算法、Unet算法和Segnet算法分別提高了3.6、3.1和4.2個百分點。實驗數(shù)據(jù)證明,在本文方法中加入DAM以及加權(quán)損失函數(shù)的引入提高了模型的特征提取能力,對農(nóng)作物遙感影像分割精度更高。

在常見的神經(jīng)網(wǎng)絡(luò)模型中,模型層數(shù)越多,模型涉及參數(shù)量越大,模型越復(fù)雜,訓(xùn)練難度也就越大。由表4可得,相較于傳統(tǒng)DeepLabV3+以及Unet模型,本文方法參數(shù)量有明顯的減少,并且模型訓(xùn)練時間以及單圖預(yù)測時間更快;相較于Segnet模型,本文方法參數(shù)量有明顯的減少,但模型訓(xùn)練時間以及單圖預(yù)測時間略有增加,這是由于Segnet模型雖然參數(shù)量較多,但是本身模型結(jié)構(gòu)較為簡單,減少了模型訓(xùn)練時間以及單圖預(yù)測時間,但檢測精度不及本文方法。總體來說,本文方法中選擇更輕量級的MobileNetV2作為特征提取網(wǎng)絡(luò)以及將ASPP模塊中的普通卷積改為DSC,極大減少了參數(shù)量,提高了模型計算速度。

表4 作物分割方法對比Table 4 Comparison of crop segmentation methods

為了更全面地評估本文方法,對本文方法及其他對比模型在玉米、薏米以及背景上的分割精度進(jìn)行了對比實驗,實驗結(jié)果如表5所示。

表5 各類別目標(biāo)分割結(jié)果Table 5 Segmentation results of various targets %

對比表5中玉米、薏米以及背景在各個方法上的召回率(Recall)及交并比(Iou)可以看出,背景的交并比及召回率最高,玉米次之,薏米最低。是因為整張遙感圖像中背景占比最大,玉米次之,薏米占比最少。從整體來看,本文方法在玉米、薏米以及背景上的召回率、交并比均高于其他對比模型,說明了本文方法對提升各個類別的分割精度都有一定的效果。

實驗選擇了4種算法在2019年某地區(qū)無人機(jī)遙感影像部分測試集上的分割結(jié)果進(jìn)行可視化展示,如圖9所示。其中橙色代表薏米,黃色代表玉米,黑色代表背景。

圖9 4種分割算法分類效果比較Fig.9 Comparison of classification effect of four segmentation algorithms

由不同模型的分割效果圖對比可知,傳統(tǒng)Deep-LabV3+方法與本文方法相較于Segnet、Unet方法來說,對玉米、薏米種植區(qū)域邊緣的識別程度更高,這是由于DeepLabv3+模型本身最大的優(yōu)勢就是在編碼部分加入了含多個空洞卷積擴(kuò)張率的多尺度ASPP特征提取模塊,該模塊增強(qiáng)模型識別不同尺寸的同一物體的能力,捕獲多尺度特征,可以更好恢復(fù)物體的邊緣信息。除此之外,本文方法相較于傳統(tǒng)DeepLabV3+方法,邊緣識別效果略有提升,存在的漏分和錯分現(xiàn)象更少,相較于Segnet、Unet方法,對玉米和薏米的分割效果更好,進(jìn)一步證明了加入DAM以及引入加權(quán)損失函數(shù)的必要性。

4 結(jié)束語

為更加高效準(zhǔn)確獲取農(nóng)作物的種植信息以滿足農(nóng)業(yè)精細(xì)化管理需求,本文提出了一種改進(jìn)DeepLabV3+網(wǎng)絡(luò)的遙感影像農(nóng)作物分割方法。模型本身含有ASPP模塊,可以更好恢復(fù)物體的邊緣信息;加入DAM提高了模型的特征提取能力,存在的漏分和錯分現(xiàn)象更少,對玉米、薏米種植區(qū)域邊緣的識別效果更好,分割精度更高;修改特征提取網(wǎng)絡(luò)為輕量級神經(jīng)網(wǎng)絡(luò)MobileNetV2,將ASPP模塊中普通的卷積改為DSC,有效地減少了模型參數(shù)量,提高了模型計算速度。此外針對農(nóng)作物數(shù)據(jù)集類別不平衡問題,引入加權(quán)損失函數(shù),提高了模型對農(nóng)作物區(qū)域分割精度。實驗結(jié)果表明,該方法能夠有效提取農(nóng)作物種植區(qū)域,實現(xiàn)對農(nóng)作物更加高效準(zhǔn)確的分割。

猜你喜歡
特征提取特征模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
如何表達(dá)“特征”
基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個特征
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識別算法
3D打印中的模型分割與打包
基于MED和循環(huán)域解調(diào)的多故障特征提取
主站蜘蛛池模板: 福利小视频在线播放| 婷婷亚洲天堂| 国产精品无码AV中文| 国产极品美女在线播放| 九色综合伊人久久富二代| 国产97区一区二区三区无码| 人与鲁专区| 亚洲成人黄色在线| 在线日韩日本国产亚洲| 亚洲欧洲AV一区二区三区| 久久久精品久久久久三级| 国产真实乱人视频| 综1合AV在线播放| 国产在线自在拍91精品黑人| 久久婷婷色综合老司机| 91麻豆精品国产91久久久久| 欧美成在线视频| 国产成人精品2021欧美日韩| 99久久精品视香蕉蕉| 国产人碰人摸人爱免费视频| 日本黄色a视频| 制服无码网站| 国产在线第二页| 青青国产视频| 91精品国产情侣高潮露脸| 在线免费不卡视频| 中文字幕人成乱码熟女免费| 这里只有精品免费视频| 日韩在线网址| 欧美日韩国产在线观看一区二区三区| 这里只有精品在线播放| 国产男女免费完整版视频| 国产午夜无码片在线观看网站| 无码在线激情片| 色网站免费在线观看| hezyo加勒比一区二区三区| 五月婷婷中文字幕| 久久人与动人物A级毛片| 99久久亚洲综合精品TS| 日韩美毛片| 97精品国产高清久久久久蜜芽| 国产香蕉国产精品偷在线观看| 国产精品成人观看视频国产| 欧美在线黄| 亚洲综合香蕉| 人妻精品全国免费视频| 国产精品流白浆在线观看| 思思热精品在线8| 亚洲无码精彩视频在线观看 | 人妻精品久久无码区| 国产网站免费观看| 欧美亚洲第一页| 国产午夜不卡| 久久公开视频| 亚洲无线观看| 在线观看欧美国产| aa级毛片毛片免费观看久| 国产打屁股免费区网站| 日本影院一区| 亚洲啪啪网| 一区二区三区毛片无码| 天天操天天噜| 国产精品亚洲а∨天堂免下载| 99精品热视频这里只有精品7| 在线色综合| 国产美女免费网站| 免费在线视频a| 四虎永久免费在线| 国产在线视频欧美亚综合| 青青草国产精品久久久久| 国产网站黄| 亚洲视频黄| www.youjizz.com久久| 91国语视频| 国产情精品嫩草影院88av| 国内精品视频| 国产精品太粉嫩高中在线观看| 国产精品思思热在线| 中文字幕无码制服中字| 免费视频在线2021入口| 亚洲男人的天堂久久精品| 国产精品久久久久久久久久久久|