999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種改進(jìn)殘差網(wǎng)絡(luò)的農(nóng)田識別算法

2023-05-29 10:19:52邵霆嘯孟海濤趙博文
軟件導(dǎo)刊 2023年5期
關(guān)鍵詞:方法模型

邵霆嘯,孟海濤,趙博文

(1.鹽城工學(xué)院 機(jī)械工程學(xué)院;2.鹽城工學(xué)院 信息工程學(xué)院,江蘇 鹽城 224002)

0 引言

為實(shí)現(xiàn)對農(nóng)田的有效識別[1],需要采用圖像分割方法。根據(jù)是否引入深度神經(jīng)網(wǎng)絡(luò),可分為傳統(tǒng)圖像分割方法以及基于深度學(xué)習(xí)的圖像分割方法。傳統(tǒng)圖像分割方法主要包括基于閾值的圖像分割方法[2]、基于邊緣的圖像分割方法[3]、基于區(qū)域的圖像分割方法[4]、基于聚類的圖像分割方法[5]、基于圖論的分割方法[6]等;基于深度學(xué)習(xí)的圖像分割方法包括語義分割、全連接網(wǎng)絡(luò)等[7]。在傳統(tǒng)圖像分割領(lǐng)域,唐晶磊等[8]利用基于模糊聚類的圖像分割方法對農(nóng)田對象(主要針對植物類型和土壤類型)進(jìn)行識別,識別率可分別達(dá)到92.5%和95.6%,但是無法確定識別的對象是否處于農(nóng)田之中;陳伊哲等[9]采用基于邊緣和基于區(qū)域的兩種圖像分割方法對農(nóng)田圖像進(jìn)行實(shí)驗處理,結(jié)果表明,采用微分算子的圖像分割算法可以有效地對農(nóng)田邊界進(jìn)行識別,但存在放大噪聲的干擾。在基于深度學(xué)習(xí)的圖像分割領(lǐng)域,楊亞男等[10]將全連接網(wǎng)絡(luò)FCN-8s 模型與DenseCRF 模型相結(jié)合應(yīng)用于梯田識別,實(shí)驗結(jié)果表明,該方法對于山脊區(qū)梯田、密集區(qū)梯田以及不規(guī)則形狀梯田的識別率為86.85%,識別精度有待提高。

針對上述存在的識別區(qū)域不明顯及識別精度不高等問題,本文提出一種改進(jìn)的ResNet 農(nóng)田識別方法,提升了模型識別精度,實(shí)現(xiàn)了對農(nóng)田的高效識別。

1 本文網(wǎng)絡(luò)結(jié)構(gòu)

1.1 基礎(chǔ)網(wǎng)絡(luò)選取

卷積神經(jīng)網(wǎng)絡(luò)已被廣泛應(yīng)用于圖像分類、目標(biāo)檢測等領(lǐng)域。He 等[11]在2015 年提出殘差網(wǎng)絡(luò)的概念,殘差網(wǎng)絡(luò)是由一系列殘差塊構(gòu)成的。殘差塊結(jié)構(gòu)[12]如圖1所示。

殘差塊的核心思想是“shortcut connection”[13],即為捷徑連接的方式。ResNet 殘差塊經(jīng)過跨層連接操作[14]之后,假設(shè)H(x)是神經(jīng)網(wǎng)絡(luò)的輸出,則變成了對F(x)=H(x)-x殘差函數(shù)的學(xué)習(xí)與優(yōu)化,從而有效避免了梯度爆炸或梯度消失現(xiàn)象,且在反向傳播過程中會一直保持一個較大的值,以方便優(yōu)化,可達(dá)到更好的分類識別效果。

Fig.1 Residual block structure圖1 殘差塊結(jié)構(gòu)

在ResNet 系列中,ResNet18 擁有較少的參數(shù)。考慮到模型的性能,本文選取ResNet18[15]作為基礎(chǔ)網(wǎng)絡(luò)模型。ResNet18模型結(jié)構(gòu)如圖2所示。

Fig.2 ResNet18 model structure圖2 ResNet18模型結(jié)構(gòu)

1.2 網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化

1.2.1 注意力機(jī)制

本文為模型引入通道注意力機(jī)制[16],該注意力機(jī)制可調(diào)整每個通道的權(quán)重,幫助模型捕獲到對識別任務(wù)更有幫助的語義信息,增強(qiáng)有用信息,降低噪聲等干擾元素的權(quán)重,減弱其對模型識別的負(fù)面影響,增強(qiáng)卷積神經(jīng)網(wǎng)絡(luò)的表達(dá)能力,最終達(dá)到提高模型識別性能的目的。通道注意力機(jī)制單元結(jié)構(gòu)如圖3所示。

Fig.3 Channel attention mechanism unit structure圖3 通道注意力機(jī)制單元結(jié)構(gòu)

如圖3 所示,輸入一個特征層X,其通道數(shù)為C1,經(jīng)過注意力機(jī)制后得到一個通道數(shù)為C2的特征層U,其中只有特征圖之間的權(quán)重比發(fā)生了變化,激勵了有用的特征通道。與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)不同,需要通過以下3 個操作[17]重新標(biāo)定前面得到的特征,步驟如下:

(1)第一步為擠壓(Fsq)操作,通過全局平均池化算法(Global Avg Pooling)將W × H × C2的輸入轉(zhuǎn)化為1 × 1 × C2的輸出。

(2)第二步為激勵(Feq)操作,即在上一步得到的全局信息中插入一個全連接層接上ReLu 激活函數(shù),以及一個全連接層接上Sigmoid 函數(shù)。這兩個全連接層的作用就是對各個通道的特征圖信息進(jìn)行融合,最后進(jìn)入到Sigmoid函數(shù),將輸出映射到0~1 之間,給每個通道分別生成不同的權(quán)值。

(3)第三步為縮放(Fscale)操作,將第二步中得到的權(quán)值與原特征層U 相乘,最后得到新的帶有注意力機(jī)制的特征層X1。

1.2.2 Silu激活函數(shù)

本文提出一種新的激活函數(shù)Silu(Sigmoid Weighted Liner Unit)代替基礎(chǔ)網(wǎng)絡(luò)模型中的Relu 激活函數(shù)。Silu 及其一階導(dǎo)數(shù)的計算公式如下:

如圖4 所示(彩圖掃OSID 碼可見,下同),當(dāng)輸入值大于0 時,Silu 與Relu 激活函數(shù)大致相等。如圖5 所示,與Relu 激活函數(shù)不同的地方在于,Silu 激活函數(shù)并不是單調(diào)增加的,而是具有平滑、非單調(diào)的特性,具有更強(qiáng)的穩(wěn)定性,可以提高整個網(wǎng)絡(luò)的性能。與Relu 相比,對Silu 激活函數(shù)求導(dǎo)后,導(dǎo)數(shù)為0 的全局最小值在權(quán)重上可起到“軟調(diào)節(jié)”的作用,可以抑制大權(quán)值的更新[18],從而有效避免梯度爆炸或梯度消失現(xiàn)象。

Fig.4 Relu and Silu activation function圖4 Relu與Silu激活函數(shù)

Fig.5 Relu and Silu first -order guide圖5 Relu與Silu一階導(dǎo)數(shù)

1.3 改進(jìn)的殘差網(wǎng)絡(luò)

圖6 顯示了原始?xì)埐顗K細(xì)節(jié)和改進(jìn)殘差塊細(xì)節(jié),其中Conv1d 表示卷積層,BN 表示加速網(wǎng)絡(luò)收斂速度的批處理歸一化,“+”是求和運(yùn)算。

Fig.6 Primitive residual block and improved residual block details圖6 原始?xì)埐顗K與改進(jìn)殘差塊細(xì)節(jié)

圖6(a)顯示了原始?xì)埐顗K細(xì)節(jié),圖6(b)顯示了本文改進(jìn)之后的殘差塊細(xì)節(jié)。改進(jìn)主要包含兩方面:一是加入注意力機(jī)制;二是將殘差網(wǎng)絡(luò)中的Relu 激活函數(shù)替換為Silu激活函數(shù)。

1.4 模型整體架構(gòu)

本文所改進(jìn)的深度學(xué)習(xí)網(wǎng)絡(luò)模型以ResNet18 為基礎(chǔ),引入通道注意力機(jī)制,并且將原網(wǎng)絡(luò)模型中的Relu 激活函數(shù)替換為Silu激活函數(shù)。改進(jìn)模型整體架構(gòu)如圖7所示。

1.5 標(biāo)簽平滑

本文采用標(biāo)簽平滑的交叉熵函數(shù)[19],其曲線平滑,易于求導(dǎo)且梯度穩(wěn)定,使網(wǎng)絡(luò)具有更好的泛化性,避免了對正確標(biāo)簽的過度相信,能有效提高圖像分類識別的準(zhǔn)確性。具體公式如下:

其中,h表示具體任務(wù)中的分類數(shù),y表示h類別組成的h維矩陣,ε表示平滑因子,y′表示標(biāo)簽平滑后的h類別組成的h維矩陣。

1.6 學(xué)習(xí)率余弦退火衰減

要優(yōu)化深度學(xué)習(xí)模型的收斂效果,可以使用梯度下降算法,根據(jù)epoch 的不斷變化來調(diào)整學(xué)習(xí)率,從而達(dá)到優(yōu)化損失函數(shù)的目的。Hutter 等提出帶熱重啟的隨機(jī)梯度下降算 法(Stochastic GradientDescent with warm Restarts,SGDR)[20],以一種周期性調(diào)整學(xué)習(xí)率的方法,周期性地增大學(xué)習(xí)率,以達(dá)到學(xué)習(xí)率跳躍式增加,實(shí)現(xiàn)由局部最優(yōu)解到達(dá)全局最優(yōu)解的目的。本文使用PyTorch 框架下的余弦退火衰減算法[21],使學(xué)習(xí)率根據(jù)余弦函數(shù)的特點(diǎn)進(jìn)行周期性變化。本文設(shè)置的初始最小學(xué)習(xí)率為0.005,當(dāng)總epoch為50時,學(xué)習(xí)率變化曲線如圖8所示。

Fig.7 Overall architecture of the proposed model圖7 改進(jìn)模型整體架構(gòu)

Fig.8 Learning rate changing curve圖8 學(xué)習(xí)率變化曲線

2 實(shí)驗平臺及數(shù)據(jù)集

2.1 實(shí)驗平臺

本實(shí)驗以PyTorch 深度學(xué)習(xí)框架為平臺,計算機(jī)操作系統(tǒng)為Windows 10,CPU 為AMD Ryzen 51500X@3.50GHz×4CPUs,GPU 為NVIDIA 2080Ti,CUDA 版本為10.1,Python版本為3.7,PyTorch 版本為1.7.0。

2.2 數(shù)據(jù)集

圖像數(shù)據(jù)集源于武漢大學(xué)和華中科技大學(xué)公開的數(shù)據(jù)集AID[22],分為農(nóng)田、建筑、裸地、草地、荒漠5 個類別(每類2 400 幅)共12 000 幅圖像。每類選取1 920 幅圖像作為訓(xùn)練集,剩余480幅作為測試集。

2.3 評價指標(biāo)

取每個類別的識別準(zhǔn)確率(Accuracy)作為評價指標(biāo),通過計算每個類別的識別正確數(shù)量占該類別總數(shù)量的比率,得到每類圖片的識別準(zhǔn)確率,可表示為:

3 實(shí)驗與結(jié)果分析

在神經(jīng)網(wǎng)絡(luò)的訓(xùn)練中,參數(shù)設(shè)置會直接影響算法的最終檢測效果。本文通過將ResNet18、AlexNet、VGG16 進(jìn)行對比,以證明ResNet18 網(wǎng)絡(luò)的優(yōu)越性。因此,采用ResNet18 作為基礎(chǔ)網(wǎng)絡(luò)進(jìn)行圖像的分類識別。然后對基礎(chǔ)網(wǎng)絡(luò)進(jìn)行改進(jìn),分別使用不同的網(wǎng)絡(luò)結(jié)構(gòu)及網(wǎng)絡(luò)訓(xùn)練策略,共完成5 組實(shí)驗。第一組添加了注意力機(jī)制(ResNet18+Se),第二組采用Silu 激活函數(shù)(ResNet18+Silu),第三組采用標(biāo)簽平滑的訓(xùn)練方式(ResNet18+Lsr),第四組采用余弦退火學(xué)習(xí)率衰減算法(ResNet18+Cos),第五組將前四組的方法進(jìn)行綜合使用(ResNet18+Se+Silu+Lsr+Cos),batchsize 為16,共50 個epoch。訓(xùn)練的損失值曲線如圖9 所示,不同算法的準(zhǔn)確率曲線如圖10 所示,實(shí)驗結(jié)果如表1所示。

Fig.9 Loss curve圖9 損失值曲線

Fig.10 Accuracy curve圖10 準(zhǔn)確率曲線

Table 1 Experiment result表1 實(shí)驗結(jié)果

從表1 中可以發(fā)現(xiàn),AlexNet 算法的準(zhǔn)確率為94.33%,VGG16 算法的準(zhǔn)確率為93.88%,ResNet18 算法的準(zhǔn)確率為95.12%,證明了ResNet18 算法優(yōu)于AlexNet 和VGG16。因此,本文選取ResNet18 作為基礎(chǔ)網(wǎng)絡(luò)主干進(jìn)行改進(jìn)。在網(wǎng)絡(luò)結(jié)構(gòu)方面,加入注意力機(jī)制后,ResNet18+Se 算法的準(zhǔn)確率為96.01%,上升了0.89%;結(jié)合Silu 激活函數(shù),ResNet18+Silu 算法的準(zhǔn)確率為96.61%,上升了1.49%,表明更換了激活函數(shù)后,圖像分類識別的準(zhǔn)確率有明顯提升。在網(wǎng)絡(luò)訓(xùn)練策略方面,結(jié)合標(biāo)簽平滑,ResNet18+Lsr算法的準(zhǔn)確率為96.43%;結(jié)合余弦退火衰減學(xué)習(xí)率,ResNet18+Cos 算法的準(zhǔn)確率為98.27%。本文將以上算法進(jìn)行綜合,得到ResNet18+Se+Silu+Lsr+Cos 算法的準(zhǔn)確率為98.92%,上升了3.8%,證明了改進(jìn)算法的優(yōu)越性。

4 結(jié)語

本文基于ResNet18 網(wǎng)絡(luò),提出一種改進(jìn)殘差網(wǎng)絡(luò)的圖像分類及農(nóng)田識別算法。在網(wǎng)絡(luò)結(jié)構(gòu)方面加入通道注意力機(jī)制,并且采用Silu 激活函數(shù),提升了準(zhǔn)確率;在網(wǎng)絡(luò)訓(xùn)練策略方面,加入標(biāo)簽平滑和余弦退火算法,使模型的收斂效果得到增強(qiáng)。實(shí)驗結(jié)果表明,在圖像分類及農(nóng)田識別任務(wù)中,該模型的準(zhǔn)確率達(dá)到98.92%,相比原殘差網(wǎng)絡(luò)(ResNet18)的準(zhǔn)確率提升了3.8%,能夠很好地完成任務(wù),有效地為農(nóng)機(jī)自動化作業(yè)提供環(huán)境數(shù)據(jù)。

猜你喜歡
方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
學(xué)習(xí)方法
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 伊人丁香五月天久久综合| 久久精品国产精品一区二区| 亚洲伦理一区二区| 精品国产成人a在线观看| 中文字幕 日韩 欧美| 无码中文字幕精品推荐| 欧美全免费aaaaaa特黄在线| 精品国产美女福到在线不卡f| 丁香婷婷激情综合激情| 四虎永久免费在线| 手机精品视频在线观看免费| 国产在线一区二区视频| 欧美日韩国产在线播放| 91区国产福利在线观看午夜| 日韩精品一区二区三区大桥未久| 国产成人久久777777| …亚洲 欧洲 另类 春色| 亚洲成av人无码综合在线观看| 国产福利大秀91| 久久精品无码一区二区日韩免费| 在线观看国产网址你懂的| 日韩 欧美 国产 精品 综合| 伊人大杳蕉中文无码| 精品一区二区三区自慰喷水| 亚洲性网站| 在线精品亚洲国产| a网站在线观看| 91小视频版在线观看www| 国产色伊人| 亚洲妓女综合网995久久| 国产91精品调教在线播放| 亚洲欧美人成人让影院| 国产欧美日韩专区发布| 国产男女免费视频| 亚洲国产日韩视频观看| 亚洲视频色图| 国产欧美精品一区二区| 精品久久久久久中文字幕女| 亚洲日韩AV无码一区二区三区人| 全部毛片免费看| 久久久久亚洲av成人网人人软件| 午夜啪啪网| 精品三级网站| 欧美全免费aaaaaa特黄在线| 日本日韩欧美| 国产成人精品一区二区不卡| 国产精品一区二区无码免费看片| 成年人免费国产视频| 欧美精品v日韩精品v国产精品| 中国一级毛片免费观看| 国产精品视频公开费视频| 免费人成又黄又爽的视频网站| 亚洲码一区二区三区| 久久福利片| 日韩精品一区二区三区中文无码| 亚洲第一视频网| 不卡无码网| 久久国语对白| 亚洲福利视频一区二区| 中文字幕无码制服中字| 色天堂无毒不卡| 欧美国产日韩在线| 91九色最新地址| 免费国产在线精品一区| 女人18毛片一级毛片在线 | 亚洲男人的天堂久久香蕉网| 国产精品任我爽爆在线播放6080 | 欧美午夜精品| 国产成人精品亚洲日本对白优播| 午夜不卡福利| 精品国产中文一级毛片在线看 | 国产91av在线| 欧美精品二区| 亚洲国产精品日韩av专区| 亚洲黄色片免费看| 日本精品影院| 夜色爽爽影院18禁妓女影院| 亚洲欧洲日韩久久狠狠爱| 91色国产在线| 青青草国产精品久久久久| 国产福利2021最新在线观看| 色成人亚洲|