999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于MobileNetV3的馬鈴薯病害識(shí)別

2022-06-12 01:20:07徐振南王建坤胡益嘉張智聰趙旭東楊琳琳李文峰
江蘇農(nóng)業(yè)科學(xué) 2022年10期

徐振南 王建坤 胡益嘉 張智聰 趙旭東 楊琳琳 李文峰

摘要:針對(duì)傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)在馬鈴薯葉部病害識(shí)別中結(jié)構(gòu)復(fù)雜、參數(shù)龐大,難以實(shí)現(xiàn)在移動(dòng)設(shè)備上的良好應(yīng)用的問題,提出一種基于輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)和遷移學(xué)習(xí)的馬鈴薯葉部病害識(shí)別方法。首先,采集馬鈴薯葉部病害圖像樣本,再運(yùn)用GrabCut算法進(jìn)行圖像分割;再基于 MobileNetV3構(gòu)建病害識(shí)別基礎(chǔ)模型,并通過調(diào)整模型結(jié)構(gòu)及寬度系數(shù)α等方式對(duì)模型進(jìn)行優(yōu)化,最后運(yùn)用遷移學(xué)習(xí)的方式將預(yù)訓(xùn)練參數(shù)遷移至優(yōu)化模型進(jìn)行訓(xùn)練。結(jié)果表明,該方法對(duì)馬鈴薯健康、晚疫病、早疫病、炭疽病及其他病害葉部圖像識(shí)別準(zhǔn)確率為 98.00%,模型權(quán)重僅為0.68 MB,識(shí)別速率為0.014 s/幅。本研究結(jié)果可為馬鈴薯葉部病害識(shí)別在移動(dòng)設(shè)備上應(yīng)用的實(shí)現(xiàn)提供理論支持。

關(guān)鍵詞:馬鈴薯;葉部病害;GrabCut;MobileNetV3;遷移學(xué)習(xí);小樣本

中圖分類號(hào): TP391.41? 文獻(xiàn)標(biāo)志碼: A

文章編號(hào):1002-1302(2022)10-0176-07

馬鈴薯是我國(guó)四大糧食作物之一,目前,已知馬鈴薯病害有100余種,其中晚疫病和早疫病造成的危害最為嚴(yán)重,馬鈴薯早疫病發(fā)病嚴(yán)重時(shí)減產(chǎn)可達(dá)30%以上[1],晚疫病則可造成高達(dá)80%~100%的減產(chǎn)[2]。傳統(tǒng)馬鈴薯病害識(shí)別通常為專家直接對(duì)患病部位進(jìn)行觀察,如晚疫病發(fā)病初期在葉尖或葉緣有水浸狀綠褐色斑點(diǎn)[3]。該方法具有較高的準(zhǔn)確率,但效率較低,且受限于專家數(shù)量,難以實(shí)現(xiàn)有效推廣。

由于計(jì)算機(jī)智能識(shí)別技術(shù)在對(duì)農(nóng)業(yè)病害進(jìn)行檢測(cè)識(shí)別時(shí),具有無損、快速的特點(diǎn)[4],故被廣泛應(yīng)用于病害識(shí)別。趙建敏等用8層CNN+softmax分層卷積神經(jīng)網(wǎng)絡(luò)模型識(shí)別了簡(jiǎn)單背景單一病斑[5];孫文杰等使用一種基于VGGNet-BiLSTM的算法實(shí)現(xiàn)了對(duì)桃樹葉部病害圖像的識(shí)別[6];謝裕睿等通過構(gòu)造恒等殘差塊和卷積殘差塊來搭建20層的ResNet模型識(shí)別了5種常見煙草病害[7]。上述研究在圖像識(shí)別領(lǐng)域取得了良好效果,但其所采用的模型存在深度及參數(shù)過大等不足。目前,農(nóng)業(yè)病害識(shí)別趨向于模型結(jié)構(gòu)小型化、實(shí)用化,以期更好地實(shí)現(xiàn)其在移動(dòng)端的應(yīng)用。楊森等提出一種基于輕量卷積網(wǎng)絡(luò)的馬鈴薯外部缺陷無損分級(jí)方法,識(shí)別準(zhǔn)確率為96.04%[8]。劉洋等基于MobileNet與IncptionV3提出2種輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)作物病害分類模型[9]。以上研究表明,輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)模型在減少網(wǎng)絡(luò)參數(shù)量的同時(shí),可保證較高的識(shí)別準(zhǔn)確率,適用于移動(dòng)端。

本研究提出一種基于MobileNetV3優(yōu)化和遷移學(xué)習(xí)方法的馬鈴薯葉部病害圖像識(shí)別方法,并從訓(xùn)練、測(cè)試準(zhǔn)確率及損失函數(shù)、模型權(quán)重和識(shí)別速率等方面對(duì)模型進(jìn)行評(píng)估,為開發(fā)移動(dòng)端的馬鈴薯害智能識(shí)別系統(tǒng)提供模型構(gòu)建技術(shù)支持。

1 圖像數(shù)據(jù)集及預(yù)處理

1.1 試驗(yàn)數(shù)據(jù)

圖像數(shù)據(jù)采集點(diǎn)為云南省昭通市,為體現(xiàn)樣本多樣性,選用不同品牌手機(jī)、相機(jī)進(jìn)行拍攝,拍攝角度、時(shí)間、地點(diǎn)等多樣化。此外,通過互聯(lián)網(wǎng)公開數(shù)據(jù)集收集部分樣本,收獲馬鈴薯健康葉部圖像39幅、晚疫病61幅、早疫病50幅、炭疽病54幅以及其他病害33幅,總計(jì)獲得葉部圖像237幅,部分原始圖像如圖1所示。

1.2 濾波去噪

實(shí)際拍攝所得圖像通常會(huì)存在不同數(shù)量的噪聲,這些噪聲會(huì)對(duì)圖像識(shí)別造成一定干擾。因此,為有效過濾圖像中椒鹽噪聲等噪聲信息,采用均值濾波、高斯濾波以及中值濾波方式對(duì)圖像進(jìn)行圖像平滑濾波處理,處理后部分圖像示例如圖2所示。

1.3 圖像分割

由于部分圖像拍攝時(shí)背景相對(duì)復(fù)雜,會(huì)對(duì)病害識(shí)別造成一定干擾,因此運(yùn)用GrabCut算法對(duì)部分背景相對(duì)復(fù)雜的樣本進(jìn)行圖像分割,提取害病葉片圖像,削弱背景影響。GrabCut算法于2004年由Rother等提出,其通過圖像中所蘊(yùn)含的紋理(顏色)信息以及邊界(反差)信息,僅需少量的用戶交互操作,再結(jié)合圖像處理算法,即可取得良好的分割結(jié)果[10],具體如圖3所示。

1.4 圖像增強(qiáng)

在對(duì)樣本圖像特征信息進(jìn)行收集時(shí),通過多種方式對(duì)原始數(shù)據(jù)進(jìn)行數(shù)據(jù)增廣,可提升模型泛化能力,提高模型的魯棒性[11]。對(duì)于數(shù)據(jù)集的數(shù)據(jù)分布,擴(kuò)充后數(shù)據(jù)集中各類訓(xùn)練樣本數(shù)量相同、分布均勻,這使得模型對(duì)于各類別的學(xué)習(xí)過程不會(huì)偏向某一類或某幾類,所得模型泛化能力較強(qiáng)[12]。因此,要對(duì)分割后的數(shù)據(jù)集進(jìn)行一定程度的數(shù)據(jù)擴(kuò)充。

首先,將分割后數(shù)據(jù)集按照8 ∶2的比例隨機(jī)劃分訓(xùn)練集和測(cè)試集。其次,通過旋轉(zhuǎn)、水平翻轉(zhuǎn)、平移、對(duì)比度增強(qiáng)、改變色度的方式增強(qiáng)圖像數(shù)據(jù),將劃分后的數(shù)據(jù)集擴(kuò)充至每類200張,共1 000張圖片,擴(kuò)充后訓(xùn)練集和測(cè)試集比例仍為8 ∶2。為探究圖像分割對(duì)識(shí)別效果的影響,不分割原始圖像重復(fù)上述操作建立數(shù)據(jù)集。圖像分割并增強(qiáng)后部分示例如圖4所示。

因采集工具多樣,故原始圖像分辨率不統(tǒng)一,在訓(xùn)練前將圖像進(jìn)行歸一化、標(biāo)準(zhǔn)化處理。將訓(xùn)練集圖片隨機(jī)大小、隨機(jī)長(zhǎng)寬比進(jìn)行裁剪,再重置圖片為224×224像素;重置測(cè)試集圖片為256×256像素,再中心裁剪為224×224像素,最后將圖片統(tǒng)一轉(zhuǎn)化成tensor張量并進(jìn)行標(biāo)準(zhǔn)化處理。

2 馬鈴薯葉部病害識(shí)別模型

2.1 MobileNetV3網(wǎng)絡(luò)模型

卷積神經(jīng)網(wǎng)絡(luò)由AlexNet[13]到VGGNet[14],再到GoogleNet[15]、 ResNet[16],網(wǎng)絡(luò)性能不斷提升,但網(wǎng)絡(luò)也是不斷加深,由此引發(fā)效率問題,該問題一定程度上決定著CNN在實(shí)際生活中的應(yīng)用。谷歌于2017年提出MobileNets模型[17],于2019年提出MobileNetV3模型[18],其基本網(wǎng)絡(luò)單元如圖5所示。

由圖5可知,相較于ResNet模型,該模型運(yùn)用了MobileNetV2模型[19]中的倒置殘差結(jié)構(gòu)(inverted residuals),該結(jié)構(gòu)先升維,深度可分離卷積后再降維,深度可分離卷積主要起減少網(wǎng)絡(luò)參數(shù),加快運(yùn)行速度的作用[20]。在此之上,還根據(jù)Mnas Net(谷歌提出的一種移動(dòng)平臺(tái)感知神經(jīng)結(jié)構(gòu)搜索)[21]引入基于壓縮獎(jiǎng)懲(squeeze and excitation,SE)結(jié)構(gòu)的輕量級(jí)注意力模型,SE結(jié)構(gòu)能通過訓(xùn)練過程在特征圖上自行分配權(quán)重,使網(wǎng)絡(luò)從全局信息出發(fā)選擇性地放大有價(jià)值的特征通道并抑制無用的特征通道[22]。

此外,相較于EfficientNet模型[23],MobileNetV3加入一種新的激活函數(shù)Hard-swish,如公式(1)所示。

h-swish[x]=xReLU(x+3)6。(1)

式中:x為輸入;ReLU為ReLU激活函數(shù)。

MobileNetV3模型識(shí)別準(zhǔn)確率高、尺寸小,適用于移動(dòng)端,但目前將其用于作物病害識(shí)別研究較少,為實(shí)現(xiàn)將馬鈴薯葉部病害識(shí)別模型應(yīng)用于移動(dòng)端的任務(wù),要對(duì)該模型部分網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行修改。該模型可分為MobileNetV3-Large和Small,因本研究針對(duì)小樣本數(shù)據(jù)集進(jìn)行研究,故選用MobileNetV3-Small網(wǎng)絡(luò),具體結(jié)構(gòu)如表1所示。

2.2 模型改進(jìn)設(shè)計(jì)

由于需要識(shí)別的葉片類型為5類,因此將表1中最后一個(gè)卷積層輸出通道數(shù)由1 000修改為5,將此模型記作MobileNetV3-S0,并以此模型作為后續(xù)改進(jìn)的基礎(chǔ)模型。

為減少模型參數(shù)并保持其在馬鈴薯葉片數(shù)據(jù)集上的性能,基于MobileNetV3-S0進(jìn)行修改:將超參數(shù)reduce_divider由1調(diào)整為4,修改后網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示,并將該模型命名為MobileNetV3-S1。

由圖6可知,超參數(shù)reduce_divider將影響bneck模塊9的輸出通道數(shù),bneck模塊10、11的輸入、輸出以及bneck內(nèi)倒殘差結(jié)構(gòu)進(jìn)行升維后的通道數(shù),其表現(xiàn)如下述公式所示。

Final Output=Output/reduce_divider。(2)

式中:Final Output為最終輸出通道數(shù);Output為輸出通道數(shù)。

深度學(xué)習(xí)的網(wǎng)絡(luò)深度過深將帶來梯度不穩(wěn)定,網(wǎng)絡(luò)退化等問題。因此,為選擇合適的模型深度,對(duì)MobileNetV3-S1進(jìn)行如下操作:移除bneck模塊6~8,將bneck模塊9的輸入通道數(shù)由48縮減為40,并將bneck模塊9~11的輸出通道數(shù)由96縮減為48,并將改動(dòng)后模型命名為MobileNetV3-S2,詳見圖7。

圖像輸入分辨率、網(wǎng)絡(luò)的深度以及寬度3個(gè)參數(shù)的合理化配置對(duì)網(wǎng)絡(luò)性能具有一定的影響。寬度大而深度較淺的網(wǎng)絡(luò)很難學(xué)習(xí)到更深層次的特征。故在降低網(wǎng)絡(luò)深度的同時(shí),有必要進(jìn)一步調(diào)整網(wǎng)絡(luò)寬度。對(duì)MobileNetV3-S2進(jìn)行如下操作:將超參數(shù)寬度系數(shù)α由默認(rèn)的1改為0.5;為進(jìn)一步降低網(wǎng)絡(luò)深度和計(jì)算成本,減少參數(shù)量:移除bneck模塊5,最終將該模型命名為MobileNetV3-S3,詳見圖8。

考慮到數(shù)據(jù)集相對(duì)較小,直接用于網(wǎng)絡(luò)訓(xùn)練將產(chǎn)生過擬合或準(zhǔn)確率較低等問題。遷移學(xué)習(xí)可以考慮到大部分?jǐn)?shù)據(jù)和任務(wù)間的相關(guān)性,將使用其他大批量數(shù)據(jù)訓(xùn)練所得模型來訓(xùn)練新數(shù)據(jù),從而減少訓(xùn)練步驟,縮短訓(xùn)練時(shí)間,并增加數(shù)據(jù)量,從而降低過擬合程度[24]。故將在公開數(shù)據(jù)集PlantVillage上進(jìn)行預(yù)訓(xùn)練的模型參數(shù),遷移至馬鈴薯葉部病害識(shí)別模型,縮短模型訓(xùn)練時(shí)間,提高模型泛化性。

3 結(jié)果與分析

3.1 試驗(yàn)環(huán)境與相關(guān)參數(shù)設(shè)置

試驗(yàn)軟件環(huán)境為Windows10操作系統(tǒng),使用python3.8.5編程語言,以Pytorch作為深度學(xué)習(xí)開源框架,CUDA11.0編程平臺(tái)。試驗(yàn)硬件環(huán)境為16 GB內(nèi)存,NVIDIA GeForce RTX2060顯卡,搭載IntelCoreTMi7-10875H@5.10 GHz CPU處理器。

在訓(xùn)練前,將樣本數(shù)據(jù)分為多個(gè)批次(Batch),綜合考慮樣本數(shù)量及計(jì)算機(jī)的硬件環(huán)境,本研究在試驗(yàn)過程中將Batch大小設(shè)置為32,模型迭代次數(shù)(Epoch)設(shè)為100次。

3.2 試驗(yàn)設(shè)計(jì)

綜合考慮硬件設(shè)備性能及訓(xùn)練效果,在相同條件下對(duì)同一模型進(jìn)行訓(xùn)練,包括采用2種不同的遷移學(xué)習(xí)訓(xùn)練方式(只訓(xùn)練全連接層與訓(xùn)練全部層)、不同學(xué)習(xí)率、3種不同濾波方式對(duì)圖像數(shù)據(jù)進(jìn)行處理以及圖像分割與否等情況進(jìn)行試驗(yàn),同時(shí)在相同條件下對(duì)不同網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練對(duì)比試驗(yàn)。

3.3 模型性能的影響因素分析

3.3.1 學(xué)習(xí)率對(duì)模型性能的影響

進(jìn)行深度學(xué)習(xí)模型訓(xùn)練時(shí),學(xué)習(xí)率是最影響模型性能的超參數(shù)之一[25],學(xué)習(xí)率過大將導(dǎo)致模型不收斂,過小將導(dǎo)致模型收斂過慢或者無法學(xué)習(xí)。因此,通過試驗(yàn)選取適用于MobileNetV3-S0的學(xué)習(xí)率。試驗(yàn)選用單純圖像增強(qiáng)后數(shù)據(jù)集,以訓(xùn)練全部層的遷移學(xué)習(xí)方式進(jìn)行,將學(xué)習(xí)率設(shè)置為0.01、0.001和0.000 1進(jìn)行討論。

由圖9-a可知,相較于0.01和0.000 1的學(xué)習(xí)率,學(xué)習(xí)率為0.001時(shí),模型訓(xùn)練準(zhǔn)確率最高。交叉熵?fù)p失函數(shù)常用于評(píng)估模型預(yù)測(cè)值與真實(shí)值的不一致程度,交叉熵?fù)p失函數(shù)越小,模型的魯棒性越好。由圖9-b可知 學(xué)習(xí)率為0.001訓(xùn)練時(shí) 交叉熵?fù)p失函數(shù)均低于其他學(xué)習(xí)率時(shí)的交叉熵?fù)p失函數(shù),且模型訓(xùn)練準(zhǔn)確率與交叉熵?fù)p失函數(shù)收斂速度最快。因此,綜合考慮訓(xùn)練時(shí)模型平均識(shí)別準(zhǔn)確率與交叉熵?fù)p失函數(shù),后續(xù)試驗(yàn)中取0.001學(xué)習(xí)率及未分割增強(qiáng)后數(shù)據(jù)集完成模型訓(xùn)練與測(cè)試。

3.3.2 遷移學(xué)習(xí)方式對(duì)模型性能的影響

MobileNetV3-S0模型,在不采用遷移學(xué)習(xí)和采用2種不同(只訓(xùn)練全連接層與訓(xùn)練全部層)遷移學(xué)習(xí)方式時(shí),模型訓(xùn)練準(zhǔn)確率和交叉熵?fù)p失函數(shù)變化如圖10-a、圖10-b所示。

從圖10可知,MobileNetV3-S0在運(yùn)用3種不同方式訓(xùn)練過程中,采用遷移學(xué)習(xí)訓(xùn)練的模型收斂速度和訓(xùn)練準(zhǔn)確率明顯高于不采用遷移學(xué)習(xí)的模型,交叉熵?fù)p失函數(shù)則明顯低于不采用遷移學(xué)習(xí)的模型。

同時(shí),觀察圖10中曲線變化可知,在經(jīng)過50次左右迭代訓(xùn)練后,訓(xùn)練準(zhǔn)確率和交叉熵?fù)p失函數(shù)逐漸趨于穩(wěn)定,其中,采用訓(xùn)練全部層方式的模型準(zhǔn)確率最高,交叉熵?fù)p失函數(shù)最小,基本降到0.1以下,且交叉熵?fù)p失函數(shù)波動(dòng)最小。這說明采用訓(xùn)練全部層的遷移學(xué)習(xí)方式對(duì)模型性能的提升最大。

3.3.3 濾波方式對(duì)識(shí)別準(zhǔn)確率的影響

將原始數(shù)據(jù)集分別經(jīng)過均值濾波、高斯濾波和中值濾波這3種濾波方式處理并通過圖像增強(qiáng)后,依次放入模型中進(jìn)行訓(xùn)練與測(cè)試,其所得識(shí)別準(zhǔn)確率如表2所示。

由表2可知,除經(jīng)過中值濾波處理的數(shù)據(jù)集訓(xùn)練準(zhǔn)確率與原始數(shù)據(jù)集一致外,其余濾波方式下的訓(xùn)練準(zhǔn)確率均略有下降。同時(shí),3種經(jīng)濾波處理的數(shù)據(jù)集測(cè)試準(zhǔn)確率相較于原始數(shù)據(jù)集均有所降低,其中表現(xiàn)最好的中值濾波方式仍降低了1.00百分點(diǎn)。這說明,雖然濾波處理可以去除圖像中干擾識(shí)別效果的噪聲,但同時(shí)也對(duì)圖像本身的部分特征信息造成了一定影響。因此,仍選擇經(jīng)過圖像增強(qiáng)但未濾波圖像數(shù)據(jù)集用于模型的訓(xùn)練。

3.3.4 模型性能對(duì)比

運(yùn)用ResNet18、EfficientNet-B0和MobileNetV3-S0這3種模型進(jìn)行對(duì)比訓(xùn)練和測(cè)試,結(jié)果(表3)表明,MobileNetV3-S0模型的訓(xùn)練識(shí)別準(zhǔn)確率分別僅比EfficientNet-B0和 ResNet-18 高出1.26和0.12百分點(diǎn),測(cè)試識(shí)別準(zhǔn)確率則是比ResNet-18高1.50百分點(diǎn),比EfficientNet-B0低4.00百分點(diǎn)。

雖然MobileNetV3-S0的測(cè)試準(zhǔn)確率略低于EfficientNet-B0,但同時(shí)由表3可分析出,ResNet18、EfficientNet-B0的權(quán)重參數(shù)分別為MobileNetV3-S0的4.60倍和2.08倍,反之MobileNetV3-S0的識(shí)別速率則是ResNet18、EfficientNet-B0的18.50倍和18.96倍。

由表4可知,MobileNetV3-S1模型相比較于MobileNetV3-S0模型,權(quán)重減小7.39 MB,測(cè)試準(zhǔn)確率下降1.00百分點(diǎn),這說明調(diào)整超參數(shù)reduce_divider可以較大程度地減小模型權(quán)重,但同時(shí)會(huì)損失一定準(zhǔn)確率。而MobileNetV3-S2相較于MobileNetV3-S1,權(quán)重縮減0.51 MB,測(cè)試準(zhǔn)確率升高2.50百分點(diǎn),說明基于MobileNetV3-S1降低模型深度,不但能減小模型權(quán)重,還有助于提高測(cè)試準(zhǔn)確率。MobileNetV3-S3的權(quán)重比MobileNetV3-S2減少了1.12 MB,測(cè)試準(zhǔn)確率降低0.50百分點(diǎn),由此可知,在降低模型深度的同時(shí),減小模型寬度,可進(jìn)一步減少模型冗余參數(shù),但會(huì)損失一定的準(zhǔn)確率。

因模型結(jié)構(gòu)不同于MobileNetV3-S0,因此對(duì)于MobileNetV3-S3,0.001的學(xué)習(xí)率可能不是最佳學(xué)習(xí)率。故再進(jìn)行對(duì)比試驗(yàn),由表5可知,在3種學(xué)習(xí)率中,最適合MobileNetV3-S3的仍是0.001。

綜上可知,相比MobileNetV3-S2,MobileNetV3-S3的識(shí)別準(zhǔn)確率略有下降,但比MobileNetV3-S0提升了1.00百分點(diǎn),且MobileNetV3-S3的權(quán)重僅為MobileNetV3-S0的7.01%,對(duì)單張圖片識(shí)別速率也略有提升。因此,以MobileNetV3-S3作為最終的馬鈴薯葉部病害識(shí)別模型。

3.3.5 圖像分割對(duì)識(shí)別效果的影響

將運(yùn)用GrabCut算法對(duì)部分背景相對(duì)復(fù)雜圖像進(jìn)行圖像分割,提取圖像后再進(jìn)行圖像增強(qiáng),所得數(shù)據(jù)集輸入MobileNetV3-S3中。由表6可知,經(jīng)過GrabCut算法分割后數(shù)據(jù)集訓(xùn)練準(zhǔn)確率降低了0.50百分點(diǎn),但是測(cè)試準(zhǔn)確率卻提升了1.50百分點(diǎn)。由此可知,運(yùn)用GrabCut算法進(jìn)行圖像分割,有助于進(jìn)一步提高病害葉片的識(shí)別準(zhǔn)確率。故最終選用經(jīng)GrabCut算法圖像分割擴(kuò)充后的數(shù)據(jù)集。

4 結(jié)論與討論

本研究針對(duì)馬鈴薯病害快速準(zhǔn)確實(shí)時(shí)識(shí)別的需求,建立包含馬鈴薯健康、晚疫病、早疫病、炭疽病及其他病害共5種馬鈴薯葉部圖像數(shù)據(jù)集。對(duì)該數(shù)據(jù)集運(yùn)用GrabCut算法進(jìn)行圖像分割并進(jìn)行圖像增強(qiáng)操作,在對(duì)MobileNetV3-Small模型進(jìn)行優(yōu)化后,基于優(yōu)化后模型和遷移學(xué)習(xí)方式進(jìn)行訓(xùn)練,并與ResNet18、EfficientNet-b0這2種網(wǎng)絡(luò)模型進(jìn)行對(duì)比試驗(yàn)。根據(jù)試驗(yàn)結(jié)果得出如下結(jié)論:(1)采用遷移學(xué)習(xí)的方式在提高模型的識(shí)別準(zhǔn)確率的同時(shí)降低了模型的交叉熵?fù)p失函數(shù),增強(qiáng)了模型穩(wěn)定性。而這2種遷移學(xué)習(xí)訓(xùn)練方式,從識(shí)別率和損失函數(shù)收斂2個(gè)方面來看,訓(xùn)練全部層的方式更優(yōu)。(2)基于MobileNetV3-Small改進(jìn)所得模型MobileNetV3-S3,采用0.001的學(xué)習(xí)率和訓(xùn)練全部層的遷移學(xué)習(xí)方式,對(duì)僅進(jìn)行圖像增強(qiáng)的數(shù)據(jù)集訓(xùn)練后所得測(cè)試準(zhǔn)確率最高為96.50%,比MobileNetV3-S0高出1.00百分點(diǎn)。在運(yùn)用GrabCut算法分割圖像后,模型測(cè)試準(zhǔn)確率提升至98.00%。(3)MobileNetV3-S3權(quán)重大小為 0.68 MB,MobileNetV3-S0權(quán)重為其14.26倍。MobileNetV3-S3模型測(cè)試準(zhǔn)確率雖略低于EfficientNet-B0,但其識(shí)別速率為后者的70.43倍,且其權(quán)重僅為后者的3.37%,有利于馬鈴薯病害識(shí)別在移動(dòng)端的實(shí)現(xiàn)。

綜上所述,將基于GrabCut算法分割圖像所建數(shù)據(jù)集,結(jié)合基于MobileNetV3-Small改進(jìn)的模型MobileNetV3-S3,運(yùn)用遷移學(xué)習(xí)方式訓(xùn)練所得識(shí)別模型,在馬鈴薯葉部病害識(shí)別上,具有準(zhǔn)確率高、識(shí)別快、權(quán)重小等特點(diǎn)。該方法為實(shí)現(xiàn)馬鈴薯葉部病害識(shí)別在移動(dòng)端的良好應(yīng)用提供了可行性。

參考文獻(xiàn):

[1]肖金鐘. 馬鈴薯生產(chǎn)中的常見病害[J]. 現(xiàn)代園藝,2020,43(18):37-40.

[2]范子耀,王文橋,孟潤(rùn)杰,等. 7種殺菌劑對(duì)馬鈴薯早疫病菌室內(nèi)毒力及田間防效[J]. 農(nóng)藥,2011,50(7):531-533.

[3]王秀鵬. 馬鈴薯常見病害識(shí)別及防治技術(shù)[J]. 種子科技,2018,36(6):101,103.

[4]邊柯橙,楊海軍,路永華. 深度學(xué)習(xí)在農(nóng)業(yè)病蟲害檢測(cè)識(shí)別中的應(yīng)用綜述[J]. 軟件導(dǎo)刊,2021,20(3):26-33.

[5]趙建敏,李 艷,李 琦,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的馬鈴薯葉片病害識(shí)別系統(tǒng)[J]. 江蘇農(nóng)業(yè)科學(xué),2018,46(24):251-255.

[6]孫文杰,牟少敏,董萌萍,等. 基于卷積循環(huán)神經(jīng)網(wǎng)絡(luò)的桃樹葉部病害圖像識(shí)別[J]. 山東農(nóng)業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版),2020,51(6):998-1003.

[7]謝裕睿,苗 晟,張 鑠,等. 基于殘差神經(jīng)網(wǎng)絡(luò)的煙草病害識(shí)別研究[J]. 現(xiàn)代計(jì)算機(jī),2020(30):27-31.

[8]楊 森,馮 全,張建華,等. 基于輕量卷積網(wǎng)絡(luò)的馬鈴薯外部缺陷無損分級(jí)[J]. 食品科學(xué),2021,42(10):284-289.

[9]劉 洋,馮 全,王書志. 基于輕量級(jí)CNN的植物病害識(shí)別方法及移動(dòng)端應(yīng)用[J]. 農(nóng)業(yè)工程學(xué)報(bào),2019,35(17):194-204.

[10]Rother C,Kolmogorov V,Blake A.“GrabCut”:interactive foreground extraction using iterated graph cuts[J]. ACM Transactions on Graphics,2004,23(3):309-314.

[11]鮑文霞,吳 剛,胡根生,等. 基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的蘋果葉部病害識(shí)別[J]. 安徽大學(xué)學(xué)報(bào)(自然科學(xué)版),2021,45(1):53-59.

[12]賈鶴鳴,郎春博,姜子超. 基于輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)的植物葉片病害識(shí)別方法[J]. 計(jì)算機(jī)應(yīng)用,2021,41(6):1812-1819.

[13]Krizhevsky A,Sutskever I,Hinton G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM,2017,60(6):84-90.

[14]Simonyan K,Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. Computer Science,2014,52(3):1-14.

[15]Szegedy C,Liu W,Jia Y Q,et al. Going deeper with convolutions[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition.June 7-12,2015,Boston,MA.IEEE,2015:1-9.

[16]He K M,Zhang X Y,Ren S Q,et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition,June 27-30,2016,Las Vegas,NV,USA.Las Vegas:IEEE,2016:770-778.

[17]Howard A G,Zhu M L,Chen B,et al. MobileNets:efficient convolutional neural networks for mobile vision applications[EB/OL]. [2021-08-17]. https://arxiv.org/abs/1704.04861.

[18]Howard A,Sandler M,Chen B,et al. Searching for MobileNetV3[C]//Proceeding of the IEEE/CVF International Conference on Computer Vision (ICCV). Seoul:IEEE,2019:1314-1324.

[19]Sandler M,Howard A,Zhu M,et al. MobileNetV2 inverted residuals and linear bottlenecks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern? Recognition. Salt Lake City:IEEE,2018:4510-4520.

[20]劉夢(mèng)倫,趙希梅,魏 賓. 基于MobileNet V2-ELM的肝硬化識(shí)別[J]. 青島大學(xué)學(xué)報(bào)(自然科學(xué)版),2019,32(4):17-21.

[21]Tan M X,Chen B,Pang R M,et al. MnasNet:platform-aware neural architecture search for mobile[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).June 15-20,2019,Long Beach,CA,USA. IEEE,2019:2815-2823.

[22]Hu J,Shen L,Sun G,et al. Squeeze-and-excitation networks[C]//Proceeding of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Piscataway:IEEE,2018:7132-7141.

[23]Tan M X,Le Q V. EfficientNet:rethinking model scaling for convolutional neural networks[C]//36th International Conference on Machine Learning(ICML 2019).Los Angeles:Proceeding of Machine Learning Research,2019:6105-6114.

[24]米 碩,孫瑞彬,李 欣,等. 遷移學(xué)習(xí)在卷積神經(jīng)網(wǎng)絡(luò)中的應(yīng)用[J]. 中國(guó)新通信,2018,20(7):121.

[25]馮 曉,李丹丹,王文君,等. 基于輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)和遷移學(xué)習(xí)的小麥葉部病害圖像識(shí)別[J]. 河南農(nóng)業(yè)科學(xué),2021,50(4):174-180.

主站蜘蛛池模板: 国产精品成人一区二区不卡 | 福利小视频在线播放| 无码国内精品人妻少妇蜜桃视频| 日韩AV无码免费一二三区| 中文字幕调教一区二区视频| 超级碰免费视频91| 免费AV在线播放观看18禁强制| 欧美一级黄片一区2区| 日韩精品资源| 91精品日韩人妻无码久久| 国产女同自拍视频| 又黄又爽视频好爽视频| 高清无码手机在线观看| 国产精品亚欧美一区二区三区 | 99re在线视频观看| 欧美精品在线视频观看| h网址在线观看| 欧美在线精品一区二区三区| www.精品国产| 奇米影视狠狠精品7777| 91精品伊人久久大香线蕉| 色婷婷久久| 久久91精品牛牛| 国产91在线|中文| 中文字幕永久视频| 欧美激情首页| 国产一级视频在线观看网站| 尤物精品国产福利网站| 日韩二区三区无| 毛片免费试看| 国产理论精品| 亚洲美女操| 麻豆精品在线播放| 乱色熟女综合一区二区| 午夜高清国产拍精品| 夜夜操国产| 日本国产在线| 福利在线一区| 国产精品.com| 97久久人人超碰国产精品| 福利在线不卡一区| 国产亚洲精久久久久久无码AV| a毛片免费看| 国产在线视频导航| 精品福利国产| 免费无码网站| 91免费片| 性色在线视频精品| 日韩高清一区 | 中国国产A一级毛片| 五月天福利视频| 亚洲AV一二三区无码AV蜜桃| 久久中文电影| 亚洲自偷自拍另类小说| 国国产a国产片免费麻豆| 欧美黄网站免费观看| 久久精品66| 国产亚洲高清视频| 欧美一区国产| 99精品在线视频观看| 久久99精品久久久久纯品| 国产凹凸视频在线观看| www中文字幕在线观看| 国产熟睡乱子伦视频网站| 久久久久国色AV免费观看性色| 久久久精品国产SM调教网站| 亚洲国产系列| 国产女人在线视频| 亚洲成在人线av品善网好看| 亚洲第一色网站| 欧美日韩在线亚洲国产人| 91久久性奴调教国产免费| 四虎国产精品永久在线网址| 亚洲制服中文字幕一区二区| 亚洲AⅤ无码国产精品| 极品国产一区二区三区| 日本欧美一二三区色视频| 67194成是人免费无码| 日本在线免费网站| 国产内射在线观看| 欧美另类视频一区二区三区| 国产综合在线观看视频|