999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)EfficientNet的植物圖像分類算法*

2022-08-30 07:18:14光金正梁鑒如劉義生
傳感器與微系統(tǒng) 2022年8期
關(guān)鍵詞:分類植物模型

光金正,梁鑒如,劉義生

(1.上海工程技術(shù)大學(xué) 電子電氣工程學(xué)院,上海 201620; 2.蘇州科技大學(xué) 機(jī)械工程學(xué)院,江蘇 蘇州 215000)

0 引 言

近年來(lái),卷積神經(jīng)網(wǎng)絡(luò)[1]已被廣泛應(yīng)用于圖像分類領(lǐng)域中。深度學(xué)習(xí)[2]也逐漸被應(yīng)用于植物圖像分類中[3],植物圖像分類算法的精度雖然已經(jīng)得到了很大的提高[4,5],但是大部分的高精度分類算法[6,7]的模型都很大,難以在嵌入式設(shè)備等設(shè)備終端使用。其中主要原因是大多數(shù)分類算法提升精度僅是通過(guò)對(duì)神經(jīng)網(wǎng)絡(luò)的深度、寬度和分辨率中的單一維度進(jìn)行擴(kuò)張獲得。例如,殘差網(wǎng)絡(luò)[8]是通過(guò)不斷加深網(wǎng)絡(luò)的深度以獲取更高的精度,但隨著網(wǎng)絡(luò)的加深,優(yōu)化難度也在加大,并且會(huì)出現(xiàn)精度逐漸趨于飽和的現(xiàn)象。經(jīng)研究發(fā)現(xiàn)[9],僅增加網(wǎng)絡(luò)的寬度和分辨率與僅增加網(wǎng)絡(luò)深度一樣,都會(huì)出現(xiàn)精度逐漸趨于飽和的現(xiàn)象。因此,在精度即將趨于飽和時(shí),微小的精度提升往往需要非常多的網(wǎng)絡(luò)參數(shù)。這使得模型變得十分龐大,執(zhí)行效率也變得更加慢。

綜合上述,要提高植物圖像分類的精度應(yīng)該是同時(shí)從深度、寬度和分辨率三個(gè)維度進(jìn)行放縮,在放縮時(shí)最重要的問(wèn)題是如何平衡網(wǎng)絡(luò)中所有維度。

本文是使用EfficientNet基線平衡網(wǎng)絡(luò)所有維度[9],同時(shí),對(duì)EfficientNet進(jìn)一步改進(jìn)以獲得更高的植物圖像分類精度。

1 原 理

1.1 EfficientNet系列網(wǎng)絡(luò)

EfficientNet是一個(gè)結(jié)合神經(jīng)網(wǎng)絡(luò)搜索技術(shù)的多維度混合放縮的網(wǎng)絡(luò)。EfficientNet系列網(wǎng)絡(luò)是在EfficientNet—B0的基線上調(diào)整深度、寬度、分辨率和丟失率獲得的。深度、寬度和分辨率的放大倍率是由一個(gè)混合系數(shù)φ決定的

d=αφ,ω=βφ,r=γφ

s.t.α·β2·γ2≈2

α≥1,β≥1,γ≥1

(1)

式中α,β,γ和φ為固定常數(shù)。α=1.2,β=1.1和γ=1.15為令φ=1時(shí)通過(guò)網(wǎng)格搜索獲得的最優(yōu)常數(shù),從而確定最基本的EfficientNet—B0模型。在固定α=1.2,β=1.1和γ=1.15值后,通過(guò)使用不同的φ值,從而計(jì)算出如表1所示的B0~B7模型的深度系數(shù)、寬度系數(shù)和分辨率。顯然,常規(guī)卷積運(yùn)算的計(jì)算量(FLOPS,每秒浮點(diǎn)運(yùn)算次數(shù))與d,W2,r2呈正比關(guān)系。例如,寬度增大為原來(lái)的2倍,則FLOPS增大為原來(lái)的4倍。而EfficientNet系列網(wǎng)絡(luò)的FLOPS是由(α·β2·γ2)φ決定的。在α·β2·γ2≈2約束下,EfficientNet系列的FLOPS約等于原來(lái)的2φ。

表1 EfficientNet系列網(wǎng)絡(luò)模型系數(shù)

1.2 EfficientNet-B0網(wǎng)絡(luò)模型

EfficientNet—B0的核心結(jié)構(gòu)是移動(dòng)翻轉(zhuǎn)瓶頸卷積(mobile inverted bottleneck convolution,MBConv)。與MobileNet—V2結(jié)構(gòu)類似,MBConv是由深度可分離卷積和壓縮與激發(fā)網(wǎng)絡(luò)(squeeze-and-excitation network,SENet)組成的。EfficientNet主干網(wǎng)絡(luò)如圖1所示。

圖1 EfficientNet主干網(wǎng)絡(luò)

首先,圖像以224×224×3作為輸入,開(kāi)始降采樣卷積層是用32個(gè)3×3×3和步長(zhǎng)為2×2的卷積核。接著是進(jìn)行批歸一化層處理和激活函數(shù),輸出為112×112×32。然后進(jìn)入16層不同步長(zhǎng)和卷積核的MBConv層。主干網(wǎng)絡(luò)最后卷積層是有1 280個(gè)1×1×320和步長(zhǎng)為1×1的卷積核,輸出大小為7×7×1 280。此外,為了提高網(wǎng)絡(luò)的泛化能力,主干網(wǎng)絡(luò)加入大量在訓(xùn)練過(guò)程中隨機(jī)丟棄的DropConnect。

1.3 激活函數(shù)

激活函數(shù)是將非線性因素從神經(jīng)元的輸入端映射到輸出端的函數(shù),在神經(jīng)網(wǎng)絡(luò)訓(xùn)練和精度上都起重要的作用。本文實(shí)驗(yàn)使用到如圖2所示的ReLU,Swish和Mish激活函數(shù)[10]。ReLU函數(shù)是神經(jīng)網(wǎng)絡(luò)中最常用的激活函數(shù),具有加快訓(xùn)練和克服梯度消失的特點(diǎn),但若輸入為負(fù)數(shù)時(shí)ReLU函數(shù)就無(wú)法激活。ReLU函數(shù)數(shù)學(xué)表達(dá)式

圖2 激活函數(shù)對(duì)比

F(x)=max(0,x)

Swish函數(shù)主要克服了ReLU在輸入為負(fù)數(shù)時(shí)無(wú)效的問(wèn)題。Swish函數(shù)數(shù)學(xué)表達(dá)式

F(x)=x*sigmoid(β*x)

式中β為常量。與Swish函數(shù)比,Mish函數(shù)更加平滑,負(fù)值時(shí)允許更小的負(fù)梯度流入神經(jīng)網(wǎng)絡(luò),從而得到更好的精度。Mish函數(shù)數(shù)學(xué)表達(dá)式

F(x)=x*tanh(ln(1+ex)

1.4 遷移學(xué)習(xí)

遷移學(xué)習(xí)是一種機(jī)器學(xué)習(xí)技術(shù),是將在某一任務(wù)上學(xué)習(xí)到的特征應(yīng)用到相近的任務(wù)上。遷移學(xué)習(xí)的具體實(shí)現(xiàn)是先凍結(jié)預(yù)訓(xùn)練好提取模型特征的前幾層,然后用目標(biāo)任務(wù)的新層替換模型剩下的幾層,最后再進(jìn)行訓(xùn)練。與從頭訓(xùn)練一個(gè)模型比,遷移學(xué)習(xí)具有訓(xùn)練耗時(shí)少和精度高的特點(diǎn)。

1.5 EfficientNet改進(jìn)

EfficientNet改進(jìn)是以圖1的EfficientNet—B0主干網(wǎng)絡(luò)來(lái)提取圖像的特征,依次加入批歸一化(batch normalization,BN)層、Mish激活函數(shù)、全局平均池化層(GAP)、隨機(jī)失活(Dropout)層和SoftMax分類層,最后,把主干網(wǎng)絡(luò)中的Swish激活函數(shù)也全部替換成更優(yōu)的Mish激活函數(shù),詳細(xì)網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。BN層作用是為了加快模型收斂速度和緩解深層網(wǎng)絡(luò)中梯度彌散問(wèn)題;全局平均池化層作用是代替全連接層,減少模型的參數(shù)量;Dropout作用是緩解網(wǎng)絡(luò)模型過(guò)擬合,提高網(wǎng)絡(luò)的泛化能力;SoftMax分類層作用是把輸出值轉(zhuǎn)化為所有類別概率之和為1的概率分布[11]。

圖3 改進(jìn)EfficientNet網(wǎng)絡(luò)

1.6 損失函數(shù)

本文是植物圖像多分類問(wèn)題,采用交叉熵?fù)p失函數(shù)輔助網(wǎng)絡(luò)訓(xùn)練,有利于提高植物分類精度。交叉熵?fù)p失函數(shù)是評(píng)估訓(xùn)練輸出概率與期望輸出概率之間的距離差異情況,如果距離越小,說(shuō)明兩者的概率分布就越近,訓(xùn)練結(jié)果越好,反之,訓(xùn)練結(jié)果越差。交叉熵?fù)p失函數(shù)數(shù)學(xué)公式

式中y為期望輸出,a為實(shí)際輸出(a=σ(z),z=wx+b)。

2 實(shí)驗(yàn)與數(shù)據(jù)分析

2.1 環(huán)境配置

本文實(shí)驗(yàn)運(yùn)行環(huán)境配置如下:操作系統(tǒng)(OS)采用Windows 10 Professional,CPU:Intel?CoreTMi7—10700K CPU@ 3.8 GHz,GPU:NVIDIA GeForce RTX 2080 SUPER,RAM為16 GB,DISK為1 TB,F(xiàn)rame為TensorFlow 2.3.1,CUDA為v10.1.243,cuDNN為v7.6.5,Env為PyCharm 2020.2。

2.2 數(shù)據(jù)集和評(píng)價(jià)指標(biāo)

實(shí)驗(yàn)數(shù)據(jù)集由自制植物數(shù)據(jù)集(Plants 105)和牛津大學(xué)公開(kāi)的花卉數(shù)據(jù)集(Oxford 102 Flowers,簡(jiǎn)稱Flowers102)組成。由于目前在國(guó)際上沒(méi)有公開(kāi)統(tǒng)一標(biāo)準(zhǔn)的植物數(shù)據(jù)集,因此本文自行構(gòu)建一個(gè)植物數(shù)據(jù)集,數(shù)據(jù)主要來(lái)源互聯(lián)網(wǎng),少部分來(lái)源實(shí)拍。Plants105有105種常見(jiàn)的植物,每種植物圖片的數(shù)量有100~2 000張,共有22 717張圖片,按照6︰2︰2的比例將訓(xùn)練集劃分訓(xùn)練集13 591張、驗(yàn)證集4 624張和測(cè)試集4 502張。該數(shù)據(jù)集包含常見(jiàn)的蔬菜、水果、藥材和花草等物種,部分植物圖片如圖4所示。另一個(gè)Flowers102有102類英國(guó)本土常見(jiàn)的花卉,每類花卉有40~256張圖像,總共有8 189張圖像,官方已將圖像劃分為訓(xùn)練集6 146張,驗(yàn)證集1 020張,測(cè)試集1 020張。Flowers102圖像分類難度中等,它圖像的差異主要表現(xiàn)在姿態(tài)、角度、光照和比例上,然而也有少數(shù)類別間差異較小。兩個(gè)數(shù)據(jù)集圖像共30 906張,訓(xùn)練集19 740張,驗(yàn)證集5 644張,測(cè)試集5 522張。

圖4 部分植物數(shù)據(jù)集例子

本文的植物圖像分類評(píng)價(jià)指標(biāo)是使用Top—1準(zhǔn)確率、Top—5準(zhǔn)確率、模型體積(model size)和CPU耗時(shí)。Top—1是指預(yù)測(cè)結(jié)果中概率最大的一個(gè)結(jié)果作為預(yù)測(cè)結(jié)果,如果預(yù)測(cè)最大結(jié)果正確,則預(yù)測(cè)正確。Top—5是指預(yù)測(cè)結(jié)果中最大的前5個(gè)結(jié)果,如果最大的前5個(gè)中有出現(xiàn)正確的結(jié)果,則預(yù)測(cè)正確。模型體積是指模型占用的存儲(chǔ)空間。CPU耗時(shí)是指在CPU上預(yù)測(cè)一幅圖像消耗的時(shí)間,用于檢測(cè)模型的速度。

2.3 參數(shù)設(shè)置

遷移學(xué)習(xí)可以縮短模型訓(xùn)練時(shí)間和解決過(guò)擬合問(wèn)題,本文訓(xùn)練是采用在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練好的權(quán)重進(jìn)行遷移訓(xùn)練[12]。首先,將輸入圖像調(diào)整為224×224×3大小輸入網(wǎng)絡(luò)中。然后,選用交叉熵?fù)p失函數(shù)和Adam優(yōu)化器,初始學(xué)習(xí)率為0.000 1,當(dāng)驗(yàn)證Loss不提升時(shí)則減少學(xué)習(xí)率,每次減少學(xué)習(xí)率因子為0.2,最小學(xué)習(xí)率為10-8。接著,Batch size設(shè)置為32,Epoch設(shè)置為50。最后,為了保證實(shí)驗(yàn)精度的準(zhǔn)確性,每個(gè)模型進(jìn)行10次獨(dú)立重復(fù)訓(xùn)練,取這10次實(shí)驗(yàn)結(jié)果的中位數(shù)作為訓(xùn)練結(jié)果。

2.4 結(jié)果與分析

本文EfficientNet系列模型訓(xùn)練Loss曲線如圖5所示,ReLU EfficientNet是EfficientNet使用ReLU激活函數(shù)訓(xùn)練的Loss,Swish和Mish EfficientNet同理。

圖5 EfficientNet系列模型訓(xùn)練Loss曲線

從圖5中看出,在經(jīng)過(guò)20次訓(xùn)練后,ReLU、Swish和Mish的訓(xùn)練Loss曲線基本收斂,ReLU的訓(xùn)練Loss相對(duì)較大,Swish的Loss與Mish的Loss差不多,但是Swish的Loss較大一點(diǎn)。隨著訓(xùn)練次數(shù)的增加,最終三條Loss曲線都在0.02左右,這說(shuō)明模型是穩(wěn)定收斂的。

在模型訓(xùn)練結(jié)束后,將預(yù)先劃分好的兩個(gè)測(cè)試集用本文訓(xùn)練好的模型進(jìn)行測(cè)試,得到如表2所示的Top1和Top5準(zhǔn)確率。從表2得出,本文使用Mish激活函數(shù)的EfficientNet網(wǎng)絡(luò)在這兩個(gè)數(shù)據(jù)集上的精度都優(yōu)于使用Swish和ReLU函數(shù)的精度。在Plants105上,Mish Top—1精度為97.201 %,比Swish Top—1的96.801 %提高了0.4 %,比ReLU的96.002 %提高了1.2 %。而在Mish Top—5精度上因?yàn)橐呀?jīng)達(dá)到了99.5 %以上,雖然它的精度有提升,但是提升的幅度相對(duì)較小。同理,在另一個(gè)公開(kāi)的Flowers102上也得到了類似的驗(yàn)證,Mish在Top—1和Top—5的精度上都比Swish和ReLU的精度要高。從實(shí)驗(yàn)結(jié)果表明,本文改進(jìn)的EfficientNet算法在植物圖像分類上比原Swish函數(shù)的EfficientNet提高了0.4 %左右,比ReLU函數(shù)的EfficientNet提高了1.2 %左右。

表2 EfficientNet模型Top—1和Top—5精度 %

為了進(jìn)一步了解本文改進(jìn)EfficientNet (mEfficientNet)的性能,本文在表3與不同模型的Top—1準(zhǔn)確率(Top—1 Acc)、模型體積(model size)和CPU耗時(shí)進(jìn)行了對(duì)比。

表3 不同模型對(duì)比

在Plants105上,mEfficientNet準(zhǔn)確率比其他模型都高,比緊接著第二名的DenseNet169高了約1 %,比MobileNetV2和NasNetMobile輕量化網(wǎng)絡(luò)高了約3 %。在另一個(gè)Flowers102數(shù)據(jù)集上,mEfficientNet除了與DenseNet169準(zhǔn)確率一樣,比其他模型的準(zhǔn)確率都高,但是DenseNet169的模型體積是mEfficientNet的3倍。在模型體積和CPU耗時(shí)上,表3前6個(gè)模型的體積都比后3個(gè)模型體積大幾倍,而且在準(zhǔn)確率上也和后3個(gè)模型相差不多。與MobileNetV2比,mEfficientNet模型體積大20 M和慢7 ms,但在Top—1準(zhǔn)確率上卻提高了1 %~3 %。如果其他模型要提高到這個(gè)準(zhǔn)確率,則需要更大的模型體積和更低的速率。例如,DenseNet169提高到這個(gè)精度,則需要比MobileNetV2增加5倍左右的模型體積和2倍的CPU耗時(shí)。因此,從實(shí)驗(yàn)結(jié)果表明,改進(jìn)的EfficientNet能在計(jì)算量相當(dāng)時(shí)增加少量的網(wǎng)絡(luò)參數(shù),實(shí)現(xiàn)更高的分類準(zhǔn)確率提升,也證明了對(duì)網(wǎng)絡(luò)進(jìn)行多維度的放縮能更有效地提高模型的準(zhǔn)確率。

3 結(jié)束語(yǔ)

本文以EfficientNet網(wǎng)絡(luò)作為植物圖像分類特征提取的主干網(wǎng)絡(luò),并用更優(yōu)的Mish函數(shù)替換原來(lái)的激活函數(shù)。與其他網(wǎng)絡(luò)比,改進(jìn)的EfficientNet在植物圖像分類上表現(xiàn)更加出色,有著更高的分類準(zhǔn)確率、更小的模型體積和更快的識(shí)別速率。本文方法因?yàn)榫哂袑?duì)硬件設(shè)備要求低和計(jì)算量小的特點(diǎn),更適合嵌入式設(shè)備末端部署。然而,本文方法如何在嵌入式設(shè)備末端部署是今后研究的重點(diǎn)。

猜你喜歡
分類植物模型
一半模型
分類算一算
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
分類討論求坐標(biāo)
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
哦,不怕,不怕
將植物穿身上
3D打印中的模型分割與打包
主站蜘蛛池模板: 一级毛片免费高清视频| 亚洲女同一区二区| 日韩精品无码不卡无码| 99久久精品视香蕉蕉| 91在线精品麻豆欧美在线| 国产成人无码久久久久毛片| 成人第一页| 欧美日本中文| 国产一在线观看| 波多野结衣无码中文字幕在线观看一区二区 | 国产乱子伦手机在线| 日韩成人午夜| 日韩资源站| 国产欧美一区二区三区视频在线观看| 99这里只有精品免费视频| 91精品国产一区自在线拍| 99偷拍视频精品一区二区| 国产精品专区第1页| 538国产视频| 五月婷婷导航| 国产噜噜在线视频观看| 国产精品毛片在线直播完整版| 婷婷五月在线视频| 精品久久777| 日本人又色又爽的视频| 亚洲欧洲日韩综合色天使| 国产第二十一页| 女人18毛片一级毛片在线| 国产香蕉97碰碰视频VA碰碰看 | 5388国产亚洲欧美在线观看| 久久人妻xunleige无码| 国产男人天堂| 国产欧美日韩专区发布| 精品黑人一区二区三区| 日韩精品毛片| 播五月综合| 亚洲黄色高清| 久久男人资源站| 2024av在线无码中文最新| 一级毛片不卡片免费观看| 毛片手机在线看| 国产精品九九视频| 色噜噜狠狠色综合网图区| 欧美成人区| 伊人福利视频| 四虎亚洲精品| 亚洲免费福利视频| 午夜精品区| 午夜福利免费视频| 中文字幕人妻av一区二区| 亚洲无码熟妇人妻AV在线| 97精品国产高清久久久久蜜芽| 国产尤物在线播放| 亚洲日韩精品综合在线一区二区| 国产成人综合久久精品尤物| 一级成人欧美一区在线观看| www.99精品视频在线播放| 精品人妻无码中字系列| 好紧太爽了视频免费无码| 欧美一区二区精品久久久| 99精品视频九九精品| 88av在线| 久久 午夜福利 张柏芝| 在线日韩日本国产亚洲| 午夜一区二区三区| 大陆精大陆国产国语精品1024| 久久国产黑丝袜视频| 日本一区二区三区精品视频| 尤物国产在线| 国产精品无码制服丝袜| 色噜噜在线观看| 亚洲成网777777国产精品| 日韩在线播放欧美字幕| 中文字幕丝袜一区二区| 天天躁夜夜躁狠狠躁躁88| 丁香婷婷在线视频| 中文成人在线视频| 国产视频你懂得| 久久亚洲综合伊人| 日韩激情成人| 亚洲成年人片| 亚洲精品天堂在线观看|