999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的棉花品種識(shí)別

2022-08-18 03:39:30李海濤羅維平
關(guān)鍵詞:深度模型

李海濤,羅維平

基于深度學(xué)習(xí)的棉花品種識(shí)別

李海濤,羅維平*

(武漢紡織大學(xué) 機(jī)械工程與自動(dòng)化學(xué)院,湖北 武漢 430200)

棉花作為我國(guó)最主要的農(nóng)產(chǎn)品之一,不僅具有不錯(cuò)的觀賞價(jià)值,更重要的還是工業(yè)原料。棉花的花型不同于其他花卉種類(lèi),且不同種類(lèi)其纖維長(zhǎng)度還有所差異。為了解決棉花人工區(qū)分效率低的問(wèn)題,本文基于深度學(xué)習(xí)方法,以棉花原始的圖像數(shù)據(jù)作為研究對(duì)象,通過(guò)多層網(wǎng)絡(luò)學(xué)習(xí)棉花的特征信息,更加精確區(qū)分不同類(lèi)型的棉花種類(lèi)。試驗(yàn)結(jié)果表明:本文所提出的卷積神經(jīng)網(wǎng)絡(luò)CNN-CSC模型相較于傳統(tǒng)機(jī)器學(xué)習(xí)方法識(shí)別精度提升大約15%,平均精度達(dá)到89.17%,為棉花的自動(dòng)化管理提供了一種有效的手段。

深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);圖像識(shí)別;棉花識(shí)別

0 引言

棉花作為我國(guó)最主要的農(nóng)產(chǎn)品之一,其花型美觀,結(jié)實(shí)結(jié)絮,具有不錯(cuò)的觀賞價(jià)值。對(duì)棉花種類(lèi)通過(guò)人工進(jìn)行區(qū)分,不僅效率低且識(shí)別困難。因此通過(guò)計(jì)算機(jī)技術(shù)輔助識(shí)別,成為一種有效的處理方法。目前圖像識(shí)別技術(shù)及其相關(guān)理論發(fā)展迅速,圖像識(shí)別技術(shù)已成為國(guó)際人工智能領(lǐng)域研究最熱點(diǎn)的方向之一[1]。在國(guó)內(nèi)外植物信息學(xué)領(lǐng)域中,基于圖像識(shí)別技術(shù)對(duì)植物進(jìn)行識(shí)別與分類(lèi)成為研究的熱門(mén)。

由于機(jī)器學(xué)習(xí)等關(guān)鍵技術(shù)的不斷發(fā)展,近年來(lái)我國(guó)學(xué)者和研究機(jī)構(gòu)在植物信息識(shí)別中也取得重大突破。張帥等[2]分別對(duì)單一背景和復(fù)雜背景下的植物葉片圖像進(jìn)行訓(xùn)練和識(shí)別,采用CNN+SVM和CNN+Softmax方法,得到單一背景下圖像識(shí)別率為91.11%,復(fù)雜背景下圖像識(shí)別率為34.38%。袁培森[3]等提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的端到端菊花花型和品種識(shí)別系統(tǒng),該系統(tǒng)分為離線和在線兩種階段,識(shí)別率達(dá)到98%。胡錦濤等[4]提出了一種自動(dòng)預(yù)測(cè)棉花發(fā)育期的深度學(xué)習(xí)模型,通過(guò)卷積神經(jīng)網(wǎng)絡(luò)結(jié)合遷移學(xué)習(xí)提高了棉花發(fā)育期識(shí)別精度。王見(jiàn)等[5]通過(guò)將遷移模型的特征提取與極限學(xué)習(xí)機(jī)結(jié)合的方法訓(xùn)練網(wǎng)絡(luò),進(jìn)行棉花識(shí)別研究。在ResNet-50遷移模型準(zhǔn)確率達(dá)到93.68%,但在訓(xùn)練過(guò)程中出現(xiàn)了過(guò)擬合。沈萍等[6],通過(guò)基于深度學(xué)習(xí)的方法在ImageNet數(shù)據(jù)集上完成了花卉識(shí)別試驗(yàn),與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比評(píng)價(jià)識(shí)別準(zhǔn)確率提升了10%左右。

當(dāng)下,隨著人工智能領(lǐng)域的興起以及計(jì)算機(jī)計(jì)算能力的提升,深度學(xué)習(xí) (deep learning)技術(shù)在模式識(shí)別、自然語(yǔ)言處理以及圖像處理等方向煥發(fā)了強(qiáng)大的活力[7]。深度學(xué)習(xí)具有強(qiáng)大的特征提取能力,深度學(xué)習(xí)框架能夠在有限的樣本數(shù)據(jù)輸入的情況下,獲得更高層次的輸入數(shù)據(jù)信息。目前,深度學(xué)習(xí)仍然是未來(lái)研究的熱點(diǎn)之一,通過(guò)不斷的研究該技術(shù)將得到更深層次的發(fā)展[8]。

本文以棉花的圖像數(shù)據(jù)作為研究對(duì)象,對(duì)棉花的不同類(lèi)型手動(dòng)分類(lèi)和標(biāo)注,在此基礎(chǔ)上構(gòu)建棉花數(shù)據(jù)集的卷積神經(jīng)網(wǎng)絡(luò)模型,該卷積神經(jīng)網(wǎng)絡(luò)對(duì)棉花花型實(shí)現(xiàn)智能識(shí)別和分類(lèi)。

1 系統(tǒng)模型與工作流程

1.1 模型建立

卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN),作為第一個(gè)真正成功地采用多層次結(jié)構(gòu)網(wǎng)絡(luò)的深度學(xué)習(xí)方法,具有對(duì)平移、比例縮放、傾斜或其他形式的變形不變性等特點(diǎn)[9]。卷積神經(jīng)網(wǎng)絡(luò)整體架構(gòu)分為4層:第1層是輸入層,第2層為卷積層,第3層為池化層,第4層為全連接層。CNN通過(guò)對(duì)現(xiàn)有模型訓(xùn)練卷積網(wǎng)絡(luò),從而得出輸入與輸出之間的非線性關(guān)系。

(1)輸入層:將要進(jìn)行識(shí)別的樣本對(duì)象作為輸入數(shù)據(jù)傳入卷積神經(jīng)網(wǎng)絡(luò)中,若為圖像輸入時(shí)采樣其像素值,進(jìn)而轉(zhuǎn)換成向量輸入。

(2)卷積層:對(duì)輸入數(shù)據(jù)進(jìn)行特征提取,為得到計(jì)算機(jī)更容易讀懂的特征。卷積核(filter)是卷積神經(jīng)網(wǎng)絡(luò)中的重要權(quán)重參數(shù),當(dāng)卷積核采用較小的長(zhǎng)和寬時(shí),就能提取數(shù)量更多的特征。其具體過(guò)程如公式(1)所示:

本文模型采用ReLU函數(shù)作為激活函數(shù)其表達(dá)式為公式(2),通過(guò)激活函數(shù)使得網(wǎng)絡(luò)具有非線性。與sigmoid等激活函數(shù)相比,ReLU函數(shù)計(jì)算量少,反向傳播時(shí)梯度不易消失,且Relu函數(shù)使得一部分神經(jīng)元輸出為0,增加了網(wǎng)絡(luò)的稀疏性,能有效緩解模型過(guò)擬合發(fā)生。

(3)池化層:池化層一般為下采樣,對(duì)通過(guò)上一層卷積操作輸入的特征圖進(jìn)行壓縮,有效減少網(wǎng)絡(luò)中數(shù)據(jù)的計(jì)算量,利用最有價(jià)值的特征[10]。使得整個(gè)網(wǎng)絡(luò)有較好的魯棒性。本文采用最經(jīng)典的池化方法最大池化,其以2x2窗口,步長(zhǎng)為2的函數(shù)表示為公式(3)。

(4)全連接層:全連接層一般堆疊在卷積層之后,通過(guò)一組權(quán)重參數(shù)將卷積層的輸出與隱藏層聯(lián)系到一起,全連接層本質(zhì)上是一個(gè)多層感知器[11],通過(guò)級(jí)聯(lián)多個(gè)變換來(lái)實(shí)現(xiàn)輸入到輸出的映射。

1.2 系統(tǒng)處理流程

CNN-CSC模型識(shí)別棉花種類(lèi)的流程如下:第一步加載棉花圖像數(shù)據(jù),第二步對(duì)棉花圖像進(jìn)行預(yù)處理得到227*227像素圖片,第三步將經(jīng)過(guò)預(yù)處理后的圖像的RGB三通道像素值轉(zhuǎn)換為tensor形式,第四步將tensor數(shù)據(jù)傳入CNN-CSC模型進(jìn)行訓(xùn)練,最后根據(jù)模型的分類(lèi)結(jié)果完成不同棉花種類(lèi)的識(shí)別。

1.3 仿真實(shí)驗(yàn)平臺(tái)

仿真平臺(tái)為64為Window10操作系統(tǒng),硬件環(huán)境為內(nèi)存16G,AMD Ryzen 5 5600x 6-Core Processor,GPU NVIDIA GeForce RTX 3070。選用深度學(xué)習(xí)架構(gòu)為tensorflow V2.0框架[12]。

2 CNN-CSC系統(tǒng)實(shí)現(xiàn)

2.1 圖像預(yù)處理

為解決訓(xùn)練數(shù)據(jù)集數(shù)量不足的情況,在圖像預(yù)處理階段采用:亮度隨機(jī)變換,隨機(jī)翻轉(zhuǎn),對(duì)比度隨機(jī)變換,隨機(jī)剪裁等隨機(jī)變換方法來(lái)增加訓(xùn)練數(shù)據(jù)集的大小。預(yù)處理后圖像大小為227*227像素。

2.2 CNN-CSC系統(tǒng)網(wǎng)絡(luò)框架

本文構(gòu)建的棉花種類(lèi)識(shí)別網(wǎng)絡(luò)模型CNN-CSC如圖1所示。該模型包含1個(gè)輸入層,卷積層1后接池化層1,卷積層2后接池化層2,卷積層3、4、5后接池化層3,最后接到全連接層和Softmax分類(lèi)層。每一層網(wǎng)絡(luò)的具體參數(shù)規(guī)格如表1所示,其中輸入層輸入經(jīng)過(guò)預(yù)處理后的棉花圖像數(shù)據(jù),像素大小為227*227*3;卷積層作用就是通過(guò)卷積操作對(duì)輸入圖像進(jìn)行特征提取。卷積層1共有64個(gè)卷積核,卷積核的大小設(shè)定為5*5,卷積核切片步長(zhǎng)設(shè)定為1。

經(jīng)過(guò)卷積層1后,輸出64維數(shù)據(jù)像素大小為223*223*64;池化層的作用就是一個(gè)降采樣的過(guò)程,池化層1的卷積核的大小設(shè)定為3*3,卷積核切片步長(zhǎng)設(shè)定為2。經(jīng)過(guò)池化層1后,輸出64維數(shù)據(jù)像素大小為111*111*64;將池化層1中的數(shù)據(jù)輸入到卷積層2,卷積層2包含128個(gè)卷積核,核的大小設(shè)定為3*3,卷積核切片步長(zhǎng)設(shè)定為1,使用零填充p=1。經(jīng)過(guò)卷積層2后,輸出128維數(shù)據(jù)像素大小為111*111*128;池化層2的卷積核的大小設(shè)定為3*3,卷積核切片步長(zhǎng)設(shè)定為2。經(jīng)過(guò)池化層2后,輸出數(shù)據(jù)像素大小為55*55*128。卷積層3、4、5均采用256個(gè)3*3卷積核,卷積核切片步長(zhǎng)設(shè)定為1,使用零填充p=1。池化層3的卷積核的大小設(shè)定為3*3,卷積核切片步長(zhǎng)設(shè)定為2。經(jīng)

圖1 棉花種類(lèi)識(shí)別的卷積神經(jīng)網(wǎng)絡(luò)CNN-CSC模型

過(guò)池化層3后,輸出數(shù)據(jù)像素大小為27*27*256。使用以此作為全連接層1的輸入;全連接層采用Re LU激活函數(shù),其中全連接層1包括512個(gè)神經(jīng)元,全連接層2包括3個(gè)神經(jīng)元。

分類(lèi)層的設(shè)計(jì),根據(jù)識(shí)別任務(wù)的具體要求確定softmax分類(lèi)層中神經(jīng)元數(shù)量,如公式(4)所示。

本文CNN-CSC模型訓(xùn)練集中樣本的種類(lèi)為3種,所以將分類(lèi)層神經(jīng)元個(gè)數(shù)設(shè)定為3個(gè)。全連接層2的輸出數(shù)據(jù)作為softmax分類(lèi)層的輸入,經(jīng)過(guò)softmax分類(lèi)層后輸出花型種類(lèi)的概率,最終完成花型種類(lèi)識(shí)別。CNN-CSC模型結(jié)構(gòu)參數(shù)如表1所示。

表1 CNN-CSC模型結(jié)構(gòu)參數(shù)

2.3 系統(tǒng)的訓(xùn)練過(guò)程

由于深度學(xué)習(xí)需要大量的高質(zhì)量標(biāo)記數(shù)據(jù),而在本研究棉花數(shù)據(jù)集圖像數(shù)量不足的情況下,采用遷移學(xué)習(xí)預(yù)訓(xùn)練的ImageNet對(duì)模型進(jìn)行初始化。ImageNet項(xiàng)目是目前計(jì)算機(jī)視覺(jué)系統(tǒng)識(shí)別中最大的數(shù)據(jù)庫(kù),其中包括大約1500萬(wàn)張圖像被人工篩選與手動(dòng)注釋包含2.2萬(wàn)多個(gè)類(lèi)別。作為一個(gè)大型公開(kāi)數(shù)據(jù)集,其對(duì)于初學(xué)者深度學(xué)習(xí)提供了重要的數(shù)據(jù)支撐。首先在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練CNN-CSC模型,屏蔽掉模型的輸出層,訓(xùn)練網(wǎng)絡(luò)剩余的模型參數(shù),最后應(yīng)用到本文的棉花數(shù)據(jù)集上[13]。棉花圖像數(shù)據(jù)集較小,且數(shù)據(jù)相似度不高,重新訓(xùn)練的過(guò)程就變得非常關(guān)鍵。在第一次迭代訓(xùn)練中,先固定1-4層的權(quán)重,重新訓(xùn)練第5層;在第二次迭代訓(xùn)練中,固定1-3層的權(quán)重,重新訓(xùn)練4-5層;最后一次迭代訓(xùn)練中,固定1-2層權(quán)重,重新訓(xùn)練3-5層。通過(guò)以上迭代訓(xùn)練,能夠在小樣本數(shù)據(jù)集上加速網(wǎng)絡(luò)的收斂過(guò)程,并作用于最后棉花種類(lèi)識(shí)別精度的測(cè)試。

訓(xùn)練過(guò)程步驟如下:

(1)首先系統(tǒng)采用kaiming正態(tài)分布初始化權(quán)重,前向傳播的時(shí)候,每一層的卷積計(jì)算結(jié)果的方差為1。反向傳播的時(shí)候,每一層的繼續(xù)往前傳的梯度方差為1(因?yàn)槊繉訒?huì)有兩個(gè)梯度的計(jì)算,一個(gè)用來(lái)更新當(dāng)前層的權(quán)重,一個(gè)繼續(xù)傳播, 用于前面層的梯度的計(jì)算。)

(2)每次從訓(xùn)練數(shù)據(jù)采樣一個(gè)batch的樣本,對(duì)樣本進(jìn)行預(yù)處理后作為網(wǎng)絡(luò)訓(xùn)練的輸入。

(3)在前向傳播過(guò)程中,輸入的訓(xùn)練樣本數(shù)據(jù)經(jīng)過(guò)多層卷積層的卷積和池化處理,提取特征向量,將特征向量傳入全連接層中,得出輸出值。

(4)求出目標(biāo)值與實(shí)際輸出值之間的偏量e。當(dāng)達(dá)到設(shè)定的迭代次數(shù)時(shí),訓(xùn)練完成,否則繼續(xù)進(jìn)行訓(xùn)練。

(5)在反向傳播過(guò)程中,將誤差一層層返回,計(jì)算網(wǎng)絡(luò)層中神經(jīng)元的誤差和誤差梯度。

(6)進(jìn)行權(quán)值更新,然后再進(jìn)入第二步,循環(huán)訓(xùn)練。

圖2 CNN-CSC的訓(xùn)練流程圖

3 實(shí)驗(yàn)結(jié)果與分析

本文數(shù)據(jù)集共6720張棉花圖像,共分為3種類(lèi)型:粗絨棉、細(xì)絨棉、長(zhǎng)絨棉。整個(gè)數(shù)據(jù)集中6000張棉花圖像構(gòu)建訓(xùn)練集,360張構(gòu)建驗(yàn)證集,另外360張構(gòu)建測(cè)試集。所有棉花圖像數(shù)據(jù)都根據(jù)其不同類(lèi)型進(jìn)行人工標(biāo)注和分類(lèi),其中三種類(lèi)型的棉花的訓(xùn)練集、驗(yàn)證集和測(cè)試集的圖片數(shù)量分別為2000張、120張、120張。

圖3 預(yù)處理后棉花圖像

圖4 特征響應(yīng)圖

系統(tǒng)中dropout參數(shù)設(shè)置為0.25,卷積層初始學(xué)習(xí)率設(shè)置為0.01當(dāng)系統(tǒng)損失在當(dāng)前學(xué)習(xí)率不再下降時(shí)將學(xué)習(xí)率手動(dòng)縮小10倍,迭代次數(shù)設(shè)置為30 000次,當(dāng)使用驗(yàn)證集驗(yàn)證系統(tǒng)時(shí)每12張圖片比較系統(tǒng)精度并保存模型中的所有參數(shù)。

為了更好地評(píng)價(jià)該系統(tǒng)在棉花種類(lèi)識(shí)別方面的精度和性能,選擇典型機(jī)器學(xué)習(xí)方法支持向量機(jī)(SVM)與本文卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行比較。SVM方法需要手動(dòng)提取具體圖片的特征,再將提取到的形狀、紋理等特征構(gòu)成分類(lèi)器的輸入,最后輸入到SVM中完成棉花種類(lèi)的識(shí)別。

測(cè)試集在兩種模型中的識(shí)別結(jié)果如表2所示,在本系統(tǒng)中棉花種類(lèi)識(shí)別的準(zhǔn)確度達(dá)到88.24%,識(shí)別精度為89.47%,召回率和F1值分別87.71%和87.97%。相較于SVM方法,系統(tǒng)整體的性能和穩(wěn)定性均明顯提高,其中識(shí)別精度大約提升15%。試驗(yàn)結(jié)果說(shuō)明本文建立的卷積神經(jīng)網(wǎng)絡(luò)模型在棉花的識(shí)別上具有更高的識(shí)別精度,能更好完成棉花種類(lèi)的識(shí)別。

本文所使用的方法在識(shí)別棉花種類(lèi)識(shí)別上有以下優(yōu)越性:(1)相較于人工特征提取,基于深度學(xué)習(xí)的棉花種類(lèi)識(shí)別方法能夠自動(dòng)學(xué)習(xí)特征提取的過(guò)程,能有效提高模型整體準(zhǔn)確度;(2)基于深度學(xué)習(xí)的方法更容易觀察并獲取棉花圖片中更加細(xì)粒度的差別,用于區(qū)分不同的花型;(3)基于深度學(xué)習(xí)的方法在模型訓(xùn)練好后,可以對(duì)不同場(chǎng)景條件下(光照、拍攝角度、遮擋等)獲取的樣本都能有效的進(jìn)行識(shí)別。

表2 基于卷積神經(jīng)網(wǎng)絡(luò)CNN-CSC與支持向量機(jī)SVM方法識(shí)別準(zhǔn)確度對(duì)比

4 結(jié)論

本文基于卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建了一個(gè)8層的深度學(xué)習(xí)棉花種類(lèi)識(shí)別系統(tǒng)CNN-CSC,實(shí)現(xiàn)了三種棉花花型的識(shí)別。首先采集并標(biāo)注棉花花型和類(lèi)別數(shù)據(jù)集,然后探討棉花圖像預(yù)處理的思路和預(yù)處理的必要性。在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)CNN-CSC模型,通過(guò)三次迭代訓(xùn)練有針對(duì)性的學(xué)習(xí)棉花圖像的特點(diǎn),能夠在樣本數(shù)據(jù)不足的情況下,提高網(wǎng)絡(luò)的收斂速度,并作用于最后棉花種類(lèi)識(shí)別精度的測(cè)試。并且通過(guò)試驗(yàn)與SVM方法進(jìn)行對(duì)比,證明了在棉花種類(lèi)的識(shí)別方面基于深度學(xué)習(xí)的方法優(yōu)于傳統(tǒng)的機(jī)器學(xué)習(xí)分類(lèi)方法, 證明了深度學(xué)習(xí)方法在棉花種類(lèi)識(shí)別中具有更好的分類(lèi)性能。

本文所構(gòu)建的8層深度學(xué)習(xí)棉花種類(lèi)識(shí)別系統(tǒng)依然存在不足之處,在數(shù)據(jù)集收集方面本文共有三類(lèi)棉花種類(lèi)圖片共6720張,樣本數(shù)據(jù)并不充足無(wú)法滿(mǎn)足更加深層的模型需求。后期進(jìn)一步收集不同場(chǎng)景的棉花圖像擴(kuò)充數(shù)據(jù)集,能夠有利于提高模型識(shí)別性能。同時(shí),研究使用更復(fù)雜、更深層的網(wǎng)絡(luò)模型進(jìn)行圖像識(shí)別會(huì)使識(shí)別精度得到進(jìn)一步提高,這也是未來(lái)基于深度學(xué)習(xí)方法在植物識(shí)別領(lǐng)域的研究方向之一。

[1] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[A]// Proceedings of the IEEE conference on computer vision and pattern recognition[C]. 2016. 770-778.

[2] 張帥, 淮永建. 基于分層卷積深度學(xué)習(xí)系統(tǒng)的植物葉片識(shí)別研究[J]. 北京林業(yè)大學(xué)學(xué)報(bào), 2016, 38(09): 108-115.

[3] 袁培森, 黎薇, 任守綱, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的菊花花型和品種識(shí)別[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2018, 34(05): 152-158.

[4] 胡錦濤, 王苗苗, 李濤, 等. 基于深度學(xué)習(xí)的棉花發(fā)育期自動(dòng)觀測(cè)[J]. 安徽農(nóng)業(yè)科學(xué), 2019, 47(11): 237-240 +243.

[5] 王見(jiàn), 田光寶, 周勤. 基于遷移學(xué)習(xí)的棉花識(shí)別[J]. 浙江農(nóng)業(yè)學(xué)報(bào), 2020, 32(08): 1457-1465.

[6] 沈萍, 趙備. 基于深度學(xué)習(xí)模型的花卉種類(lèi)識(shí)別[J]. 科技通報(bào), 2017, 33(03):115-119.

[7] 孫志遠(yuǎn),魯成祥,史忠植,等. 深度學(xué)習(xí)研究與進(jìn)展[J]. 計(jì)算機(jī)科學(xué),2016,43(2):1-8.

[8] KIM J, LEE J K, LEE K M. Deeply-recursive convolutional network for image super-resolution[A].Proceedings of the IEEE conference on computer vision and pattern recognition[C]. Las Vegas, NV, SUA: IEEE, 2016. 1637- 1645.

[9] Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks[J]. Advances in neural information processing systems, 2012, 25 (2) :1097-1105.

[10] Xie G S, Zhang X Y, Yang W. LG-CNN:From local parts to global discrimination for fine-grained recognition[J]. Pattern Recognition, 2017, 71:118-131

[11] Cheng X, Zhang Y, Chen Y. Pest identification via deep residual learning in complexbackground[J]. Computers & amp; Electronics in Agriculture, 2017, 141:351-356

[12] Abirami K Rama, ManojKumar M, Insaf Mohammed, et al. Deep learning based Food Recognition using Tensorflow[J]. Journal of Physics: Conference Series, 2021, 1916(1).

[13] 張建華, 孔繁濤, 吳建寨, 等. 基于改進(jìn)VGG卷積神經(jīng)網(wǎng)絡(luò)的棉花病害識(shí)別模型[J]. 中國(guó)農(nóng)業(yè)大學(xué)學(xué)報(bào), 2018, 23(11):161-171.

Cotton Variety Identification based on Deep Learing

LI Hai-tao, LUO Wei-ping

(School of Mechanical Engineering and Automation, Wuhan Textile University, Wuhan Hubei 430200, China)

Cotton, as one of the most major agricultural products in our country, not only has a good ornamental value, but also is more important and an industrial raw material. The flower type of cotton is different from those of other floral species, and the fiber lengths of the different species also differ. To solve the problem of low efficiency of artificial discrimination of cotton, in this paper, based on deep learning method, the original image data of cotton is used as a research object to learn the characteristic information of cotton through multi-layer network and distinguish different types of cotton species more precisely. Test results: the cnn-csc model of the convolutional neural network proposed in this paper improves the identification accuracy by approximately 15% and the average accuracy reaches 89.17% compared to traditional machine learning methods, which provides an effective means for automated management of cotton.

deep learning; convolution neural network; image recognition; cotton recognition

TP391

A

2095-414X(2022)04-0022-05

通訊作者:羅維平(1967-),女,教授,研究方向:檢測(cè)技術(shù)與智能控制、信號(hào)與信息處理,先進(jìn)技術(shù)工業(yè)制造等.

猜你喜歡
深度模型
一半模型
深度理解一元一次方程
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
深度觀察
深度觀察
深度觀察
深度觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
主站蜘蛛池模板: 欧美国产日产一区二区| 麻豆精品在线| 久久精品人人做人人爽电影蜜月| 欧美国产精品不卡在线观看| 久久久无码人妻精品无码| 久精品色妇丰满人妻| 精品91视频| 国产白浆视频| 2022国产无码在线| 伊人久热这里只有精品视频99| 国产精品亚洲五月天高清| 亚洲成a人在线观看| 在线精品欧美日韩| 欧美日在线观看| 日本不卡在线播放| 亚洲天堂久久| yy6080理论大片一级久久| 中文无码伦av中文字幕| 一级香蕉视频在线观看| 日韩无码黄色| 午夜不卡福利| 久久成人国产精品免费软件| 在线视频一区二区三区不卡| 亚洲欧美日韩综合二区三区| 国产成人精品高清不卡在线| 99视频精品在线观看| 日韩欧美国产另类| 这里只有精品在线播放| 国产男女免费完整版视频| 国产白浆一区二区三区视频在线| 永久免费av网站可以直接看的| 无码中文AⅤ在线观看| 亚洲人成网站在线观看播放不卡| 99性视频| 成AV人片一区二区三区久久| 欧美精品v日韩精品v国产精品| 亚洲天堂精品在线| 亚洲国产欧美国产综合久久| 亚洲天堂日韩在线| 日韩AV无码免费一二三区| 最新国产高清在线| 久久网综合| 性欧美在线| 欧美中文字幕在线二区| 2021亚洲精品不卡a| 五月天福利视频| 亚洲成人高清无码| 午夜免费小视频| av一区二区无码在线| 欧美日本视频在线观看| 四虎影视库国产精品一区| 欧美a级在线| 国产精品亚洲一区二区三区在线观看| 中文国产成人精品久久| 成人午夜天| 欧美天天干| 国产精品一区在线麻豆| 乱码国产乱码精品精在线播放| 成人午夜亚洲影视在线观看| 国产日韩欧美视频| 久久男人资源站| 毛片a级毛片免费观看免下载| 中文字幕日韩丝袜一区| 亚洲va欧美va国产综合下载| 啊嗯不日本网站| 91久久偷偷做嫩草影院电| 全部无卡免费的毛片在线看| a天堂视频| 国产在线欧美| 欧美激情综合| 欧美区一区| 国产超碰在线观看| 国产一区二区人大臿蕉香蕉| 老司机精品99在线播放| 亚洲精选无码久久久| 亚洲成a人片在线观看88| 丝袜亚洲综合| 亚洲不卡av中文在线| 国产一区二区三区在线观看视频| 性喷潮久久久久久久久| 国产爽歪歪免费视频在线观看| 欧美综合成人|