999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進InceptionV3算法的小麥雜質識別研究

2024-01-01 00:00:00林燕翔沈印李光林
中國農機化學報 2024年4期
關鍵詞:可視化

摘要:為解決傳統人工識別小麥效率低、主觀性高的問題,提出一種基于改進的CBAM-InceptionV3小麥雜質識別方法。搭建機器視覺在線檢測平臺采集動態圖像數據,采用數據集增強、圖像預處理和KS分類方法對小麥雜質圖像進行處理;選用GoogLeNet、ResNet34、InceptionV3三種模型對圖像數據集進行分類訓練。以InceptionV3模型為基礎,引入注意力機制CBAM,增強模型對信息的敏感度,提升模型的識別準確率。將改進卷積神經網絡CBAM-InceptionV3模型與加入CA模塊的CA-InceptionV3、InceptionV3兩種模型進行對比試驗。結果表明,InceptionV3模型在測試集上準確率為83.5%、F1-Score為82.41%,CA-InceptionV3模型在測試集上準確率為92.3%、F1-Score值為92.29%,CBAM-InceptionV3在測試集上準確率為92.9%、F1-Score值為92.92%。CBAM-InceptionV3模型對測試集的平均預測時間為0.045張/s,明顯優于其他兩種模型。

關鍵詞:小麥雜質;卷積神經網絡;分類識別;CBAM-InceptionV3;可視化

中圖分類號:S126; S512; TP391

文獻標識碼:A

文章編號:2095-5553 (2024) 04-0108-09

收稿日期:2022年9月8日" 修回日期:2023年3月21日

基金項目:重慶市技術創新與應用發展專項重點項目(cstc2019jscx—gksbX0001)

第一作者:林燕翔,女,1997年生,重慶人,碩士研究生;研究方向為智能檢測與控制。E-mail: yanxianglin97@126.com

通訊作者:李光林,男,1963年生,四川平昌人,博士,教授,博導;研究方向為傳感器與智能檢測。E-mail: liguanglin@swu.edu.cn

Research on wheat impurity identification based on improved InceptionV3 algorithm

Lin Yanxiang1, Shen Yin2, Li Guanglin1

(1. College of Engineering and Technology, Southwest University, Chongqing, 400715, China;

2. College of Medical Information, Chongqing Medical University, Chongqing, 400016, China)

Abstract:

In order to solve the problem of low efficiency and high subjectivity of traditional wheat identification, an improved CBAM-InceptionV3 wheat impurity identification method was proposed. Firstly, a machine vision online detection platform was built to collect dynamic image data, and the wheat impurity image was processed by data set enhancement, image preprocessing and KS classification. Then, GoogLeNet, ResNet34 and InceptionV3 models were used to classify and train the image data set. Secondly, based on InceptionV3 model, CBAM was introduced to enhance the sensitivity of the model to information and improve the recognition accuracy of the model. The improved convolutional neural network CBAM-InceptionV3 model is compared with CA-InceptionV3 and InceptionV3 models added in CA module. The results show that the accuracy of InceptionV3 model on test set is 83.5% and F1-Score is 82.41%, and the accuracy of CA-InceptionV3 model on test set is 92.3% and F1-Score is 92.29%. CBAM-InceptionV3 has 92.9% accuracy and 92.92% F1-Score on the test set. The average prediction time of CBAM-InceptionV3 model for the test set is 0.045 pieces/s, which is significantly better than the other two models.

Keywords:

wheat impurity; convolutional neural network; classification and recognition; CBAM-InceptionV3; visualization

0 引言

小麥作為我國的主要糧食作物和重要的商品糧和儲備糧,其品質直接影響人民生活。小麥雜質是影響品質的重要因素之一,同時也是衡量聯合收割機作業質量的重要指標。隨著科學技術的發展,圖像處理技術、光譜分析和深度學習在小麥品質檢測中得到了普遍的應用。Neethirajan[1]、蘇憶楠[2]、Singh[3]、劉歡[4]等使用高光譜成像技術對小麥進行檢測。樊超[5]、何紅霞[6]、孟惜[7]、劉光宗[8]等使用傳統圖像處理技術結合分類器對小麥品質、不完善粒、雜質分類識別。然而光譜分析方法中不同物質具有不同特征譜線,同時需要提取物質內部的化合物,且光譜分析儀操作復雜,價格昂貴。傳統的圖像處理技術由特征提取算法與機器學習算法組成,前期數據集容易受外界因素的影響,降維等操作增加了算法的復雜度,降低了識別效率。在實際應用中,光譜分析方法、傳統圖像處理技術相對于深度學習方法很難快速地識別雜質類型,無法滿足聯合收割作業快速檢測小麥雜質類別的要求。

近年來,深度學習已經受到了模式識別、語音識別等領域的高度關注,卷積神經網絡作為深度學習的一個分支,如AlexNet、GoogLeNet、ResNet等分類網絡,YOLO-v5、SSD、Faster R-CNN等目標檢測網絡,FCN、U-Net、SegNet等分割網絡,由于其快速準確可靠的特點在農業生產檢測識別中得到廣泛應用。在農產品檢測識別中,卷積神經網絡用于對農作物[9-12]、食品[13-17]、害蟲[18]、農機[19]等進行分類識別。對小麥的識別中,祝詩平等[20]設計了基于CNN小麥籽粒完整性圖像檢測系統對兩類籽粒進行研究,識別性能最佳的AlexNet模型測試集識別準確率為98.02%,識別速率為0.827 ms/粒,100粒小麥的檢測時間為26.3 s平均識別準確率為96.67%;曹婷翠等[21]運用CNN深度模型,實現小麥不完善粒識別,提出的方法相對于傳統的圖像處理識別方法,識別率提高15個百分點,相對于常規CNN模型,識別率提高5%,對于引入噪聲以及亮度改變的圖像,識別率也達到90%以上,設計的雙面識別方案有效地降低了識別的錯誤率;張博[22]構建了殘差CNN識別模型用于小麥籽粒識別,識別正確率達96.3%;宋懷波等[23]研究了基于YOLO v5-MDC的重度粘連小麥籽粒檢測方法,該模型的精確率為93.15%,召回率為99.96%,平均精度均值為99.46%;Singh等[24]采用深度卷積神經網絡(DCNN)和遷移學習方法用于檢測小麥葉片的健康狀況,訓練模型準確率高達98%;武威[25]使用Fater R-CNN模型處理復雜背景圖像,解決小麥籽粒分割與計數問題。

這些都表明深度學習在農業領域應用前景廣闊,然而利用機器視覺結合卷積神經網絡方法對小麥雜質的研究仍處于初步探索階段,需要進一步的研究。基于此,本文采用機器視覺和改進卷積神經網絡CBAM-InceptionV3方法對小麥雜質進行識別研究,搭建機器視覺在線檢測平臺,利用數據集增強、圖像預處理和KS分類方法對小麥雜質圖像進行處理,并建立圖像數據集,同時構建卷積神經網絡CBAM-InceptionV3,并利用梯度類激活映射方法(Grad-CAM)實現可視化分析,以實現小麥雜質的快速檢測識別。

1 機器視覺硬件平臺

根據試驗要求,先構建基于機器視覺技術的小麥雜質檢測系統,所研制檢測系統包括輸送單元、步進電機、條形LED光源、送料口以及圖像采集部分與圖像分析計算機軟硬件部分,總體結構示意圖如圖1所示。雜質小麥經送料口進入傳送單元,經過橫桿掃平后進行圖像采集(橫桿位于傳輸單元上方1 cm處,它起到了平鋪小麥的作用)。在線采集雜質小麥圖像時傳送帶要選擇合適的速度,速度過大直接造成圖像數據集模糊不清。經反復試驗對比,傳送單元速度調整為4 cm/s,相機采集圖片的速度為4 s/張。選擇條形光源能使雜質小麥受光照均勻,避免綠色傳輸單元拍攝出反光圖片。

2 樣本采集與處理

2.1 數據集采集

圖像采集系統主要包含相機、支架、載物臺、光源、計算機。其中相機為丹麥JAI工業相機的APEX系列中AP-3200-PGE型,分辨率為2 064像素×1 544像素,12 fps,接口為GigE。鏡頭為日本興和(Kowa)的Lens LM12HC型號,采用12 mm固定焦距,光圈范圍為F1.4~F16,所采集的原始圖像均為RGB圖像,圖片格式為bmp,該相機采集的原始數據集大小為12.2 MB,分辨率為2 080像素×1 544像素,在不影響數據集清晰度的情況下,訓練前期將單張圖片的長寬各縮小為原來的一半,分辨率為1 040像素×772像素,單張圖片大小為2.29 MB,格式為jpg。

根據聯合收割機過程中小麥雜質來源,將小麥數據集分為4種類型(圖2),原始的雜質小麥數據集共計4 000張隨機,為了試驗樣本的代表性和均勻性,采用KS分類方法,將數據集按7∶3劃分成訓練集和驗證集。訓練集用于訓練模型,共計2 800張;驗證集用來驗證模型的準確率,共計1 200張。為了減少訓練的迭代次數,提高訓練分類的準確率,對原有的數據訓練集和驗證集樣本進行數據集增強,分別對各類樣本進行隨機旋轉、亮度增強、對比度增強、顏色增強操作,原始的數據集擴充為原來的4倍。訓練集共計11 200張雜質小麥圖像數據集,驗證集共計4 800張雜質小麥圖像數據集(表1)。

2.2 數據預處理

試驗數據集均為在線采集,采集過程中會受到光照不均、運動模糊等因素的干擾,影響圖像質量、降低分類識別的準確率,因此需對所有數據集進行光照調節、消除運動模糊。采用維納濾波[26]圖像復原算法解決運動模糊的問題、采用伽馬變換[27]算法解決光照不均勻的問題,圖3為四種類型數據集先后經過伽馬變化、維納濾波前后對比圖。

3 改進InceptionV3模型

3.1 基礎網絡的選擇

提升網絡性能最直接最安全的方法就是增加網絡深度(網絡層次數量)和寬度(神經元數量),兩種方法容易存在過擬合、梯度消失、梯度彌散等問題,解決此類問題需要在增加網絡寬度和深度的同時減少參數。傳統LeNet和AlexNet等分類網絡,參數量多、易存在梯度消失等問題,而Inception系列在增加網絡寬度深度的同時減少了參數量,將其用于GoogLeNet、InceptionV2、InceptionV3到InceptionV4等分類網絡,模型的性能大幅度提升。

GoogLeNet只有22層,但參數數量卻是AlexNet的1/12,將全連接層和一般的卷積轉化為稀疏矩陣解決模型加深引起的網絡過擬合;V2和V3在V1的基礎上改變Inception結構、加入BN、輔助分類器等,性能大幅提升。InceptionV3在很多分類識別場景中得到了成功的應用。為了選取合適的卷積神經網絡用于小麥雜質的識別,選擇了兩種經典網絡GoogLeNet和ResNet34與InceptionV3進行比較。如圖4所示為三種網絡在同一批數據集上訓練集(參數設置相同)。

由圖4(a)可知GoogLeNet和ResNet34的損失分別為0.684和0.082,InceptionV3的損失在前期波動稍大,但達到平穩狀態很快且損失相對較小最終穩定在0.005左右,分類誤差相對較小、收斂時間短。圖4(b)中相同周期訓練下ResNet34和InceptionV3模型驗證集準確率均達到了99%,而GoogLeNet模型驗證集準確率為89.6%,綜合考慮訓練集損失和驗證集準確率,InceptionV3的性能相對其他兩種網絡更高,符合在線快速檢測的要求。

3.2 CBAM-InceptionV3網絡模型

表2為CBAM-InceptionV3網絡模型的參數設置。以InceptionV3模型為基礎,引入注意力機制CBAM,如圖5所示。

CBAM模塊主要添加在InceptionV3模型的Block5和MaxPooling3之間,該模塊的添加能夠使模型更加注意數據集感興趣的區域,提升模型的分類準確率。網絡的輸入圖片大小為299像素×299像素×3通道,經過五個模塊Block,CBAM模塊等部分,最終輸出四分類,Block3、Block4、Block5中Inception模塊的結構設計如圖6所示。輔助分類器位于Block4和Block5之間,它主要由一個池化層、兩個卷積層、Dropout、Linear組成,輔助分類器的作用一是對模型做融合,二是增加網絡反向傳播的梯度信號,提供正則化。

3.3 CBAM(Convolutional Block Attention Module)

CBAM[28]結構如圖7所示。CBAM包含兩個獨立的子模塊,通道注意力模塊(Channel Attention Module,CAM)和空間注意力模塊(Spatial Attention Module,SAM),分別進行通道注意力機制與空間注意力機制的處理。這樣不僅能夠節約參數和計算力,還能保證其能夠作為即插即用的模塊集成到現有的網絡架構,通過CBAM模塊自適應地細化中間特征映射。以中間特征圖F∈RC×H×W作為輸入CBAM依次推斷出一個1D通道注意力圖Mc(F)∈RC×1×1和一個2D空間注意力圖MS(F1)∈R1×H×W,總的推導過程如式(1)所示。

4 試驗結果與分析

4.1 試驗環境及參數設置

整個試驗的運行環境為Ubuntu20.04(64位)操作系統,使用2張Tesla顯卡,內存為125 GB,搭載Intel(R) Xeon(R) Gold 6242R CPU @ 3.10GHz處理器,Anaconda3,CUDA10.1編程平臺,cuDNN10.1,基于開源深度學習框架Pytorch開發環境,Pytorch版本為1.7.1,使用Python3.6.5編程語言。將InceptionV3與卷積神經網絡CBAM-InceptionV3、CA-InceptionV3分別對同一批數據進行訓練,訓練時將三種網絡參數以及超參數等設置相同,如Batch-size設置為32、學習率設置為0.002、訓練周期設置為100epoch、損失函數和優化算法均相同。

4.2 模型訓練數據分析

如圖8所示,迭代訓練100個周期后,隨著訓練周期的不斷增加,訓練集的分類誤差逐漸降低,三種網絡的損失曲線在50個周期之后逐漸收斂,并且在一個穩定的范圍內波動。

雖然三種模型訓練集損失最終分別為0.014、0.013、0.005,但CBAM-InceptionV3、CA-InceptionV3模型損失曲線穩定后位于InceptionV3網絡曲線的下方,說明在相同的訓練周期中,改進的網絡最先達到收斂;從驗證集準確率曲線可知,在前期訓練中三種網絡準確率波動較大,隨著訓練周期的增加,準確率也在一定的范圍內波動,三種曲線相差不大。綜上所述,從訓練效率、驗證集準確率的角度來看該網絡具有很好的效果。

4.3 模型測試數據分析

由于不同類別的小麥雜質在訓練集和驗證集中差距較大、數據樣本不平衡,僅憑訓練集上的準確率和損失函數不足以描述模型的泛化能力和實際應用性能,為了進一步證明CBAM-InceptionV3模型的優越性能,將其與CA-InceptionV3、InceptionV3網絡模型進行測試實驗來驗證模型泛化能力。訓練集上的圖片都是經過預處理的圖片,文中將未經過預處理、視角范圍不同、加噪的圖片作為測試集,4種雜質小麥圖像各選250張,共計1 000張。采用準確率(Accuracy)和F1值(F1-Score)精確率(Precision)、召回率(Recall)[30]對模型進行評價。

縱軸為測試數據集的真實值,橫軸為被網絡預測的值,通過圖中顏色的深淺程度可以判斷分類識別的結果。通過模型的二分類混淆矩陣可以計算出多分類模型的準確率(Accuracy)、精確率(Precision)、召回率(Recall)、F1值(F1-Score)。從表3可以看出,三種網絡模型在同一批測試集上的準確率分別為83.5%、92.9%、92.3%,平均F1-Score分別為82.41%、92.92%、92.29%。

從單類F1-Score來看InceptionV3對麥殼、麥穗、正常小麥的識別均低于其他兩種網絡,且對正常小麥的識別最低為65.95%。由于采集的數據集中正常小麥作為對照組,其他三種數據集的背景均為正常小麥,雜質識別過程中背景雜亂、雜質圖片外觀相似均會導致InceptionV3網絡對正常小麥類識別率較低。由于CBAM模塊、CA模塊更加關注輸入圖片有意義的東西,在InceptionV3網絡中添加CBAM模塊即CBAM-InceptionV3模型,它對雜質識別總體準確率比未改進InceptionV3提高了9.4%、平均F1-Score提高了10.51%;在InceptionV3網絡中添加CA模塊即CA-InceptionV3模型對雜質識別總體準確率比未改進InceptionV3提升了8.8%、平均F1-Score提升了9.88%。CBAM-InceptionV3模型相比CA-InceptionV3模型總體準確率提升了0.6%,平均F1-Score提升了0.63%。CBAM-InceptionV3模型對測試集的平均預測時間為0.045張/s,明顯低于其他兩種模型。因此,改進的卷積神經網絡CBAM-InceptionV3模型相比CA-InceptionV3、InceptionV3具有較好的應用效果。

4.4 分類結果可視化

為探究改進卷積神經網絡模型分類的機理,采用特征圖可視化和梯度類激活映射(Grad Class Activation Mapping,Grad-CAM)[31]方法。

Grad-CAM在CAM的基礎上克服了只能在最后一個特征圖之后使用全局平均池化和線性層做分類的缺陷,以熱力圖的形式展現圖片中做分類決策的局部位置。展示模型預測小麥雜質分類的判斷依據,Grad-CAM可視化計算過程如下。

5 結論

該研究以小麥雜質(麥殼、麥穗、秸稈、正常小麥)為研究對象,基于改進的卷積神經網絡CBAM-InceptionV3的分類算法探究對小麥雜質分類識別,通過比較研究分析神經網絡的訓練及識別效果,驗證深度學習用于小麥雜質分類識別的可行性。

1)" 搭建機器視覺在線檢測平臺,采用數據集增強算法、圖像預處理和KS分類方法對4 000張圖片進行處理,并選用GoogLeNet、ResNet34、InceptionV3三種模型對同一批數據集進行對比試驗訓練,結果表明InceptionV3優于GoogLeNet和ResNet34模型。

2) 提出一種改進的卷積神經網絡CBAM-InceptionV3模型,該模型比InceptionV3模型對小麥雜質分類識別測試集準確率提高9.4%、平均F1-Score提高10.51%;在InceptionV3模型基礎上加入CA模塊即CA-InceptionV3模型相比InceptionV3模型對小麥雜質分類識別測試集準確率提高8.8%,平均F1-Score提高9.88%。三種模型均使用卷積層加BN層加激活函數的卷積模塊、Dropout策略、RMSProp優化算法等優化方法。預測時間上,CBAM-InceptionV3模型對測試集的平均預測時間為0.045張/s,明顯低于其他兩種模型。改進的卷積神經網絡CBAM-InceptionV3模型提高泛化能力和準確率,具有良好的應用前景。

3)nbsp; 利用Grad-CAM對模型進行可視化,最后以熱力圖的形式展現圖片中做分類決策的局部位置,更有利于在線快速識別。

參 考 文 獻

[1] Neethirajan S, Jayas D S, White N D G. Detection of sprouted wheat kernels using soft X-ray image analysis [J]. Journal of Food Engineering, 2007, 81(3): 509-513.

[2] 蘇憶楠. 基于機器視覺和高光譜圖像技術的糧食水分檢測及雜質與不完善粒識別方法研究[D]. 杭州: 浙江大學, 2011.

Su Yinan. Research on grain water content detection and impurities recognition method based on machine vision and hyperspectral imaging technique [D]. Hangzhou: Zhejiang University, 2011.

[3] Singh C B, Jayas D S, Paliwal J, et al. Identification of insect-damaged wheat kernels using short-wave near-infrared hyperspectral and digital colour imaging [J]. Computers and Electronics in Agriculture, 2010, 73(2): 118-125.

[4] 劉歡, 王雅倩, 王曉明, 等. 基于近紅外高光譜成像技術的小麥不完善粒檢測方法研究[J]. 光譜學與光譜分析, 2019, 39(1): 223-229.

Liu Huan, Wang Yaqian, Wang Xiaoming, et al. Study on detection method of wheat unsound kernel based on near-infrared hyperspectral imaging technology [J]. Spectroscopy and Spectral Analysis, 2019, 39(1): 223-229.

[5] 樊超, 夏旭, 石小鳳, 等. 基于圖像處理的小麥品種分類研究[J]. 河南工業大學學報(自然科學版), 2011, 32(5): 74-78.

Fan Chao, Xia Xu, Shi Xiaofeng, et al. Wheat variety classification based on image processing [J]. Journal of Henan University of Technology (Natural Science Edition), 2011, 32(5): 74-78.

[6] 何紅霞. 基于機器視覺的小麥種子品種分類模型研究[D]. 合肥: 安徽農業大學, 2018.

He Hongxia. Study on classification model of wheat seed varieties based on machine vision [J]. Hefei: Anhui Agricultural University, 2018.

[7] 孟惜. 基于圖像處理的小麥籽粒飽滿度檢測及品種識別[D]. 保定: 河北農業大學, 2017.

Meng Xi. Detection of wheat grain saturation and identification of varieties based on image processing [D]. Baoding: Heibei Agricultural University, 2017.

[8] 劉光宗. 小麥含水率、容重、雜余數字化檢測方法研究[D]. 合肥: 安徽農業大學, 2020.

Liu Guangzong. Study on digital detection method of wheat moisture content, test weight and miscellaneous [D]. Hefei: Anhui Agricultural University, 2020.

[9] 陳進, 韓夢娜, 練毅, 等. 基于U-Net模型的含雜水稻籽粒圖像分割[J]. 農業工程學報, 2020, 36(10): 174-180.

Chen Jin, Han Mengna, Lian Yi, et al. Segmentation of impurity rice grain images based on U-Net model [J]. Transactions of the Chinese Society of Agricultural Engineering, 2020, 36(10): 174-180.

[10] 馬志艷, 張徐康, 楊光友. 基于改進Mask R-CNN的水稻莖稈雜質分割方法研究[J]. 中國農機化學報, 2021, 42(6): 145-150.

Ma Zhiyan, Zhang Xukang, Yang Guangyou. Research on segmentation method of rice stem impurities based on improved Mask R-CNN [J]. Journal of Chinese Agricultural Mechanization, 2021, 42(6): 145-150.

[11] Sa I, Ge Z, Dayoub F, et al. Deepfruits: A fruit detection system using deep neural networks [J]. Sensors, 2016, 16(8): 1222.

[12] 陳進, 張帥, 李耀明, 等. 聯合收獲機水稻破碎籽粒及雜質在線識別方法[J]. 中國農機化學報, 2021, 42(6): 137-144.

Chen Jin, Zhang Shuai, Li Yaoming, et al. Research on online identification system of rice broken impurities in combine harvester [J]. Journal of Chinese Agricultural Mechanization, 2021, 42(6): 137-144.

[13] 張思雨, 張秋菊, 李可. 采用機器視覺與自適應卷積神經網絡檢測花生仁品質[J]. 農業工程學報, 2020, 36(4): 269-277.

Zhang Siyu, Zhang Qiuju, Li Ke. Detection of peanut kernel quality based on machine vision and adaptive convolution neural network [J]. Transactions of the Chinese Society of Agricultural Engineering, 2020, 36(4): 269-277.

[14] Rong D, Wang H, Xie L, et al. Impurity detection of juglans using deep learning and machine vision [J]. Computers and Electronics in Agriculture, 2020, 178: 105764.

[15] 趙德安, 吳任迪, 劉曉洋, 等. 基于YOLO深度卷積神經網絡的復雜背景下機器人采摘蘋果定位[J]. 農業工程學報, 2019, 35(3): 164-173.

Zhao Dean, Wu Rendi, Liu Xiaoyang, et al. Apple positioning based on YOLO deep convolutional neural network for picking robot in complex background [J]. Transactions of the Chinese Society of Agricultural Engineering, 2019, 35(3): 164-173.

[16] 劉小剛, 范誠, 李加念, 等. 基于卷積神經網絡的草莓識別方法[J]. 農業機械學報, 2020, 51(2): 237-244.

Liu Xiaogang, Fan Cheng, Li Jianian, et al. Identification method of strawberry based on convolutional neural network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(2): 237-244.

[17] 傅隆生, 馮亞利, Elkamil Tola, 等. 基于卷積神經網絡的田間多簇獼猴桃圖像識別方法[J]. 農業工程學報, 2018, 34(2): 205-211.

Fu Longsheng, Feng Yali, Elkamil Tola, et al. Image recognition method of multi-cluster kiwifruit in field based on convolutional neural networks [J]. Transactions of the Chinese Society of Agricultural Engineering, 2018, 34(2): 205-211.

[18] 張博, 張苗輝, 陳運忠. 基于空間金字塔池化和深度卷積神經網絡的作物害蟲識別[J]. 農業工程學報, 2019, 35(19): 209-215.

Zhang Bo, Zhang Miaohui, Chen Yunzhong. Crop pest identification based on spatial pyramid pooling and deep convolution neural network [J]. Transactions of the Chinese Society of Agricultural Engineering, 2019, 35(19): 209-215.

[19] Zhang Z, Liu H, Meng Z, et al. Deep learning-based automatic recognition network of agricultural machinery images [J]. Computers and Electronics in Agriculture, 2019, 166: 104978.

[20] 祝詩平, 卓佳鑫, 黃華, 等. 基于CNN的小麥籽粒完整性圖像檢測系統[J]. 農業機械學報, 2020, 51(5): 36-42.

Zhu Shiping, Zhuo Jiaxin, Huang Hua, et al. Wheat grain integrity image detection system based on CNN [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(5): 36-42.

[21] 曹婷翠, 何小海, 董德良, 等. 基于CNN深度模型的小麥不完善粒識別[J]. 現代計算機(專業版), 2017(36): 9-14.

Cao Tingcui, He Xiaohai, Dong Deliang, et al. Identification of unsound kernels in wheat based on CNN deep model [J]. Modern Computer (Professional Edition), 2017(36): 9-14.

[22] 張博. 基于深度學習的小麥外觀品質機器視覺檢測研究[D].咸陽: 西北農林科技大學, 2019.

Zhang Bo. Machine vision inseption of wheat apprearance quality based on deep learning [D]. Xianyang: Northwest A amp; F University, 2019.

[23] 宋懷波, 王云飛, 段援朝, 等. 基于YOLO v5-MDC的重度粘連小麥籽粒檢測方法[J]. 農業機械學報, 2022, 53(4): 245-253.

Song Huaibo, Wang Yunfei, Duan Yuanchao, et al. Detection method of severe adhesive wheat grain based on YOLO v5-MDC model [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(4): 245-253.

[24] Singh A, Arora M. CNN based detection of healthy and unhealthy wheat crop [C]. 2020 International Conference on Smart Electronics and Communication (ICOSEC). IEEE, 2020: 121-125.

[25] 武威. 基于機器視覺技術的稻麥籽粒外觀品質評測研究[D]. 揚州: 揚州大學, 2021.

Wei Wu. Research on appearance quality evaluation of rice and wheat grains based on machine vision technology [D]. Yangzhou: Yangzhou University, 2021.

[26] Zhang X, Qiao Y, Meng F, et al. Identification of maize leaf diseases using improved deep convolutional neural networks [J]. IEEE Access, 2018, 6: 30370-30377.

[27] Tsai C M. Adaptive local power-law transformation for color image enhancement [J]. Applied Mathematics amp; Information Sciences, 2013, 7(5): 2019.

[28] Woo S, Park J, Lee J Y, et al. CBAM: Convolutional block attention module [J]. Springer, Cham, 2018.

[29] Ashiquzzaman A, Tushar A K, Dutta S, et al. An efficient method for improving classification accuracy of handwritten Bangla compound characters using DCNN with dropout and ELU [C]. 2017 Third International Conference on Research in Computational Intelligence and Communication Networks (ICRCICN). IEEE, 2017: 147-152.

[30] Hripcsak G, Rothschild A S. Technical brief: agreement, the F-Measure, and reliability in information retrieval [J]. Hripcsak, Rothschilsd, Agreement in Information Retrieval, 2005, 12(3): 296-298.

[31] Selvaraju R R, Cogswell M, Das A, et al. Grad-cam: Visual explanations from deep networks via gradient-based localization [C]. Proceedings of the IEEE International Conference on Computer Vision. 2017: 618-626.

猜你喜歡
可視化
無錫市“三項舉措”探索執法可視化新路徑
基于CiteSpace的足三里穴研究可視化分析
自然資源可視化決策系統
北京測繪(2022年6期)2022-08-01 09:19:06
三維可視化信息管理系統在選煤生產中的應用
選煤技術(2022年2期)2022-06-06 09:13:12
思維可視化
師道·教研(2022年1期)2022-03-12 05:46:47
基于Power BI的油田注水運行動態分析與可視化展示
云南化工(2021年8期)2021-12-21 06:37:54
自然資源可視化決策系統
北京測繪(2021年7期)2021-07-28 07:01:18
基于CGAL和OpenGL的海底地形三維可視化
可視化閱讀:新媒體語境下信息可視化新趨勢
“融評”:黨媒評論的可視化創新
傳媒評論(2019年4期)2019-07-13 05:49:14
主站蜘蛛池模板: 久久无码av三级| 天天激情综合| 久久免费成人| 国产成人亚洲毛片| 免费观看三级毛片| 午夜限制老子影院888| 欧美人与牲动交a欧美精品 | 欧美一区二区福利视频| 久久久久国产精品免费免费不卡| 欧美国产综合色视频| 国产99热| 中国一级特黄大片在线观看| 色吊丝av中文字幕| 国语少妇高潮| 免费国产小视频在线观看| 国产免费自拍视频| 国产一区亚洲一区| 中文成人在线| 一级片一区| 福利视频一区| yjizz国产在线视频网| 国产一区二区丝袜高跟鞋| 欧美精品三级在线| 精品综合久久久久久97超人| 国产在线精彩视频论坛| 中文字幕 日韩 欧美| 无码内射中文字幕岛国片| 亚洲AⅤ综合在线欧美一区| 91视频99| 114级毛片免费观看| 免费播放毛片| 一本大道在线一本久道| 国产精品偷伦在线观看| 日韩午夜伦| 久久香蕉国产线看精品| 色婷婷成人| 69av在线| 国产av一码二码三码无码| 欧美日韩中文字幕二区三区| 免费看a毛片| 日本午夜精品一本在线观看 | 91福利一区二区三区| 中美日韩在线网免费毛片视频| 久草热视频在线| 国产精品成人AⅤ在线一二三四| 欧美成人一区午夜福利在线| 精品夜恋影院亚洲欧洲| 国产亚洲欧美在线人成aaaa| 久久这里只有精品国产99| 国产精品自在拍首页视频8| 国产色伊人| 亚洲无码日韩一区| 亚洲色欲色欲www在线观看| 成人午夜视频网站| 免费jizz在线播放| 在线无码av一区二区三区| 青青青亚洲精品国产| 亚洲天堂区| 国产精品女人呻吟在线观看| 99九九成人免费视频精品| 中文字幕在线日韩91| a在线亚洲男人的天堂试看| 91久久偷偷做嫩草影院免费看| 五月婷婷中文字幕| 一级毛片免费观看久| 国产精品一区二区在线播放| 亚洲av片在线免费观看| 亚洲精品综合一二三区在线| 国产无码高清视频不卡| 久久精品视频亚洲| 亚洲三级网站| 亚洲国产中文欧美在线人成大黄瓜| 国产免费久久精品99re不卡| 大学生久久香蕉国产线观看| 国产杨幂丝袜av在线播放| 中文字幕永久在线观看| 免费观看三级毛片| 精品亚洲国产成人AV| 女人18毛片一级毛片在线| 99热这里只有免费国产精品 | 国产95在线 | 免费在线色|