999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)ResNet50模型的咖啡生豆質(zhì)量和缺陷檢測方法

2024-01-01 00:00:00紀(jì)元浩許金普嚴(yán)蓓蓓薛俊龍

摘要:

咖啡生豆的質(zhì)量決定著商品咖啡豆的價格,目前對咖啡生豆的篩選主要由人工完成,費(fèi)時費(fèi)力。提出一種基于改進(jìn)ResNet50模型來識別咖啡生豆的方法,首先收集8 000張咖啡生豆圖像建立數(shù)據(jù)集,并對其進(jìn)行數(shù)據(jù)增強(qiáng),基于ResNet50模型加入CBAM注意力機(jī)制,引入遷移學(xué)習(xí)機(jī)制,并使用深度可分離卷積來代替ResNet50殘差單元中的傳統(tǒng)卷積,構(gòu)建適用于咖啡生豆分類識別的ResNet50-CBAM-DW模型。為評估模型改進(jìn)的有效性,與ResNet50、AlexNet、VGG16、MobileNetV2等模型進(jìn)行比較,改進(jìn)后模型準(zhǔn)確率達(dá)到91.1%,相較于原ResNet50模型準(zhǔn)確率提升3.0%,參數(shù)量降低39.0%。

關(guān)鍵詞:殘差網(wǎng)絡(luò);咖啡豆;注意力機(jī)制;卷積神經(jīng)網(wǎng)絡(luò);深度可分離卷積

中圖分類號:S571.2; TP391.41

文獻(xiàn)標(biāo)識碼:A

文章編號:2095-5553 (2024) 04-0237-07

收稿日期:2023年3月7日" 修回日期:2023年5月24日

基金項(xiàng)目: 山東省重大科技創(chuàng)新工程(2021LZGC014—3);青島農(nóng)業(yè)大學(xué)研究生創(chuàng)新計劃項(xiàng)目(QNYCX22038)

第一作者:紀(jì)元浩,1998年生,男,山東菏澤人,碩士研究生;研究方向?yàn)檗r(nóng)業(yè)工程與信息技術(shù)。E-mail: summerwen2023@163.com

通訊作者:許金普,1979年生,男,山東博興人,博士,副教授,碩導(dǎo);研究方向?yàn)檗r(nóng)業(yè)信息技術(shù)。E-mail: xjp@qau.edu.cn

A method for detecting quality and defects in raw coffee beans based on

improved ResNet50 model

Ji Yuanhao1, Xu Jinpu1, Yan Beibei1, Xue Junlong2

(1. College of Animation and Media, Qingdao Agricultural University, Qingdao, 266109, China;

2. Shandong Institute of Innovation Development, Jinan, 250101, China)

Abstract:

The quality of raw coffee beans determines the price of commercial coffee beans. Currently, the screening of raw coffee beans is mainly done manually, which is time-consuming and laborious." This paper proposes a method to identify raw coffee beans based on an improved ResNet50 model. Firstly, 8 000 images of raw coffee beans were collected to build a dataset and data enhancement was applied to it. A ResNet50-CBAM-DW model for coffee bean classification recognition was constructed based on the ResNet50 model by adding a CBAM attention mechanism, by introducing a migration learning mechanism and using deep separable convolution instead of the conventional convolution in the ResNet50 residual unit. In order to evaluate the effectiveness of the model improvement, the accuracy of the improved model was compared with ResNet50, AlexNet, VGG16, MobileNetV2 and other models, and the accuracy of the improved model reached 91.1%, which improved 3.0% compared with the original ResNet50 model and reduced the number of parameters by 39.0%.

Keywords:

residual networks; coffee beans; attention mechanism; convolutional neural networks; deep separable convolution

0 引言

中國已成為世界上主要的咖啡生產(chǎn)大國、貿(mào)易大國和消費(fèi)大國之一,近些年我國逐漸發(fā)展出了自己獨(dú)特的咖啡文化和咖啡產(chǎn)業(yè)鏈[1],其中對咖啡生豆的篩選是一個重要的環(huán)節(jié)??Х壬沟耐獗砜赡軙衅茡p、褪色、腐爛等情況,這些瑕疵豆的質(zhì)量較差,容易影響咖啡飲料的口感和質(zhì)量[2]。因此,找到一種高效精準(zhǔn)的咖啡生豆智能檢測方法尤為重要。

除傳統(tǒng)的人工目測方法外,目前應(yīng)用于咖啡生豆的檢測技術(shù)主要有近紅外光譜、多光譜成像和機(jī)械分選等。Khuwijitjaru等[3]采用近紅外光譜技術(shù)對優(yōu)質(zhì)、缺陷、污染的生咖啡豆進(jìn)行分類,準(zhǔn)確率為97.5%。Gomes等[4]使用多光譜成像技術(shù)區(qū)分傳統(tǒng)和特殊類別的生咖啡豆實(shí)現(xiàn)了96%的準(zhǔn)確率。但是上述方法都存在成本過高,現(xiàn)實(shí)較為復(fù)雜的問題而難以大規(guī)模推廣應(yīng)用。

隨著近些年卷積神經(jīng)網(wǎng)絡(luò)模型的不斷更迭[5],各種網(wǎng)絡(luò)層次越來越深,結(jié)構(gòu)越來越復(fù)雜,精度也不斷提升。目前,深度學(xué)習(xí)在解決農(nóng)業(yè)產(chǎn)品品質(zhì)檢測[6]、分類檢測[7]、病蟲害[8]等問題方面表現(xiàn)出色。

國內(nèi)外也有部分學(xué)者根據(jù)咖啡生豆缺陷豆識別的需求,以深度學(xué)習(xí)為基礎(chǔ)提出了多種解決方案。如Huang等[9]利用深度學(xué)習(xí)算法對同品種咖啡生豆進(jìn)行二分類(優(yōu)質(zhì)豆、壞豆)劃分,準(zhǔn)確率達(dá)到了93%。Adiwijaya等[10]從咖啡豆顏色角度入手,將小樣本同品種咖啡生豆中的優(yōu)質(zhì)豆劃分為AA、A、B三類,實(shí)現(xiàn)了83%的準(zhǔn)確率。趙玉清等[11]采用機(jī)器視覺技術(shù)提取咖啡豆輪廓、顏色和紋理3類特征,將特征組合并在SVM檢測模型上平均精度達(dá)86.1%。上述提到的各種方法雖然實(shí)現(xiàn)了對咖啡生豆的分類,但是在精度上還有很大的提升空間,另一方面在實(shí)際生產(chǎn)過程中,不同形狀的咖啡生豆經(jīng)濟(jì)價值也不盡相同,如咖啡生豆優(yōu)質(zhì)豆中的外觀為圓形的小圓豆[2]因其特殊價值通常被篩選出來,另一種外觀特征與優(yōu)質(zhì)豆相似的但形態(tài)較為細(xì)長扁平的長粒豆也被篩選出來,而缺陷豆通常不必做具體的細(xì)節(jié)劃分直接將其剔除。

本文針對以上存在的問題,選擇使用網(wǎng)絡(luò)層次較深、提取特征能力較強(qiáng)的ResNet網(wǎng)絡(luò),提出一種基于改進(jìn)ResNet50的識別模型,通過對原有的ResNet50模型結(jié)構(gòu)進(jìn)行修改,并借鑒MobileNet網(wǎng)絡(luò)[12]的思想,使用深度可分離卷積方法代替?zhèn)鹘y(tǒng)卷積層,在不影響準(zhǔn)確率的前提下,減少模型參數(shù),提高收斂速度。并且引入CBAM注意力機(jī)制,使其能夠更加精準(zhǔn)地提取圖像的特征,增加模型的精準(zhǔn)度,同時將ImageNet數(shù)據(jù)集的預(yù)訓(xùn)練權(quán)重進(jìn)行遷移訓(xùn)練,以加快模型的訓(xùn)練和擬合,從而有效地減少模型的訓(xùn)練時長,實(shí)現(xiàn)咖啡生豆高精準(zhǔn)分類,為后續(xù)在咖啡生豆智能篩選設(shè)備的應(yīng)用上提供基礎(chǔ)。

1 材料與方法

1.1 數(shù)據(jù)來源

本文采用USK-Coffee[13]項(xiàng)目所收集的阿拉比卡咖啡生豆圖片集合,此數(shù)據(jù)集共包含4種類別:小圓豆、長粒豆、壞豆、優(yōu)質(zhì)豆。圖像尺寸為256像素×256像素。試驗(yàn)樣本共計8 000幅圖像,每種類別圖像樣本各2 000幅。圖像樣本示例如圖1所示。

1.2 數(shù)據(jù)處理

在對圖像數(shù)據(jù)集進(jìn)行分類之前,首先要對圖像進(jìn)行預(yù)處理,圖片大小需適配網(wǎng)絡(luò)輸入要求,將圖像大小調(diào)整為統(tǒng)一的尺寸,并使用ImageNet權(quán)重進(jìn)行圖像歸一化,使模型在訓(xùn)練和預(yù)測時能夠更容易地處理不同大小和像素范圍的圖像。將圖像的尺寸縮放為224像素×224像素,另外對圖像使用裁剪、翻轉(zhuǎn)、平移、旋轉(zhuǎn)組合方式來進(jìn)行數(shù)據(jù)增強(qiáng),從而提高模型的泛化能力[14]。并按照7∶2∶1的比例劃分訓(xùn)練集驗(yàn)證集和測試集,數(shù)據(jù)集圖片數(shù)量如表1所示。驗(yàn)證集用于檢驗(yàn)?zāi)P托Ч目煽啃?,測試集在模型訓(xùn)練和數(shù)據(jù)增強(qiáng)過程中不參與,而是用于評估模型最終表現(xiàn)的優(yōu)劣。

2 模型結(jié)構(gòu)

2.1 ResNet50殘差網(wǎng)絡(luò)

ResNet是由He等[15]提出的一種深度卷積神經(jīng)網(wǎng)絡(luò),與傳統(tǒng)的深度卷積神經(jīng)網(wǎng)絡(luò)不同,ResNet采用了殘差學(xué)習(xí)機(jī)制,即在每個卷積塊中添加殘差連接,使得網(wǎng)絡(luò)中的每一層輸出都能和輸入相加。這樣就可以使得網(wǎng)絡(luò)在訓(xùn)練時能夠更快地收斂,并且由于引入了殘差連接可以有效地防止梯度消失和梯度爆炸的發(fā)生,從而達(dá)到更好的性能。ResNet50網(wǎng)絡(luò)通過引入殘差結(jié)構(gòu)解決由于網(wǎng)絡(luò)過深導(dǎo)致的退化問題,使梯度在傳遞過程中不會消失。

在殘差網(wǎng)絡(luò)中,網(wǎng)絡(luò)的每一層的輸出都是通過計算H(x)=F(x)+x得到的,其中F(x)是這一層的殘差映射,x是這一層的輸入,H(x)是這一層的輸出。殘差映射F(x)的作用是把前面層的輸出作為輸入,并通過一系列卷積和非線性激活函數(shù)來計算出新的特征。如果在殘差映射之后加上一個恒等映射層,那么網(wǎng)絡(luò)的輸出就等于輸入,這使得殘差網(wǎng)絡(luò)的網(wǎng)絡(luò)深度可以非常大,但是不增加誤差,從而提高了網(wǎng)絡(luò)的表達(dá)能力。

本文選擇ResNet50殘差網(wǎng)絡(luò)作為基本骨架,并對其進(jìn)行了改進(jìn),并使用ResNet50的殘差塊作為基本的構(gòu)建模塊,然后在其上進(jìn)行修改和擴(kuò)展,以適應(yīng)咖啡生豆的應(yīng)用場景。另一方面通過遷移訓(xùn)練的方式,使用已有的ImageNet權(quán)重遷移至模型進(jìn)行訓(xùn)練,從而獲得較好的模型性能。殘差網(wǎng)絡(luò)如圖2所示。

2.2 模型改進(jìn)

2.2.1 注意力機(jī)制

注意力機(jī)制是深度學(xué)習(xí)中一種模仿人的認(rèn)知注意力的技術(shù),可以有效地分配模型的計算能力,使其集中在需要注意的特征上。這能夠提升模型的特征學(xué)習(xí)能力,并且避免在不必要的特征上浪費(fèi)資源,從而使網(wǎng)絡(luò)能夠更加關(guān)注于重要的局部信息[16]。CBAM注意力機(jī)制(Convolutional block attention module, CBAM)結(jié)構(gòu)包括2個子模塊:通道注意力子模塊和空間注意力子模塊。其結(jié)構(gòu)如圖3所示。

通道注意力子模塊通過計算每個通道的權(quán)重來調(diào)整輸入張量的每個通道的貢獻(xiàn),輸入是一個三維張量,維度分別為高度(H)、寬度(W)和通道數(shù)(C)。

2.2.2 深度可分離卷積

本文使用的骨干網(wǎng)絡(luò)ResNet50在通過不斷堆疊網(wǎng)絡(luò)層的基礎(chǔ)上利用殘差結(jié)構(gòu)避免了梯度爆炸和梯度消失,做到了提取特征能力強(qiáng),準(zhǔn)確率高[17]。但是隨著網(wǎng)絡(luò)層數(shù)的增加,網(wǎng)絡(luò)的參數(shù)量也隨之增加,從而影響網(wǎng)絡(luò)訓(xùn)練效率。針對此問題,本文借鑒了MobileNet網(wǎng)絡(luò)中的深度可分離卷積技術(shù)[18],并將其應(yīng)用于ResNet50網(wǎng)絡(luò)中的傳統(tǒng)卷積,以實(shí)現(xiàn)網(wǎng)絡(luò)的輕量化。

深度可分離卷積是一種卷積操作,其主要目的是降低參數(shù)量,提高卷積的效率;將傳統(tǒng)的卷積操作分成深度卷積和逐點(diǎn)卷積兩部分,如圖5所示。

本文使用深度可分離卷積(Depthwise separable convolutions)來替換ResNet50中的殘差模塊的第二個卷積層,如圖6所示。

首先,對輸入特征圖的每個通道分別使用M個大小為k×k的卷積核進(jìn)行卷積,得到M個特征圖。然后,使用N個逐點(diǎn)卷積將這M個特征圖在通道上疊加。通過這樣的操作,深度可分離卷積可以在空間和通道維度上分別學(xué)習(xí)特征。相比傳統(tǒng)卷積,深度可分離卷積所需要的參數(shù)量要少很多,k×k×M+M×N,是傳統(tǒng)卷積參數(shù)量的1N+k21。

3 試驗(yàn)結(jié)果與分析

3.1 試驗(yàn)環(huán)境

試驗(yàn)采用的處理器為Intel Core i7 12700H,內(nèi)存16 G,顯卡為NVIDIA GeForce RTX 3080,顯存8 GB,深度學(xué)習(xí)框架為TensorFlow2.7.1,編程語言為Python3.7.0。

3.2 參數(shù)設(shè)置

在訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型時,模型參數(shù)的設(shè)置會直接影響訓(xùn)練的效果。在本試驗(yàn)中,批大?。˙atch_size)設(shè)置為4,訓(xùn)練迭代20個時期(Epochs),并使用Adam優(yōu)化器。初始學(xué)習(xí)率設(shè)置為0.002,在將圖像輸入網(wǎng)絡(luò)訓(xùn)練之前,先對圖像進(jìn)行預(yù)處理和歸一化處理。

由于網(wǎng)絡(luò)層數(shù)較多,模型參數(shù)量大,因此將ImageNet上訓(xùn)練好的模型參數(shù)來初始化當(dāng)前模型權(quán)重,以加快模型的訓(xùn)練和擬合,有效地提高模型的訓(xùn)練效率。

3.3 注意力機(jī)制和深度可分離卷積的影響

為證實(shí)本文試驗(yàn)改進(jìn)的有效性,對比ResNet50在添加SA注意力模塊、CA注意力模塊、CBAM注意力模塊、不添加注意力模塊、僅修改深度可分離卷積層和ResNet50-CBAM-DW模型。將6種模型應(yīng)用于測試集,最終得到6種模型準(zhǔn)確率分別為89.5%、88.3%、91.8%、88.1%、87.0%、91.1%。6種模型的驗(yàn)證集性能對比如圖7所示。

試驗(yàn)將深度可分離卷積來替換ResNet50的殘差模塊中的第二個卷積層,試驗(yàn)結(jié)果表明,本模型(ResNet50-CBAM-DW)的準(zhǔn)確率為91.1%,相對于修改之前的模型(ResNet50-CBAM)準(zhǔn)確率僅降低0.7%,而參數(shù)量減少了40.9%。參數(shù)量對比如表2所示。在模型的損失值方面,ResNet50-CBAM-DW模型損失值最小,相比較而言表現(xiàn)良好,綜合以上方面,ResNet50-CBAM-DW模型相對于ResNet50模型準(zhǔn)確率有了3.0%的提升,通過在驗(yàn)證集性能上的表現(xiàn)可以看出,模型在第10輪左右開始穩(wěn)定收斂,且沒有較大波動,得益于深度可分離卷積的存在,使模型在參數(shù)量和模型準(zhǔn)確率之前取得了一個平衡,在保證網(wǎng)絡(luò)訓(xùn)練效率的同時,也能有效減少參數(shù)的數(shù)量,從而緩解隨著網(wǎng)絡(luò)層數(shù)增加而導(dǎo)致的網(wǎng)絡(luò)訓(xùn)練效率下降的問題,為以后在移動端部署打下基礎(chǔ)。

3.4 ResNet50-CBAM-DW模型改進(jìn)前后對比

為驗(yàn)證模型ResNet50-CBAM-DW改進(jìn)的有效性,將本模型與其他常見的應(yīng)用與圖像分類的卷積神經(jīng)網(wǎng)絡(luò)模型MobileNetV2、InceptionV3、VGG16、AlexNet在咖啡生豆數(shù)據(jù)集上作對比。訓(xùn)練時保持各個模型參數(shù)一致,Softmax輸出統(tǒng)一為4分類,在相同的訓(xùn)練環(huán)境下迭代20次。各個模型的訓(xùn)練集性能對比如圖8所示。

由圖8可知,ResNet50-CBAM-DW模型表現(xiàn)最好,且相對于其他模型更加穩(wěn)定,20次迭代訓(xùn)練后準(zhǔn)確率為91.1%,AlexNet模型震蕩明顯,準(zhǔn)確率達(dá)到84.8%,InceptionV3和MobileNetV2模型表現(xiàn)較差,兩種模型準(zhǔn)確率分別為85.2%和84.6%。VGG16模型相比于其他CNN模型表現(xiàn)較好,準(zhǔn)確率達(dá)到了87%,相比本試驗(yàn)?zāi)P蜏?zhǔn)確率低4.1%,但是其參數(shù)量是本試驗(yàn)?zāi)P偷娜蹲笥遥囼?yàn)數(shù)據(jù)如表3所示。

通過與其他卷積神經(jīng)網(wǎng)絡(luò)模型比較,本文提出的ResNet50-CBAM-DW模型在咖啡生豆識別方面取得了較好效果。通過在殘差結(jié)構(gòu)中添加CBAM注意力機(jī)制,增加了模型對特征信息的關(guān)注權(quán)重,提高了算法性能,另一方面將殘差結(jié)構(gòu)中的傳統(tǒng)卷積替換為深度可分離卷積,大幅減少了模型的參數(shù)量。

3.5 咖啡生豆分類識別結(jié)果的模型評價指標(biāo)和混淆矩陣分析

準(zhǔn)確率(Accuracy)為所有被正確識別的樣本數(shù)占總樣本數(shù)的比例。精確率(Precision)是衡量模型正確預(yù)測能力的指標(biāo),代表了預(yù)測正確的樣本數(shù)量占總體的比例。召回率(Recall)表示在真實(shí)樣本中,被正確預(yù)測的樣本數(shù)量占總樣本的比例。F1分?jǐn)?shù)(F1-Score)是結(jié)合Precision和Recall的綜合指標(biāo),取值為Precision和Recall的調(diào)和平均數(shù),其取值范圍是0~1,1代表模型的最優(yōu)輸出,0代表模型的最差輸出。

根據(jù)表4可以看出,少量的長粒豆和優(yōu)質(zhì)豆出現(xiàn)了預(yù)測錯誤。這可能是由于長粒豆和優(yōu)質(zhì)豆的外觀特征高度相似,導(dǎo)致模型難以區(qū)分。此外,壞豆和優(yōu)質(zhì)豆也出現(xiàn)了混淆,這可能是由于壞豆中的部分瑕疵特征導(dǎo)致模型容易識別錯誤??偟膩碚f,本文提出的ResNet50-CBAM-DW模型在測試的咖啡生豆數(shù)據(jù)集上表現(xiàn)出優(yōu)良的分類性能,能夠較好地區(qū)分咖啡生豆的種類,并能準(zhǔn)確地對咖啡生豆進(jìn)行分類。另一方面,通過混淆矩陣可以計算出分類模型的各個類別的準(zhǔn)確率、精確度、F1分?jǐn)?shù)、召回率。計算結(jié)果如表5所示。

通過表5可知,本模型對小圓豆的識別效果最好,對優(yōu)質(zhì)豆的識別效果略有不足,以F1分?jǐn)?shù)為標(biāo)準(zhǔn)對分類性能排序的結(jié)果為:小圓豆、長粒豆、壞豆、優(yōu)質(zhì)豆。總體來看,針對咖啡生豆測試集的識別準(zhǔn)確率為91.1%,精確度91.3%,F(xiàn)1分?jǐn)?shù)為91.1%。這說明ResNet50-CBAM-DW模型在咖啡生豆分類任務(wù)上表現(xiàn)出色。

4 結(jié)論

1)" ResNet50-CBAM-DW網(wǎng)絡(luò)模型在咖啡生豆分類任務(wù)中識別準(zhǔn)確率達(dá)到91.1%,相較于ResNet50模型準(zhǔn)確率提升了3%,與MobileNetV2、InceptionV3、VGG16、AlexNet模型相比,在測試集準(zhǔn)確率上分別提升了6.5%、5.9%、4.1%、6.3%。

2) 通過使用深度可分離卷積來替代ResNet50模型中的殘差單元里的傳統(tǒng)卷積,使ResNet50-CBAM-DW模型相較于ResNet50-CBAM模型參數(shù)量減少40.9%,而準(zhǔn)確率僅降低0.7個百分點(diǎn),綜合參數(shù)量、準(zhǔn)確率和內(nèi)存占用量考慮來看,ResNet50-CBAM-DW模型更優(yōu)。

總體而言,本文提出的ResNet50-CBAM-DW模型采用大量的咖啡生豆數(shù)據(jù)集進(jìn)行訓(xùn)練,可用實(shí)現(xiàn)對咖啡生豆四個類別(壞豆、優(yōu)質(zhì)豆、長粒豆、小圓豆)的快速檢測,準(zhǔn)確高效。不同于人肉眼判斷易受主觀影響,檢測具有客觀性,可以實(shí)際應(yīng)用與咖啡生豆的智能篩選設(shè)備。在后期的研究中,還會考慮在復(fù)雜背景中瑕疵豆的不同外觀特征對模型的影響,使模型能夠更好地投入生產(chǎn)實(shí)踐中,為智慧農(nóng)業(yè)添磚加瓦。

參 考 文 獻(xiàn)

[1] 黃家雄, 黃琳, 呂玉蘭, 等. 中國咖啡產(chǎn)業(yè)發(fā)展前景分析[J]. 云南農(nóng)業(yè)科技, 2018(6): 4-7.

Huang Jiaxiong, Huang Lin, Lü Yulan, et al. Analysis of development prospect of coffee sector in China [J]. Yunnan Agricultural Science and Technology, 2018(6): 4-7.

[2] 胡榮鎖, 方樂天, 況沁蕊, 等. 云南臨滄產(chǎn)區(qū)咖啡干香感官特征解析及杯品質(zhì)量分析[J]. 食品科學(xué), 2021, 42(20): 180-187.

Hu Rongsuo, Fang Letian, Kuang Qinrui, et al. Sensory characteristics of dry aroma and cupping quality of coffee from Lincang, Yunnan [J]. Food Science, 2021, 42(20): 180-187.

[3] Khuwijitjaru P. Near infrared spectroscopy research performance in food science and technology [J]. NIR News, 2018, 29(3): 12-14.

[4] Gomes W P C, Gonalves L, da Silva C B, et al. Application of multispectral imaging combined with machine learning models to discriminate special and traditional green coffee [J]. Computers and Electronics in Agriculture, 2022, 198: 107097.

[5] 張珂, 馮曉晗, 郭玉榮, 等. 圖像分類的深度卷積神經(jīng)網(wǎng)絡(luò)模型綜述[J]. 中國圖象圖形學(xué)報, 2021, 26(10): 2305-2325.

Zhang Ke, Feng Xiaohan, Guo Yurong, et al. Overview of deep convolutional neural networks for image classification [J]. Journal of Image and Graphics, 2021, 26(10): 2305-2325.

[6] 劉云玲, 張?zhí)煊辏?姜明, 等. 基于機(jī)器視覺的葡萄品質(zhì)無損檢測方法研究進(jìn)展[J]. 農(nóng)業(yè)機(jī)械學(xué)報, 2022, 53(S1): 299-308.

Liu Yunling, Zhang Tianyu, Jiang Ming, et al. Review on non-destructive detection methods of grape quality based on machine vision [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(S1): 299-308.

[7] 趙輝, 喬艷軍, 王紅君, 等. 基于雙通道注意力機(jī)制的ResNet果實(shí)外觀品質(zhì)分類[J]. 光電子·激光, 2022, 33(6): 643-651.

Zhao Hui, Qiao Yanjun, Wang Hongjun, et al. ResNet fruit appearance quality classification based on dual channel attention mechanism [J]. Journal of Optoelectronics·Laser, 2022, 33(6): 643-651.

[8] 葉云, 趙小娟, 姜晟. 基于深度學(xué)習(xí)的荔枝蟲害識別技術(shù)的應(yīng)用與實(shí)現(xiàn)[J]. 中國農(nóng)業(yè)信息, 2022, 34(4): 30-37.

Ye Yun, Zhao Xiaojuan, Jiang Sheng. Application and realization of litchi pest identification technology based on deep learning [J]. China Agricultural Informatics, 2022, 34(4): 30-37.

[9] Huang N F, Chou D L, Lee C A, et al. Smart agriculture: Real-time classification of green coffee beans by using a convolutional neural network [J]. IET Smart Cities, 2020, 2(4): 167-172.

[10] Adiwijaya N O, Romadhon H I, Putra J A, et al. The quality of coffee bean classification system based on color by using k-nearest neighbor method [C]. Journal of Physics: Conference Series. IOP Publishing, 2022, 2157(1): 012034.

[11] 趙玉清, 楊慧麗, 張悅, 等. 基于特征組合與SVM的小粒種咖啡缺陷生豆檢測[J]. 農(nóng)業(yè)工程學(xué)報, 2022, 38(14): 295-302.

Zhao Yuqing, Yang Huili, Zhang Yue, et al. Detection of defective Arabica green coffee beans based on feature combination and SVM [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(14): 295-302.

[12] Sandler M, Howard A, Zhu M, et al. Mobilenetv2: Inverted residuals and linear bottlenecks [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 4510-4520.

[13] Febriana A, Muchtar K, Dawood R, et al. “USK-COFFEE Dataset: A multi-class green arabica coffee bean dataset for deep learning” [C]. In 2022 IEEE International Conference on Cybernetics and Computational Intelligence (CyberneticsCom). IEEE, 2022.

[14] 鄭遠(yuǎn)攀, 李廣陽, 李曄. 深度學(xué)習(xí)在圖像識別中的應(yīng)用研究綜述[J]. 計算機(jī)工程與應(yīng)用, 2019, 55(12): 20-36.

Zheng Yuanpan, Li Guangyang, Li Ye. Survey of application of deep learning in image recognition [J]. Computer Engineering and Applications, 2019, 55(12): 20-36.

[15] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016: 770-778.

[16] Woo S, Park J, Lee J Y, et al. CBAM: Convolutional block attention module [C]. Proceedings of the European Conference on Computer Vision (ECCV), 2018: 3-19.

[17] 李書琴, 陳聰, 朱彤, 等. 基于輕量級殘差網(wǎng)絡(luò)的植物葉片病害識別[J]. 農(nóng)業(yè)機(jī)械學(xué)報, 2022, 53(3): 243-250.

Li Shuqin, Chen Cong, Zhu Tong, et al. Plant leaf disease identification based on lightweight residual network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(3): 243-250.

[18] 鄭光, 魏家領(lǐng), 任艷娜, 等. 基于深度可分離與空洞卷積的輕量化小麥生育進(jìn)程監(jiān)測模型研究[J]. 江蘇農(nóng)業(yè)科學(xué), 2022, 50(20): 226-232.

主站蜘蛛池模板: 99久久国产综合精品女同| 波多野结衣中文字幕一区二区| 欧美成人h精品网站| 在线亚洲小视频| 亚洲天堂精品在线| 国内精品视频| 狠狠亚洲五月天| 美女被操黄色视频网站| 欧美亚洲国产一区| 日韩无码视频专区| 国产在线八区| 青青热久麻豆精品视频在线观看| 午夜毛片福利| 亚洲AV免费一区二区三区| 国产91蝌蚪窝| 毛片免费在线视频| 久久青青草原亚洲av无码| 在线一级毛片| 免费看久久精品99| 亚洲色欲色欲www网| 国产欧美日韩另类| 91久草视频| 中文无码精品a∨在线观看| 好久久免费视频高清| 亚洲男人的天堂网| 亚洲va在线观看| 国产欧美日韩免费| 精品视频福利| 日韩精品一区二区三区免费| 久久精品这里只有国产中文精品| 小蝌蚪亚洲精品国产| 亚洲精品中文字幕午夜| 午夜国产在线观看| 蝴蝶伊人久久中文娱乐网| 久久9966精品国产免费| 内射人妻无码色AV天堂| 久久伊人色| 成人精品亚洲| 国产va在线观看| 成人在线第一页| 波多野结衣AV无码久久一区| 亚洲天堂视频网站| 日本一本正道综合久久dvd| 国产精品一老牛影视频| 国产流白浆视频| 国产亚洲欧美日韩在线一区二区三区| 亚洲欧美成人影院| 欧美性天天| 永久免费无码日韩视频| 国产成人精品2021欧美日韩| 一区二区三区四区日韩| 中美日韩在线网免费毛片视频| 毛片网站在线播放| 日韩高清在线观看不卡一区二区| 国产精品任我爽爆在线播放6080 | 日本黄色a视频| 国产精品部在线观看| 伊人久久婷婷| 亚洲AV无码久久精品色欲| 四虎永久免费网站| 欧美一级一级做性视频| 国产精品无码一二三视频| 精品一区二区无码av| 亚洲综合在线最大成人| 亚洲av无码久久无遮挡| 黄色成年视频| 国产精品美女免费视频大全| 99热这里都是国产精品| 丁香婷婷综合激情| 99久久亚洲综合精品TS| 国产AV毛片| 老司国产精品视频91| 国产在线观看第二页| 91精品国产综合久久香蕉922| 97狠狠操| 欧美在线伊人| 成年人福利视频| 国产成人一区免费观看| 狼友视频一区二区三区| 欧美高清国产| 国产97公开成人免费视频| 无码乱人伦一区二区亚洲一|