999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)YOLOv5s的復(fù)雜環(huán)境下棉花頂芽識(shí)別

2024-12-31 00:00:00席光澤周建平許燕彭炫崔超

摘要:針對(duì)在復(fù)雜環(huán)境下棉花頂芽識(shí)別率低、檢測(cè)速度慢的問(wèn)題,提出一種改進(jìn)的YOLOv5s目標(biāo)檢測(cè)模型。首先收集在復(fù)雜棉田環(huán)境下棉花頂芽數(shù)據(jù),其次在模型的主干網(wǎng)絡(luò)中加入Hd-ShffleNetv2輕量化網(wǎng)絡(luò)模塊,以減少模型參數(shù)量,并加快模型的檢測(cè)速度。同時(shí)在頸部中加入NLMA與BotNeT注意力機(jī)制模塊,增加對(duì)棉花頂芽的特征提取能力,從而提高模型的識(shí)別精度。最后,采用EIoU損失函數(shù)來(lái)解決在頂芽部分遮擋情況下的識(shí)別問(wèn)題,進(jìn)一步提高識(shí)別成功率。為驗(yàn)證改進(jìn)的目標(biāo)檢測(cè)模型的實(shí)際效果,對(duì)棉花頂芽樣本進(jìn)行測(cè)試。測(cè)試結(jié)果表明,改進(jìn)的YOLOv5s模型的平均檢測(cè)精度達(dá)到91%,較比原始的YOLOv5s模型提升1個(gè)百分點(diǎn),模型的檢測(cè)置信度也有所提升。改進(jìn)的目標(biāo)檢測(cè)模型滿足棉花激光打頂機(jī)在棉田中的檢測(cè)需求,為棉花激光打頂技術(shù)的進(jìn)一步研究提供有力的技術(shù)支撐。

關(guān)鍵詞:棉花頂芽識(shí)別;YOLOv5s;EIoU損失函數(shù);輕量化模型;注意力機(jī)制

中圖分類號(hào):S223.2;TP391.4

文獻(xiàn)標(biāo)識(shí)碼:A

文章編號(hào):2095-5553(2024)12-0275-06收稿日期:2023年4月25日

修回日期:2023年6月2日

*基金項(xiàng)目:新疆維吾爾自治區(qū)自然科學(xué)基金(2022D01C671);新疆農(nóng)機(jī)研發(fā)制造推廣應(yīng)用一體化項(xiàng)目(YTHSD2022—05)

第一作者:席光澤,男,1993年生,黑龍江牡丹江人,碩士研究生;研究方向?yàn)闄C(jī)器視覺。E-mail:1945097519@qq.com

通訊作者:周建平,男,1970年生,烏魯木齊人,博士,教授,博導(dǎo);研究方向?yàn)檗r(nóng)牧機(jī)器人、智慧農(nóng)業(yè)。E-mail:linkzhoujp@sina.com

Cotton top bud recognition in complex environment based on improved YOLOv5s

Xi Guangze, Zhou Jianping, Xu Yan, Peng Xuan, Cui Chao

(College of Mechanical Engineering, Xinjiang University, Urumqi, 800054, China)

Abstract: In order to address the issues of low recognition rates and slow detection speeds for cotton apical buds under complex environmental conditions, an improved YOLOv5s object detection model is proposed. Initially, data of cotton apical buds in complex cotton field environments were collected. Subsequently, a lightweight Hd-ShuffleNetv2 network module was integrated into the backbone of the model to reduce the number of model parameters and accelerate detection speed. Additionally, NLMA and BotNeT attention mechanism modules were incorporated into the neck of the model to enhance feature extraction capabilities for cotton apical buds, thereby improving the model’s recognition accuracy. Finally, the EIoU loss function was employed to tackle recognition challenges in cases where the apical buds were partially occluded, further increasing the success rate of identification. In order to verify the practical effectiveness of the improved object detection model, tests were conducted on cotton apical bud samples. The test results indicated that the mean average precision of the improved YOLOv5s model reached 91%, 1 percentage point increase over the original YOLOv5s model, with an enhanced detection confidence. The improved object detection model meets the detection requirements for cotton laser topping machines in the field, and provides robust technical support for further research in cotton laser topping technology.

Keywords: cotton terminal bud identification; YOLOv5s; EIoU loss function; lightweight model; attention mechanism

0 引言

棉花是我國(guó)重要經(jīng)濟(jì)作物之一,現(xiàn)階段棉花打頂作業(yè)強(qiáng)度大、人工作業(yè)效率低下,機(jī)械打頂對(duì)棉桃破壞較大,易造成減產(chǎn)。因此需要研發(fā)一種棉花打頂機(jī)器人來(lái)代替?zhèn)鹘y(tǒng)的棉花打頂作業(yè)方式,以達(dá)到精確打頂?shù)哪康摹R曈X系統(tǒng)作為棉花打頂機(jī)獲取信息的關(guān)鍵途徑,是實(shí)現(xiàn)棉花打頂機(jī)精準(zhǔn)去除棉花頂芽的重要前提。

隨著智能裝備的不斷發(fā)展,自動(dòng)化棉花打頂技術(shù)正成為未來(lái)的發(fā)展方向。智能棉花打頂機(jī)器人面臨的主要問(wèn)題是在復(fù)雜環(huán)境中如何能夠準(zhǔn)確檢測(cè)棉花頂芽的三維空間坐標(biāo)信息,以確保末端執(zhí)行器能夠精確地控制激光振鏡燒結(jié)棉花頂芽,從而消除頂端優(yōu)勢(shì),提高棉花的產(chǎn)量。因此,選擇合適的計(jì)算機(jī)視覺模型對(duì)于解決這一問(wèn)題至關(guān)重要。目前,計(jì)算機(jī)視覺識(shí)別技術(shù)的發(fā)展主要經(jīng)歷了兩個(gè)階段,在兩階段的檢測(cè)模型中首先生成候選區(qū)域,然后使用卷積神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)目標(biāo)的位置,其優(yōu)點(diǎn)是準(zhǔn)確率高,但是速度慢、訓(xùn)練時(shí)間長(zhǎng)且誤報(bào)率較高,主要代表模型有R-CNN[1、Fast R-CNN[2、Mask R-CNN[3。而在一階段的檢測(cè)模型中主要從輸入的圖像中提取特征,然后預(yù)測(cè)目標(biāo)的分類和位置,其優(yōu)點(diǎn)是檢測(cè)速度快,對(duì)小物體的識(shí)別具有一定效果,其代表的網(wǎng)絡(luò)模型有YOLO[4、SSD[5等。國(guó)內(nèi)學(xué)者將農(nóng)業(yè)機(jī)械裝備與計(jì)算機(jī)視覺算法相結(jié)合,進(jìn)行了深入研究工作。王小榮等6提出了一種基于YOLOv7的改進(jìn)模型,通過(guò)制作復(fù)雜環(huán)境下的紅花樣本數(shù)據(jù),對(duì)Focal Loss損失函數(shù)、Swin Transformer注意力機(jī)制進(jìn)行改進(jìn),提高了模型對(duì)各分類樣本的檢測(cè)精準(zhǔn)率。汪斌斌等[7提出了一種基于改進(jìn)的Faster R-CNN、SSD、YOLOX目標(biāo)檢測(cè)模型,使用遷移學(xué)習(xí)方法對(duì)不同品種以及不同種植密度的玉米雄穗進(jìn)行檢測(cè),實(shí)現(xiàn)了對(duì)玉米雄穗的高精度識(shí)別。王建翠等[8為解決雜草種類多而導(dǎo)致的在田間對(duì)雜草檢測(cè)精度過(guò)低的問(wèn)題,提出了一種將多尺度注意力機(jī)制與深度可分離卷積相結(jié)合的VGG-16雜草檢測(cè)算法。劉海濤等[9提出了一種基于改進(jìn)YOLOv4模型在復(fù)雜環(huán)境下識(shí)別棉花頂芽的方法,但由于模型參數(shù)過(guò)大,需要進(jìn)一步進(jìn)行優(yōu)化。陳柯屹等[10針對(duì)在棉花密集種植情況下難以對(duì)棉花頂芽達(dá)到精確識(shí)別的問(wèn)題,提出了一種改進(jìn)的Faster R-CNN目標(biāo)檢測(cè)算法,其主要以RegNetX-6.4GF為主要模塊,將特征金字塔網(wǎng)絡(luò)(FPN)與導(dǎo)向錨定(GA)機(jī)制相結(jié)合,融合動(dòng)態(tài)區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)Dynamic R-CNN,使錨框能夠動(dòng)態(tài)地自適應(yīng)生成,在訓(xùn)練階段中分析目標(biāo)候選區(qū)域的分布動(dòng)態(tài)變化,提高了圖像的特征采集性能,完成對(duì)目標(biāo)對(duì)象特征的提取任務(wù)。樊湘鵬等[11為解決棉花幼苗雜草類型多、分布復(fù)雜的問(wèn)題,以自然條件下的7種常見棉花苗期的雜草為研究對(duì)象,提出了一種改進(jìn)的Faster R-CNN雜草識(shí)別與定位方法,完成了對(duì)雜草進(jìn)行分類識(shí)別,但該模型的參數(shù)量過(guò)高。鮑文霞等[12針對(duì)在復(fù)雜背景下難以對(duì)麥穗精確識(shí)別的問(wèn)題,在YOLOv5s模型的骨干網(wǎng)絡(luò)中加入了注意力機(jī)制,使模型細(xì)化特征,可以更加關(guān)注到麥穗的信息,提高對(duì)麥穗的檢測(cè)精度。劉姣娣等[13為了解決對(duì)甘蔗芽的識(shí)別與定向播種速度不匹配的問(wèn)題,提出了一種改進(jìn)的YOLOv4-Tiny算法,通過(guò)試驗(yàn)結(jié)果表明,改進(jìn)后的YOLOv4-Tiny模型在檢測(cè)精度上達(dá)到了95.87%。

綜上所述,為了精準(zhǔn)快速地檢測(cè)到復(fù)雜環(huán)境下的棉花頂芽,首先獲取在復(fù)雜環(huán)境下的棉花頂芽數(shù)據(jù)樣本,再以YOLOv5s目標(biāo)檢測(cè)網(wǎng)絡(luò)模型為基礎(chǔ),對(duì)主干模型進(jìn)行改進(jìn),以減少模型的參數(shù)量。為提高對(duì)棉花頂芽的檢測(cè)精度,在頸部網(wǎng)絡(luò)中加入注意力機(jī)制,并結(jié)合損失函數(shù)提升被遮擋的棉花頂芽識(shí)別成功率,增加模型的預(yù)測(cè)框回歸速度,為棉花激光打頂機(jī)器人在復(fù)雜環(huán)境下快速精準(zhǔn)識(shí)別棉花頂芽提供技術(shù)理論基礎(chǔ)。

1 試驗(yàn)數(shù)據(jù)獲取

因外界等因素容易影響模型對(duì)棉花頂芽的特征提取能力,從而導(dǎo)致錯(cuò)檢漏檢,使得目標(biāo)檢測(cè)模型的泛化能力不足。為了增加模型的魯棒性,收集到不同形態(tài)下的棉花頂芽,以確保棉花頂芽樣本的多樣性,增加模型的泛化能力,以新疆生產(chǎn)建設(shè)兵團(tuán)第八師143團(tuán)棉花種植基地的棉花為研究對(duì)象,采集棉花頂芽數(shù)據(jù)集如圖1所示。采集時(shí)間為每天8:00—10:00、16:00—18:00之間,最后獲取到棉花頂芽樣本共約506張,其中樣本包含了順光、逆光、側(cè)光,晴天、陰天、雨天等不同形態(tài)條件的棉花頂芽樣本數(shù)據(jù),最后經(jīng)過(guò)數(shù)據(jù)增強(qiáng)技術(shù)擴(kuò)充到3 103張。從樣本數(shù)據(jù)中隨機(jī)選取2 663張作為訓(xùn)練集,440張作為驗(yàn)證集用于模型的訓(xùn)練。

2 改進(jìn)模型

2.1 改進(jìn)YOLOv5s模型

YOLOv5模型相比YOLOv4[14參數(shù)量有所降低,其主要由輸入部分、主干部分、頸部部分、輸出部分組成。輸入部分在YOLOv4基礎(chǔ)上添加新的改進(jìn)方法,相比較YOLOv4模型的卷積層的參數(shù)量有所減少,在降低計(jì)算量的同時(shí)增加了感受野。主干網(wǎng)絡(luò)以三個(gè)解耦頭進(jìn)行預(yù)測(cè),使YOLOv5模型的特征提取能力加強(qiáng),檢測(cè)速度、精度有所提升。為了提升模型的檢測(cè)效率,使用Hd-ShuffleNetv2來(lái)代替主干網(wǎng)絡(luò)中的C3模塊,使模型的參數(shù)量進(jìn)一步減少。同時(shí)在頸部部分中加入NLMA注意力機(jī)制來(lái)代替C3網(wǎng)絡(luò)模塊,NLMA注意力機(jī)制較比C3模塊增加了感興趣的頂芽區(qū)域,能夠抑制不相關(guān)的棉花頂芽背景區(qū)域,可以篩選出目標(biāo)特征圖。同時(shí)將C3模塊替換為BotNet注意力機(jī)制網(wǎng)絡(luò),更加重點(diǎn)關(guān)注棉花頂芽的特征,進(jìn)一步提升了模型的檢測(cè)精度,改進(jìn)模型如圖2所示。

2.2 Hd-ShuffleNetv2模塊

ShuffleNetv2[15輕量化模塊能夠有效減少模型參數(shù)量過(guò)大的問(wèn)題,其具有通道洗牌功能,對(duì)不同通道特征信息進(jìn)行隨機(jī)分配,實(shí)現(xiàn)不同組的信息交換(圖3)。但模塊中的ReLu激活函數(shù)要求輸入的特征信息必須大于0,當(dāng)特征值小于0時(shí)會(huì)導(dǎo)致卷積計(jì)算停滯造成梯度消失,導(dǎo)致對(duì)棉頂芽特定區(qū)域的檢測(cè)精度下降,因此需要將激活函數(shù)進(jìn)行改進(jìn)。而Hard-swish激活函數(shù)具有非單調(diào)函數(shù)的特點(diǎn),當(dāng)輸入特征數(shù)值小于-3時(shí),能夠緩解模型在計(jì)算過(guò)程中梯度消失所帶來(lái)的問(wèn)題,避免ReLu激活函數(shù)所帶來(lái)的缺點(diǎn),使模型參數(shù)量減少的同時(shí)進(jìn)一步增加檢測(cè)精度。

2.3 注意力機(jī)制模塊

NLMA模塊是由C3模塊與SE注意力機(jī)制[16組合而成。NLMA注意力機(jī)制網(wǎng)絡(luò)首先對(duì)輸入的棉頂芽特征圖進(jìn)行殘差卷積壓縮,平均匯集成特征向量[1,1,c],并通過(guò)FC全連接層,將特征圖向量的通道維度下降為原來(lái)的1/r。再利用Swish激活函數(shù)進(jìn)行激活,抑制對(duì)當(dāng)前無(wú)意義的特征通道,最后輸出加權(quán)后的特征圖,見圖4。全連接層將特征向量映射到樣本的標(biāo)記空間,轉(zhuǎn)化為0~1之間的歸一化權(quán)重向量,并將歸一化的權(quán)重向量和輸入的棉花頂芽特征圖通道相乘,獲取到每個(gè)通道特征圖的重要程度,賦予其一個(gè)重要的權(quán)重值,從而讓檢測(cè)模型重點(diǎn)關(guān)注到目標(biāo)對(duì)象的特征通道,增加對(duì)當(dāng)前對(duì)象特征提取的成功率。BoTNet[17模塊是一種瓶頸結(jié)構(gòu),與ResNet[18卷積神經(jīng)網(wǎng)絡(luò)相比,后者更傾向于將多種自我注意力機(jī)制,納入目標(biāo)檢測(cè)模型的卷積計(jì)算的過(guò)程中。ResNet50網(wǎng)絡(luò)中的瓶頸3×3卷積被多頭自注意力(MHSA)結(jié)構(gòu)所取代,引入MHSA結(jié)構(gòu)的ResNet庫(kù)是一個(gè)瓶頸轉(zhuǎn)換(BoT),多頭自注意力層包括相對(duì)位置編碼和多頭自注意力模型,使用相對(duì)位置編碼和多頭自注意力使網(wǎng)絡(luò)模型可以學(xué)習(xí)更多的特征和圖片細(xì)節(jié),從而達(dá)到提高網(wǎng)絡(luò)性能,BotNet注意力機(jī)制模塊見圖5。

2.4 改進(jìn)損失函數(shù)

CIoU[19損失函數(shù)在DIoU損失函數(shù)的基礎(chǔ)上繼續(xù)優(yōu)化,后者僅局限于評(píng)估邊界框中心點(diǎn)間隔和相交部分面積,忽略了預(yù)測(cè)框與目標(biāo)框中心點(diǎn)完全對(duì)齊的情況,使得DIoU損失函數(shù)退化成IoU損失函數(shù),無(wú)法繼續(xù)進(jìn)行迭代。在預(yù)測(cè)框與真實(shí)框?qū)捀弑纫粯忧闆r下,會(huì)造成真實(shí)框與預(yù)測(cè)框質(zhì)心相同,使得CIoU退化成IoU損失函數(shù),因此使用EIoU[20損失函數(shù)進(jìn)行代替。EIoU損失函數(shù)可以在復(fù)雜環(huán)境下增加對(duì)被遮擋的棉花頂芽檢測(cè)成功率,使模型的魯棒性得到加強(qiáng),函數(shù)的具體計(jì)算如式(1)~式(4)所示。

式中:ρ——預(yù)測(cè)框與真實(shí)框?qū)挾戎g的距離;

c2——預(yù)測(cè)框與真實(shí)框的最小矩形邊界;

α——權(quán)重系數(shù);

υ

——長(zhǎng)寬相似比衡量參數(shù);

b——預(yù)測(cè)邊界框的中心點(diǎn);

w、h——預(yù)測(cè)邊界框的寬、高;

bgt——真實(shí)邊界框的中心點(diǎn);

wgt、hgt——真實(shí)邊界框的寬、高。

3 試驗(yàn)分析

3.1 Jetson orin NX試驗(yàn)平臺(tái)

試驗(yàn)硬件為Jetson orin NX開發(fā)板,軟件運(yùn)行框架為pytorch,Ubuntu 20.04的操作系統(tǒng),python-3.7編程語(yǔ)言,8 core NVIDIA Arm Cortex A78AE的處理器,GPU顯卡型號(hào)為1024 core NVIDIA Ampere,調(diào)用CUDA所需要的環(huán)境進(jìn)行配置,展開對(duì)棉花頂芽數(shù)據(jù)集進(jìn)行分類訓(xùn)練跟測(cè)試,并對(duì)試驗(yàn)結(jié)果進(jìn)行分析。

3.2 模型評(píng)價(jià)指標(biāo)

為評(píng)估出模型對(duì)棉花頂芽檢測(cè)的準(zhǔn)確性,選取平均檢測(cè)精度mAP為評(píng)價(jià)指標(biāo),計(jì)算如式(7)~式(9)所示。

式中:P——準(zhǔn)確率;

R——召回率;

TP——正樣本預(yù)測(cè)出來(lái)正確的框;

FP——負(fù)樣本預(yù)測(cè)出正樣本的框;

FN——從正樣本預(yù)測(cè)出負(fù)樣本的數(shù)量;

AP——平均準(zhǔn)確率;

N——棉花頂芽數(shù)據(jù)集的數(shù)量。

3.3 不同模型試驗(yàn)對(duì)比

為驗(yàn)證改進(jìn)的YOLOv5s模型對(duì)棉花頂芽的檢測(cè)效果,分別利用YOLOv3、YOLOv5s、YOLOv6[21、YOLOv7-tiny[22四種網(wǎng)絡(luò)模型對(duì)棉花頂芽樣本進(jìn)行驗(yàn)證,試驗(yàn)結(jié)果如表1所示。

可以發(fā)現(xiàn)在相同迭代次數(shù)內(nèi),改進(jìn)YOLOv5s模型在棉花數(shù)據(jù)集上的平均檢測(cè)精度比YOLOv3、YOLOv5s、YOLOv6s、YOLOv7-tiny四個(gè)不同的模型分別高出1、1、1、8個(gè)百分點(diǎn),模型參數(shù)分別減少58 M、4 M、34 M、3 M,同時(shí)模型對(duì)棉花頂芽的檢測(cè)速度也得到了一定提升,結(jié)果表明改進(jìn)YOLOv5s模型可以滿足在棉花激光打頂機(jī)上的檢測(cè)要求。

3.4 改進(jìn)前后模型試驗(yàn)對(duì)比

為更加直觀地分析YOLOv5s模型的改進(jìn)效果,將改進(jìn)前后的模型進(jìn)行對(duì)比。從圖6可以看出,改進(jìn)前YOLOv5s模型對(duì)比改進(jìn)后YOLOv5s模型在迭代135個(gè)周期后上升趨勢(shì)相同。從圖7可以看出,改進(jìn)后YOLOv5s模型在迭代125輪次后平均檢測(cè)精度上升了1%,說(shuō)明改進(jìn)后的檢測(cè)模型具有一定效果。

3.5 不同輕量化模型對(duì)比

為驗(yàn)證不同輕量化模型的效果,首先,在主干網(wǎng)絡(luò)中分別加入ShuffleNetv2、MobileNetv3、GhostNet三種輕量化模塊,同時(shí)在模型的頸部中插入NLMA模塊與BotNet注意力機(jī)制,分別測(cè)試ShuffleNetv2、MobileNetv3[23、GhostNet[24三種輕量化模塊的效果,最后,與改進(jìn)前的YOLOv5s模型進(jìn)行對(duì)比試驗(yàn),如表2所示。結(jié)果表明,Hd-ShuffleNetv2模塊較比其他模塊檢測(cè)棉花頂芽速度、成功率均有所提高,能夠滿足基本試驗(yàn)指標(biāo)。

3.6 棉田試驗(yàn)效果對(duì)比

為測(cè)試改進(jìn)前后的YOLOv5s模型實(shí)地檢測(cè)效果,將改進(jìn)前后YOLOv5s模型部署到Jetson orin NX開發(fā)板中,分別對(duì)不同背景條件下的棉花頂芽進(jìn)行檢測(cè),如圖8、圖9所示。試驗(yàn)結(jié)果表明,改進(jìn)前的YOLOv5s模型對(duì)不同遮擋條件下的棉花頂芽檢測(cè)置信度分別為0%、72%、86%、81%,而改進(jìn)后的YOLOv5s模型對(duì)不同遮擋條件下的棉花頂芽檢測(cè)置信度分別為33%、77%、87%、88%,可以看出經(jīng)過(guò)改進(jìn)后的模型較比改進(jìn)前的模型檢測(cè)效果有所提升,而且目標(biāo)檢測(cè)模型魯棒性能也得到了進(jìn)一步加強(qiáng),改進(jìn)的模型基本滿足試驗(yàn)指標(biāo)。

4 結(jié)論

1)針對(duì)棉田環(huán)境對(duì)頂芽檢測(cè)的需要,通過(guò)對(duì)YOLOv5模型的主干網(wǎng)絡(luò)進(jìn)行改進(jìn),構(gòu)建改進(jìn)的YOLOv5的棉花頂芽檢測(cè)模型。在模型中加入Hd-ShuffleNetv2輕量化模塊,以及NLAM與BotNet注意力機(jī)制,建立在復(fù)雜環(huán)境下對(duì)棉花頂芽的識(shí)別模型。

2)通過(guò)分析不同模型的識(shí)別精度與檢測(cè)速度,得出最終改進(jìn)的YOLOv5s模型的平均檢測(cè)精度為91%,在相同迭代次數(shù)內(nèi),相比YOLOv3、YOLOv5s、YOLOv6s、YOLOv7-tiny四個(gè)不同的模型分別高出1、1、1、8個(gè)百分點(diǎn),模型的參數(shù)量分別減少了58 M、4 M、34 M、3 M。通過(guò)對(duì)不同背景情況下的棉花頂芽進(jìn)行檢測(cè)驗(yàn)證,置信度分別達(dá)到33%、77%、87%、88%,相比改進(jìn)前的YOLOv5s模型有所提升,模型的魯棒性得到加強(qiáng),基本滿足棉田試驗(yàn)標(biāo)準(zhǔn)。

為提高在非結(jié)構(gòu)環(huán)境下對(duì)不同生長(zhǎng)形態(tài)的棉花頂芽進(jìn)行識(shí)別檢測(cè),后續(xù)將考慮增加棉花頂芽數(shù)據(jù)集樣本的多樣性以適應(yīng)在不同環(huán)境下對(duì)棉花頂芽達(dá)到精準(zhǔn)識(shí)別,同時(shí)進(jìn)一步提高模型的泛化能力。

參 考 文 獻(xiàn)

[1] Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]. IEEE Conference on Computer Vision and Pattern Recognition, 2014: 2-6.

[2] Ren S, He K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 39(6): 1137-1149.

[3] He K, Gkioxari G, Dollár P, et al. Mask R-CNN [C]. Proceedings of the IEEE International Conference on Computer Vision, 2017: 2961-2969.

[4] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 779-788.

[5] Liu W, Dragomir A, Dumitru E, et al. SSD: Single shot multibox detector [C]. Computer Vision-ECCV 2016: 14th European Conference, 2016: 21-37.

[6] 王小榮, 許燕, 周建平, 等. 基于改進(jìn)YOLOv7的復(fù)雜環(huán)境下紅花采摘識(shí)別[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2023, 39(6): 169-176.

Wang Xiaorong, Xu Yan, Zhou Jianping, et al. Safflower picking recognition in complex environments based on an improved YOLOv7 [J]. Transactions of the Chinese Society of Agricultural Engineering, 2023, 39(6): 169-176.

[7] 汪斌斌, 楊貴軍, 楊浩, 等. 基于YOLO_X和遷移學(xué)習(xí)的無(wú)人機(jī)影像玉米雄穗檢測(cè)[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2022, 38(15): 53-62.

Wang Binbin, Yang Guijun, Yang Hao, et al. UAV images for detecting maize tassel based on YOLO_X and transfer learning [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(15): 53-62.

[8] 王建翠, 惠巧娟, 吳立國(guó), 等 基于多尺度注意力和深度可分離卷積的農(nóng)田雜草檢測(cè)[J]. 中國(guó)農(nóng)機(jī)化報(bào), 2023, 44(5): 182-187.

Wang Jiancui, Hui Qiaojuan, Wu Liguo, et al. Field weeds detection based on multi-scale attention and depth separable convolution [J]. Journal of Chinese Agricultural Mechanization, 2023, 44(5): 182-187.

[9] 劉海濤, 韓鑫, 蘭玉彬, 等. 基于YOLOv4網(wǎng)絡(luò)的棉花頂芽精準(zhǔn)識(shí)別方法[J]. 中國(guó)農(nóng)業(yè)科技導(dǎo)報(bào), 2022, 24(8): 99-108.

Liu Haitao, Han Xin, Lan Yubin, et al. Precise recognition method of cotton top buds based on YOLOv4 network [J]. Journal of Agricultural Science and Technology, 2022, 24(8): 99-108.

[10] 陳柯屹, 朱龍付, 宋鵬, 等. 融合動(dòng)態(tài)機(jī)制的改進(jìn)型Faster R-CNN識(shí)別田間棉花頂芽[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2021, 37(16): 161-168.

Chen Keyi, Zhu Longfu, Song Peng, et al. Recognition of cotton terminal bud in field using improved Faster R-CNN by integrating dynamic mechanism [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(16): 161-168.

[11] 樊湘鵬, 周建平, 許燕, 等. 基于優(yōu)化Faster R-CNN的棉花苗期雜草識(shí)別與定位[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2021, 52(5): 26-34.

Fan Xiangpeng, Zhou Jianping, Xu Yan,et al. Identification and localization of weeds based on optimized Faster R-CNN in cotton seedling stage [J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(5): 26-34.

[12] 鮑文霞, 謝文杰, 胡根生, 等. 基于TPH-YOLO的無(wú)人機(jī)圖像麥穗計(jì)數(shù)方法[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2023, 39(1): 155-161.

Bao Wenxia, Xie Wenjie, Hu Gensheng, et al. Wheat ear counting method in UAV images based on TPH-YOLO [J]. Transactions of the Chinese Society of Agricultural Engineering, 2023, 39(1): 155-161.

[13] 劉姣娣, 何捷, 許洪振, 等. 基于改進(jìn)YOLOv4-Tiny的蔗芽識(shí)別方法[J]. 中國(guó)農(nóng)機(jī)化學(xué)報(bào), 2023, 44(11):169-175.

Liu Jiaodi, He Jie, Xu Hongzhen, et al. Identification’ method of cane sprout based on improved YOLOv4-Tiny [J]. Journal of Chinese Agricultural Mechanization, 2023, 44(11): 169-175.

[14] Bochkovskiy A, Wang C Y, Liao H Y M. YOLOv4: Optimal speed and accuracy of object detection [J]. arXiv preprint arXiv: 2004.10934, 2020.

[15] Ma N, Zhang X, Zheng H T, et al. Shufflenet v2: Practical guidelines for efficient CNN architecture design [C]. Proceedings of the European Conference on Computer Vision (ECCV), 2018: 116-131.

[16] Hu J, Shen L, Sun G. Squeeze-and-excitation networks [C].Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 7132-7141.

[17] Srinivas A, Lin T Y, Parmar N, et al. Bottleneck transformers for visual recognition [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021: 16519-16529.

[18] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770-778.

[19] Zheng Z, Wang P, Liu W, et al. Distance-IoU loss: Faster and better learning for bounding box regression [C]. Proceedings of the AAAI Conference on Artificial Intelligence, 2020, 34(7): 12993-13000.

[20] Zhang Y F, Ren W, Zhang Z, et al. Focal and efficient IoU loss for accurate bounding box regression [J]. Neurocomputing, 2022, 506: 146-157.

[21] Li C, Li L, Jiang H, et al. YOLOv6: A single-stage object detection framework for industrial applications [J].arXiv preprint arXiv: 2209.02976, 2022.

[22] Wang C Y, Bochkovskiy A, Liao H Y M. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2023: 7464-7475.

[23] Howard A, Sandler M, Chu G, et al. Searching for MobileNetV3 [C]. Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019: 1314-1324.

[24] Han K, Wang Y, Tian Q, et al. GhostNet: More features from cheap operations [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 1580-1589.

主站蜘蛛池模板: 亚洲欧美日本国产综合在线| 精品久久久无码专区中文字幕| 亚洲成年人网| 国产精品女熟高潮视频| 蜜臀AVWWW国产天堂| 波多野结衣视频网站| 99在线小视频| 沈阳少妇高潮在线| 亚洲欧美成人在线视频| 久久精品91麻豆| 国产成人综合日韩精品无码首页| 怡春院欧美一区二区三区免费| 欧美色图第一页| 精品福利国产| 中文字幕人妻无码系列第三区| 欧美日韩激情| 久久久久久久久久国产精品| 欧美啪啪精品| 国产大片喷水在线在线视频| 日韩AV手机在线观看蜜芽| AV熟女乱| 伊人无码视屏| 亚洲成A人V欧美综合天堂| 国产精品深爱在线| 日本黄色a视频| 亚洲男人的天堂网| 九九免费观看全部免费视频| 亚洲天堂.com| 国产18页| 亚洲激情区| 国产免费人成视频网| 国产精品久久自在自线观看| 国产成人免费观看在线视频| 无码中文AⅤ在线观看| 中文字幕 91| 亚洲性视频网站| 99久久亚洲综合精品TS| 亚洲天堂首页| 99久久精品免费看国产免费软件| 成人午夜视频免费看欧美| A级全黄试看30分钟小视频| 青青草原国产免费av观看| 欧美在线视频a| 欧美精品成人一区二区在线观看| 97国产精品视频自在拍| 视频在线观看一区二区| 亚洲精品无码av中文字幕| 二级毛片免费观看全程| 欧美日韩国产在线人| 国产精欧美一区二区三区| AV在线麻免费观看网站| 国产一级二级在线观看| 欧洲av毛片| 久久人体视频| 欧美中文字幕在线播放| 欧洲欧美人成免费全部视频| 波多野结衣久久高清免费| h视频在线播放| 国产成人高清精品免费| 99性视频| 日本一区高清| 午夜不卡视频| 久久精品人妻中文视频| 中文字幕免费在线视频| 婷婷综合色| 亚洲日本一本dvd高清| 亚洲精品视频网| 国产在线无码一区二区三区| 久久综合色播五月男人的天堂| 黑人巨大精品欧美一区二区区| 美女内射视频WWW网站午夜| 午夜国产小视频| 久久久久国产精品免费免费不卡| 国产原创演绎剧情有字幕的| 国产成人免费| 91视频区| 国产精品综合久久久| 国产真实自在自线免费精品| 国产99免费视频| 国内视频精品| www.91在线播放| 亚洲成人网在线观看|