999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合多尺度特征和多重注意力的棉田雜草檢測研究

2025-09-25 00:00:00帖軍龍呂佳鄭祿劉嬌巴桑頓珠
中國農機化學報 2025年10期

中圖分類號:S562;TP391.4 文獻標識碼:A 文章編號:2095-5553(2025)10-0138-08

Abstract:Toaddressthe limitations existingcotton field weed detectionmethods,which haveten been criticized for recognizing alimitednumber weed categories exhibiting lowaccuracy,anovelcotton field weed detectionapproach was developed by integrating multi-scale features with multiple atention mechanisms.This method enhanced the feature extractioncapabilitiesthe model byincorporating aneficient multiscaleatention moduleinto the backbonenetwork, without increasing the number parameters or computational cost.Additionally,a progresive feature pyramid was introduced inthe head network turtherenhance featurefusion.Finall,animproved boxregression lossfunction was employedto boost convergence speed positioning accuracy themodel.Experimental results obtained from the CottonWeedDetl2 dataset indicated that the proposed method achieved an average detection accuracy (mAP) 94.6% (20 an F1 score O.754.Compared to the original model,the new method improved mAP by 2.62% ,recall rate by (204 3.16% , achieved a detection time 65.359ms ,thereby meeting the requirements for real-time monitoring. This approach efectively addressed the challenge accurately detecting weeds incotton fields under natural conditions provides a valuable reference for advancing intelligent weeding technologies in agricultural settings.

KeyWords:cotton field;weed detection;YOLOv8 algorithm;attention mechanism;feature pyramid networks

0 引言

棉花在全球紡織原料中占據核心地位,對農業具有顯著影響。目前主要的棉花產地包括中國、印度、美國、巴基斯坦、巴西和烏茲別克斯坦。盡管現代種植技術,如轉基因棉花和高效灌溉方法,已經提高了棉花產量和抗蟲性,但雜草對棉花種植仍存在著一定威脅。這些雜草不僅與棉花爭奪土壤養分、水分和光照資源,而且可能成為病害的宿主,進一步導致棉花產量和品質的降低。目前,化學除草劑是常用的雜草控制手段,但過度使用可能導致土壤和水質污染、雜草抗藥性增強以及公共健康風險,從而影響農業的可持續性。

機器視覺技術對于實現精準除草至關重要,其依賴成像傳感器與先進的計算機算法,可以準確區分農作物與雜草,并進行針對性控制。例如Santos等1研究了基于深度表征和圖像聚類的聯合無監督學習算法和基于深度聚類的深度特征無監督學習算法,在2個公共數據集上有效區分禾本科草與闊葉草。Kounalakis等2利用密集特征提取和高斯混合模型對雜草圖像進行優化識別,結果顯示,分辨率為200像素 ×150 像素的圖像具有最佳的雜草識別效果。苗榮慧等[3提出了一種利用超綠模型和多種圖像特征結合的方法,顯著提高重疊葉片圖像中的雜草識別準確率。

近年來,隨著深度學習技術在農業應用的逐漸興起,越來越多的專家和學者致力于雜草檢測與分類的研究。Ahmad等4對3種不同的圖像分類模型進行了評估,采用YOLOv3算法對美國中西部的4種主要雜草進行檢測,平均精度為 54.3% 。姚思雨等5采用基于卷積神經網絡的策略來檢測棉花植株和雜草,將數據分為\"cotton\"和“grass\"兩個類別,并成功實現高達 99.95% 的檢測準確率;李開敬等[6對ResNet—1O1特征提取網絡的參數進行優化,并利用數據增強技術訓練出能夠識別棉花幼苗與多種雜草共生狀態的FasterR—CNN[8]模型,平均識別率達到 92.01% ;彭明霞等[9提出了一種結合FPN的FasterR一CNN優化策略,以適應復雜背景下的棉田雜草識別任務,并成功實現 95.5% 的目標識別準確率;Dang等[10在CottonWeedDetl2數據集上,與YOLOv3、YOLOv4、YOLOR[1和 YOLOv7[12]等7個版本共計25個不同規格的YOLO模型進行對比試驗,不同模型在不同的性能結果上都各有優異,綜合來看,YOLOv3和YOLOv4的表現更勝一籌。以上研究證明將深度學習應用于棉田雜草檢測的可行性和有效性,然而現有研究大多局限于將目標分類為“作物”與“雜草\"這2種類別的識別與檢測。由于識別雜草種類少,現有方法在真實環境下的雜草識別精度較低,因此需要進一步識別更多種類的雜草,滿足實際場景應用需要檢測和識別精確度更高的要求。

為滿足在真實棉田場景下的雜草檢測的需求,本文通過融合改進的多尺度特征融合模塊與多重注意力特征提取模塊,再通過優化損失函數,提出一種融合多尺度特征和多重注意力的棉田雜草檢測方法。該方法首先通過在骨干網絡引人高效多尺度注意力模塊提升模型的特征提取能力;其次在頭部網絡添加漸進特征金字塔增強特征融合效果;最后通過改進框回歸損失函數提升模型的收斂速度和定位精度,從而提高檢測的精確度,確保自然環境下棉田雜草的高效準確識別。

1棉田雜草檢測模型

1.1 YOLOv8目標檢測算法

YOLOv8在原有YOLO系列的基礎上,對骨干網絡、檢測頭以及損失函數等方面進行改進。與其他版本 (s/l/m/x) 相比,YOLOv8n是YOLOv8系列參數量最小但運行速度最快的模型。為使改進的棉田雜草檢測模型更好地在邊緣設備上實現部署運行,選擇YOLOv8n實施改進。該模型由輸人層、骨干網絡、頸部網絡和損失函數組成。YOLOv8n的輸入層引入自適應錨定、自適應圖像縮放和馬賽克數據增強技術。骨干網絡的改進包括將第一個卷積層由 6×6 卷積改為 3×3 卷積,并引入C2f模塊以獲得更豐富的梯度流信息。YOLOv8模塊仍然使用SPPF模塊,通過串行SPP結構處理輸入以避免圖像失真,提高候選框生成速度。頸部網絡采用PAN—FPN[13]結構實現多尺度信息融合,去除PAN一FPN上采樣階段的卷積結構。頭部結構則做出重大修改,采用解耦頭部結構實現分類和定位任務的分離,并使用不同的分支進行計算,有助于提高檢測性能。此外,YOLOv8n已從錨框轉移到無錨,避免復雜的錨框計算和相關超參數設置,從而顯著提升性能。

1.2融合多尺度特征和多重注意力的棉田雜草檢測模型

改進后模型主要有3個模塊:(1)注意力模塊,基于高效多尺度注意力[14](EfficientMulti-ScaleAttentionModule)對C2f改進,保留每個通道的信息,在減少算法復雜性的同時提高特征提取能力;(2)在頭部網絡部分引人漸進特征金字塔網絡AFPN[15加強特征融合;(3)將YOLOv8原本的DFLLoss + CIoU[16]替換為FocalEIoU[17]損失函數,改善模型對難樣本的適應能力,提高模型對于未見過場景的適應能力和算法精度,增強模型的魯棒性。改進網絡結構如圖1所示。

1.2.1基于高效多尺度注意力的C2f模塊

在棉田雜草檢測任務中,如馬齒莧草和鍬甲蟲草特征相近,二者葉片都近似橢圓,一般通過植株根莖和葉片紋理特征判別差異,棉田雜草檢測模型對于提升特征相近植株的關鍵特征提取能力至關重要。在自然環境下,作物幼苗與雜草、雜草與雜草之間的相似度極高,且植株之間存在嚴重重疊、遮擋,導致目標特征信息丟失,影響對目標特征的提取,這為棉田雜草的精準檢測帶來了極大困難。因此,針對檢測目標相似度高,植株之間重疊、遮擋問題,對骨干網絡中的第一層和第二層的C2f模塊基于高效多尺度注意力(EMA)進行改進,能夠提取目標植株更多特征的同時減少計算的復雜性。EMA是一種先進的特征提取模塊,其核心思想是在每個通道上都保留盡可能多的信息,同時減少計算的復雜性。相較于傳統的特征提取方法,基于EMA改進的C2f模塊更加注重各個通道的信息,而非局限于某幾個關鍵通道。在考慮到特征分組和多尺度結構的情況下,該模塊有效構建短期和長期依賴關系,從而實現更卓越的性能。基于高效多尺度注意力改進的C2f模塊結構如圖2所示。

圖2C2f_EMA模型結構Fig.2 C2f_EMA model structure

原模型中的C2f模塊是一個橋接骨干網絡和檢測頭的過渡,確保信息流的連續性。但在傳統的C2f模塊中,一些細粒度[18的特征和全局上下文信息可能會被忽略或損失。EMA采用并行子結構來捕捉不同尺度上的特征,參考CA注意力模塊19,選擇 1×1 分支聚合多尺度空間結構信息,幫助模型更好地區分棉株幼苗與雜草,識別不同種類雜草。其局部感受野的設計利用3個并行通道提取分組特征圖和注意力權重描述符,進一步捕獲多尺度特征表示。

在維度處理方面,EMA重新整理并排列 G 組到批量維度中,重新定義為 C//G×H×W,C,H,W 分別表示通道數、高度和寬度。EMA通過對編碼特征進行通道連接,使用非線性Sigmoid20]函數擬合線性卷積上的二維二項分布,同時在 3×3 分支中補充局部跨通道交互,以保留空間結構信息,有助于提取更加豐富和準確的特征,進而提高模型對作物與雜草、雜草與雜草重疊和遮擋的檢測能力。通過引入2個張量,EMA通過2D全局平均池化編碼全局信息,2D全局池化操作如式(1)所示。

式中: xc —第 c 個通道的輸人特征。

通過高效計算的2D高斯圖的非線性函數Stmax[21]生成空間注意力。

在C2f模塊中,EMA的引入著重將空間位置信息嵌入通道注意力圖,提升特征聚合效果。基于EMA改進的C2f模塊在棉田雜草檢測過程中充分考慮每個特征空間和通道的重要性,有助于模型更好地區分重疊和遮擋的情況,從而提高棉田雜草檢測的準確性。EMA通過跨維度交互機制進一步增強特征的語義表達能力,通過處理短程和長程的依賴性,提高特征的表達能力。基于高效多尺度注意力的C2f模塊改進,有效解決棉田雜草檢測中棉株幼苗與雜草之間相似度高、植株重疊和遮擋等問題,提高檢測的準確性和魯棒性。

1.2.2加入漸進特征金字塔的特征融合模塊

前文對骨干網絡中的C2f基于EMA注意力進行改進,提升骨干網絡對于多尺度特征的提取能力。在棉田雜草檢測任務中,對具有尺度變化的雜草進行編碼時,如果采用自上而下和自下而上的特征金字塔網絡進行特征融合,會導致特征信息的丟失和退化。為將從改進后的骨干網絡中提取的雜草多尺度特征信息更好地進行特征融合,在原始YOLOv8的頭部網絡中,添加漸進特征金字塔網絡(AFPN)。通過融合2個相鄰的低級特征并漸進地將更高級別的特征合并融合,可以避免非相鄰級別之間出現較大的語義差距,防止棉株與雜草的特征信息在傳輸和交互過程中丟失或退化。這樣可以幫助模型更好地捕捉棉田中棉株幼苗和雜草間的差異,提高檢測的準確性。在考慮每個空間位置的特征融合時,可能會出現多個目標信息的沖突情況。為減輕這種不一致性,并提高棉田場景下雜草目標檢測的精度,進一步采用自適應空間融合操作。構建的AFPN模塊結構如圖3所示。

圖3AFPN的模型結構Fig.3 AFPN model structure

參考Faster R-CNN[20] 的經典設計,在骨干網絡的每個特征層中提取最后的多尺度特征,獲得不同尺度的特征集合 {C2 , C3 , C4 ,C5}。在執行特征融合前,首先將 c2 和 c3 的底層特征輸入到特征金字塔網絡中,接著加入 C4 ,最后融合 C5 。此過程生成一系列多尺度特征 {P2 P3 , P4 , P5/ 。對于在YOLOv8框架上進行的試驗,首先對 P5 執行步長為2的卷積,再應用步長為1的卷積以產生 P6 ,確保輸出的一致性。這樣,最終得到的多尺度特征集合為 {P2,P3,P4,P5,P6} ,其對應的步長為{4,8,16,32,64}。

AFPN利用ASFF在多級特征融合過程中為不同級別的特征分配不同的空間權重,增強關鍵級別的重要性并減輕來自植株重疊的矛盾信息的影響。如圖3所示,AFPN融合3個級別的特征,令 xijn…l 表示從第 n 級到第 ? 級的位置 (i,j) 處的特征向量。通過多級特征的自適應空間融合獲得的特征向量表示為yijl ,并由特征向量 xij1…l,xij2…l 和 xij3l 的線性組合定義,如式(2)所示。

式中: αijl 1 α 層的特征在第 l 層的空間權重;(204號 βijl 1 ?β 層的特征在第 l 層的空間權重;γijl-γ 層的特征在第 ? 層的空間權重。

約束條件為 αijlijlijl=1 。在AFPN每個階段的融合特征數量中,實現階段特定數量的自適應空間融合模塊。

與傳統的特征金字塔方法相比,AFPN能夠更有效地整合不同尺度的雜草特征,增強檢測棉株幼苗和雜草的關鍵特征提取能力。這種改進強調模型對這些關鍵級別的重要性,使模型更加專注于這些重要特征,提高模型對關鍵信息的捕獲能力。此外,AFPN的結構設計考慮特征的層級性和尺度的漸進性,使得深層特征與淺層特征能夠在一個統一的框架下進行融合。這種融合方式不僅加強特征的語義信息,有效地解決多級特征融合中的信息矛盾問題,還提高對重疊和遮擋植物的檢測能力,增加模型在棉田場景下小目標雜草的敏感性。

1.2.3 FocalEIoU損失函數

原始的YOLOv8模型使用DFLLoss + CIoULoss作為其主要的回歸損失。然而,CIoU在描述縱橫比的相對值方面存在一定模糊性,并且不能有效地處理不平衡的樣本問題。這使得模型在面對如植株附近的雜草幼苗等具有復雜背景和小目標的場景時,無法達到最優的檢測性能。為進一步提升雜草檢測模型的目標定位性能,采用FocalEIoULoss1替代原有的損失函數。相比于CIoULoss,FocalEIoULoss能夠更準確地描述框回歸(BBR)的目標,提高模型對于小目標和復雜背景下的定位能力。在雜草檢測任務中,不同植株之間的數量和尺度差異可能導致樣本不平衡。FocalEIoULoss能夠更加關注難以分類的樣本和對優化貢獻較大的Anchorboxes,從而提高模型在訓練過程中對重要樣本的關注度,改善模型性能。此外,FocalEIoULoss通過更準確的框回歸和處理不平衡樣本,使模型在訓練過程中更加專注于關鍵樣本,避免冗余計算,加速模型的收斂速度,提高訓練效率。 LEIoU 的定義如式(3)所示。

式中: wc ———最小框的寬;hc 一 一最小框的長;(204號 b,bgt 1 預測框和標簽框; 標簽框的寬和高;w,h 預測框的寬和高;LIoU. -IoU損失;Ldis 距離損失;Lasp 縱橫比損失。

綜上,通過將原始模型的損失函數替換為FocalEIoULoss,有助于提升模型在復雜場景下的目標定位精度。特別是在面對不同雜草類別之間相似度高、重疊性高的情況時,FocalEIoULoss能夠更好地區分自標,從而減少誤檢率,提高模型檢測的精確性和可靠性。FocalEIoULoss為模型提供一個更為可靠的優化策略。試驗表明,這一損失函數的替換在加速模型收斂速度和提高目標定位精度方面具有優勢。

2棉田雜草檢測試驗

2.1雜草圖像數據集

采用公共棉田雜草數據集CottonWeedDetl2[1]進行模型訓練與評估,驗證所提出棉田雜草檢測方法的有效性。該數據集在密西西比州立大學研究農場的棉田中采集,使用多種手持智能手機和高分辨率的數字彩色相機進行收集,包括水麻、牽牛、馬齒莧草、斑地錦草、粟米草、豚草、腸、刺芹、長芒莧、鍬甲蟲、牛筋草和苦藏12類,共計5648幅圖像和9370個邊界框標注。CottonWeedDet12數據集的示例圖像如圖4所示。

圖4CottonWeedDet12數據集示例圖像 Fig. 4 CottonWeedDetl2 dataset example image

原始數據的標注格式為JSON,但為適應試驗需求,對其進行轉換以適應YOLO標簽格式。進一步地,為更符合試驗硬件的性能要求,對圖像進行統一裁剪。數據集經過處理后,按照13:4:3的比例將其隨機劃分為訓練集、驗證集、測試集。調整后的部分棉田雜草數據集和各類雜草的分布情況如表1所示。

表1棉田雜草類別描述 Tab.1 Description cotton field weed categories

2.2試驗環境配置與網絡參數設置

試驗操作系統為CentOS,CPU型號為Intel(R)Xeon(R)CPU $\mathrm { E 5 - 2 6 3 0 ~ v 4 ~ } \textcircled { \omega } 2 . 2 0 ~ \mathrm { G H z } ( \mathrm { 1 0 }$ 核)。試驗所用的硬件環境配備有3張22GB顯存的NVIDIATeslaP4O顯卡。運行內存為32GB,磁盤配置為 1T 。

編程語言為Python3.9.17,使用的深度學習框架為Pytorch2.0.1,GPU加速庫為CUDA11.4。在網絡訓練過程中,批處理量設為8,迭代次數設置為300次。

3 結果與分析

3.1高效多尺度注意力添加到網絡不同位置的試驗結果

為使模型更加精準地識別和定位雜草,對原始的YOLOv8模型進行改進,主要包括在頭部網絡中增加漸進特征金字塔的特征融合網絡(AFPN),同時將損失函數替換為FocalEIoULoss,并嘗試以不同的形式引入高效的多尺度注意力EMA模塊。經過試驗比對后,在1.2節的網絡結構中融合C2f模塊與EMA模塊,并進行對比測試,結果如表2所示。改進模型的平均精度均值 mAP 可以達到 94.6% ,精確率 P 達到93.9% ,召回率 R 為 90.2% 。

表2在模型不同位置添加EMA模塊的試驗對比Tab.2Experimental comparison addingEMA modulesat different locations in the model

3.2改進模型訓練結果

通過對原YOLOv8骨干網絡的C2f模塊基于EMA注意力改進,在模型的頭部網絡添加漸進特征金字塔AFPN,對YOLOv8的損失函數進行優化,改進模型檢測棉田雜草的精確度得到提升。為驗證改進模型訓練的有效性,對改進后的損失值和平均精確度進行可視化操作,繪制訓練過程的損失曲線圖和 mAP 變化圖,如圖5所示。由圖5(a)可知,在訓練初期模型的檢測精度較低,在訓練后期mAP值逐漸提高并趨于穩定在0.9左右,證明模型訓練有效。

為深人評估改進模型性能,對測試集中的566幅棉田雜草圖像進行細致的評測。改進算法在棉田背景下針對不同類別雜草的檢測成果見表3。改進模型成功檢測出水麻、牽牛、馬齒莧草、斑地錦草、粟米草、豚草、腸、刺芹、長芒莧、鍬甲蟲、牛筋草、苦12種類別的棉田雜草,圖6為改進模型和YOLOv8檢測結果的對比,可以看出,改進模型改善了漏檢、錯檢問題。

圖6模型改進前后檢測結果對比 Fig.6 Comparison detection results before aftermodel improvement

雜草間及其與棉株之間的相互遮擋和特征相似性增加了檢測的難度。然而,改進算法能夠精準地提取雜草與棉株的形態特征,從而實現對棉株和各種類別雜草的準確檢測。例如,某些雜草可能由于棉株或其他雜草的遮擋而難以辨認,但改進YOLOv8模型經過進一步的融合策略,可以結合被遮擋雜草的位置和語義信息,從而顯著提升對受遮擋雜草的檢測精度。

綜上,改進YOLOv8模型在棉田雜草檢測任務上展現卓越的性能,無論是對于小目標、多目標場景,還是受遮擋和光照變化情境,均取得令人滿意的檢測結果。

3.3改進模型消融實驗結果

為更全面地評估改進后YOLOv8的性能表現,設計一系列的消融實驗,以系統評估4種不同的網絡配置。(1)在YOLOv8骨干網絡的C2f模塊中引人高效多尺度注意力EMA;(2)將YOLOv8頭部網絡與漸進的FPN特征融合網絡相結合;(3)基礎的YOLOv8模型;(4)提出的完整改進算法。為從定量的角度深入評估這4種配置的性能,對測試集中的564幅棉田雜草圖像進行細致的評估。其中,評估指標涵蓋模型的檢測精度、平均檢測時間等關鍵性能指標,改進YOLOv8模型和對照模型訓練結果如圖7所示。由表4可知,提出的改進模型在檢測精度方面均明顯優于其他3組網絡結構。不僅從定量角度驗證改進策略的有效性,也為后續的實際應用提供有力的支持。

表4改進的棉田檢測模型消融實驗結果 Tab.4 Ablation test results improved cotton field detectionmodel

3.4不同檢測網絡對比結果分析

為定性評價改進YOLOv8模型的檢測結果,將改進的模型與YOLOv7、YOLOv7—tiny、YOLOv5、YOLOv3以及原始YOLOv8模型對測試集中的棉田雜草圖像檢測進行算法對比,結果如表5所示。可以看出,在棉田雜草數據集上,所提出的融合多尺度特征和多重注意力的棉田雜草檢測模型的 mAP 為 94.6% 精確率為 93.9% ,召回率為 90.2%,F1 分數為0.754,相比于YOLOv3、YOLOv5、YOLOv7、YOLOv7—tiny、YOLOv8網絡模型, mAP 分別提升 1.5%.2.8% 、1.95%.1.73%.2.62% ,均優于其他檢測算法。在檢測速度上,由于在C2f模塊添加EMA,檢測速度相較于其他模型也有所提升。模型訓練完成后,使用未進行數據預處理的棉田雜草測試集進行效果驗證,可以看出,提出的改進算法能更準確地對真實棉田場景下的伴生雜草進行檢測定位,而原YOLOv8算法則存在一定程度的漏檢和誤檢,驗證改進算法可提高在真實棉田場景下棉株伴生雜草的檢測精度。

表5不同檢測模型在測試集中的性能結果Tab.5 Performance results different detection modelsin the test set

4結論

針對棉田雜草檢測問題,提出一種融合多尺度特征和多重注意力的棉田雜草檢測算法,實現在真實棉田場景下的雜草檢測,并通過試驗驗證改進算法的有效性。

1)為使特征提取網絡能自適應地提取真實棉田場景下雜草的形狀及位置特征,在原始YOLOv8算法的C2f模塊中引人高效多尺度注意力EMA,提高算法的特征提取能力和檢測速度。

2)在骨干網絡中,添加漸進式特征金字塔網絡AFPN,有效提高不同尺度的特征融合,加強特征的語義信息,提高算法對小目標的敏感性。

3)改進模型的 mAP 為 94.6% ,精確率為93.9% ,召回率為 90.2% ,F1分數為0.754,相比于原YOLOv8,mAP 提高 2.62% ,具有一定的魯棒性和泛化性,相比于YOLOv3、YOLOv5、YOLOv7、YOLOv7一tiny網絡模型,改進模型的 mAP 分別提升1.5%.2.8%.1.95%.1.73% 。接下來將實地采集自建數據集,驗證模型的泛化能力,為將棉田雜草檢測應用于無人自動靶向智能除草設備提供參考。

4)從檢測時間上來看,改進模型的檢測時間雖然滿足實時檢測的基本要求,但在棉田真實環境下部署仍有進一步提升的空間。將模型輕量化并提高其檢測精度,使其可以更好地在邊緣設備上部署是下一步的研究重點。

參考文獻

[1]dosSantosFerreiraA,FreitasDM,daSilvaGG,etal.Unsupervised deep learning semi-automatic data labeling in weed discrimination [J]. s Electronics in Agriculture,2019,165:104963.

[2]Kounalakis T,Triantafyllidis GA,Nalpantidis L. Image-based recognition framework for robotic weed control systems[J]. Multimedia Tools Applications, 2018,77(8):9567-9594.

[3]苗榮慧,楊華,武錦龍,等.基于圖像分塊及重構的菠菜 重疊葉片與雜草識別[J].農業工程學報,2020,36(4): 178-184. Miao Ronghui,Yang Hua,Wu Jinlong,et al. Weed identification overlapping spinach leaves based on image sub-block reconstruction [J]. Transactions the Chinese Society , 2020, 36(4): 178-184.

[4]Ahmad A,Saraswat D,Aggarwal V,et al. Performance deep learning models for classifying detecting commonweedsin corn soybeanproduction systems [J]. s Electronics in Agriculture, 2021,184(3):106081.

[5]姚思雨,王磊,張宏文.基于CNN的棉田雜草識別方法[J]. 石河子大學學報(自然科學版),2023,41(1):21—26. YaoSiyu, Wang Lei, ZhangHongwen. Weed identification method in cotton field based on CNN[J]. Journal Shihezi (Natural ),2023, 41(1):21-26.

[6]李開敬,許燕,周建平,等.基于FasterR—CNN和數據 增強的棉田苗期雜草識別方法[J].新疆大學學報(自然 科學版)(中英文),2021,38(4):450—456. Li Kaijing,Xu Yan,Zhou Jianping,et al. Cotton field seedling weed identification method based on Faster RCNNdata enhancement[J].Journal Xinjiang (Natural Edition in Chinese English),2021,38(4): 450-456.

[7]He K, Zhang X,Ren S,et al. Deep residual learning for imagerecognition [C].Proceedings theIEEE Conference on Vision Pattern Recognition, 2016: 770—778.

[8]Ren S,He K,Girshick R,et al.Faster R—CNN: Towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis amp;. Machine Intelligence,2017,39(6): 1137-1149.

[9]彭明霞,夏俊芳,彭輝.融合FPN的FasterR—CNN復 雜背景下棉田雜草高效識別方法[J].農業工程學報, 2019,35(20):202—209. Peng Mingxia,Xia Junfang,PengHui. Eficient recognition cotton weed in field based on Faster R—CNN by integrating FPN [J]. Transactions the Chinese Society ,2019,35(20):202—209.

[10]DangF,Chen D,Lu Y,etal.YOLOWeeds:A novel benchmarkYOLOobjectdetectorsformulti-classweed detection in cotton production systems[J].s Electronics in Agriculture,2023,205:107655.

[11]Wang CY,YehIH,Liao HYM. You only learn one representation:Unified network for multiple tasks[J]. Journal Information amp;.,2023,39(3):691.

[12]WangCY,BochkovskiyA,Liao HY M.YOLOv7: Trainable bag--freebies sets new state--the-art for real-time objectdetectors[C].Proceedingsthe IEEE/CVF Conference on Vision Pattern Recognition,2022:7464—7475.

[13]Zhao T,Wu X. Pyramid feature attention network for saliency detection [C].Proceedings the IEEE/CVF Conference on Vision Pattern Recognition, 2019:3080-3089.

[14]Ouyang D,He S,Zhang G,et al.Efficient multi-scale attention module with cross-spatial learning [J]. arXiv preprintarXiv:2305.13563,2023.

[15]YangG,LeiJ,Zhu Z,et al. AFPN:Asymptotic feature pyramid network for object detection [J].arXiv preprint"arXiv:2306.15988,2023.

[16] Zheng Z,Wang P,Liu W,et al. Distance—IoU loss: Faster better learning for bounding box regression [J]. arXiv preprint arXiv:1911.08287,2019.

[17] Zhang Y,Ren W, Zhang Z, et al. Focal efficient IOU loss for accurate bounding box regression [J].arXiv preprint arXiv:2101.08158,2021.

[18]Zhang N,Donahue J,Girshick R,et al.Part-based R—CNNsfor fine-grained category detection [C]. European Conference on Vision. Springer International Publishing,2O14:834—849.

[19]Hou R,ChangH,Ma B,et al.Cross attention network for few-shot classfication [J]. Conference on Neural Information Processing Systems,2020: 3969-4770.

[20]Langer S. Approximating smooth functions by deep neural networks with sigmoid activation function [J]. Journal Multivariate Analysis,2021,182:104696.

[21]Wang M,Lu S,Zhu D,et al.A high-speed low-complexity architecture for stmax function in deep learning [C]. IEEE Asia Pacific Conference on Circuits Systems(APCCAS),2018: 223-226.

主站蜘蛛池模板: 国产精品亚洲一区二区在线观看| 福利在线不卡| 九九香蕉视频| 亚洲高清在线天堂精品| 亚洲欧美日本国产综合在线 | 国产福利拍拍拍| 久久这里只有精品国产99| 中文字幕日韩丝袜一区| 亚洲美女一区| 成人在线观看一区| 国产精品部在线观看| 国产精品yjizz视频网一二区| 国产精品视频导航| 国产成人AV综合久久| 欧美激情视频在线观看一区| 中文字幕色在线| 人人爽人人爽人人片| 四虎精品国产AV二区| 黄色成年视频| 综合社区亚洲熟妇p| 人妻中文字幕无码久久一区| 91人人妻人人做人人爽男同| 亚洲欧美综合在线观看| 国产精品99一区不卡| 久久这里只精品热免费99 | 久久综合色播五月男人的天堂| 久久久久亚洲精品成人网| 亚洲人成色77777在线观看| 欧美精品v欧洲精品| 99久久精品无码专区免费| 国产情侣一区二区三区| 91外围女在线观看| 免费国产高清视频| 国产精品尤物在线| a国产精品| 91福利一区二区三区| 99福利视频导航| AV天堂资源福利在线观看| 91亚洲精选| 伦精品一区二区三区视频| 国产9191精品免费观看| 国产区在线看| 国产高清精品在线91| 国产精品成人一区二区不卡| 精品人妻AV区| 四虎成人免费毛片| 国产毛片基地| 精品免费在线视频| 日韩A级毛片一区二区三区| 色男人的天堂久久综合| 国产a网站| 色综合国产| av在线无码浏览| 国产菊爆视频在线观看| 午夜精品区| 亚洲中文字幕日产无码2021| 欧美综合中文字幕久久| 国产剧情伊人| 亚洲色图欧美在线| 99偷拍视频精品一区二区| 中文字幕欧美日韩高清| 白丝美女办公室高潮喷水视频| 亚洲码一区二区三区| 在线毛片免费| www精品久久| 99久久无色码中文字幕| 国产精彩视频在线观看| 综合天天色| 精品久久久久成人码免费动漫 | 五月天福利视频| 天天摸夜夜操| 久久黄色影院| 久久国产精品无码hdav| 国产日韩欧美一区二区三区在线| 在线a网站| 亚洲国产欧美目韩成人综合| 国产SUV精品一区二区| 亚洲永久精品ww47国产| 噜噜噜久久| 午夜精品影院| 国产日韩丝袜一二三区| 欧美 亚洲 日韩 国产|