中圖分類號:TP391.41;S435.711 文獻標志碼:B 文章編號:1674-7909(2025)14-140-4
DOI:10.19345/j.cnki.1674-7909.2025.14.028
0 引言
病蟲害是農業生產中的常見災害之一,嚴重影響農作物產量和品質,會加劇糧食供應短缺。因此,在農作物生長治理過程中,及時開展病蟲害防治工作顯得尤為重要。
圖像是人類獲取信息、表達信息和傳遞信息的重要手段。利用圖像識別技術能更清楚地了解害蟲信息,有利于害蟲防治工作的開展。隨著計算機硬件的迅速發展,深度學習方法在目標檢測任務中逐漸成為主流。卷積神經網絡(ConvolutionalNeu-ralNetworks,CNN)是一種具有代表性的深度學習網絡結構,具有良好的學習特征能力,在圖像識別領域中應用廣泛。常海濤等將CNN應用于目標檢測中,提出R-CNN模型,能提升模型的檢測性能,但網絡輸入圖形尺寸固定,且候選區大量重疊,易造成計算資源浪費。為解決此類問題,REN等[2]先后提出FastR-CNN與FasterR-CNN模型,模型檢測速度與檢測精度均有所提升,但與單階段(one-stage)檢測方法仍存在一定差距。YOLO算法是典型的單階段檢測方法,REDMON等[3在2015年提出第一個單階段檢測方法YOLO算法,YOLO系列算法具有識別速度快、精度高等特點。YOLOv5算法使用深度學習框架Pytorch,有較高的平均像素精確度 (mPA) 。
1 YOLOv5算法
1.1 YOLOv5算法介紹
YOLOv5算法是在YOLOv3和YOLOv4算法基礎上進行改進優化后得來的,具有較快的檢測速度和較好的性能,主要由輸入端(Input)、主干網絡(Backbone)、特征融合(Neck)、檢測端(Detect)組成。其中,輸人端作為系統的首道處理環節,對輸入的圖像數據進行預處理。主干網絡在整個系統中扮演著“特征提取器”的角色,而該研究采用的是CSPDarkNet53網絡。當預處理后的圖像數據進入主干網絡后,CSPDarkNet53網絡會對其進行深入分析和處理。經過多層卷積和池化操作,逐步提取出圖像中的各種特征信息,從低級的邊緣、紋理特征到高級的語義特征都能被有效捕捉和表達。特征融合模塊負責對主干網絡提取到的多尺度特征進行整合和優化,增強特征的表達能力。檢測端基于融合后的特征,完成目標的定位和任務分類,最終輸出檢測結果。
1.2 YOLOv5算法改進
輸入圖像中的單個害蟲屬小目標,占據樣本圖像的較小部分,其余部分可視為背景信息。在進行卷積運算時,背景區域的特征會不斷迭代累積,從而產生大量冗余干擾信息,會對模型判斷產生嚴重影響,導致部分目標被淹沒在背景中,無法被有效識別出來,進而降低整個檢測系統的準確率。為解決上述問題,引入一種創新的坐標注意力機制(Co-ordinateAttention,CA),能同時捕獲跨通道、方向感知信息和位置感知信息,使模型能更加精確定位和識別目標。
在使用注意力機制處理過程中,首先對輸入的特征圖在垂直和水平方向上分別進行平均池化操作,并在空間上對提取到的特征進行拼接;其次,通過批量標準化和非線性模塊進行編碼,并利用split函數分離成垂直和水平方向的空間信息;再次,所有空間信息經過卷積處理后得到與輸入特征圖相同的維度,將空間信息分別乘以原始特征,實現重要區域的特征表達;最后,通過歸一化操作對加權特征進行融合,提升模型的定位與識別能力。
在YOLOv5主干網絡模型設計中,在Backbone的CSP模塊前引入CA模塊。CA模塊為特征自適應賦予權重,關注更重要的區域。CA模塊能顯著增強通道間的特征交互,提高特征表達的敏感性,特別是對小目標檢測場景,能有效減少背景干擾產生的信息丟失問題。
原始固定的anchor特征反映到網格時可能會存在不完整的情況,將anchor融入特征網格來解決不匹配問題。但部分區域缺少anchor特征,根據時間經驗,若將掩模值定為0,可提高模型的計算速度。其中,掩模值一般為0和非0,值為非0時,將源圖像拷貝到目標圖像;值為0時,不拷貝源圖像,目標圖像保持不變。初始狀態下,YOLOv5算法的候選框區域需要數據進行對應的變動,采用K均值聚類算法對寬度框進行計算,實現初始候選框設定。GIoU只考慮真實框與預測框之間的重疊率,不能很好地描述目標框的回歸問題。該研究選擇CIoU來替代GIoU作為目標框回歸的損失函數,CIoU涉及真實框與預測框之間的重疊率、中心點距離等,可使模型的目標框在回歸過程中更穩定,收斂精度更高。
2農田害蟲圖像檢測
該研究以第十屆“泰迪杯\"數據挖掘挑戰賽賽方提供的蟲情測報燈所采集到的圖像文件為模型的數據集,圖像像素均為 5472px×3648px ,合計3015張,共28種目標圖像。由于原始數據集中部分害蟲種類樣本數極少,不利于模型訓練,通過垂直旋轉、顏色擾動等方式對數據進行擴增處理,樣本個數由原本的3015擴充到36873,并對28類害蟲分別進行擴增,構成新的數據集。
數據集的品質將直接影響模型的害蟲檢測精度與統計個數,類型豐富、品質高的數據集是害蟲檢測的重要因素。該研究采用左右翻轉、顏色擾動、飽和度調節、對比度調節方法來豐富數據類型,并在訓練模型時隨機組合上述方法。
對外形不規則的目標對象,采用翻轉策略進行處理。圖像翻轉策略能擴充數據多樣性,從多個視角來呈現目標特征。每張圖像均關聯一個XML格式的標注文件,其主要用于精確記錄圖像中目標框的具體坐標位置信息。在對圖像執行旋轉操作時,不僅圖像自身方向會發生改變,與之對應的標注文件中的目標框也要同步進行旋轉處理,以此確保標注信息與圖像內容的一致性,為后續的模型訓練和目標檢測任務提供準確的數據支撐。
樣本中的目標害蟲顏色以暗黑色為主,受顏色及數目的影響,背景顏色會相應發生變化。該研究采用顏色空間變換方式來實現數據增強,具體流程如下:先分別計算出RGB三通道像素值的均值與標準差,再構建協方差矩陣,并對其進行特征分解,利用獲取到的特征值與特征向量來完成數據擴充操作。
針對過度曝光或曝光不足的圖像,飽和度調整是一種有效的修正手段,能讓圖像呈現更自然的視覺效果。該研究在處理圖像時發現,直接在RGB色彩空間中對亮度和飽和度進行調整,操作過程不夠直觀。而HSL色彩模式能清晰直觀地表達出每個像素的飽和度和亮度信息。飽和度調節具體流程如下:讀取圖像的像素RGB值;轉換到HSL空間得到飽和度與亮度;從HSL空間轉換到RGB空間的RGB;重復上述操作,直至每個像素調整完畢。
圖像對比度是指畫面中明暗區域的差異程度,具體表現為圖像灰度值的最大值與最小值之間的差值。該研究使用PhotoShop工具來對圖像對比度進行調節。
3試驗結果與分析
3.1 試驗設置
試驗環境設置如下:處理器CPU為Intel
CoreTMi7-12700H、 CPU@3.70GHz ,運行內存為32GB,GPU為NVIDIAGEFORCERTX3060,顯存為12GB,操作系統為Windows10(64位),深度學習框架為wieldPytorch1.8,編程語言為Python3.8,GPU加速軟件為CUDA11.3、CUDNN8.4。該研究的主要參數設置如下: lrf=0.1, Anchor_ t=4.0 、momen-tum 1=0.937 、translate scriptstyle:=0.4 、scale :=0.5 、sheai -0.5 。該研究采用準確率、精確率、召回率、誤檢率、漏檢率及平均精確率的平均 (mAP) 對改進的YOLOv5模型進行評估。
3.2 圖像檢測結果
該研究提出的模型(改進YOLOv5)能較準確地定位到目標并識別,可輸出每張圖像中存在的害蟲種類及其坐標。通過Python批量處理每張圖像的輸出結果,統計不同種類害蟲的數量,得到整個測試樣本不同害蟲種類的數量結果。其中,害蟲數量如下:八點灰燈蛾119個、二化螟53個、褐飛虱屬45個、白背飛虱36個、草地螟2個、水螟蛾1個…
3.3 檢測結果比較
3.3.1 評價指標對比
將改進YOLOv5和YOLO v3、YOLOv4、YOLOv5、文獻[5]提出的模型,使用相同的數據集在相同試驗環境中進行試驗,用 mAP 召回率 (Rec) /精確度 (Pre) 來進行對比,結果見表1。
表1評價指標對比

從綜合指標 mAP 來看,改進YOLOv5的 mAP 值最高 (94.81% ),其次是文獻[5]中的模型 (92.89% 。與原YOLOv5算法相比,改進YOLOv5的 mAP 值提高2.93個百分點;與文獻[5]模型相比,改進YOLOv5的 mAP 值提高1.92個百分點。從召回率來看,改進YOLOv5的召回率為0.96,較YOLOv3、YOLOv4、YOLOv5有明顯的提升,且與文獻[5]模型相比,召回率要提高2個百分點。從精確度來看,改進YOLOv5的精確度為0.97,文獻5模型的精確度為 0.96 號。
3.3.2 漏檢誤檢對比
在漏檢誤檢方面,試驗額外設置只含有八點灰燈蛾、二化螟、褐飛虱屬這3種害蟲的待測樣本集,合計90張,用于改進YOLOv5與YOLOv5漏檢誤檢對比,原始害蟲八點灰燈蛾69個、二化螟36個、褐飛虱屬28個,總計133個。其檢測結果見表2、表3,改進YOLOv5的綜合檢測準確率為0.955,優于YOLOv5綜合檢測準確率(0.759)。
表2該研究提出的方法漏檢誤檢個數統計單位:個

4結束語
針對小目標農田害蟲圖像檢測計數問題,提出一種基于改進的YOLOv5算法,對圖像中的小目標農田害蟲進行檢測計數。在原YOLOv5主干特征提取網絡中添加注意力機制,對算法中候選框、卷積層、損失函數進行改進,采用左右翻轉、顏色擾動等數據增強方式對原始圖形進行預處理。將改進YOLOv5算法與YOLOv3、YOLOv4、YOLOv5及文獻[5]網絡模型在相同試驗環境下進行試驗比對分析,在綜合指標 mAP,Rec,Pre 方面,改進YOLOv5優于YOLOv3、YOLOv4、YOLOv5及文獻[5]中的算法。在漏檢誤檢方面,改進YOLOv5的算法優于YOLOv5。試驗結果表明,改進YOLOv5能更好地滿足農田害蟲檢測計數的需求,能有效識別不同種類的小目標農田害蟲,并快速檢測農田害蟲位置、統計害蟲數量,具有一定的有效性和實用性。
參考文獻:
[1]常海濤,茍軍年,李曉梅.FasterR-CNN在工業CT圖像缺陷檢測中的應用J.中國圖象圖形學報,2018,23(7):1061-1071.
[2]RENS,HEK,GIRSHICKR,etal.Faster R-CNN:towardsreal-timeobjectdetectionwith region proposal networks[J].IEEE Transactions on Pattern Analysisamp;MachineIntelligence,2015,39 (6):1137-1149.
[3]REDMONJ,FARHADI A. YOLO9000: Better,Faster,Stronger[C]//2017IEEEConference on Computer Vision and Pattern Recognition (CVPR).Honolulu:IEEE,2017:6517-6525.
[4]REDMONJ,DIVVALAS,GIRSHICKR, etal.You only look once:unified,real-time object detection[C]//Proceedingsof the IEEE Conference on ComputerVisionand PatternRecognition.Las Vegas:IEEE,2016:779-788.
[5]胡根生,吳繼甜,鮑文霞,等.基于改進YOLOv5網絡的復雜背景圖像中茶尺蠖檢測[J].農業工程學報,2021,37(21):191-198.
Study on Detection and Counting Method of Farmland Pests Based on Improved YOLO v5
JIN Chong' CHEN Shouhong
1.Chongqing industryamp; trade polytechnic,InstituteofArtificial Inteligence,Chongqing 408ooo,China; 2.Chongqing instituteof engineering,InstituteofBig DataandArtificial Intelligence,Chongqing 40oo56,China
Abstract: In recent years,the yield and quality of agricultural products have steadily improved, but agricultural disaster preventionand mitigation technologies and facilities remain relatively backward.At present,the common method for pest detection and counting is to trap pests with black light lamps combined with manual identification and counting.The effciency,accuracy,and timeliness of this method are closely related to the overall quality of the surveyors,resulting in poor reliability and timeliness,which is not conducive to the timelyand efective implementation of agricultural pest control work.To address the problem of farmland pest image detection and counting,this study proposes a method based on improved YOLO v5 for farmland pest image detectionand counting.Taking 28 common farmland pests as the detection targets,a dataset containing 36 356 farmland pest images was constructed through data enhancement and augmentation of the original image data.The Coordinate Attention mechanism was added to the backbone feature extraction network of YOLOv5,and the candidate boxes and convolutional layers in the algorithm were improved.The improved YOLO v5 algorithm has the advantages of high recognition accuracy and accurate positioning statistics in farmland pest detection,and can reduce the loss of smalltarget image information,better meeting the detection needs.
Key words: farmland pest detection; improved YOLO v5; coordinate attention; deep learning