999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進CenterNet的農作物害蟲無錨檢測算法研究

2025-09-25 00:00:00王海燕張占哲李杰
中國農機化學報 2025年10期

中圖分類號:TP391.4;S5 文獻標識碼:A 文章編號:2095-5553(2025)10-0183-09

Abstract:Pest management inagricultural production playsa keyrole in ensuringcrop yieldandquality.Although pest detectiontechnologybasedonConvolutionalNeuralNetworkhasmadesomeprogressinrecentyears,itstllfaces two majorchallenges.First,somepestspeciesarehighlysimilarinappearance,whichmakes itdificult toclasifyanddentify. Secondly,themulti-scalecharacteristicsofpestobectsleadtoalargenumberof1negativedetections,especiall nthe identificationof smallpests.To solve these problems,areal-time,anchorfreeimproved CenterNet pest detection model was proposed inthis study.TheCBAMatention mechanism wasembedded inthebackbone network toefectivelyimprove the clasification accuracy offeatures.At the same time,a multiscale feature fusion module named MFF was aded to the neck network toachieveeficient integrationoffeaturemapsofdiferentscales.Alargenumberofexperimentaldatashows that the mAP of the model on the Baidu AI insect dataset and the highly challenging IPlO2 dataset is as high as 98.6% and (204號 89.7% respectively,and the inference speed on the two datasets is more than3O frames/s ,showing remarkable real-time performance.Compared with the existing mainstream methods,the improved CenterNet pest detectionmodelshows outstandingadvantages intheaccurateidentificationof pests incomplexagricultural environments,andhasawiderangeof application potential.

Keywords:pest detection;farmland environment;object detection;anchor-free;CenterNe

0 引言

農業作為國家經濟的基石和社會穩定的關鍵支柱,其重要性不言而喻。然而,這一基礎性產業面臨諸多挑戰,其中作物害蟲問題是制約其可持續和健康發展的重大難題之一。針對該問題,通常使用大量的農藥進行植物病害的預防和治理,但過度使用農藥會致使作物留有殘存農藥,危害人體健康。集成害蟲管理(IPM)模型旨在通過早期和實時的精準害蟲檢測定位病害區域,然后精準施藥,實現更有效的作物病害管理并減少農藥使用1。為此,本文致力于研發更高效的害蟲檢測模型,以便更精確地定位害蟲區域。

目前,有關作物病害檢測的研究已取得一定進展。例如,Deng等2采用了基于SIFT—HMAX和局部配置模型(LocalConfigurationPattern)的方法,利用支持向量機(SVM)實現了害蟲識別,但其局限性在于實時處理能力不足。Xiao等3則通過詞袋模型的支持向量機(BOF一SVM)成功地對多種南方蔬菜害蟲進行分類。董偉等4基于深度卷積網絡構建了一種用于5種常見且易混淆害蟲的識別與計數,其平均識別率和精度分別達到 94.5%.76.6% 。Kasinathant等[5]使用GrabCut算法和直方圖均衡化提取害蟲特征,展示了相當高的檢測性能。上述方法主要依賴于人為設計的特征提取算法,這種依賴性在一定程度上制約了這些方法在現實農業場景中的廣泛應用。簡而言之,由于手工特征提取算法的局限,使得農業害蟲自動檢測技術仍面臨巨大挑戰。

隨著深度學習,特別是卷積神經網絡(CNN)在目標檢測領域取得巨大突破,其在農業害蟲檢測上的應用逐漸受到廣泛關注。多種基于CNN的目標檢測網絡,如SSD[]、YOLO系列[7-9]以及FasterR—CNN系列[10-12],在不同應用場景中均展示了卓越的性能。例如,Li等[13]專門為解決密集蚜蟲分布問題設計了1個兩階段CNN模型,其中先用1個簡化版的CNN進行初步檢測,再用更復雜的CNN模型進行精細化定位。然而,該方法在處理其他種類的農業害蟲時并不總是表現良好。Wang等[14]推出了一種基于兩階段移動視覺的級聯害蟲檢測方法(DeepPest),并在特定害蟲數據集上進行了驗證,雖然其檢測性能相當出色,但范圍局限于3種害蟲。Selvaraj等[15]使用了多種骨干網絡的SSD和FasterR—CNN來檢測8種香蕉相關的病蟲害,但由于未充分考慮農業害蟲的特殊性,檢測效果并不理想。相對而言,李萍等16采用了基于多尺度殘差空間注意力的輕量級U一Net模型,并成功將其應用到田間害蟲檢測中,實現了快速和高精度的識別。

劉志等[17則通過改進型的CascadeR—CNN算法,整合了尺度、空間和任務的感知機制,從而實現了高精度的農業害蟲自動識別和計數。彭紅星等[18更是在YOLOF網絡中引人了改良版的ACA注意力機制,在FieldPest5測試集上 mAP 達到 92.3% 。

盡管基于深度學習的方法在農業害蟲檢測方面表現出較高的準確性和效率,彌補了傳統機器學習對手工特征提取依賴的缺陷,但這些技術仍然面臨以下問題:(1)多尺度和小尺度害蟲檢測的挑戰:農業害蟲種類多樣,尺度差異大,因此在圖像中表現出顯著的多尺度特性。特別是對于小型害蟲,其在圖像中的特征容易在特征提取階段被丟失。由于在高層語義表示中包含的信息有限,所以在樣本選擇階段模型容易將其誤判為負樣本,進而影響整體檢測性能;(2)外觀高度相似的分類問題:以夜蛾科為例,其中包含多達6個典型物種,其外觀高度相似,甚至專業人士也難以準確區分。這種高度的相似性為深度卷積神經網絡在特征提取階段增加了額外的復雜性;(3)對錨點機制的依賴問題:大多數現有的檢測算法都依賴于錨點機制來預測目標的位置和分類。雖然錨點的使用通過枚舉可能的位置來縮小搜索空間,但錨點的數量、尺寸和長寬比等因素需要人為設定。特別是在小目標檢測上,這些基于錨點的方法由于對交并比(IoU)的高敏感性所以表現不佳。

針對上述問題,本文基于CenterNet架構設計一種單級、無錨點的農業害蟲檢測模型。首先,在骨干網絡的第2層~第4層嵌人卷積注意模塊(CBAM)。這一設計有助于模型更有效地學習特征的分布規律,從而提高病蟲害語義和位置特征的權重。這對于識別在視覺上相似或難以區分的農業害蟲至關重要。其次,在模型的頸部網絡中采用一種全新的多尺度特征融合模塊(MFF)以替代原始模型中的反卷積層。這個模塊利用一個加權的雙向特征融合網絡來整合輸人的特征圖,并通過添加額外的權重參數來平衡不同分辨率下特征圖的貢獻。最重要的是,這一無錨框設計克服了傳統檢測算法對錨點機制的依賴,解決目標檢測的不足和對IoU敏感的問題。綜上,本文提出一種基于CenterNet框架,融合注意力模塊和多尺度特征融合模塊的農作物害蟲無錨檢測算法,以期實現更高的病蟲害檢測效果。

1試驗數據集

1.1 數據集獲取

農業害蟲的高精度檢測在規模和類別方面對提升農藥使用效率具有決定性影響,為精準農業提供了重要的技術支撐。為全面評估模型在不同害蟲的大小和多樣性方面的性能,選擇2個具有代表性的數據集進行試驗。第1個選用的數據集為百度AI昆蟲檢測數據集[19],該數據集涵蓋了多種不同尺寸的農業害蟲,可以為訓練模型提供一個具有多樣性的數據平臺。圖1展示了從百度AI昆蟲檢測數據集中挑選的不同大小的害蟲樣本。第2個選用的數據集是專為光斑害蟲識別而設計的IP102數據集[20,該數據通過野外攝像設備捕獲。本文對IP102數據集中涉及的10種害蟲類別進行細致的分析,具體的農作物受害類型和目標害蟲數量詳見表1。此外,圖2具象化地呈現了IP102數據集中10個不同類別的樣本圖像。這2個數據集的使用,既保證樣本的多樣性,也為模型在實際應用中的有效性和廣泛適用性提供有力驗證。

表1IP102中選取的10種害蟲類別 Tab.1 Ten pest categories selected in IP102

圖2IP102數據集中選擇的10個類別 Fig. 2 Ten selected categories in the IP1O2 dataset

1.2 數據集劃分

由圖1可知,百度AI昆蟲檢測數據集的昆蟲圖像樣本相對簡單,故選取1000張高質量圖像即可代表其多樣性;相反,IP102數據集覆蓋了更復雜的環境和多樣的作物病害,故從中選定10種主要分布在水稻、小麥和玉米田中的害蟲圖像,共8600張圖像來全面反映其特點,具體的數據分布細節見表1。所有篩選出的圖像標簽都保存為PASCALVOC數據集的標準格式,并統一進行尺寸為640像素 ×640 像素的裁剪。為滿足在復雜場景下的實際應用需求,并更準確地評估模型的表現,以上2個數據集均按照8:1:1的比例劃分為訓練集、驗證集和測試集,為模型性能評估提供一個全面和均衡的參考標準。

2農作物害蟲檢測模型

2.1 CenterNet網絡結構

CenterNet[21]是一種高度平衡檢測速度與精度的無錨框目標檢測算法,它主要由骨干網絡、解碼網絡以及檢測網絡構成。該算法首先接收一個RGB圖像作為輸入,通過骨干網絡進行深度特征提取。接著,這些提取出的特征通過3個步長為2的反卷積層進行上采樣,從而獲得1個分辨率為128像素 ×128 像素的特征圖。在檢測頭部分,有3個分支共享來自第3層反卷積層的輸出特征。這3個分支分別是熱力圖、中心點偏移以及寬高預測。最終,算法使用 3×3 的最大池化操作來識別代表目標中心點的局部峰值點在熱力圖上的位置,并結合預測的目標尺寸和中心點偏移來輸出最終的檢測框。

CenterNet采用“編碼器一解碼器\"的結構,并通過反卷積層成功地獲取了高級語義信息以進行自標檢測,但其在應對多尺度目標,尤其是小尺度目標上的表現仍然不盡如人意。多次的降采樣過程往往會導致小物體的特征信息喪失,進而引發漏檢或誤檢的問題。特別是在農業病蟲害檢測場景中,由于物體類型和尺寸的多樣性,再加上這些物體通常具有小而密集的特征,因此使用原始的CenterNet模型會使檢測難度加大。為此,提出一種改進的CenterNet害蟲檢測模型。

2.2改進CenterNet害蟲檢測模型

改進模型主要由3個關鍵組件組成:骨干網絡、頸部網絡和檢測網絡。骨干網絡采用ResNet5O作為基礎架構來進行深度特征提取,需要強調的是本文主干中嵌人CBAM卷積注意模塊(具體見2.2.1節)。目的是確保模型更精確地學習特征分布,從而有效地提升對農業病蟲害的語義和位置特征的識別能力。頸部網絡則通過多尺度特征融合模塊(MFF)來取代原有模型的反卷積層(具體見2.2.2節)。這個新模塊采用一個加權雙向特征融合網絡,不僅能整合來自不同層級的特征圖,還能通過引入額外的權重參數來平衡輸出特征圖的分辨率差異。

2.2.1注意力模塊

考慮到降采樣操作可能削弱模型在特征提取方面的性能,同時進一步強化模型對特定區域特征的表達能力,在骨干網絡的第2~第4層間各嵌入CBAM卷積注意模塊[22]。這使得模型能更有效地建立卷積特征通道間的依賴關系,從而更準確地捕捉到與農業病蟲害相關的關鍵信息。另外,CBAM模塊通過強化小目標特征,有效提高模型對小型病蟲害的檢測敏感性。圖3展示CBAM模塊的結構設計,該模塊輕量且可通用,對整體模型參數規模的影響極小。

圖3CBAM網絡結構Fig.3Network structure of CBAM

CBAM模塊首先引入通道注意機制,以增強模型對關鍵特征的敏感性。其計算過程如式(1)所示。

Mc(F)=σ(MLP(AvgPool(F))+

MLP(Maxpool(F)))

=σ(W1(W0(Favgc))+W1(W0(Fmaxc)))

式中: F —輸人特征圖;Mc(F) 一 -通道注意輸出權重;σ -Sigmoid激活函數;MLP 二 一共享全連接層;W0 ——第1層的權重矩陣;W1? 第2層的權重矩陣;Favg 平均池化后的特征圖;Fmax 最大池化后的特征圖。

將輸入特征 F 與對應特征權重 Mc 相乘,得到凸顯重要通道的輸出特征 F ,其計算如式(2)所示。

F=F?Mc

進一步,加權通道特征圖 F 被用作空間注意力模塊的輸入。通過平均池化和最大池化操作,生成了一個單通道的特征圖,用于權衡不同空間位置的重要性。其計算過程如式(3)所示。

式中: F 一 通道注意力模塊加權后的輸出特征;

Ms(F) ——空間注意的輸出權值;

Favg 平均池化后的空間特征圖;

Fmax 最大池化后的空間特征圖;

f7x7 卷積核大小為 7×7 的卷積運算。

最終,模型通過整合這2種注意力機制,輸出1個既強調通道信息也突出空間信息的特征圖 F′′ ,其計算如式(4)所示。

F′′=F?Ms

2.2.2 多尺度特征融合模塊

小型蟲害目標經過卷積處理后得到的特征會變得模糊和不明確,因此特征提取的準確性會降低,尤其是在目標檢測任務中。解決以上問題的常用方法是直接融合淺層特征和深層特征,但會削弱多尺度表示的能力。此外,由于各層之間的預測相互獨立,一些關鍵特征可能會被忽視。為解決這些問題,Liu等[23]提出了一種PANet的雙向特征融合網絡。PANet通過自底向上的連接實現雙向融合,但產生了一些僅有輸入邊的節點,這些節點不但對網絡性能的貢獻有限,還會增加額外的參數和計算負擔。

為解決上述問題,進一步提出一種加權雙向特征融合模塊(MFF)來優化這一過程。首先,MFF模塊去除了那些僅有輸入邊的節點以及第6層中的最后1個節點,因為這些節點僅傳遞輸入特征,對整體網絡性能的貢獻較小,而且增加了不必要的參數數量。其次,MFF模塊通過添加跳躍連接,在相同尺度的層之間建立了輸入與輸出的直接連接,以減少計算成本并優化特征融合。由于不同分辨率的輸入特征對輸出有不同的貢獻,MFF模塊為每個輸入特征分配了可學習的權重,以衡量它們在最終輸出中的重要性。這一步是通過一種帶權值的快速歸一化融合方法實現的。最后,通過上采樣將多個不同分辨率的特征圖融合為一個高分辨率的輸出,從而同時捕獲多尺度的局部和全局信息,以提高目標檢測的性能。

MFF模塊的具體結構如圖4所示。首先將C4 層的輸出降采樣以生成 c5 和 C6 。然后,每個節點都被賦予可學習的權重,并通過快速歸一化特征融合進行處理。以第3層為例, C3 是該層的輸人, P3 是中間節點,而 P3 是經過加權融合后的輸出。中間節點 P3 的特征計算如式(5)所示。

式中:Conu 卷積運算;resize 大小縮放運算;ω1,ω2 1 -對應節點輸人的可學習權值;

3 數值穩定系數,通常取值 0.0001 。

進一步,具有權重融合的輸出節點 P3 的特征計算方法如式(6)所示。

式中: ω1,ω2,ω3 一對應節點輸入的可學習權值。

圖4MFF網絡結構Fig.4MFFnetwork structure

這些權值用于實現一種快速歸一化特征融合方法。通過這種方法,模型成功獲取4層不同分辨率的融合特征。為實現更高級別的特征表示,這些不同分辨率的融合特征經過大小調整,以達到相同的分辨率。最后,這些調整后的特征被進一步融合,生成一個統一的特征表示,其不僅包含局部信息,還綜合全局信息,從而提高害蟲目標檢測的性能。這樣的設計使網絡在保持計算效率的同時,更有效地捕捉多尺度信息,從而在各種大小和復雜性的害蟲檢測任務中表現出色。

2.2.3 損失函數

由于農田復雜環境下拍攝的害蟲圖像背景復雜,前景與背景容易出現類失衡。采用以下策略:利用標注的XML文件中保存的像素坐標信息,計算每個害蟲目標的真實中心點坐標。對于這些真實中心點,其對應的得分被設置為1。考慮到真實中心點附近的區域也具有代表害蟲目標的特性,采用高斯核函數 Yxyc 在真實中心點附近生成1個二維正態分布。通過這種方式,這些近鄰區域被賦予介于 0~1 之間的數值,更好地反映它們的相關性。通過網絡訓練,能夠預測出1組可能的害蟲中心點。這些預測出的中心點得分位于0~1 。為了量化預測中心點和真實中心點之間的誤差,即中心點損失,引入一個改進的Focalloss24作為誤差函數,并記該誤差為 Lhm ,如式(7)所示。

式中: Lhm ——中心點損失;NΩ 一 -圖像中物體的數量;Yxyc 高斯核函數;Yxye 預測值;(x,y) 一熱圖上的一個坐標; (2 -4倍下采樣后的真實點坐標;α,β ——焦損失的超參數,分別設置為2、4;σp 由物體尺度決定的標準差。

對于尺度估計(寬高損失),可以直接使用預測寬高和實際寬高之間的 L1 損失,如式(9)所示。

式中: Lwh. (204號 寬高損失。

由于最終特征圖中的降采樣因子 r 為對象中心引入了量化誤差,因此,增加一個額外的偏移分支來補償誤差,同樣采用L1損失。實際偏移量由 得到,相應的預測偏移量用 表示。因此,偏移量的損失如式(10)所示。

式中: Loffset 偏置損失。

綜上,改進CenterNet害蟲檢測模型的訓練總損失 Ltotal 計算如式(11)所示。

Ltotal1Lhm2Lwh3Loffset

式中: λ1? ——中心點損失平衡系數,取為1;λ2 ——寬高損失平衡系數,取為0.1;λ3 ——偏置損失平衡系數,取為1。

以上3個損失項分別考慮了中心點的精度、下采樣偏置以及寬高的準確性。通過這樣的損失函數組合,模型不僅在邊界框回歸方面得到優化,還挖掘出高質量的樣本。更進一步地,通過直接計算預測框與真實框寬高的差值,加速了邊界框的收斂速度,并提升了整體檢測性能。這種多元損失函數設計使得模型在不同方面都得到全面優化,特別是在處理多尺度和不規則形狀的害蟲目標時具有更高的魯棒性。

2.3基于改進CenterNet的害蟲檢測流程

基于改進CenterNet的農作物害蟲檢測模型如圖5所示。初始階段為輸人圖像的處理,其中圖像首先被傳遞至集成CBAM注意力機制的骨干網絡。此網絡專注于高效地提取圖像特征,并強化對關鍵區域的關注。接下來,頸部網絡中的多尺度融合模塊(MFF)進一步加工這些特征,通過融合低層的位置信息和高層的語義信息,以增強對害蟲的檢測能力。最終,檢測網絡的3個頭部分別負責預測害蟲的中心點位置、偏移和檢測框尺度,從而確保精準識別和定位,獲得最終的檢測結果。整個模型的訓練和優化過程中,損失函數扮演著關鍵角色,指導模型有效學習和實現對各類害蟲的高效檢測。

圖5改進CenterNet的蟲害檢測模型 Fig.5 Improved pestdetection model ofCenterNet

3 試驗結果與分析

3.1 試驗設置

試驗均在配備NVIDIATITANRTX圖形處理器的Ubuntu操作系統環境下完成。采用Python3.8.13以及PyTorch1.1O.1作為主要的開發和實現平臺。在數據集方面,選定百度AI害蟲數據集以及IP102數據集作為試驗驗證的基礎。對于百度AI害蟲數據集,模型的訓練過程涵蓋100個批次,每個批次由32個樣本組成;相應地,在IP102數據集上,訓練過程則包括200個批次,每批次同樣包含32個樣本。優化器采用Adam優化算法,并設定初始學習率為 1.25×10-3 ,動量參數為0.937。為促進模型更快地收斂,學習率在達到第90個批次時減少至其初始值的 1/10 所有輸人圖像均經過預處理,統一調整至512像素 ×512 像素的分辨率。

圖6展示了損失函數的變化趨勢,可以看出,在百度AI害蟲數據集上,各類損失在第90個批次之后呈現出穩定的收斂態勢,如圖6(a)所示;而在IP102數據集上,雖然第90個批次后開始表現出收斂趨勢,但是直到第125個批次之后才實現穩定收斂,如圖6(b)所示。

3.2 評價指標

為全面而公平地評估各種目標檢測模型的性能,采用4個評估指標:精確率 P 、召回率 R 、平均精度均值 mAP 和推理速度 FPS 。

精確率表示正確預測的正例數占總預測的正例數的比例,如式(12)所示。

式中: TP -正確預測為正例的樣本數量;

FP 一 錯誤預測為正例的樣本數量。

召回率表示正確預測的正例數占實際正例數的比例,如式(13)所示。

式中: FN ——錯誤預測為負例的樣本數量。

mAP 是各個類別平均精度 (AP) 的平均值,其反映模型在所有類別上的綜合檢測精度,如式(14)所示。

式中: NΩ ——樣本類別數量。

FPS 指的是模型在單位時間內處理的幀數,它衡量了模型的計算效率和實時檢測能力。

3.3 對比試驗

為驗證所提出的改進CenterNet算法在農作物害蟲檢測方面的優越性,在相同的硬件配置條件下,將改進CenterNet算法與當前主流的幾種目標檢測算法對比,這些算法包括SSD[6]、FasterR—CNN[10]RetinaNet[24]、YOLOv5[25]、 ATSS[26] 以及原始的CenterNet21算法。對比試驗分別在百度AI昆蟲檢測數據集和IP102數據集上進行。

3.3.1百度AI昆蟲檢測數據集

在百度AI害蟲檢測數據集上,將改進算法與其他6種自標檢測網絡算法在同一計算平臺進行對比試驗,檢測結果如表2所示。

表2在百度AI害蟲檢測數據集的對比結果Tab.2Comparisonresultsin Baidu AI pestdetectiondataset

表2詳細列出各種目標檢測算法與本研究中改進的CenterNet模型在精確率、召回率 ,mAP 以及FPS等方面的性能對比。顯然,改進CenterNet在精確率、召回率和 mAP 方面均顯著優于其他參考方法,分別達到98.1%.99.8% 和 98.6% 。具體來說,與原始CenterNet相比,改進模型在精確率、召回率和 mAP 上分別提高 3.6%3.1% 和 3.4% 。更值得一提的是,與當前性能最佳的ATSS模型相比,分別提高 0.5% 、1.5% 和 0.7% 。在計算效率方面,改進后的CenterNet模型達到31.8幀/s的推理速度。雖然這一速度略低于原始CenterNet模型的34.7幀/s,但考慮到其他性能指標的明顯提升,該模型在速度和準確性之間實現良好的權衡。綜合考慮,所提出的改進CenterNet模型在檢測性能和計算效率方面均表現出色。

圖7進一步提供1組在百度AI害蟲數據集上的檢測示例。所提出的改進版CenterNet模型在各種具挑戰性的條件下均表現出卓越的性能。無論是樣本數量的變化、光照條件的不同,還是目標尺度的多樣性與遮擋問題,該模型均能準確地識別每一只害蟲,沒有出現漏檢或誤檢的情況。這不僅進一步驗證模型的有效性,也充分證明其在復雜環境中的魯棒性。

3.3.2 IP102數據集

在IP102上,將改進算法與其他6種目標檢測網絡算法在同一計算平臺進行對比試驗,與其他6種先進的目標檢測模型進行綜合比較,檢測結果如表3所示。

表3在IP102數據集的對比結果Tab.3Comparisonresults on IPlO2dataset

在IPlO2數據集上,改進CenterNet模型在精確率、召回率 ,mAP 都取得顯著提升。具體來說,精確率達到 91.4% ,相較于原始CenterNet提升 1.9% ,并在與ATSS對比時也高出 1.2% 。召回率在改進CenterNet達到 87.6% ,比CenterNet高出 5.8% ,比ATSS高出 4.3% 。同時, mAP 也從CenterNet的84.6% 提升到 89.7% ,實現 5.1% 的增長;與ATSS相比, mAP 提升 3.4% 。盡管在FPS方面,改進CenterNet的3O.1幀/s略低于CenterNet的33.6幀/s,但其在準確性和召回率等關鍵性能指標上的優勢明顯,因此在綜合性能上展現出顯著的優越性。

圖8展示改進CenterNet模型在實際應用中的檢測效果。在這些試驗中,改進CenterNet模型表現出顯著的魯棒性和高精度。不僅如此,該算法在各種復雜場景下,如不同光照條件、多尺度目標以及不同程度的遮擋環境,都能有效地識別不同種類的害蟲。值得一提的是,對于高密度、小尺度的蚜蟲,模型也能準確檢測,進一步證明其強大的檢測能力。在白天和夜間不同光照條件下,改進CenterNet不僅降低漏檢和誤檢頻率,還對密集且不均勻分布的小目標(如被枝葉遮擋的害蟲)展示了卓越的檢測精度。特別地,該模型在高密度環境中仍能保持高召回率和精確率,凸顯其在實際應用場景的綜合優勢。

圖8改進CenterNet在IP102數據集的檢測效果Fig.8Detection effect of improvedCenterNet on IPlO2dataset

3.4 消融實驗

表4綜合展示改進CenterNet模型在IP102數據集上的消融實驗結果,突出CBAM和MFF兩個關鍵組件在模型性能優化方面的顯著貢獻。

表4在IP102數據集的消融實驗Tab.4 Ablation experiments on the IPlO2dataset

如表4所示,在原始CenterNet模型上,精確率、召回率和平均精度分別為 89.5%.81.8% 和 84.6% 。而單獨引入CBAM模塊后,這3個關鍵指標分別提升到 90.4%.83.3% 和 86.9% ,凸顯出CBAM模塊在模型表現上的積極影響。類似地,僅集成MFF模塊也導致3項指標的明顯提升,分別達到 90.7% 84.6% 和 87.2% 。最為引人注目的是,當CBAM和MFF模塊同時融入CenterNet模型中時,模型的各項性能指標均實現最大幅度的提升,精確率達到91.4% ,召回率為 87.6% ,mAP高達 89.7% 。這一綜合結果不僅突出CBAM和MFF兩大模塊在模型性能提升中的關鍵作用,而且也充分驗證了提出的改進方法在精確和高效地檢測害蟲方面具有顯著優勢,進而更有效地促進害蟲防治工作。

4結論

1)提出一種高效的改進型CenterNet害蟲無錨框檢測模型,專門針對農田復雜環境下的害蟲檢測問題。通過在骨干網絡中加人CBAM模塊,使模型更加專注于害蟲目標,而非背景信息。同時,頸部網絡中的MFF模塊實現低層位置信息與高層語義信息的有效融合。

2)在百度AI害蟲數據集和IP102數據集上的試驗結果顯示,改進模型的 mAP 分別達到 98.6% 、89.7% ,相對于原始的CenterNet分別提高 5.1% 、3.4% ,檢測精度顯著提升。兩個不同數據集的試驗結果證明所提模型在蟲害目標檢測方面的準確性以及在復雜農田環境下的高穩定性和魯棒性。

盡管如此,該模型仍存在一些不足。當前模型主要適用于特定類型的害蟲,對新種類害蟲的適應性和泛化能力有待提高。未來的研究工作將通過擴展和多樣化數據集,并可能運用遷移學習以增強對未知害蟲種類的識別。同時,模型在低光照和高遮擋等極端環境下的性能還需進一步測試和優化,確保在各種農田條件下都能保持高效的檢測性能。

參考文獻

[1]Falkenberg T,Ekesi S,Borgemeister C.Integrated pest management(IPM)and one health:A call for action to integrate [J]. Current Opinion in Insect Science,2022: 100960.

[2]Deng L,Wang Y,Han Z,et al. Research on insect pest image detection and recognition based on bio-inspired methods[J]. Biosystems Engineering,2018,169:139—148.

[3]Xiao D,Feng J,Lin T,et al.Classification and recognition scheme for vegetable pestsbased on the BOFSVM model[J]. International Journal of Agricultural and Biological Engineering,2018,11(3):190—196.

[4]董偉,錢蓉,張潔,等.基于深度學習的蔬菜鱗翅目害蟲 自動識別與檢測計數[J].中國農業科技導報,2019, 21(12):76—84. DongWei,Qian Rong,ZhangJie,et al.Vegetable lepidopteran pest auto recognition and detection counting based on deep learning [J]. Journal of Agricultural Science and Technology,2019,21(12):76-84.

[5]Kasinathant T, Singaraju D, Uyyala S R. Insect classification and detection in field crops using modern machine learning techniques [J]. Information Processing in Agriculture,2021,8(3):446-457.

[6]Chen Z,Guo H,Yang J,et al. Fast vehicle detection algorithm in traffic scene basedon improved SSD [J]. Measurement,2022,201: 111655.

[7] Zhang Y,Guo Z,Wu J,et al. Real-time vehicle detection based on improved YOLOv5[J].Sustainability,2022, 14(19):12274.

[8]Pandey SK,Bhandari A K.YOLOv7 for brain tumour detection using morphological transfer learning model [J]. Neural Computing and Applications,2O24,36(32): 20321—20340.

[9]Jiang P,Ergu D,Liu F,et al.A Review of YOLO algorithm developments[J]. Procedia Computer Science, 2022,199:1066—1073.

[10] Xu J,Ren H,Cai S,et al.An improved Faster R—CNN algorithm for assisted detection of lung nodules [J]. Computers in Biology and Medicine,2023,153:106470.

[11]Chen M,Yu L,Zhi C,et al. Improved Faster R—CNN for fabric defect detection based on gabor filter with genetic algorithm optimization[J]. Computers in Industry,2022, 134:103551.

[12]LiR,Yu J,LiF,et al. Automatic bridge crack detection using unmanned aerial vehicle and Faster R—CNN[J]. Construction and Building Materials,2023,362:129659.

[13]LiR,Wang R,We C,et al. A coarse-to-fine network for aphid recognition and detection in the field[J].Biosystems Engineering,2019,187:39-52.

[14] Wang F,Wang R, Zhe C,et al. Fusing multi-scale context-aware information representation for automatic in-field pest detection and recognition [J]. Computers and Electronics in Agriculture,2020,169:105222.

[15] Selvaraj MG,Vergara A,Ruiz H,et al. AI-powered banana diseases and pest detection [J]. Plant Methods, 2019,15:1—11.

[16]李萍,劉裕,師曉麗,等.基于多尺度殘差空間注意力輕 量化U—Net的農業害蟲檢測方法[J].江蘇農業科學, 2023,51(3):187—196. Li Ping,Liu Yu,Shi Xiaoli,et al. Agricultural pest detection method based on multi-scale residual spatial attention lightweight U—Net [J]. Jiangsu Agricultural Science,2023,51(3):187—196.

[17]劉志,翟瑞芳,彭萬偉,等.融合注意力機制的Cascade R-CNN田間寶由檢測方法「I]華中農業大學學報 2023,42(3):133-142. Liu Zhi,Zhai Ruifang,Peng Wanwei,et al. Field pest detection method based on improved Cascade R—CNNby incorporating attention mechanism[J]. Journal of Huazhong AgriculturalUniversity,2023,42(3):133-142.

[18]彭紅星,徐慧明,高宗梅,等.基于改進YOLOF模型的 田間農作物害蟲檢測方法[J].農業機械學報,2023, 54(4):285-294. PengHongxing,XuHuiming,Gao Zongmei,etal.Insect pest detection of field crops based on improved YOLOF model [J].Transactions of the Chinese Society for AgriculturalMachinery,2023,54(4):285-294.

[19]Ding W,Taylor G. Automatic moth detection from trap images for pest management[J].Computersand Electronics inAgriculture,2016,123:17-28.

[20]Wu X,Zhan C,Lai Y,et al.IP1O2:A large-scale benchmark dataset for insect pestrecognition[C]. Proceedings of the IEEE/CVF Conference on Computer Visionand Pattern Recognition,2019:8787—8796.

[21]Zhou X,Wang D,Kr?henbuhl P.Objects as points[J]."arXiv preprint arXiv: 1904. 07850, 2019.

[22]Woo S,Park J,Lee JY,et al.CBAM:Convolutional block attention module [C].Proceedings of the European Conference on Computer Vision(ECCV),2018: 3-19 :

[23]Liu S,QiL,Qin H,et al. Path aggregation network for instance segmentation [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2018:8759-8768.

[24] Lin T Y,Goyal P,Girshick R,et al. Focal loss for dense objectdetection[C]. ProceedingsoftheIEEE International Conference on Computer Vision,2017: 2980-2988.

[25]Li S,Li Y,Li Y,et al.YOLO—FIRI:Improved YOLOv5 for infrared image object detection [J]. IEEE Access,2021,9:141861—141875.

[26] Zhang S,Chi C,Yao Y,et al. Bridging the GAP between anchor-based and anchor-free detection via adaptive training sample selection [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020:9759-9768.

主站蜘蛛池模板: 99热在线只有精品| 久久综合伊人 六十路| 亚瑟天堂久久一区二区影院| 丁香婷婷久久| 在线观看无码av五月花| 日韩免费成人| 国产极品美女在线播放| 91蝌蚪视频在线观看| 国产精品爽爽va在线无码观看| 国产精品 欧美激情 在线播放| 伊人91视频| 中文字幕日韩久久综合影院| 日韩在线中文| 亚洲欧美色中文字幕| 国产97公开成人免费视频| 毛片最新网址| 国产精品一区在线麻豆| 国产精品无码制服丝袜| 高h视频在线| 农村乱人伦一区二区| 国产成熟女人性满足视频| 精品国产自| 国产理论精品| 亚洲美女一区| 亚洲天堂网在线观看视频| 国产在线精品香蕉麻豆| 久久精品人妻中文系列| 伊人国产无码高清视频| 亚洲一本大道在线| 欧美精品一二三区| 国产精品私拍99pans大尺度| 亚洲精品无码在线播放网站| 亚洲av日韩综合一区尤物| 亚洲午夜福利在线| 香蕉视频在线精品| 久久不卡精品| 日韩在线欧美在线| 伊人久久大线影院首页| 扒开粉嫩的小缝隙喷白浆视频| 丰满少妇αⅴ无码区| 操国产美女| 久久香蕉国产线看观看精品蕉| 欧美国产日产一区二区| 国产成人精品免费av| 国产高清在线精品一区二区三区 | 青青草原国产一区二区| 制服丝袜一区| 另类综合视频| 青草午夜精品视频在线观看| 二级毛片免费观看全程| 午夜限制老子影院888| 日本不卡在线| 日韩小视频在线播放| 国产精品分类视频分类一区| 婷婷色狠狠干| 综合久久五月天| 亚洲—日韩aV在线| 国产精品开放后亚洲| 欧美无专区| 欧美色伊人| 国产激情在线视频| 国产黄网永久免费| 三级国产在线观看| 伊人激情久久综合中文字幕| 激情爆乳一区二区| 精品视频第一页| 成人福利在线视频免费观看| 国产精品自在线拍国产电影| 国产超碰在线观看| 亚洲首页国产精品丝袜| 亚洲欧美综合另类图片小说区| 人妻中文字幕无码久久一区| 视频一本大道香蕉久在线播放| 亚洲va视频| 亚洲精品高清视频| 凹凸国产熟女精品视频| 在线欧美日韩| 国产97公开成人免费视频| 久久人人爽人人爽人人片aV东京热| 91成人免费观看在线观看| 国产精品99在线观看| 欧美精品H在线播放|