
















摘要:農作物生長過程中其伴生雜草的及時清除能夠有效提高農作物的產量和質量。針對當前對于甜菜雜草檢測精度較低、小目標漏檢等問題,提出了基于改進YOLO v8n的甜菜雜草檢測算法。首先,在檢測頭部分增加一個小目標檢測層,提高模型對生長初期甜菜和雜草的檢測能力。其次,在主干部分引入感受野坐標注意力卷積(receptive-field coordinated attention convolutional operation,RFCAConv),更好地識別圖像中的邊緣、紋理、形狀等低級特征,并且所增加的計算開銷極小。最后,引入損失函數PIoU v2替換YOLO v8n原來的損失函數,增強對中等質量錨框的聚焦能力,加快收斂速度,并提高檢測精度。通過公開的Lincolnbeet數據集進行試驗,試驗結果表明,改進后的YOLO v8n模型總的mAP@0.5達到了0.902,對比YOLO v8n原模型提高了0.035,甜菜和雜草分別提升了0.026、0.041,參數量減少了3.3%,平均每幅圖片的檢測時間為4.1 ms,能夠滿足實時檢測的要求。
關鍵詞:甜菜;雜草識別;YOLO v8n;感受野坐標注意力卷積;小目標檢測
中圖分類號:S126;TP319.41" 文獻標志碼:A
文章編號:1002-1302(2024)24-0196-09
收稿日期:2024-07-08
基金項目:安徽省高校協同創新項目(編號:GXXT-2023-068)。
作者簡介:黃友銳(1971—),男,安徽淮南人,博士,教授,主要從事智能控制、智能制造研究。E-mail:hyr628@163.com。
通信作者:王小橋,碩士研究生,主要從事圖像處理研究。E-mail:2022200878@aust.edu.cn。
甜菜作為一種重要的農業作物,不僅是蔬菜和糖制品的原料[1],還用于生產生物燃料和飼料,主要種植于內蒙古、新疆和黑龍江等地區[2]。雜草在生長過程中與作物爭奪水、陽光、肥料和空間[3],同時促進害蟲和病原體的生長傳播,影響作物產量和質量[4-5]。傳統的雜草管理方法依賴化學或機械手段,如均勻施用除草劑,但因雜草分布不均,導致農藥過量使用,不僅造成環境問題,還易導致雜草產生抗藥性[6-7]。隨著精準農業的發展,自動化、智能化的雜草檢測技術受到了廣泛關注,這些技術旨在提高雜草管理的效率和準確性,有助于減少田間農藥的使用,保護農業生態環境,因此,雜草識別和檢測至關重要[8-10]。
為了實現田間雜草的精確檢測和識別,國內外許多學者采用機器視覺、圖像處理等技術手段,進行了大量雜草檢測研究[11-14]。近年來,隨著深度學習在各種視覺任務中的巨大成功,許多基于圖像的深度學習算法已經被開發出來[15]。例如,兩階段算法:Faster-RCNN[16]、Mask-RCNN[17];單階段算法:SSD[18]、You Only Look Once(YOLO)系列算法[19]。其中,YOLO系列算法因其快速、準確的檢測性能而廣受歡迎,它由不同的版本組成,在2016年首次推出YOLO,后幾年又推出了YOLO v2、YOLO v3、YOLO v4、YOLO v5、YOLO v6、YOLO v7和YOLO v8版本。許多研究人員將YOLO系列應用于雜草檢測和其他農業目標識別任務[20]。Ying等應用YOLO v4改進了一個輕量級的雜草檢測模型,用于檢測胡蘿卜幼苗中的雜草,研究結果為雜草檢測、機器人除草和選擇性噴灑提供了參考[21]。Wang等構建了一種結合YOLO v5和注意力機制的模型,用于檢測茄子的沙丘種子,經過多尺度訓練后,其檢測速度和檢測效果可應用于入侵雜草長喙龍葵幼苗的田間實時檢測[22]。亢潔等提出一種基于多尺度融合模塊和特征增強的雜草檢測方法,對小目標作物與雜草以及葉片交疊情況的檢測能力均有提高[23]。鄧天民等為了解決無人機(UAV)航拍圖像檢測存在的小目標檢測精度低和模型參數量大的問題,提出輕量高效的航拍圖像檢測算法 FS-YOLO,該算法泛化能力較強,較其他先進算法更具競爭力[24]。
上述研究雖然能夠在特定環境下達到較好的檢測效果,但是,當應用于復雜的農田環境中,尤其是在檢測小型或密集分布的雜草時,仍然有一定的局限性。因此,本研究基于最新的YOLO v8n算法,提出了一種改進的甜菜雜草檢測模型。為了更好地識別圖像中的邊緣、紋理、形狀等低級特征,使用RFCAConv替換主干部分的普通卷積。為了提高模型對生長初期的甜菜和雜草的檢測能力,在檢測頭部分增加了一個小目標檢測層。為了增強對中等質量錨框的聚焦能力,提升模型的檢測精度以及收斂速度,引入了一個損失函數PIoU v2。
1 材料與方法
1.1 YOLO v8概述
YOLO v8是ultralytics公司在2023年1月發布的,可以進行圖像分類、物體檢測和實例分割,該模型易于部署和操作,因此被應用于各種不同的實際場景中[19]。算法的模型結構包括:Backbone、Head、Neck。Backbone 和Neck部分參考了YOLO v7 ELAN設計思想,將C3模塊與ELAN結構結合起來構成C2f模塊;Head部分是目前主流的解耦頭結構,將分類和檢測頭分離,同時也將Anchor-Based換成了Anchor-Free。另外,Loss計算方面采用了CIoU Loss和Distribution Focal Loss作為回歸損失函數[25]。在數據增強方面,引入了YOLOX中所提出的最后10epoch關閉Mosiac增強的操作。
1.2 改進YOLO v8n模型結構
1.2.1 增加小目標檢測層
在YOLO v8n中本身有3個檢測層,位于網絡結構的不同深度,從淺層的特征圖提取細節信息,從深層的特征圖提取更加抽象和語義豐富的信息。然而,較深的特征圖很難學習到小目標的特征信息,這會導致對小目標的識別效果下降。所以,針對甜菜雜草數據集中的小目標,在Head部分引入一個小目標檢測層P2,對較淺特征圖與較深特征圖拼接后輸出的大小為160×160的特征圖進行檢測,160×160的特征圖保留了較多的細節信息,有利于檢測小目標。
改進后的網絡結構如圖1所示,虛線框為改進模塊。
1.2.2 感受野坐標注意力卷積運算(RFCAConv)
將注意力模塊集成到YOLOv8n中 可以增強對圖像局部特征的提取,例如引入坐標注意力(coordinated attention,CA)模塊[26]。但CA只關注空間特征,不能解決大卷積核參數共享的問題。為此,本研究引入了感受野坐標注意力卷積(receptive-field coordinated attention convolutional operation,RFCAConv)[27],這是一種基于感受野注意力(receptive-field attention,RFA)理念的創新卷積方法,其核心在于整合了CA至感受野注意力卷積(receptive-field attention convolutional operation,RFAConv)中。
感受野空間特征是專門為卷積核設計的,并根據核大小動態生成。由圖2可見,以3×3卷積核為例,“Spatial Feature”指的是原始的特征圖,“Recetive-Field Spatial Feature”是空間特征根據卷積核大小變換后的特征圖,該方法強調了感受野滑塊內不同特征的重要性,完全解決了卷積核參數共享的問題,為大尺寸卷積核的應用提供了有效的注意力加權。RFA的計算公式如下:
F=Softmax{g1×1[AvgPool(x)]}×ReLU{Norm[gk×k(x)]}=Arf×Frf。(1)
式中:F是每個卷積滑塊獲得的值;gi×i是大小為i×i的分組卷積;k是卷積核的大小;Norm是歸一化;X是輸入特征圖;Arf是注意力圖;Frf是變換后的感受野空間特征。
RFA將全局和局部信息結合起來,以優化特征提取過程。全局特征聚合步驟通過平均池化和1×1卷積來計算全局注意力權重,強調重要的特征。局部特征歸一化與增強步驟通過k×k卷積、歸一化和ReLU激活來提取和增強局部特征。
為了進一步提高感受野注意力的性能,將考慮了長距離信息、通過全局平均池化方式獲取全局信息的CA引入感受野空間特征,生成RFCAConv,徹底解決了參數共享的問題。RFCAConv的詳細結構如圖3所示。
1.2.3 損失函數改進
目標檢測領域中,邊界框定位精度是衡量模型性能的重要指標,它在很大程度上取決于邊框回歸損失函數的設計和實現。在YOLO v8中計算邊框損失采用的是DFL損失和CIoU相結合的方法[25],這種損失函數受到不合理懲罰因子的影響,在回歸過程中錨框不斷擴大,不利于小目標的定位,導致收斂速度慢。所以本研究使用了Powerful-IoU(PIoU)來解決這一問題[28],PIoU中有適應目標大小的懲罰因子P,其計算公式如下:
P=dw1wgt+dw2wgt+dh1hgt+dh2hgt4。(2)
式中:dw1、dw2、dh1、dh2是預測框和目標框對應邊緣之間距離的絕對值;wgt、hgt是目標框的寬度和高度。
從式(2)可以看出,P的大小只取決于目標框的高度和寬度,不會隨著錨框的擴大而改變。并且只有當錨框和目標框完全重疊的情況下,P才為0,所以該懲罰因子具有對目標尺寸的適應性。各變量之間的關系如圖4所示。
為了進一步提升損失函數的效果,基于上文得到的懲罰因子P,引入了一個適應錨框質量的懲罰函數,其引導錨框沿著更直接、更高效的路徑回歸,加速收斂并提高檢測準確度。其表達式如下:
f(x)=1-e-x2;(3)
LPIoU=LIoU+f(x),1≤LPIoU≤2。(4)
式中:f(x)是懲罰函數;LPIoU是PIoU損失函數;LIoU是IoU損失函數。
函數f(x)能夠根據錨框與目標框的差異自動調整梯度幅度,以便在不同階段進行自適應優化。在錨框與目標框差異顯著時,P值較大,導致函數導數f′(p)較小,從而抑制低質量錨框的梯度影響,避免模型過度調整以適應這些質量差的錨框。錨框與目標框差異較小時,P值接近1,導數f′(p)較大,有助于模型更快地調整錨框,加速模型對這些比較接近的錨框的優化過程。當錨框非常接近目標框時,P值接近0,導數f′(p)隨錨框質量提升逐漸減小,允許錨框通過較小的梯度調整,穩定優化直至與目標框對齊。
為進一步提高檢測模型的性能,提出PIoU v2,它是一個由單個超參數控制的非單調注意力層與PIoU損失相結合形成的,即在PIoU損失中添加了注意力層,增強了集中在中高等質量錨框上的能力。注意力函數和PIoU v2損失的表達式如下:
q=e-P,q∈(0,1];(5)
u(x)=3x·e-x2;(6)
LPIoU v2=u(λq)·LPIoU=3·(λq)·e-(λq)2·LPIoU。(7)
式中:q是代替P作為懲罰因子,范圍為(0,1],用來測量錨框的質量;u(x)是非單調注意力函數;λ是控制注意力函數行為的超參數;LPIoU v2是PIoU v2損失函數。
當q為1時,意味著P為0,這時錨框與目標框是完全重合的。從式(5)可以看出,當P增大時,q會逐漸減小,此時代表的是低質量的錨框。式(7)中,PIoU v2只需要λ這一個超參數,簡化了調優的過程。
2 結果與分析
2.1 數據集及預處理
本研究使用公開數據集Lincolnbeet[29],數據集中包含4 402張圖片,有甜菜和雜草2類目標,分別有16 399、22 847個目標邊界框。圖像尺寸為1 920像素×1 080像素,數據集中包含的標簽為COCOjson、XML和darknets格式。
另外,為了使數據集的樣本更加均衡,同時提升模型在面對未知、復雜或噪聲數據時的魯棒性和泛化能力,更好地適應現實世界中的各種應用場景,對其中的部分包含目標較多的圖片采用旋轉、平移、調節亮度、Cutout以及添加高斯噪聲等基礎數據增強方式。其中,旋轉的角度為35°,平移的距離為最大允許距離的1/3,亮度調節的參數在0.8~1.2之間,Cutout的矩形邊框大小為100像素。經過處理后,數據集擴充為5 897張,并按7 ∶2 ∶1的比例將數據集劃分為訓練集、驗證集、測試集,劃分后分別為4 127、1 180、590張。處理前后的圖片如圖5所示。
2.2 試驗環境
本試驗在深度學習服務器下進行,GPU型號為NVIDIA GeForce RTX4090,內存為24 GB,python編譯器版本為3.9,深度學習框架為PyTorch-1.10.0,CUDA版本:12.2。試驗時間為2023年9月至2024年6月,試驗地點為安徽理工大學百川樓。試驗具體的超參數設置如表1所示。
2.3 評價指標
采用2類對象的平均精度均值(mAP@0.5)評估模型的整體性能,參數量(Params)反映模型的規模和復雜性,浮點運算次數(GFLOPs)衡量模型計算復雜度,FPS評估模型的檢測速度。AP通過計算精度-召回率曲線下的面積來評估模型在檢測多個對象類別時的表現,考慮了模型在識別目標時的準確性(P),同時也考慮了模型在實際目標中正確識別的比例(R)。這個PR曲線下的面積提供了模型在各個對象類別中檢測性能的綜合評估。
AP的計算公式如下:
AP=∫10P(R)dR。(8)
mAP是AP的均值,計算公式如下:
mAP=1N∑ni=1APi。(9)
2.4 對比試驗
為了驗證本研究所提出的改進后的YOLO v8算法的有效性,將其與當前流行的檢測模型進行比較。比較它們在同一數據集上的性能,試驗結果如表2所示。
根據表2可知,將改進后的算法與YOLO系列算法:YOLO v8n、YOLO v3-tiny、YOLO v5n、YOLO v7-tiny,以及SSD進行對比,改進模型mAP@0.5指標顯著超越了YOLO v3-tiny、YOLO v5n、YOLO v8n,并且檢測時間為4.1 ms,能夠滿足實時檢測的要求。與YOLO v8n相比,改進模型不僅在mAP@0.5上提高0.035,而且在參數量上減少了3.3%,所以整體性能上顯著高于YOLO v8n。改進模型參數量較小,僅次于參數量最小的YOLO v5n,但mAP@0.5提高了0.038。YOLO v3-tiny、YOLO v7-tiny模型在識別中的mAP@0.5均比較高,分別達到0.834、0.859,但他們的參數量和計算量都比較大,檢測時間也更長,不適合在資源有限的嵌入式設備上部署和運行。SSD算法具有較大的參數量和計算量,并且mAP@0.5值很低,遠不如其他幾個算法。綜合比較模型的復雜性、檢測的準確性以及實際的使用環境,改進模型在多個目標檢測模型中表現優秀,能夠保證較高的檢測精度和檢測速度,更適用于具有不同大小目標的甜菜雜草檢測。
從表2可以看出,YOLO v3-tiny、YOLO v5n、YOLO v7-tiny、YOLO v8n這4個模型mAP@0.5相對較高,比較接近改進模型。以上模型在訓練300輪的過程中,mAP@0.5隨著訓練批次的變化圖如圖6所示。從圖中可以看出,改進后的算法從開始訓練后,曲線始終處于最上方,并且整體呈上升趨勢,當訓練到150輪之后趨于平穩,mAP@0.5基本達到頂峰,模型逐步收斂。變化曲線圖更加直觀地說明了改進的模型在檢測精度和收斂速度上相對于其他模型表現更優,正確識別和定位目標的能力更強。
2.5 消融試驗
為了驗證模型改進的3個模塊的效果,進行了針對單一改進以及兩兩組合改進措施的有效性對比試驗,試驗結果如表3所示。
通過分析表3的數據,可以觀察到,第4組試驗引入了針對小尺寸目標的檢測層P2,模型的mAP@0.5相較于原始模型上升了0.021。具體來看,甜菜提高了0.014,而雜草則提高了0.024,對于標注框較小的雜草來說,有顯著的提升,展示了添加小目標檢測層所帶來的積極效果。第2、3、4組試驗均是單一改進模塊,對比YOLO v8n模型,mAP@0.5分別提升了0.01、0.011、0.021。第5、6、7組試驗是3個改進措施中的任意2種組合,相較于單一改進措施,均有性能上的提升,因此,證明了本研究3個改進模塊的有效性。最后一組試驗同時融合這3個模塊,對比YOLO v8n模型,整體的mAP@0.5得到了0.035的提升,其中,甜菜提升了0.026,雜草增加了0.041,參數量沒有增大。從這些結果可以看出,改進后的模型在識別甜菜和雜草方面效果很好。
2.6 改進算法性能分析
在相同的試驗環境下,對改進前后的算法進行試驗,圖7展示了2種模型在訓練300輪的過程中各類損失值的變化情況。
邊界框損失(Box_loss)的作用是評估模型預測的邊界框與真實邊界框之間的差異。從圖7中可以看出,改進后的模型在訓練集和驗證集上都表現出更低的損失值和更快的收斂速度。這表明,引入的PIoU v2損失函數顯著提升了模型定位目標物體的精度。此外,改進模型的分類損失(cls_loss)和分布焦點損失(dfl_loss)曲線均低于原模型,表明改進模型在識別目標物體類別方面表現更佳。上述結果表明,通過優化這些損失函數,改進后的模型在訓練過程中能夠更快速、更準確地定位和分類目標,實現了高效且精確的目標檢測。
為了測試模型在復雜環境下的檢測性能,使用包含甜菜和雜草的4種不同場景的測試集圖片,對YOLO v8n和改進模型進行分析。試驗結果如圖8、圖9所示。
第1類圖像(a)具有較高的光照強度,從中可以觀察到,經過優化的模型在檢測置信度上顯著優于YOLO v8n。這表明模型在訓練了經過數據增強處理的數據集之后,對高亮度圖像的檢測能力得到了顯著提升。在第2類圖片(b)里,甜菜的特征與背景有著顯著的對比,使得2種模型都能較好地識別圖片中的大目標,但改進模型的檢測置信度高于YOLO v8n,并且不存在小目標漏檢的情況,而改進后的模型能夠完全檢測。在第3類圖片(c)中,由于目標之間的相互遮擋,YOLO v8n未能完全檢測出目標,而經過改進后的模型對此類復雜場景進行了優化,因此可以準確地辨識并區分相互重疊的目標,顯著提升了對遮擋情況下物體識別的能力。第4類圖片(d)中,包含較多小目標,YOLO v8n出現了漏檢的情況,相比之下,改進后的模型通過增加一個專門針對小目標的檢測層,從而在小目標的識別上展現了更佳的性能,這一改進使得模型在小尺寸目標的檢測方面表現更為出色。總的來看,改進后的模型在目標檢測方面的表現超過了YOLO v8n,這表明該網絡能夠捕捉到淺層的局部信息和更加豐富的語義特征,從而具有更優秀的性能表現。
3 結論
為了解決現有研究對于甜菜雜草檢測精度較低、存在小目標漏檢等問題,本研究基于最新的YOLO v8n算法,提出了一種改進的甜菜雜草檢測模型。首先,通過在YOLO v8n模型的主干部分引入RFCAConv,提高了模型識別圖像特征的能力。其次,在檢測頭部分增加了一個小目標檢測層,提高了模型對生長初期的甜菜和雜草的檢測能力。最后,引入了PIoU v2損失函數,加快了收斂速度,并且提高了檢測精度。通過使用公開的Lincolnbeet數據集進行試驗,試驗結果表明,改進YOLO v8n模型總的mAP@0.5達到了0.902,對比YOLO v8n原模型提高了0.035,平均每幅圖片的檢測時間為 4.1 ms,能夠滿足實時檢測的要求。與其他4種主流模型比較,改進后的模型參數量較小,識別模型精度最高,減少了小目標漏檢現象,在甜菜雜草檢測方面具有較好的性能。
研究使用的數據集主要包括生長早期的雜草。未來的研究將集中在收集甜菜和雜草在其他生長階段的數據,以提高模型在現實場景中的性能。
參考文獻:
[1]周艷麗,李曉威,劉 娜,等. 內蒙古甜菜制糖產業發展探析[J]. 中國糖料,2020,42(2):59-64.
[2]劉曉雪,蒙威宇,謝由之. 甜菜生產大幅波動的原因探究:基于199份農戶調查問卷[J]. 中國糖料,2024,46(2):92-102.
[3]湯雷雷,萬開元,陳 防. 養分管理與農田雜草生物多樣性和遺傳進化的關系研究進展[J]. 生態環境學報,2010,19(7):1744-1749.
[4]袁洪波,趙努東,程 曼. 基于圖像處理的田間雜草識別研究進展與展望[J]. 農業機械學報,2020,51(2):323-334.
[5]李 彧,余心杰,郭俊先. 基于全卷積神經網絡方法的玉米田間雜草識別[J]. 江蘇農業科學,2022,50(6):93-100.
[6]孟慶寬,張 漫,楊曉霞,等. 基于輕量卷積結合特征信息融合的玉米幼苗與雜草識別[J]. 農業機械學報,2020,51(12):238-245,303.
[7]毛文華,張銀橋,王 輝,等. 雜草信息實時獲取技術與設備研究進展[J]. 農業機械學報,2013,44(1):190-195.
[8]姜紅花,張傳銀,張 昭,等. 基于Mask R-CNN的玉米田間雜草檢測方法[J]. 農業機械學報,2020,51(6):220-228,247.
[9]苗中華,余孝有,徐美紅,等. 基于圖像處理多算法融合的雜草檢測方法及試驗[J]. 智慧農業,2020,2(4):103-115.
[10]胡 煉,劉海龍,何 杰,等. 智能除草機器人研究現狀與展望[J]. 華南農業大學學報,2023,44(1):34-42.
[11]翁 楊,曾 睿,吳陳銘,等. 基于深度學習的農業植物表型研究綜述[J]. 中國科學(生命科學),2019,49(6):698-716.
[12]Li Y,Guo Z Q,Shuang F,et al. Key technologies of machine vision for weeding robots:a review and benchmark[J]. Computers and Electronics in Agriculture,2022,196:106880.
[13]胡盈盈,王瑞燕,郭鵬濤,等. 基于近地光譜特征的玉米田間雜草識別研究[J]. 江蘇農業科學,2020,48(8):242-246.
[14]化春鍵,張愛榕,陳 瑩. 基于改進的Retinex算法的草坪雜草識別[J]. 江蘇農業學報,2021,37(6):1417-1424.
[15]李柯泉,陳 燕,劉佳晨,等. 基于深度學習的目標檢測算法綜述[J]. 計算機工程,2022,48(7):1-12.
[16]Ren S Q,He K M,Girshick R,et al. Faster R-CNN:Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,39(6):1137-1149.
[17]He K M,Gkioxari G,Dollár P,et al. Mask R-CNN [C]//Proceedings of the IEEE International Conference on Computer Vision. Italy:IEEE Press,2017:2961-2969.
[18]Liu W,Anguelov D,Erhan D,et al. SSD:single shot MultiBox detector[C]//Computer Vision-ECCV 2016. Cham:Springer International Publishing,2016:21-37.
[19]Kumar P,Misra U. Deep learning for weed detection:exploring YOLO v8 algorithms performance in agricultural environments[C]//Proceedings of the 2024 2nd International Conference on Disruptive Technologies (ICDT). Greater Noida:IEEE Press,2024:255-258.
[20]Gallo I,Rehman A U,Dehkordi R H,et al. Deep object detection of crop weeds:performance of YOLO v7 on a real case dataset from UAV images[J]. Remote Sensing,2023,15(2):539.
[21]Ying B Y,Xu Y C,Zhang S,et al. Weed detection in images of carrot fields based on improved YOLO v4[J]. Traitement Du Signal,2021,38(2):341-348.
[22]Wang Q F,Cheng M,Huang S,et al. A deep learning approach incorporating YOLO v5 and attention mechanisms for field real-time detection of the invasive weed Solanum rostratum Dunal seedlings[J]. Computers and Electronics in Agriculture,2022,199:107194.
[23]亢 潔,劉 港,郭國法. 基于多尺度融合模塊和特征增強的雜草檢測方法[J]. 農業機械學報,2022,53(4):254-260.
[24]鄧天民,程鑫鑫,劉金鳳,等. 基于特征復用機制的航拍圖像小目標檢測算法[J]. 浙江大學學報(工學版),2024,58(3):437-448.
[25]Zheng Z H,Wang P,Liu W,et al. Distance-IoU loss:Faster and better learning for bounding box regression[C]//Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(7):12993-13000.
[26]Hou Q B,Zhou D Q,Feng J S. Coordinate attention for efficient mobile network design[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville:IEEE Press,2021:13713-13722.
[27]Zhang X,Liu C,Yang D,et al. RFAConv:innovating spatial attention and standard convolutional operation [EB/OL]. arxiv preprint,arxiv:2304.03198v6(2023-04-06) [2024-04-07]. https://doi.org/10.48550/arXiv.2304.03198.
[28]Liu C,Wang K G,Li Q,et al. Powerful-IoU:more straightforward and faster bounding box regression loss with a nonmonotonic focusing mechanism[J]. Neural Networks,2024,170:276-284.
[29]Salazar-Gomez A,Darbyshire M,Gao J,et al. Beyond mAP:towards practical object detection for weed spraying in precision agriculture [C]//Proceedings of the 2022 IEEE/RSJ International Conference on Intelligent Robots and Systems. Kyoto Japan:IEEE Press,2022:9232-9238.