doi:10.13304/j.nykjdb.2024.0136
中圖分類號:S225.93 文獻標志碼:A 文章編號:1008-0864(2025)08-0100-10
Dragon Fruit ObjectDetectionand CountingMethod in WideFieldofView
OUYANG Chunfan,GAO Jiazheng,CHENQiao,ZENG Chunlin,LI Wentao, XIAO Mingwei,LUO Chendi, ZHOU Xuecheng*
(GuangdongPrvincialKeyboratoryfgicultualtifialIteligene,KeyaboatoyofKeyhnologongicualcin andEquipmentofnistrofEucationolgeofEngieng,outhnaAgiclturalUivesity,Guangzu64i)
Abstract:To overcome hindrances such as low accuracy of small target pitaya recognition,poor real-time performance,and diffculties in fruit counting under expansive fieldconditions,a method was proposed for pitaya targetdetectionand enumerationwithinlarge visual fields.Thisshouldallw forprecisionidentificationand quantification of smalltarget pitayas,therebyrefining the preparatory guidance tasks assciated with robotic pitaya harvesting.Inthe feature extraction stage,the dynamic deformable convolution C2F_DCNV2_Dynamic was employed to replace the C2F moduleof the YOLOv8 backbone network.Conv_ofer_mask was introduced to obtain deformable offsets and masks of input feature maps,enabling the network to beter adaptto the features of target shapes and enhance the capability of extracting target features from complex backgrounds.The mechanism module MPCA (multipath coordinateattention)was improved to perform multi-path processing on the input,alowing the model to simultaneously focus on the spatial and channel informationof the input tensor,thus improving thefeature perception ability of the network fordiffrent scalesand contexts,and thereby enhancing theaccuracy of small target recognition.Inthe target prediction stage,theDecoder Headof thedetection modelRT-DETR basedonend-to-end Transformer was used to replace the YOLO Head.Through ensemble prediction methods,targets were directly predicted and assciated,eliminating the traditional non-maximum suppression(NMS)step to improve inference speed and further enhance thereal-time performance of the network.In the targetcounting stage,the Deep Sort algorithmwas combined toachieve fruit area counting.Theresultsshowed thatthe improved objectdetection network hadan average accuracy of 99.0% for dragon fruit detection,transmits 32 frames per second in the real-time test,the model size was11.8 MB,and the fruit counting accuracy reached 82.96% ,with the average detection speed 17 frames* s-1 .This method could accurately identify and count small target dragon fruitsunder large field of view conditions,with real-time performance meeting the actual production environment of fruit orchards.
KeyWords:smalltargetpitaya identification;fruit counting;YOLOv8;C2F_DCNV2_Dynamic;MPCA;Decoder Head
果蔬采摘機器人的研制是解決我國勞動力日漸短缺、減輕采摘作業勞動強度、提高果蔬采摘自動化和智能化技術水平、實現鄉村振興的重要途徑。目標識別與檢測作為果蔬自動化、智能化采摘作業的首要技術環節,在采摘機器人研制中具有不可或缺的重要作用和地位。當前開展的采摘機器人研究主要關注小視場和局部的采摘工作,側重于指導機械臂進行精準采摘。然而,在遠距離、大視野場景下,針對多株果蔬能夠指導機器人移動到最佳采摘位置的目標檢測研究鮮有報道。在大規模果園環境中,采摘機器人必需精確地辨識周圍環境,以確保其具備獨立的導航能力并準確定位到目標果實可采摘區域。大視場技術能夠提供更全面的視覺信息,從而使采摘機器人對其工作環境有更深入的理解。大視場、遠距離的場景成像和目標檢測為采摘機器人的單株采摘定位提供了必要的決策信息[1-5]。因此,大視場、遠距離的場景成像和目標檢測與計數是確定果實可采摘區域與區域序列規劃和近景成像定位的前提與基礎。
由于火龍果生長結構特殊,不具備果樹結構。為此,本研究選取火龍果為研究對象,在自然果園環境中開展大視場、遠距離的場景成像和目標檢測研究,以期為火龍果采摘機器人的作業區域序列規劃提供必要的技術依據。自然環境下火龍果果實識別已有不少研究。王金鵬等提出了輕量級YOLOv4-LITE火龍果檢測方法,在火龍果識別任務中準確率達到 96.48% 。針對不同光照條件下的果園環境,商楓楠等和周佳良等分別提出YOLOX-Nano和GCAM-YOLOv5的火龍果檢測模型,YOLOX-Nano對近距離火龍果目標的識別平均精度(average precision,AP)為 98.9% ,GCAM-YOLOv5的AP為 98.8% 。王金鵬等提出YOLOv7-tiny模型檢測火龍果多姿態,對正視角與側視角火龍果的識別精度分別為 90.9% 和 85.7% 。但以上火龍果檢測識別都是基于小視野范圍檢測局部果實的情況,算法未能考慮到遠距離小目標檢測存在的問題,具有一定的局限性。相較于局部識別,遠距離、大視野場景下果實分布情況更復雜,果實目標成像像素少、缺乏紋理信息,難以提取小目標細粒度特征及準確檢測與識別。盡管國內外有針對小目標果實的檢測研究[10-1,通過擴大感受野、引入多頭注意力機制或增加小目標檢測頭等途徑來提升小目標識別精度,但會增加網絡復雜性以及計算成本,實時性差,并且在資源受限的環境可能難以訓練及部署。朱啟兵等提出了基于點云配準的盆栽金桔果實識別與計數方法,其果實數量預測值與真實值的平均絕對百分比誤差(mean absolute percentage error,MAPE)為 16.02% ,但該方法識別1盆金桔果實并計數需耗時 90s ,實時性能較差。高芳芳等8采用YOLOv4-Tiny結合卡爾曼濾波改進匈牙利算法檢測視頻中的蘋果并計數,該方法的蘋果平均計數精度(average counting precision, ACP) 為 81.94% 。針對套袋后葡萄體積增加、葉片面積大導致的相互遮擋及人工拍攝視頻速度不穩定引起的目標計數失敗等問題,呂佳等提出了基于自糾正NMS-ByteTrack的套袋葡萄計數方法,采用YOLOv5s實現視頻中套袋葡萄的識別,并將檢測階段的非極大抑制(non-maximum suppression,NMS)后置到追蹤階段,保留因遮擋而被過濾的果實檢測框,再結合改進卡爾曼濾波提高計數精度,該方法對套袋葡萄的平均計數精度達到82.8% 。為解決因水果外觀高度相似而導致計數失敗問題, Gao 等[20]和 Wu 等[2選擇樹干作為單目標跟蹤代替常用基于水果的多目標跟蹤,平均計數精度分別為 91.4% 與 93.3% ,在果園視頻測試中檢測速度為2~5幀·s-1 。總的來說,前人主要針對近景和少量果實的情況,而遠景計數會由于視覺復雜性增加一目標對象重疊、目標大小變化以及目標數量增加等原因,精確計數變得困難,而且往往在計數精度和檢測速度之間難以找到平衡。
近年來,卷積神經網絡(convolutionalneuralnetworks,CNN)在目標檢測領域性能遠超傳統圖像處理算法[22]。盡管由YOLO模型主導的目標檢測器在果園自然環境檢測取得了巨大成功,但是YOLO需要采用非極大值抑制(non-maximumsuppression,NMS)來處理多個重疊的檢測框,通常難以優化且不夠魯棒,因此檢測器速度存在延遲。隨著Transformer在自然語言處理領域取得成功,許多研究嘗試將其引入計算機視覺領域,以克服YOLO存在的問題。在此背景下,百度飛漿團隊提出了RT-DETR(realtimedetectiontransformer)檢測器[23],這是一種基于Transformer架構的端到端目標檢測器,其消除了各種手工設計的組件,無需NMS后處理。這種架構極大地簡化了目標檢測的流程。面對遠景下的計數挑戰,DeepSort算法展現出一定優勢,該算法能夠應對視覺復雜性問題,且優秀的實時性表現也增加了對于遠景、大量目標精準計數的可能性[24]。因此,為探索大視場下成熟火龍果的精準識別和快速檢測方法,針對現有果實目標檢測研究的局限性,本研究融合YOLOv8與RT-DETR網絡,進一步提升模型實時檢測能力,并引入動態可變形卷積C2F_DCNV2_Dynamic替換C2F基礎卷積模塊,再添加多路協調注意力(multipath coordinate attention,MPCA)機制模塊,以MPCA調整輸人特征圖的可變形偏移和掩碼,改進模型的提取器,采用RT-DETR的DecoderHead替換YOLOHead,結合DeepSort算法以實現小目標火龍果的精準識別與計數,為進一步開展火龍果采摘區域序列規劃研究、完善智能水果采摘機器人技術提供支持。
1材料與方法
1.1數據獲取與數據集構建
由于缺少可直接使用的火龍果數據集,于2023年11月2日(晴天)在廣州市花都區火龍果種植園拍攝大視場條件下的火龍果數據集,拍攝設備為InterZed2i雙目立體相機,分辨率像素為 3840×1080 ,拍攝方式為手持雙目相機,從果園地頭到果行起始拍攝果園視頻與果園照片,沿著道路中線前進拍攝,其覆蓋寬度為 0~2m (此為一般火龍果園種植行寬),覆蓋深度為 0~12m (此為一般火龍果園種植行長)。視野范圍最大程度覆蓋整排火龍果枝條,以獲得整排火龍果的分布狀態信息,從而滿足大視場、遠距離的工作要求。為降低重復圖片數量以及無果實圖片對模型訓練的干擾,使用人工篩選的方法對采集到的原始圖像數據進行清洗,剔除不包含火龍果目標圖像及重復圖像。將標注后的基礎數據集進行平移、翻轉、色彩變換以及組合數據增強,擴充得到共3048幅樣本圖像,按照8:1:1將數據集隨機劃分為訓練集、驗證集和測試集。
1.2 識別網絡模型構建
針對大視場條件下火龍果實時識別的問題與挑戰,提出融合YOLOv8與RT-DETR網絡的改進目標檢測網絡,網絡結構如圖1所示,以解決以往在小目標檢測領域難以兼顧精度與實時性要求的技術難題。
1.2.1C2F_DCNV2_Dynamic改進的目標檢測網絡結構由Backbone、Neck以及Head共3部分組成,Backbone網絡負責圖像特征提取,C2F模塊是Backbone網絡中的關鍵模塊,能夠將高層特征與低層特征進行融合,獲取更豐富的語義信息,但對于多尺度目標場景其作用有限。為了更好地解決大視場下火龍果檢測中的尺度問題、提升遠距離小自標檢測性能,采用動態可變形卷積C2F_DCNV2_Dynamic替換C2F模塊,主要表現在將原先的Bottleneck中的普通卷積替換為DCNV2_Dynamic。在可變形卷積DCNV2[25]中,模塊初始化時通過靜態卷積層中學習得到靜態偏移和掩碼,之后使用靜態的偏移和掩碼進行卷積操作。為了更好地適應果園實時場景數據輸入、提升復雜背景多尺度目標特征提取能力,采用DCNV2_Dynamic動態地生成偏移和掩碼,再將其用于卷積操作,在輸入數據變化較大的情況下更具適應性。
圖1改進后的目標檢測網絡結構
Fig.1Improved object detection network structure

1.2.2MPCA動態地生成偏移和掩碼的實現過程如下。經Conv2d生成的偏移和掩碼會輸入到MPCA模塊中進行調整,進行注意力調節,讓網絡更加靈活地對輸入特征進行變形和關注有效目標的位置信息,有助于模型更好地適應目標的形變以及局部結構。MPCA(圖2)是基于 CA[26] (coordinateattention)的變體,CA通過引人高度和寬度的坐標信息,生成2個分支對應的注意力權重。相比之下,MPCA使用了高度、寬度和全局3個通道的坐標信息,這使得模型能夠更好地捕捉圖像在不同尺度上的結構特征。另外,MPCA引入了全局平均池化(global average pooling,GAP),使模型能夠綜合考慮整個圖像的信息,全局信息的整合有助于更好地理解圖像內容。在MPCA中,相比于CA使用了更多的卷積操作,這增加了模型學習特征的靈活性,有助于適應不同尺度上的目標。因此,在大視場條件下的火龍果目標檢測任務中,MPCA的加成有助于提取遠距離小目標細粒度特征,從而提升多尺度目標中小目標檢測性能。
圖2MPCA注意力模塊結構
Fig.2Depicts the structure of the MPCA module

1.2.3Transformer Decoder Head在模型Head部分,采用RT-DETR的DecoderHead替換YOLOv8Head。在Backbone后輸出的3個有效特征層,會經過Neck進行加強特征提取,作為Decoder的準備輸入。Decoder由多個TransformerDecoder層組成,每個Decoder會自適應地聚焦于輸入特征,學習目標之間的關系并保留全局上下文信息,因此Transformer架構在密集目標場景中更具優勢。通過Decoder可以得到目標的得分和邊界框預測,這些輸出會經過DecoderHead進行最終的分類和邊界框回歸。更重要的是,在YOLO系列中,需要通過NMS來處理多個重復的檢測框,這往往使得推理速度延遲且模型不夠魯棒。而DecoderHead無需NMS后處理步驟,在多目標檢測任務中,不僅減少了計算量,還能提高推理速度,有助于模型更好地平衡目標檢測和任務匹配之間的相互關系,更適用于果園實時場景。
1.3火龍果果實計數
在完成目標檢測后,采用DeepSort算法實現火龍果實時計數,計數過程如圖3所示。以待計數果園視頻為輸入,通過改進的目標檢測網絡得到每幀目標的特征向量,這些特征向量被傳遞到DeepSort跟蹤算法,DeepSort利用卡爾曼濾波和匈牙利算法來關聯目標,從而形成目標軌跡。將計數原則定為自標首次進入計數區域時進行計數。通過分析軌跡和計數區域的位置,系統能夠判斷目標進入計數區域還是離開計數區域。這個計數過程有效地結合了目標檢測、特征提取和多目標跟蹤的關鍵步驟,以確保對視頻中果實的準確計數。
圖3火龍果計數流程
Fig.3Dragon fruit counting process

1.4試驗平臺及模型評價指標
使用的訓練平臺為配備Windows10(64位)操作系統的臺式計算機,CPU型號為Inteli910900X
,GPU型號為NVIDIAGeForceGTX3090,RAM為128GB,使用CUDAv11.7配合CUDNNv8.4運行;PyTorch版本為1.13.1,Ultralytics版本為8.0.201,訓練環境和測試環境相同。
采用平均精度(AP)、檢測速度(frames persecond,FPS)、調和均值F1(F1-score)模型大小來評估網絡檢測精度性能;為了求證模型是否可用在真實果園場景,所有測試模型的FPS均在實時果園視頻測試中給出;最后,以果實平均計數精度 (ACP) 以及FPS來評估火龍果果實計數效果[12],具體計數公式如式(1)所示。

式中:S表示估產方法計數視頻的果實個數;G 表示人工計數視頻的果實個數; n 表示視頻數量。
2 結果與分析
2.1消融試驗分析
為驗證改進后的網絡模型性能,對改進前后的網絡模型進行比較分析。在原數據集上進行4組消融試驗,用于判斷每個改進點的有效性。為了使模型都達到收斂,YOLOv8總迭代次數設置為300,其他模型設置為100。由表1可知,原YOLOv8的模型大小為 99.8MB ,在使用Decoder
Head替換YOLOHead后,模型大小僅為 11.8MB 檢測速度約為原模型的2倍,這是因為DecoderHead的線性層與MLP層設計更加簡單,相比之下YOLO檢測頭包含卷積層和全連接層,需要更多的參數來同時處理目標位置回歸和分類任務,因而DecoderHead的加入使模型更輕量化。在引入可變形卷積DCNV2以及MPCA后,盡管模型大小沒有變化,但檢測速度略有下降,這是因為模型計算量會有所增加,導致檢測速度略有下降。為了更直觀展示改進前后模型性能的差異,將改進前算法與改進后算法在同一數據集上進行可視化驗證,結果(圖4)表明,原始模型在較近距離的場景中表現良好,其檢測結果的置信度相對改進后模型較高,然而當面對遠距離的小目標火龍果時,YOLOv8存在漏檢現象;而改進后的模型在遠距離小目標的檢測與識別方面顯著提升,能夠準確地檢測并識別出遠距離的小目標火龍果,彌補了原模型的不足。
表1YOLOv8消融試驗結果 Table1 Presents the ablation experiments for YOLOv8

注:√和×分別表示使用和未使用; AP0.50 為 IoU 為0.50時不同查全率下的平均精度; AP0.50:0.95 為將 IoU 的值從0.50到0.95(步長為0.05)時所有AP的平均值。Note : √and× indicate use and unused,respectively; AP0.50 is the APof different recallratios when IoUis0.5O;AP0.50:0.95 is theaverageof all APs when the IoU value is from 0.50 to 0.95 (the step size is 0.05).
圖4改進前后網絡模型火龍果檢測效果對比
Fig.4Compare the dragon fruit detection results of the network model before and after improvement

2.2基于不同檢測模型的火龍果識別性能比較
為驗證改進后的目標檢測網絡模型對大視場條件下火龍果的綜合檢測能力,使用RT-DETR、RT-DETR-DCNV2_Dynamic(DCNV2_Dynamic添加在主干網絡BasicBlock中)、YOLOX-Nano-CBAM等模型與本研究改進模型進行對比試驗,其中RT-DETR系列的主干使用Resnet18。4種網絡模型使用相同的數據集,結果(表2)表明,在檢測精度方面,本研究改進模型的 AP0.50 達到 99% ,僅次于RT-DETR-DCNV2_Dynamic;在檢測速度方面,改進模型優于其他模型。相比RT-DETR,改進模型在保持相對較高精度的同時,通過有效的模型設計和結構優化,在模型大小和檢測速度方面表現出色,因此,其綜合性能在果園實際應用場景具有更強的實用性。
Table2Comparison of experimental results of different models on large-field dragon fruit dataset

注:AP0.50為IoU為0.05時不同查全率下的平均精度;AP0.50:0.95為將IoU的值從0.50到0.95(步長為0.05)時所有AP的平均值Note:AP0.5OistheAPofdiffrentrecallratioswhenIoUisO.5O;APO.50:0.95is theaverageofallAPswhentheIoUvalueis from 0.50 t0.95 (the step size is 0.05).
2.3 果實計數試驗結果分析
由于視頻是實時更新場景計數結果,因此對視頻中果園場景計數結果與人工計數結果進行逐幀比對,結果(表3)表明,改進模型對3個視頻的火龍果計數與人工計數接近,平均計數精度為82.96% ,檢測速度為17幀·s?。由此證明了本研究方法的有效性。
表2不同模型在大視場火龍果數據集上的試驗結果對比
表3果實計數試驗結果
Table3Displays the results of fruit counting experiments

3討論
為解決大視場條件下火龍果目標檢測與區域計數問題,本研究改進了YOLOv8模型,實現了火龍果大視場條件下對小目標的檢測,結合改進目標檢測網絡模型與DeepSort算法,以劃線計數策略實現火龍果計數。本研究在火龍果多尺度目標檢測任務中,通過在模型Backbone中引入DCNV2_Dynamic模塊來提升細粒度目標檢測性能,有效彌補了原模型在大視場下難以檢測小目標的不足之處。DCNV2_Dynamic模塊的引入在提升性能的同時,其輕量化的結構設計并未導致模型整體大小的顯著增加;利用DecoderHead替換YOLOHead部分,內存占用減少了88MB,推理速度明顯提升。這一改進的設計不僅在資源利用效率上取得了顯著的優勢,同時也在保持模型性能的同時降低了計算復雜度。此外,改進后模型訓練迭代次數僅為原來1/3,模型訓練成本與時間顯著減少。不同模型對比結果表明,相較于精度最高的RT-DETR-DCNV2_Dynamic模型,本研究改進的模型在僅損失 0.2%AP 的情況下,實現了更快的推理速度,并且模型大小僅為原模型的1/3;與最輕量化的YOLOX-Nano-CBAM模型相比,本研究的改進模型在平均精度上提升了 1% ,推理速度更是其3倍,而模型大小僅增加了 8.04MB 。在火龍果區域計數方面,通過聯立目標檢測模型與DeepSort算法,實現了果實單獨實時計數。果實計數試驗結果表明,該計數策略能夠準確估計視頻中火龍果的數量,與人工計數結果接近,并且平均計數精度為 82.96% ,在果園視頻測試中平均檢測速度為17幀·s-1 U。
本研究采用的模型改進方案實現了性能的整體平衡,在大視場條件下的火龍果識別與計數任務中,為果園中火龍果的目標檢測與計數提供了一種可靠、高效的解決方案,為實際應用場景中采摘序列規劃決策提供了指導。為了使模型更好地適應智能采摘實施,未來可以開展更多果園環境情況下的識別工作,以期為實現精準農業、提高果園的運營效率和產量、進一步減少人工成本提供更有效的技術支持。
參考文獻
[1]WANG Y C, HE Z, CAO D D,et al. Coverage path planning forkiwifruit picking robots based on deep reinforcement learning [J/OL]. Comput. Electron. Agric.,2023,205: 107593 [2024-01-10]. https:/oi.org/10.1016/j.compag.2022.107593.
[2]MEHTA S S,BURKS TF.Vision-based control of robotic manipulatorfor Citrusharvesting[J].Comput.Electron.Agric., 2014,102:146-158.
[3]NING Z,LUO L, DING X,et al. Recognition of sweet peppers and planning therobotic picking sequence in high-density orchards [J/OL]. Comput.Electron.Agric.,2022,196:106878 [2024-01-10]. https://doi.org/10.1016/j.compag.2022.106878.
[4]陳燕,王佳盛,曾澤欽,等.大視場下荔枝采摘機器人的視覺 預定位方法[J].農業工程學報,2019,35(23):48-54. CHEN Y, WANG JS,ZENG Z Q, et al. Vision pre-positioning method for Litchi picking robot under large field of view [J]. Trans. Chin.Soc.Agric.Eng.,2019,35(23): 48-54.
[5]王冰心,王孫安,于德弘.基于選擇性注意機制的果實簇識別 與采摘順序規劃[J].農業機械學報,2016,47(11):1-7. WANGBX,WANGSA,YUDH.Fruitclusterrecognition and picking sequence planning based on selective attention [J]. Trans. Chin.Soc.Agric.Mach.,2016,47(11):1-7.
[6]王金鵬,高凱,姜洪喆,等.基于改進的輕量化卷積神經網絡 火龍果檢測方法[J].農業工程學報,2020,36(20):218-225. WANG JP,GAO K,JIANGHZ,et al.. Method for detecting dragon fruit based on improved lightweight convolutional neural network [J].Trans. Chin.Soc.Agric.Eng.,202O,36(20): 218-225.
[7]商楓楠,周學成,梁英凱,等.基于改進YOLOX的自然環境中 火龍果檢測方法[J].智慧農業(中英文),2022,4(3):120-131. SHANGFN,ZHOUXC,LIANGYK,etal..Detection method for dragon fruit innatural environment basedon improved YOLOX[J]. Smart Agric.,2022,4(3): 120-131.
[8]周佳良,王金鵬,張躍躍,等.基于GCAM-YOLOv5的火龍果快 速檢測方法[J].林業工程學報,2023.8(3):141-149. ZHOUJL,WANGJP,ZHANGYY,etal..Fast detection method of dragon fruits basedon GCAM-YOLOv5 [J].J.For. Eng.,2023,8(3): 141-149.
[9]王金鵬,周佳良,張躍躍,等.基于優選YOLOv7模型的采摘機 器人多姿態火龍果檢測系統[J].農業工程學報,2023,39(8): 276-283. WANG JP, ZHOUJL, ZHANGYY,et al..Multi-pose dragon fruitdetectionsystem for picking robotsbased on the optimal YOLOv7 model [J]. Trans.Chin. Soc. Agric. Eng.,2023,39(8): 276-283.
[10]馬帥.基于改進YOLOv4的梨果實識別及產量預測模型的 研究[D].保定:河北農業大學,2022. MAS.Research onpearfruit recognition based onimproved YOLOv4 and yield predicate model [D].Baoding:Hebei
[11]LU Y,DUS,JI Z, et al..ODL Net: Object detection and location network for small pears around the thinning period [J/OL]. Comput. Electron.Agric.,2023,212:108115 [2024-01-10]. htps://doi.org/ 10.1016/j.compag.2023.108115.
[12]楊福增,雷小燕,劉志杰,等.基于 CenterNet 的密集場景下多 蘋果目標快速識別方法[J].農業機械學報,2022,53(2): 265-273. YANGFZ,LEI XY,LIU ZJ,et al..Fast recognition method for multiple apple targets in dense scenes based on CenterNet [J]. Trans.Chin. Soc.Agric.Mach.,2022,53(2): 265-273.
[13]喬艷軍.基于深度學習的采摘機器人水果識別定位與采后 自動分級技術研究[D].天津:天津理工大學,2022. QIAO Y J. Research on fruit recognition and positioning and post harvest automatic grading technology of picking robot based on deep learning [D]. Tianjin: TianjinUniversity of Technology, 2022.
[14]龍燕,楊智優,何夢菲.基于改進YOLOv7的疏果期蘋果目標 檢測方法[J].農業工程學報,2023,39(14):191-199. LONG Y, YANG Z Y,HE M F.Recognizing apple targets before thinning using improved YOLOv7 [J]. Trans. Chin. Soc. Agric.Eng.,2023,39(14):191-199.
[15]宋懷波,王亞男,王云飛,等.基于YOLOv5s的自然場景油茶 果識別方法[J].農業機械學報,2022.53(7):234-242. SONGHB,WANGYN,WANGYF, et al.. Camellia oleifera fruit detection in natural scene based on YOLO v5s [J]. Trans. Chin.Soc.Agric.Mach.,2022,53(7): 234-242.
[16]YANGHW,LIU YZ,WANG SW, et al. Improved apple fruit target recognition method based on YOLOv7 Model [J]. Agriculture,2023,13(7):1278 [2024-01-10].https://doi.org/ 10.3390/agriculture13071278.
[17]朱啟兵,張夢,劉振方,等.基于點云配準的盆栽金桔果實識 別與計數方法[J].農業機械學報,2022,53(5):209-216. ZHUQB,ZHANG M,LIU ZF,et al. Identification and counting method of potted kumquat fruits based on point cloud registration[J].Trans.Chin.Soc.Agric.Mach.,2022,53(5): 209-216.
[18]高芳芳,武振超,索睿,等.基于深度學習與目標跟蹤的蘋果 檢測與視頻計數方法[J].農業工程學報,2021,37(21): 217-224. GAO FF, WU Z C,SUO R, et al. Apple detection and counting using real-time video based on deep learning and object tracking [J].Trans.Chin. Soc.Agric.Eng.,2021,37(21): 217-224.
[19]呂佳,張翠萍,劉琴,等.基于自糾正NMS-ByteTrack的套袋葡 萄估產方法[J].農業工程學報,2023,39(13):182-190. LYU J,ZHANG CP,LIUQ,et al..Method for estimation of bagged grape yield using a self-correcting NMS-ByteTrack [J]. Trans.Chin. Soc.Agric.Eng.,2023,39(13):182-190.
[20]GAO F,FANG W,SUN X, et al..A novel apple fruit detection and counting methodology based on deep learning and trunk tracking in modern orchard [J/OL]. Comput. Electron. Agric., 2022,197: 107000 [2024-01-10]. https://doi.org/10.1016/j. compag.2022.107000.
[21]WU Z,SUNX, JIANGH, et al.NDMFCS: an automatic fruit counting system in modern apple orchard using abatementof abnormal fruit detection [J/OL]. Comput. Electron.Agric., 2023,211: 108036 [2024-01-10]. https://doi.org/10.1016/j. compag.2023.108036.
[22]宋懷波,尚鈺瑩,何東健.果實目標深度學習識別技術研究進 展[J].農業機械學報,2023,54(1):1-19. SONGHB, SHANG YY,HED J. Review on deep learning technology for fruit target recognition [J].Trans.Chin.Soc. Agric.Mach.,2023,54(1):1-19.
[23]LYUWY,XU SL,ZHAO Y,et al..Detrs beat yolos on realtime object detection [J/OL].2023,2304:08069 [2024-01-10]. https://doi.org/10.48550/arXiv.2304.08069.
[24]WOJKE N,BEWLEY A,PAULUS D.Simple online and realtime tracking with a deep association metric [C]//2017 IEEEinternational conference on image processing (ICIP). IEEE,2017:3645-3649.
[25]ZHUXZ,HANH,LINS,et al..Deformable convnets v2 :more deformable,betterresults [C]//Proceedingsof the IEEE/CVF conference on computer vision and pattern recognition.IEEE, 2019:9308-9316.
[26]HOUQB,ZHOU D Q,FENG JS.Coordinate attention for efficientmobile network design [C]//Proceedings of the IEEE/ CVF conference on computer vision and pattern recognition. IEEE,2021:13713-13722.