999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLO-L的自然環境中澳洲堅果果實的檢測和識別

2024-12-05 00:00:00林祖香王英東馬榮韋云松李子李加強何超
江蘇農業學報 2024年11期
關鍵詞:深度學習

摘要: 針對自然環境下果實重疊、相互遮擋和目標小的澳洲堅果果實檢測準確率低的問題,提出一種改進YOLOv9模型的識別方法(YOLO-L)。首先,引入BiFormer注意力機制,該機制通過雙層路由注意力機制實現了動態、查詢感知的稀疏注意力分配,能夠很好地捕獲特征表征,增強網絡對全局特征的關注度;其次,采用VoVGSCSP模塊代替YOLOv9中的CBFuse模塊,提高了復雜場景下小目標的檢測效果;最后,將YOLOv9模型默認的損失函數替換成排斥損失函數,解決了果實排列密集和漏檢的問題,進一步提升了澳洲堅果果實檢測的平均精度。通過消融試驗和對比試驗來驗證模型的有效性,發現YOLO-L模型的平均精度均值、精確率、召回率和F1值分別達到96.2%、92.3%、88.2%和90.2%。與YOLOv9模型相比,YOLO-L模型的平均精度均值提升了4.9個百分點。總體而言,YOLO-L模型能夠在自然環境下準確識別被遮擋、重疊的澳洲堅果果實,且檢測精度高。研究結果可為澳洲堅果產業的智能采摘提供有效的技術支持。

關鍵詞: 圖像處理;深度學習;YOLOv9模型;澳洲堅果

中圖分類號: TP301.6;S664 文獻標識碼: A 文章編號: 1000-4440(2024)11-2102-09

Macadamia (Macadamia integrifolia Maiden amp; Betche) detection and recognition in natural environments based on YOLO-L

LIN Zuxiang1, WANG Yingdong1, MA Rong1, WEI Yunsong1, LI Ziwen1, LI Jiaqiang1, HE Chao2

(1.College of Mechanical and Transportation Engineering, Southwest Forestry University, Kunming 650224, China;2.Dehong Vocational College, Dehong 678400, China)

Abstract: Aiming at the issue of low detection accuracy for macadamia nuts in natural environments due to overlapping, mutual occlusion, and small targets, an improved YOLOv9 model recognition method (YOLO-L) was proposed. Firstly, the BiFormer attention mechanism was introduced, which achieved dynamic and query-aware sparse attention allocation through the Bi-level routing attention mechanism. This mechanism was capable of effectively capturing feature representations and enhanced the network’s focus on global features. Secondly, the VoVGSCSP module was used to replace the CBFuse module in YOLOv9, which improved the detection performance for small targets in complex scenes. Lastly, the default loss function of the YOLOv9 model was replaced with an exclusion loss function, which solved the problems of dense fruit arrangement and missed detections, and further enhanced the average accuracy of macadamia nut detection. The effectiveness of the model was validated through ablation and comparative experiments. It was found that the mean average precision, precision, recall, and F1 score of YOLO-L model reached 96.2%, 92.3%, 88.2%, and 90.2%, respectively. Compared with the YOLOv9 model, the mean average precision of the YOLO-L model was improved by 4.9 percentage points. Overall, the YOLO-L model can accurately identify occluded and overlapped macadamia nuts in natural environments with high detection accuracy. The research results can provide effective technical support for the intelligent harvesting in the macadamia industry.

Key words: image processing;deep learning;YOLOv9 model;macadamia (Macadamia integrifolia Maiden amp; Betche)

澳洲堅果(Macadamia integrifolia)被譽為“堅果之王”,其果仁含有17種氨基酸、多種礦物質和大量蛋白質,是經濟價值較高的食用干果之一[1]。然而,澳洲堅果采摘過程依賴人工,效率低、速度慢且勞動強度大,因此自動化和智能設備化采摘是解決該問題的重要途徑,但是復雜的生長環境和密集重疊的果實會影響視覺檢測的準確性,造成智能采摘進展緩慢。因此,快速準確識別澳洲堅果果實是智能采摘的關鍵。

視覺識別在農業中的應用廣泛,特別是對果實的識別和檢測[2]。傳統機器視覺需要手動提取特征,魯棒性差,難以應對復雜環境[3-4]。相比之下,深度學習的目標檢測算法因其優越的泛化能力而倍受關注[5-6],該算法分為兩階段算法和單階段算法[7-8]。兩階段算法的精度高,但速度慢,單階段算法具有更快的檢測速度和更高的可拓展性,因此更適合實際應用[9]。目前,作為單階段深度學習算法的YOLO已成為農產品檢測的主流方法[10-13]

自YOLOv1發布以來,YOLO系列算法經歷了多次迭代與優化。YOLOv1首次解決了兩階段檢測算法速度慢的問題[14];YOLOv2引入了新的30層架構、錨盒及批量標準化技術,顯著提升了模型性能和收斂速度[15];YOLOv3通過增加SPP層和采用Mish激活函數,進一步提高了復雜環境下的識別精度[16];YOLOv4利用CSP Darknet53、DenseNet和Leaky ReLU等技術,增強了模型的魯棒性和對小目標的檢測能力[17];YOLOv5通過引入注意力機制(SE)和替換主干網絡為BottleneckCSP-2,提高了檢測識別的精確率[18];YOLOv6實現了無錨設計,并引入自我關注機制、自適應訓練技術,優化了訓練過程[19];YOLOv7在YOLOv6基礎上引入了E-ELAN模塊,提高了推理效率;YOLOv8則通過C2f模塊將高級功能與上下文信息結合,提升了檢測準確率[20]。近年來,許多研究者采用YOLO對農產品果實進行檢測識別,并嘗試提升其檢測性能。例如,利用添加了BottleneckCSP-2、SE模塊的YOLOv5檢測被遮擋蘋果,召回率、精確率、平均精度均值和F1值分別為91.48%、83.83%、86.75%和87.49%[21];用結合Transformer注意力機制的YOLOv7檢測荔枝果實,平均精度均值達93.6%[22];通過深度可分離卷積、雙路徑注意力門模塊來提升YOLOv8對大棚中番茄果實的檢測精度,結果表明,平均精度均值達到93.4%,且具有更低的損失[23]。上述方法在農業領域的目標檢測中取得了一定的成功,為實現智能采摘提供了有力支撐。

隨著人工智能技術的進步,YOLOv9模型在深度神經處理中減少信息丟失方面取得了重大進展,通過引入可編程梯度信息(PGI)和通用高效層聚合網絡(GELAN)架構,確保了穩健可靠的梯度流動,有效防止了數據退化,實現了精確檢測[24]。盡管YOLOv9模型在番茄果實成熟度檢測方面展現出了強大潛力[25],但是在澳洲堅果果實的檢測識別任務中,現有研究成果仍較為有限。因此,本研究選用YOLOv9模型用于檢測識別澳洲堅果果實,并針對澳洲堅果果實檢測識別中普遍存在的模型復雜度高、遮擋和密集小目標識別精度低等問題,提出YOLO-L模型。該模型通過引入BiFormer注意力模塊,增強了模型對復雜場景中關鍵信息的捕捉能力;同時,采用VoVGSCSP模塊替代原有結構,結合排斥損失函數(而非傳統的CIoU損失函數),以進一步提高對密集重疊及被遮擋的小目標的檢測精度。研究結果旨在為澳洲堅果產業的智能采摘提供更有效的技術支持。

1 材料與方法

1.1 澳洲堅果圖像數據集的構建

1.1.1 數據采集 研究對象為OC、H2、344等不同品種的澳洲堅果,樹齡均在10~13年。圖像數據采集于2023年8月,分別來源于云南省德宏景頗族自治州的西山鄉杏煥村、三臺山德昂族鄉和鳳平鎮南相章村(23°50′N~25°20′N,97°31′E~98°43′E)。在不同天氣和自然光照條件下,將相機與水平面的夾角設置為-45°~45°,將采集到的圖像統一保存為JPG格式,圖像分辨率為6 000×4 000像素,圖像數據統計的結果為無遮擋堅果圖像600張,相互遮擋堅果圖像740張,樹葉遮擋堅果圖像660張,共采集圖像2 000張。采集到的部分澳洲堅果的圖像見圖1。

1.1.2 數據集的構建 使用labelImg進行圖像標注。數據分為健康果實、被薊馬和蝽象侵害的果實3個類別,3個類別分別表示為health、thrips和shieldbug,并將數據集按照8∶1∶1的比例劃分為訓練集、驗證集和測試集。如圖2所示,通過增強對比度、錯切、仿射變換、翻轉和平移等方法對原始圖像進行了數據增強,將數據集擴展到12 000張圖像。

1.2 YOLOv9算法的原理

YOLOv9[24]在實時目標檢測領域的表現出色,通過引入可編程梯度信息(PGI)、廣義高效聚合層(GELAN)兩大核心技術,顯著提升了檢測精度與效率。PGI通過主分支、輔助可逆分支及多級輔助信息的集成,有效解決了深度網絡中信息丟失的問題,確保了梯度流的可靠性;GELAN結合CSPNet和ELAN的優勢,構建輕量、高效的網絡架構,實現了參數利用率與性能的提升。然而,在檢測密集、遮擋或重疊的小目標時,特征融合的特征表征較弱,容易導致誤檢、漏檢,從而影響模型的檢測精度。為了進一步提升復雜林間背景下被遮擋的澳洲堅果果實的檢測性能,本研究重構了YOLOv9網絡結構。在Neck網絡的RepNCSPELAN模塊之后,特征融合和上采樣操作之前引入BiFormer注意力機制[26]。同時,將網絡結構中的CBFuse模塊替換為VoVGSCSP模塊,并在Head網絡的檢測輸出層引入排斥損失函數[27],以提高模型在自然場景中對密集小目標和相互遮擋果實的檢測魯棒性。YOLO-L模型的結構如圖3所示。

1.3 YOLO算法的改進

1.3.1 BiFormer BiFormer[26]注意力機制通過結合區域級篩選和細粒度令牌級注意力計算,有效減少了計算資源消耗,同時保持了高效的特征捕捉能力。這種機制在粗粒度區域級別過濾掉不相關的鍵值對,減少了細粒度級別上的詳盡計算,從而實現了計算資源的優化利用。BiFormer的結構如圖4所示,其核心在于引入多個BiFormer Block,通過Patch Nearing步驟促進相鄰模塊之間的特征聚合,增強特征表示的一致性、魯棒性。在特征提取過程中,首先使用3×3深度卷積進行隱式編碼以捕捉相對位置信息。隨后,引入雙層路由注意(BRA)模塊用于捕捉不同位置之間的關系,并通過多層感知器(MLP)模塊實現全局位置的嵌入。

1.3.2 VoVGSCSP GSConv是2022年提出的一種新的輕量級卷積方法[28]。如圖5所示,輸入特征圖經過標準卷積層后,生成c/2個通道的特征圖。同時經過深度卷積層,生成另外c/2個通道的特征圖。將2個c/2通道的特征圖在通道維度上進行連接,形成c個通道的特征圖,對連接后的特征圖進行通道混洗操作,重新排列通道順序,輸出2c個通道的特征圖。

VoVGSCSP是在GSConv的基礎上引入GS瓶頸,并采用一次性聚合方法設計的跨階段網絡模塊(GSCSP),詳見圖6。該模塊在降低計算復雜度和網絡結構復雜性的同時,能夠保持較高的精度和良好的特征重用率。

1.3.3 損失函數的優化 澳洲堅果果實排列密集,所處環境復雜且遮擋問題嚴重,傳統損失函數在處理質量較差的實例或具有密集對象的數據集時表現出局限性。因此,采用Wang等[27]基于預測框與真實框排斥吸引的Repulsion Loss來解決這些限制[排斥損失函數可定義為公式(1)]。該排斥損失函數對自然場景中密集小目標的檢測具有更好的魯棒性,克服了傳統損失函數帶來的挑戰。

L=LAttr+αLRepGT+βLRepBox(1)

式中,α和β表示平衡輔助損失項的權重;LAttr表示吸引項;LRepGT和LRepBox表示排斥項。

具體而言,LAttr的定義見公式(2),用于指導模型預測的邊界框與真實目標框之間的對齊,以提高檢測性能和準確性。LRepGT、LRepBox是排斥項,其定義分別見公式(3)、公式(4)。Smoothln是一個平滑函數[定義見公式(5)],用于計算平滑的自然對數,這種平滑處理的目的是保持損失函數在x接近σ時的連續性,避免出現梯度消失或梯度爆炸的情況,從而更穩定地訓練模型。

式中,ΣP∈p+表示對正樣本候選框P進行求和;SmoothL1(BP,GPAttr)表示使用SmoothL1平滑函數計算候選框P與其指定目標GPAttr之間的損失;|p+|表示正樣本候選框的數量;Smoothln[IoU(BP,GPRep)]表示使用Smoothln平滑函數計算候選框P與其目標指定的排斥目標GPRep之間的交并比(IoU);Σi≠j表示對所有不同的邊界框Pi、Pj進行求和;IoU(BPi,BPj)表示預測框Pi和Pj的交并比;ε、σ表示常數。

1.4 模型訓練

1.4.1 訓練平臺及策略 操作系統為Windows10,CPU為 Intel Core i7-9700@3.00 GHz,運行內存為64 GB;顯卡(GPU)為NVIDIA GeForce RTX 2080 SUPER,顯存為8 GB;深度學習框架為PyTorch 1.12.1;Python版本號為3.8;CUDA的版本號為CUDA 10.2;cuDNN的版本號為cuDNN 8.6.0。

采用權重文件yolov9.pt進行訓練。以自創澳洲堅果圖像數據集作為訓練數據集,輸入圖像大小為640×640像素,經過多次調整和測試,設置訓練批次為2,迭代次數為120,初始學習率為0.1,動量因子為0.9。通過消融試驗和對比試驗充分驗證YOLO-L模型的性能。

1.4.2 評價指標 評估指標包括精確率(P)、召回率(R)、F1[29]、平均精度均值(mAP)[30]和每秒幀數(FPS)。

Precision=TP/TP+FP(6)

Recall=TP/TP+FN(7)

mAP=∑Ni=1APi/N(8)

F1值=P×R×2/P+R(9)

FPS=TotalTime/FigureNumber(10)

式中,TP、FN、FP分別是真陽性、假陰性、假陽性;mAP為所有類別的平均精度均值;N是類別的數量;APi是第i個類別的平均精度;F1值是模型檢測準確率的綜合評估指標,是精確率、召回率的調和平均值,F1值越高,表示模型越穩定;FPS表示每張圖片檢測所用的時間;TotalTime指檢測全部驗證圖像所用時間;FigureNumber表示驗證圖像總數。

2 結果與分析

2.1 使用不同注意力機制的模型的檢測性能的對比

以YOLOv9為基礎模型,在Neck網絡的相同部位引入不同的注意力機制,有助于模型更有效地提取關鍵特征,從而提高目標檢測框的準確性、精確度。由表1可以看出,YOLOv9模型使用BiFormer注意力機制的效果要優于使用SimAM、CBAM的效果。具體而言,YOLOv9-BiFormer模型的精確率、召回率、平均精度均值和F1值都較另外2個模型得到了大幅度提升,主要原因是BiFormer提高了算法捕獲長距離上下文依賴關系的能力,并且有效提升了澳洲堅果果實識別檢測的準確率。同時,穩定上升的數據進一步驗證了該試驗方法的可行性、有效性。

YOLOv9-BiFormer模型和原始YOLOv9模型迭代訓練120次得到的精確率、召回率曲線如圖7所示。可以看出,YOLOv9-BiFormer模型的精確率在訓練初期即展現出優勢,并且隨著迭代次數的增加持續上升,最終趨于平穩,表明該模型在目標檢測時具有相對更高的預測準確性、穩定性。圖7b則揭示了召回率的變化趨勢,可以看出,YOLOv9-BiFormer模型的召回率曲線相較于原始模型更為平穩,且在訓練后期振蕩減少,顯示其全面捕捉目標對象的能力更強。綜上所述,YOLOv9模型通過引入BiFormer注意力機制,在精確率、召回率上均實現了顯著提升,為目標檢測帶來了更加優異的表現。

2.2 YOLOv9模型消融試驗結果

為了驗證本研究提出的YOLO-L模型的性能提升效果,將YOLO-L模型和YOLOv9模型進行對比,以驗證每步改進的有效性。由表2可以看出,與原始的YOLOv9模型相比,版本1通過引入BiFormer注意力機制,提升平均精度均值至96.4%,提升幅度達5.1個百分點,表明模型捕捉全局信息的能力得到了增強。版本2引入的VoVGSCSP模塊,成功將參數量壓縮至43.1 M。版本3引入的排斥損失函數,對自然場景中的密集小目標檢測具有更好的魯棒性,克服了傳統損失函數帶來的挑戰。版本4結合上述的3個模塊,相比于YOLOv9實現了平均精度均值、精確率、召回率和F1值的全面提升,分別達到96.2%、92.3%、88.2%和90.2%。試驗結果表明,在復雜背景和有遮擋的情況下,YOLO-L模型依然能夠保持較高的檢測精度和出色的泛化性能,同時有效降低了錯檢率、漏檢率。

2.3 不同模型檢測結果及分析

對Faster-RCNN、SSD、YOLOv5、YOLOv8、YOLOv9和YOLO-L進行了多組對比試驗。試驗時使用相同設備、數據集和數據增強方法,保持訓練集、測試集的比例相等,從而保證對比結果的可靠性。由表3可以看出,在相同試驗條件下,本研究提出的YOLO-L模型具有96.2%的平均精度均值。具體而言,YOLO-L模型的平均精度均值分別較Faster-RCNN、SSD、YOLOv5、YOLOv8、YOLOv9模型提高了7.5個百分點、14.0個百分點、9.1個百分點、6.0個百分點、4.9個百分點。YOLO-L模型的檢測速度分別比Faster-RCNN、SSD、YOLOv5、YOLOv8、YOLOv9模型提高了190.58%、41.65%、61.20%、155.81%和23.04%。結果表明,YOLO-L模型在識別精度、檢測速度方面的表現比其他模型出色。

圖8展示了不同模型的可視化結果,圖8a為隨機選擇的圖片。選擇檢測結果較好的模型(Faster-RCNN、YOLOv8、YOLOv9、YOLO-L)的可視化結果進行對比分析。由圖8b可以看出,Faster-RCNN模型在不同場景中的表現不佳,檢測結果存在不穩定、易發生錯檢或漏檢的情況。由圖8c可以看出,在檢測過程中,由于YOLOv8模型的背景顏色與果實顏色相近,因此偶爾會出現漏檢的情況,但是其整體目標檢測置信度明顯高于Faster-RCNN模型。由圖8d可以看出,YOLOv9模型的檢測效果較為理想,但仍存在目標置信度不夠高、小目標的檢測效果較差、偶爾將綠葉檢測為健康果的問題。由圖8e可以看出,YOLO-L模型的檢測效果表現突出。從上述檢測結果可以看出,在自然背景下,目標檢測的置信度相對更高,預測模型的匹配能力也得到了提升,并且幾乎沒有出現漏檢實例。總體而言,YOLO-L模型在自然光照等背景條件下能夠精確識別密集、被遮擋以及與樹枝、樹葉顏色相似的澳洲堅果。

3 結論

在對澳洲堅果的實際檢測過程中,YOLO-L模型表現出了優異的性能。具體而言,BiFormer注意力機制增強了網絡對全局特征的注意力,提高了模型性能;VoVGSCSP模塊提高了復雜場景下小目標的檢測效果;排斥損失函數對提高被遮擋目標的檢測精度、加速網絡收斂起著關鍵作用。

通過消融試驗、對比試驗,得出以下結論:(1)對BiFormer與SimAM、CBAM注意力機制進行對比發現,BiFormer表現出更優越的性能。YOLOv9-BiFormer的平均精度均值、精確率、召回率和F1值分別達到96.4%、95.3%、93.0%和94.1%。(2)消融試驗結果表明,YOLO-L模型平均精度均值、精確率、召回率和F1值分別為96.2%、92.3%、88.2%和90.2%。值得一提的是,YOLO-L模型在減少模型訓練參數的同時,顯著提高了對密集重疊果實的檢測效果。(3)對比試驗結果表明,相較于Faster-RCNN、SSD、YOLOv5、YOLOv8和YOLOv9模型,YOLO-L模型的平均精度均值(交并比=0.50)分別提升了7.5個百分點、14.0個百分點、9.1個百分點、6.0個百分點和4.9個百分點。本研究結果不僅為自然環境下澳洲堅果果實的智能檢測提供了高效準確的解決方案,也為澳洲堅果產業的智能采摘提供了更有效的技術支持。

參考文獻:

[1] MERELES CEUPPENS L G, FERRO E A, ALVARENGA SOSA N L, et al. Chemical composition of Macadamia integrifolia (Maiden and Betche) nuts from Paraguay[J]. International Food Research Journal, 2017, 24(6):2599-2608.

[2] 蘇繼龍,劉遠力,吳金東. 香蕉采摘機械的研究現狀與發展趨勢[J]. 中國農業大學學報,2019,24(7):131-137.

[3] MOREIRA G, MAGALHāES S A, PINHO T, et al. Benchmark of deep learning and a proposed HSV colour space models for the detection and classification of greenhouse tomato[J]. Agronomy,2022,12(2):356.

[4] 柳 軍,孔 杰,皮 杰,等. 果蔬分揀設備研究現狀及發展趨勢[J]. 中國農機化學報,2024,45(8):120-125.

[5] 邢卓冉,丁松爽,張 凱,等.計算機視覺與深度學習技術在煙葉生產上的研究進展[J/OL].中國農業科技導報,2024:1-11[2024-08-01]. https://doi.org/10.13304/j.nykjdb.2023.0379.

[6] 廖 越,李智敏,劉 偲. 基于深度學習的人——物交互關系檢測綜述[J]. 中國圖象圖形學報,2022,27(9):2611-2628.

[7] DONG C, ZHANG Z W, YUE J, et al. Automatic recognition of strawberry diseases and pests using convolutional neural network[J]. Smart Agricultural Technology,2021,1:100009.

[8] ZHENG Z H, XIONG J T, LIN H, et al. A method of green Citrus detection in natural environments using a deep convolutional neural network[J]. Frontiers in Plant Science,2021,12:705737.

[9] 金 梅,李義輝,張立國,等. 基于注意力機制改進的輕量級目標檢測算法[J]. 激光與光電子學進展,2023,60(4):385-392.

[10]劉 芳,劉玉坤,林 森,等. 基于改進型YOLO的復雜環境下番茄果實快速識別方法[J]. 農業機械學報,2020,51(6):229-237.

[11]侯依廷,饒 元,宋 賀,等. 復雜大田場景下基于改進YOLOv8的小麥幼苗期葉片數快速檢測方法[J]. 智慧農業(中英文),2024,6(4):128-137.

[12]吳小燕,郭 威,朱軼萍,等. 基于改進YOLOv8s的大田甘藍移栽狀態檢測算法[J]. 智慧農業(中英文),2024,6(2):107-117.

[13]趙鵬飛,錢孟波,周凱琪,等. 改進YOLOv7-Tiny農田環境下甜椒果實檢測[J]. 計算機工程與應用,2023,59(15):329-340.

[14]AHMAD T, MA Y L, YAHYA M, et al. Object detection through modified YOLO neural network[J]. Scientific Programming,2020,2020:8403262.

[15]SAPKOTA R, QURESHI R, CALERO M F, et al. YOLOv10 to its genesis: a decadal and comprehensive review of the you only look once (YOLO) series[EB/OL]. (2024-07-26)[2024-08-16]. https://arxiv.org/pdf/2406.19407.

[16]LAWAL M O. Tomato detection based on modified YOLOv3 framework[J]. Scientific Reports,2021,11(1):1447.

[17]CHEN W K, LU S L, LIU B H, et al. Detecting Citrus in orchard environment by using improved YOLOv4[J]. Scientific Programming,2020,2020:8859237.

[18]YAO J,QI J M,ZHANG J,et al. A real-time detection algorithm for kiwifruit defects based on YOLOv5[J]. Electronics,2021,10(14):1711.

[19]ZHANG Z X, LU X Q, CAO G J, et al. ViT-YOLO:transformer-based YOLO for object detection[C]//IEEE. 2021 IEEE/CVF International Conference on Computer Vision Workshops. Montreal,BC,Canada:IEEE,2021:2799-2808.

[20]TERVEN J, CóRDOVA-ESPARZA D M, ROMERO-GONZáLEZ J A. A comprehensive review of YOLO architectures in computer vision:from YOLOv1 to YOLOv8 and YOLO-NAS[J]. Machine Learning and Knowledge Extraction,2023,5(4):1680-1716.

[21]YAN B, FAN P, LEI X Y, et al. A real-time apple targets detection method for picking robot based on improved YOLOv5[J]. Remote Sensing,2021,13(9):1619.

[22]LI C, LIN J Q, LI Z, et al. An efficient detection method for Litchi fruits in a natural environment based on improved YOLOv7-Litchi[J]. Computers and Electronics in Agriculture,2024,217:108605.

[23]YANG G L, WANG J X, NIE Z L, et al. A lightweight YOLOv8 tomato detection algorithm combining feature enhancement and attention[J]. Agronomy,2023,13(7):1824.

[24]WANG C Y, YEH I H, MARK LIAO H Y. YOLOv9:learning what you want to learn using programmable gradient information[M]. Cham:Springer Nature Switzerland,2024:1-21.

[25]BAKIRCI M, BAYRAKTAR I. YOLOv9-enabled vehicle detection for urban security and forensics applications[C]//IEEE. 2024 12th International Symposium on Digital Forensics and Security,San Antonio,TX,USA:IEEE,2024:1-6.

[26]LIU S H, YANG Y C, JING X J, et al. BiFormer:an end-to-end deep learning approach for enhanced image-based photoplethysmography and heart rate accuracy[M]. Amsterdam: IOS Press, 2024: 205-214.

[27]WANG X L, XIAO T T, JIANG Y N, et al. Repulsion loss:detecting pedestrians in a crowd[C]//IEEE. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT,USA:IEEE,2018:7774-7783.

[28]LI H L, LI J, WEI H B, et al. Slim-neck by GSConv:a lightweight-design for real-time detector architectures[J]. Journal of Real-Time Image Processing,2024,21(3):62.

[29]GOUTTE C, GAUSSIER E. A probabilistic interpretation of precision,recall and F-score,with implication for evaluation[M]. Berlin,Heidelberg:Springer Berlin Heidelberg,2005:345-359.

[30] FLACH P, KULL M. Precision-recall-gain curves: PR analysis done right[J]. Advances in Neural Information Processing Systems, 2015, 28:838-846.

(責任編輯:徐 艷)

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 91区国产福利在线观看午夜| 尤物成AV人片在线观看| 大学生久久香蕉国产线观看| 亚洲视屏在线观看| 久久久久免费看成人影片| 第九色区aⅴ天堂久久香| 综合色88| 蜜桃视频一区二区| 国产成人精品视频一区视频二区| 国产日韩丝袜一二三区| 中文精品久久久久国产网址| 啊嗯不日本网站| 99人妻碰碰碰久久久久禁片| 国产日韩久久久久无码精品| 国产人免费人成免费视频| 午夜国产精品视频黄| 国产91av在线| 中文字幕首页系列人妻| 国产精品高清国产三级囯产AV| 亚洲视频免费在线看| 欧美成人午夜在线全部免费| 嫩草国产在线| 精品国产91爱| 久久精品丝袜| 亚洲天堂高清| 日韩免费成人| 亚洲一区无码在线| 欧美视频在线播放观看免费福利资源| 欧美性久久久久| 91久久夜色精品| 国产精品va| 激情无码字幕综合| 高清欧美性猛交XXXX黑人猛交| 日本免费精品| 无遮挡国产高潮视频免费观看 | 国产精品lululu在线观看| 国产精品女熟高潮视频| 国产精品自在线天天看片| 精品综合久久久久久97超人该| 亚洲 欧美 偷自乱 图片| 波多野结衣视频网站| 婷婷午夜影院| 国产午夜无码片在线观看网站| 欧美日韩一区二区三区在线视频| 日本一区高清| 青草91视频免费观看| 欧美日韩亚洲综合在线观看| 午夜成人在线视频| 午夜在线不卡| 日韩毛片免费观看| 亚洲国产综合自在线另类| 成人午夜免费视频| 亚欧美国产综合| 99伊人精品| 亚洲人成网线在线播放va| 超清无码一区二区三区| www中文字幕在线观看| 国产最爽的乱婬视频国语对白| 成人一区专区在线观看| 亚洲一区免费看| 麻豆AV网站免费进入| 日韩成人在线网站| 亚洲手机在线| 四虎国产精品永久在线网址| 一级片一区| 日本高清有码人妻| 日本亚洲国产一区二区三区| 国产黑丝视频在线观看| 99人妻碰碰碰久久久久禁片| 99在线观看国产| 日韩天堂视频| 狠狠综合久久| 日韩一区二区在线电影| 精品一区二区三区水蜜桃| 亚洲欧美日韩成人在线| 久草中文网| 99热这里只有成人精品国产| 日本道综合一本久久久88| 91精品国产91久无码网站| 香蕉网久久| 波多野结衣第一页| 久久国产亚洲欧美日韩精品|