999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOX的棉花姿態品級識別及其定位研究

2024-01-01 00:00:00謝嘉陳學飛李永國金昌兵梁錦濤孫帥浩
棉花學報 2024年4期

摘要:【目的】旨在解決高質量采棉要求下,采棉機對不同姿態和品級的棉花進行精確識別與定位的問題,提出了1種基于改進YOLOX的棉花檢測方法YOLOX-Cotton。【方法】YOLOX-Cotton使用YOLOX模型作為主體框架,包含識別模塊和定位模塊,并引入了CA(coordinate attention)模塊和SIoU損失函數,以多種姿態、品級的棉花圖片作為數據集,對其進行訓練并測試。【結果】YOLOX-Cotton模型的識別模塊能夠識別不同姿態和品級的棉花,且模型精確率、召回率和平均精度均值達到92.9%、86.8%和92.4%,與原YOLOX模型相比分別提升了5.2、5.5和6.1百分點。該模型的定位模塊能夠準確獲得棉花的位置,測量結果均在田間試驗驗證結果的閾值范圍內,所有樣本的標準偏差均小于0.01。【結論】YOLOX-Cotton能夠有效解決采棉機在高質量采棉要求下對棉花的識別與定位問題,將為實現高質量采棉提供了有力的技術支撐。

關鍵詞:棉花;目標檢測;三維定位;注意力機制;損失函數

Abstract: [Objective] This paper aims to solve the problem of accurate recognition and localization of cotton with different postures and grades by cotton picker under the requirement of high-quality cotton picking. A cotton detection method YOLOX-Cotton based on the improved YOLOX is proposed. [Methods] YOLOX-Cotton uses YOLOX as the main framework, including a recognition module and a localization module, and incorporates coordinate attention (CA) module and SIoU loss function, and takes various posture and grade cotton pictures as data sets to train and test. [Results] The detection module of YOLOX-Cotton was capable of detecting cotton with different postures and grades, and the model precision, recall and average precision reached 92.9%, 86.8% and 92.4%, which were improved by 5.2, 5.5 and 6.1 percentage points, compared with the original YOLOX, respectively. The localization module of this model was capable of accurately obtaining the location of the cotton, the measurements were kept within the threshold range of the validated results of the field trial, and the standard deviation of all samples was less than 0.01. [Conclusion] The experiment proves that the YOLOX-Cotton can effectively solve the problem of cotton detection and localization by cotton picker under the requirement of high-quality cotton picking, and provides strong technical support for the realization of high-quality cotton picking.

Keywords: cotton; target detection; three dimensional localization; attention mechanism; loss function

棉花是我國重要的經濟作物。隨著我國勞動力資源的日益短缺、植棉成本的上升和國際棉花貿易爭端等因素的影響,我國棉花產業逐漸呈現縮減態勢,穩定和促進棉花產業的發展,對我國有著重要的社會意義[1-3]。本文旨在對不同姿態和品級的棉花進行識別與定位,為其應用于采棉機研究提供基礎。

隨著機器視覺在農業領域的廣泛應用,越來越多的國內外研究者將計算機視覺技術應用于棉花生產中[4]。在棉花識別和檢測這一領域中,已經涌現出許多創新性的研究成果,王勇等[5]通過分析籽棉與背景的色差建立視覺模型,實現了對棉鈴的識別,但該研究未考慮3個顏色分量間的相關性;王玲[6]提出使用顏色聚類和競爭學習的方法,將籽棉與復雜的背景進行二分類,但這種分類沒有考慮多個棉花互相遮擋問題;劉坤等[7]提出利用Hough變換技術來識別棉鈴,根據棉鈴輪廓的數學模型進行隨機Hough變換,解決棉鈴遮擋時的識別問題,但不能識別不同姿態和品級的棉花;李海濤等[8]利用卷積神經網絡(convolutional neural network, CNN)構建的CNN-CSC模型能夠有效區分不同花型的棉花,但該模型在提取圖像特征時易受到背景信息的干擾,這既影響了從圖像中提取的特征質量,也降低了整體的檢測性能[9],且該模型不能識別不同姿態的棉花。

棉花識別技術能夠為采棉機的高質量采棉提供有力支持[10-11],該技術不僅要能夠準確識別棉花,還需要具備檢測出棉花姿態和品級等屬性的能力,采棉機便能根據這些屬性進而生成最佳的采摘策略,實現高質量的機械采棉。通過識別物體的多種特征,可以豐富對物體的描述,從而為后續分析和策略的制定奠定基礎。許楠等[12]使用YOLOv3模型識別不同品種的棗果,識別準確率達97.04%,可以滿足棗產業中分選加工和品質分級等環節的需求。吳烽云等[13]使用YOLO-Banana模型,同時識別香蕉果串、果軸和花蕾這3種不同特征的目標來獲取斷蕾點,為斷蕾機器人的開發提供有力的技術支撐。王金鵬等[14]基于YOLOv7模型提出1種識別多姿態火龍果的檢測方法,根據火龍果的三維坐標對不同姿態的火龍果生成不同的采摘點,引導機械臂精準采摘。

目標檢測領域中較為常用的算法有單次多邊框檢測(single shot multibox detector, SSD)[15-18]、基于區域的快速卷積神經網絡(fast region-based CNN, Fast R-CNN)[19-21]、YOLO(you only look once)系列[22-25]以及將Transformer技術應用到計算機視覺領域的網絡,如Swin Transformer[26]等。YOLO系列的算法具有模型體積小,運行速度快,對數據集要求小等優點[27],其中YOLOX算法的代碼結構更加模塊化,易于理解和更改,并且支持邊緣端硬件加速,能夠簡化后續研究中的模型部署。因此,本文選擇YOLOX算法作為主框架,在其基礎上擴展其他功能。

為實現對不同姿態和品級的棉花進行精確識別和定位,本文在上述相關研究的基礎上,提出了適用于搭載在采棉機上的YOLOX-Cotton模型,采棉機可通過該模型獲得的結果生成最佳的采摘策略,并設計了模型訓練試驗和實地測試試驗,對模型生成的識別數據和實際定位數據進行精度驗證。

1 材料與方法

1.1 田間試驗地點

田間試驗于2023年8月在上海市崇明島江南三民文化村棉花試驗基地開展,試驗當天光線充足。使用Windows 10操作系統的電腦進行模型測試(CPU為AMD R7-5800H,GPU為NVIDIA GTX 3060顯卡,CUDA版本為11.0)。

1.2 試驗材料

試驗材料以棉花田中不同姿態和不同品級的棉花為主,分別為正面普通棉花(普通白棉、棉瓣肥大、雜質少、成熟度高),正面低品級棉花(僵瓣棉、污染棉等雜質較多、成熟度差的棉花),側面棉花(棉花朝向側面)和其他花卉的白色花朵。

1.3 試驗設計與數據集獲取

1.3.1 棉花檢測模型數據集獲取。以相機拍攝的上海市浦東新區棉場鎮棉田的446張棉花圖片,以及通過網絡下載得到的116張棉花圖片組成原始數據集。為提高圖片數量、增強模型的泛化能力,該研究使用對比度增強、圖像反轉縮放和亮度增強對原始數據集進行隨機擴充得到1 092張圖片,并在其中加入了100張其他花卉的白色花朵圖片作為干擾項,組成包含1 754張圖片的數據集(表1)。

數據集中的所有圖片都以jpg格式保存,為減小后續的計算負擔以及適應雙目相機的分辨率,所有圖片都改為640×640像素。數據集在類別上分成正面普通棉花(626張)、正面低品級棉花(553張)、側面棉花(475張)以及其他白色花朵(100張)。通過標注軟件Labelimg(https://pypi.org/project/labelImg)對數據集中的所有圖片進行手工標注,并將標注好的圖片按照約9︰1的比例劃分為訓練集和測試集,其中訓練集共有1 580張圖片,測試集共有174張圖片(表2)。

1.3.2 棉花檢測模型試驗與評價指標。選用YOLOX-Cotton模型作為試驗組,以SSD、Fast R-CNN、YOLOX、YOLOv5和YOLOv8這5個模型作為對照組,模型訓練使用Pytoch框架,設置批量大小為8,初始學習率為0.001,迭代300輪。圖像的分辨率統一設置為640×640像素,使用隨機梯度下降(stochastic gradient descent,SGD)作為優化器,在訓練過程中對每個批次進行前向傳播和后向傳播,計算損失并更新模型參數。通過自助采樣法生成驗證集來評估模型性能,并根據評估結果對模型進行調優。訓練結束,使用測試集對模型進行測試,以精確率(precision, P)、召回率(recall, R)和平均精度均值(mean average precision, mAP)作為主要評價指標[28]。其中,精確率是指模型識別出的正樣本中,被正確識別的正樣本個數所占的比例,能夠反映模型在預測正類時的準確性;召回率是指所有正樣本樣例中被正確識別的正樣本個數所占的比例,能夠反映模型捕捉所有正類樣本的能力;平均精度均值是指每個類別的平均精度的均值,能夠更全面地反映模型的綜合性能。另外以模型權重文件大小(weight file size)、參數量(parameter)、浮點運算次數(floating point operation, FLOP)和推理時間(inference time)作為次要評價指標。模型的權重文件大小是指模型在訓練過程中學習到的參數值的規模,參數量是指模型中所有可訓練參數的總數,浮點運算次數是指模型在前向傳播過程中所執行的浮點運算總數,這3種指標能夠從不同角度評估模型的復雜度[29]。推理時間是指模型對單張圖片進行預測所需的時間,能夠反映模型的檢測效率。本研究旨在驗證:改進的YOLOX-Cotton模型是否優于其他主流的目標檢測方法;引入的CA模塊和SIoU損失函數能否提升模型的綜合性能,以及在不同背景和遮擋情況下能否精準識別不同姿態和品級的棉花。此外,YOLOX-Cotton模型在次要評價指標上的表現不能明顯低于其他模型。

1.3.3 田間試驗設計與評價指標。田間試驗使用智能采棉機的同步帶滑臺模組搭載MSK雙目相機(型號為MSK-SM,500 W像素,速度30幀·s-1)和激光測距儀,選取不同姿態和不同品級的棉花進行試驗(圖1)。首先,通過目標檢測模型獲取各棉花與雙目相機的相對距離 Z■■(n代表第n朵籽棉,m代表第m輪試驗),并計算多次測試數據的樣本標準偏差(standard deviation, S);然后,在不同棉株上方通過移動支架上的激光測距儀測定每個棉花的最高點和最低點與雙目相機的距離,形成區間Dn。考慮到棉花的形狀,尤其是棉花花瓣到花心在深度距離上的變化較大,因此在試驗中觀測Z■■是否在區間Dn內,并分析多次測試數據的樣本標準偏差是否控制在0.01以內。評價和驗證本文模型是否可以識別所有棉花,并獲取準確的棉花深度信息。

1.4 研究方法

1.4.1 技術路線。在棉株上方使用同步帶滑臺模組所裝載的MSK雙目相機獲取棉花圖像數據,然后將圖像數據傳入識別模塊,從而得到棉花的品級、姿態、預測框坐標數據。預測框坐標數據傳入定位模塊,獲得棉花定位點的空間位置。圖2為本研究的技術路線,包含識別模塊和定位模塊。

本文使用YOLOX算法作為主框架,保留其識別模塊,并加入定位模塊。識別模塊使用Focus網絡結構取代普通卷積來提高計算速度,并通過引入注意力機制和新的損失函數來提高模型的性能。改進的識別模塊的網絡結構如圖3所示,可分為3個組成部分:主干網絡(backbone)、頸部層(neck)和YOLO 檢測頭(head)。主干網絡部分采用CSPDarknet作為識別模塊的主要特征提取網絡,能夠從輸入圖像中提取特征并生成特征層。主干網絡的輸出結果傳遞給頸部層,頸部層使用FPN作為識別模塊的增強特征提取網絡,能夠從主干部分獲取的有效特征層中進一步提取邊緣紋理、語義信息等特征。檢測頭則充當識別模塊的分類器和回歸器,用于判斷特征點與物體之間的對應關系。

1.4.2 CA注意力模塊。為使模型能夠在重疊遮擋、背景信息干擾等田間復雜環境下進行準確識別,本研究在YOLOX算法識別模塊Backbon部分的Dark3模塊、Dark4模塊和Dark5模塊之后加入了注意力機制(coordinate attention,CA)模塊,這種注意力機制通過建立通道之間的關系,提高了模型對位置信息的敏感度。相較于其他注意力模塊,CA模塊加入了對位置信息的處理,加強了待測目標的特征信息并弱化背景信息[30],將模型的關注點聚焦在圖片中更重要的位置,從而增強模型的特征信息表達能力,其具體結構如圖4。

CA模塊使用(H,1)和(1,W)的池化核分別沿著橫向、縱向對所有通道進行編碼操作得到2個方向的一維向量,此操作能夠使注意力模塊能夠捕捉1個空間方向的長期依賴關系以及另1個空間方向的位置信息,更好的獲得全局感受視野,提高網絡定位目標的準確度。之后通過拼接操作、卷積操作和非線性激活函數將這兩個向量轉化為注意力權值,與特征圖中的特征向量進行融合后得到CA模塊的輸出特征圖。

1.4.3 SIOU損失函數。為了能夠讓模型的預測框更接近于真實框,更貼近物體的輪廓,本研究采用SIoU[31]作為模型的損失函數,在原模型IoU損失函數的基礎上,增加了角度損失、距離損失以及形狀損失,并重新定義了懲罰度量(圖5)。

1.4.4 定位模塊。定位模塊以通過識別模塊傳入的棉花檢測框中心點數據作為棉花的定位點,如圖6。

之后使用K近鄰算法[32]將多次定位后得到的多個棉花預測框中心點坐標進行歸類,使用中值濾波算法[33]得到每個棉花預測框更為穩定的中心點坐標。

雙目相機測距算法使用灰度處理、直方圖均衡化、圖像畸變消除、立體校正、極線矯正和立體匹配等外部工具對相機左右攝像頭獲取的圖像進行處理并生成視差圖,之后使用三角形相似原理從視差圖中計算出深度Z,如圖7:

根據公式(1)和(2)計算定位點到雙目相機的深度距離Z:

2 結果與分析

2.1 模型訓練結果

圖8為對YOLOX與YOLOX-Cotton進行訓練后的損失函數,可以看出訓練經過300步數后趨于穩定,模型收斂,并且與YOLOX相比,YOLOX-Cotton的損失值更低,訓練效果得到一定的提升。

表3為模型消融試驗的結果,共4組試驗。試驗1為使用YOLOX進行測試;試驗2在YOLOX中加入CA模塊,與試驗1相比,模型的精確率和平均精度均值提升明顯,而召回率提升較小。試驗3在YOLOX中使用SIoU損失函數,與試驗1相比,模型精確率和召回率有明顯提升,而平均精度均值提升較小。試驗4在YOLOX中同時添加CA模塊和SIoU模塊,與試驗1相比,模型的精確率、召回率、平均精度均值均有明顯提升,分別提高了5.2、5.5、6.1百分點。在這4組試驗中,模型在權重文件大小、參數量、浮點運算次數和推理時間上的差異較小。

由YOLOX-Cotton與SSD、Fast R-CNN、YOLOX、YOLOv8的模型訓練結果(表4)可知,YOLOX-Cotton的精確率、召回率、平均精度均值以及在每個類別上的平均精度均大于其他模型,其中平均精度均值比SSD、Fast R-CNN、YOLOX、YOLOv8分別高22.4、52.2、6.1、7.0百分點。同時YOLOX-Cotton模型的權重遠低于SSD、Fast R-CNN,與YOLO系列中的其他模型相近。

為驗證YOLOX-Cotton模型的可靠性,該試驗利用不同干擾條件的棉花對模型進行測試。圖9A展示了YOLOX-Cotton在不同的背景干擾下識別出的正面普通棉花、正面低品級棉花和側面棉花;圖9B表明YOLOX-Cotton模型能夠識別出被小范圍遮擋的棉花,但對于大范圍遮擋的棉花的識別能力依然有限,比如該模型沒有識別出圖9B的左下角棉花,原因在于該棉花展示出的特征信息較少,YOLOX-Cotton模型對其生成的預測值低于檢測閾值,故無法生成預測框。

2.2 田間試驗結果

圖10為YOLOX-Cotton模型在田間試驗中進行棉花識別的結果,結果證明該模型能夠在不同背景下準確識別出正面普通棉花、正面低品級棉花和側面棉花。表5為YOLOX-Cotton模型的棉花深度定位的田間驗證結果,在8輪定位試驗中,7朵棉花均能夠被準確無誤的定位識別,每輪測距的結果均在設置的閾值范圍內,且7朵棉花樣本所測數據的標準偏差均小于0.01 m。

3" " 討論

在模型的消融試驗中(表3),加入CA模塊的YOLOX模型(試驗2)在精確率和平均精度均值上都有明顯提升,但召回率提升有限,說明CA模塊有助于模型捕捉目標的特征信息,減少誤檢和漏檢的情況,從而提升平均精度均值。由于CA模塊并不直接影響召回率,因此對這一指標的提升有限。在YOLOX中加入SIoU損失函數(試驗3),模型的召回率上有明顯改善,證實SIoU損失函數能夠有效促進模型精確地捕捉目標物體的邊界。而SIoU損失函數對模型的平均精度均值提升有限,原因在于提高召回率意味著模型能夠更好地捕捉到真正的正樣本,也容易導致模型將更多無關的負樣本預測為正樣本,從而增加誤報的情況,因此SIoU對模型的平均精度均值的提升并不明顯。在YOLOX中同時添加CA模塊和SIoU模塊的模型(試驗4)在精確率、召回率和平均精度均值都有明顯提升,證明同時引入CA模塊和SIoU損失函數能更好地提高模型的整體性能。與試驗1相比,試驗2、試驗3和試驗4的模型在權重文件大小、參數量、浮點運算次數和推理時間的差異較小,均在可接受的范圍內。綜合4個試驗的結果來看,在YOLOX中引入CA模塊和SIoU損失函數,能夠提升模型的綜合性能。

從模型的訓練結果中可以看出,YOLOX-Cotton的精確率、召回率和平均精度均值分別為92.9%、86.8%和92.4%,對4個棉花類別的識別平均精度分別為94.6%、91.8%、93.2%和90.2%,均大于其他主流的目標檢測模型,權重文件大小遠低于SSD和Fast R-CNN,略高于YOLOx模型。整體來看,YOLOX-Cotton具備更好的綜合性能。

在不同棉花類型及遮擋情況的識別測試結果中,YOLOX-Cotton能夠識別不同姿態和品級的棉花,以及被小范圍遮擋的棉花并對其做出準確的分類,證明該模型具有較強的識別能力和抗干擾能力。但YOLOX-Cotton模型無法識別出被大范圍遮擋的棉花,原因在于棉花被大范圍遮擋后,模型無法獲得足夠的特征信息,導致其識別的精確率下降。相較于傳統圖像處理的棉花識別模型[4-6],YOLOX-Cotton無需人為設計特征提取器,能在復雜環境下對棉花進行識別。相較于基于深度學習的棉花識別模型[7],YOLOX-Cotton不僅識別性能更為精準,還能識別和定位不同姿態和等級的棉花,為采棉機的采摘策略形成提供了更多重要的數據支持。

在深度定位的驗證實驗中,YOLOX-Cotton所測棉花定位點的深度數據的數量與測試棉花的數量一致,代表識別模塊準確地識別出了所有棉花。7朵棉花樣本的深度數據均在相應的深度數據區間內,代表利用YOLOX-Cotton模型所測得的棉花定位點落在棉花上,所測得深度數據能夠代表棉花與雙目相機間的距離。所得樣本標準偏差均低于0.01 m,表明利用YOLOX-Cotton模型測量得到的數據離散程度較小,即每輪檢測中的定位點變化較小,該模型檢測棉花位置的能力具有較高的穩定性。

考慮到試驗結果會受到不同光照條件和背景干擾的影響,因而對訓練所用的數據集進行增強,以提高模型的泛化能力。訓練所用數據集包含不同地區的棉花圖片,沒有包含測試集和田間試驗的棉花圖片,但是YOLOX-Cotton在測試集和田間試驗驗證中仍然獲得了準確的結果,證明其具有較強的泛化能力。

4" " 結論

為解決高質量采棉要求下,采棉機對不同姿態和品級的棉花的識別與定位問題,本文以YOLOX為主體框架,引入CA模塊和SIoU損失函數開發出YOLOX-Cotton檢測方法,包含識別模塊和定位模塊。YOLOX-Cotton模型能夠識別不同姿態和品級的棉花并對其進行精準定位,其精確率、召回率和平均精度均值達到92.9%,86.8%和92.4%,并且有較強的泛化性和魯棒性,能夠豐富采棉機的采棉策略,為高質量采棉提供有力的技術支持。

參考文獻:

[1] 陳常兵. 我國內地棉區棉花生產現狀與發展對策[J/OL]. 中國農技推廣, 2022, 38(10): 10-13[2023-10-11]. https://doi.org/10.3969/j.issn.1002-381X.2022.10.003.

Chen Changbing. Current situation of cotton production and development countermeasures in China's interior cotton region[J/OL]. China Agricultural Extension, 2022, 38(10): 10-13[2023-10-11]. https://doi.org/10.3969/j.issn.1002-381X.2022.10.003.

[2] 陶云平. 棉花經濟效益的影響因素及競爭力提升——評《我國棉花國際競爭力研究》[J]. 棉花學報, 2022, 34(4): 361.

Tao Yunping. Influencing factors of cotton economic efficiency and competitiveness enhancement-review of research on the International Competitiveness of China's Cotton[J]. Cotton Science, 2022, 34(4): 361.

[3] 張賀軒, 徐愛武. 新疆棉花生產地位分析[J/OL]. 中國棉花加工, 2020(4): 4-7[2022-04-21]. https://doi.org/10.3969/j.issn.1003-0662.2020.04.002.

Zhang Hexuan, Xu Aiwu. Analysis of cotton production status in Xinjiang[J/OL]. China Cotton Processing, 2020(4): 4-7[2022-04-21]. https://doi.org/10.3969/j.issn.1003-0662.2020.04.002.

[4] Pabuayon I, Sun Y, Guo W, et al. High-throughput phenotyping in cotton: a review[J/OL]. Journal of Cotton Research, 2019, 2: 18[2023-10-11]. https://doi.org/10.1186/s42397-019-0035-0.

[5] 王勇, 沈明霞, 姬長英. 采摘期成熟棉花不同部位顏色識別分析[J/OL]. 農業工程學報, 2007(4): 183-185[2023-10-11]. https://doi.org/10.3321/j.issn:1002-6819.2007.04.036.

Wang Yong, Shen Mingxia, Ji Changying. Color identification of different parts of mature cotton during picking[J/OL]. Journal of Agricultural Engineering, 2007(4): 183-185[2023-10-11]. https://doi.org/10.3321/j.issn:1002-6819.2007.04.036.

[6] 王玲. 基于圖像特征選擇的田間籽棉成熟度與品級判別技術研究[D]. 南京: 南京農業大學, 2009.

Wang Ling. Research on field seed cotton maturity and grade discrimination technology based on image feature selection[D]. Nanjing: Nanjing Agricultural University, 2009.

[7] 劉坤, 費樹岷, 汪木蘭, 等. 基于改進隨機Hough變換的棉桃識別技術[J/OL]. 農業機械學報, 2010, 41(8): 160-165[2023-10-11]. https://doi.org/10.3969/j.issn.1000-1298.2010.08.033.

Liu Kun, Fei Shumin, Wang Mulan, et al. Cotton peach recognition technology based on improved stochastic Hough transform[J/OL]. Journal of Agricultural Machinery, 2010, 41(8): 160-165[2023-10-11]. https://doi.org/10.3969/j.issn.1000-1298.2010.08.033.

[8] 李海濤, 羅維平. 基于深度學習的棉花品種識別[J/OL]. 武漢紡織大學學報, 2022, 35(4): 22-26[2023-10-11]. https://doi.org/10.3969/j.issn.2095-414X.2022.04.006.

Li Haitao, Luo Weiping. Cotton variety recognition based on deep learning[J/OL]. Journal of Wuhan Textile University, 2022, 35(4): 22-26[2023-10-11]. https://doi.org/10.3969/j.issn.2095-414X.2022.04.006.

[9] 高廣尚. 深度學習推薦模型中的注意力機制研究綜述[J/OL].計算機工程與應用, 2022, 58(9): 9-18[2023-10-11]. https://doi.org/10.3778/j.issn.1002-8331.2112-0382.

Gao Guangshang. A review of research on attention mechanisms in deep learning recommendation models[J/OL]. Computer Engineering and Applications, 2022, 58(9): 9-18[2023-10-11]. https://doi.org/10.3778/j.issn.1002-8331.2112-0382.

[10] 張豪, 郭輝, 韓長杰, 等. 圖像處理技術在采棉機器人中的應用[J]. 農業工程, 2014, 4(5): 35-38[2023-10-11]. https://doi.org/10.3969/j.issn.2095-1795.2014.05.013.

Zhang Hao, Guo Hui, Han Changjie, et al. Application of image processing technology in cotton picking robot[J/OL]. Agricultural Engineering, 2014, 4(5): 35-38[2023-10-11]. https://doi.org/10.3969/j.issn.2095-1795.2014.05.013.

[11] 朱莉, 陳茗溪, 徐勝勇, 等. 基于多層約束立體視覺的采棉機器人視覺系統研究[J/OL]. 農機化研究, 2016, 38(7): 229-233[2023-10-11]. https://doi.org/10.3969/j.issn.1003-188X.2016.07.047.

Zhu Li, Chen Mingxi, Xu Shengyong, et al. Research on vision system of cotton picking robot based on multi-layer constrained stereo vision[J/OL]. Agricultural Mechanization Research, 2016, 38(7): 229-233[2023-10-11].https://doi.org/10.3969/j.issn.1003-188X.2016.07.047.

[12] 許楠, 苑迎春, 雷浩, 等. 基于多器官特征融合的棗品種識別方法[J/OL]. 農業機械學報, 2024, 55(4): 213-220, 240[2024-02-24]. http://kns.cnki.net/kcms/detail/11.1964.s.20240219.1349.004.html.

Xu Nan, Yuan Yingchun, Lei Hao, et al. Recognition of jujube varieties based on multi-organ feature fusion[J/OL]. Journal of Agricultural Machinery, 2024, 55(4): 213-220, 240[2024-02-24]. http://kns.cnki.net/kcms/detail/11.1964.s.20240219.1349.004.html.

[13] 吳烽云, 葉雅欣, 陳思宇, 等. 復雜環境下香蕉多目標特征快速識別研究[J/OL]. 華南農業大學學報, 2022, 43(2): 96-104[2022-01-06]. https://doi.org/10.7671/j.issn.1001-411X.202108009.

Wu Fengyun, Ye Yaxin, Chen Siyu, et al. Research on fast recognition of banana multi-target features by visual robot in complex environment[J/OL]. Journal of South China Agricultural University, 2022, 43(2): 96-104[2022-01-06]. https://doi.org/10.7671/j.issn.1001-411X.202108009.

[14] 王金鵬, 周佳良, 張躍躍, 等. 基于優選YOLOv7模型的采摘機器人多姿態火龍果檢測系統[J/OL]. 農業工程學報, 2023, 39(8): 276-283[2023-10-11]. https://doi.org/10.11975/j.issn.1002-6819.202208031.

Wang Jinpeng, Zhou Jialiang, Zhang Yueyue, et al. Multi-attitude dragon fruit detection system for picking robot based on preferred YOLOv7 model[J/OL]. Journal of Agricultural Engineering, 2023, 39(8): 276-283[2023-10-11]. https://doi.org/10.11975/j.issn.1002-6819.202208031.

[15] Liu W, Anguelov D, Erhan D, et al. SSD: Single shot multibox detector[C]//Computer Vision-ECCV 2016. Lecture notes in computer science. Berlin, Germany: Springer International Publishing, 2016: 21-37.

[16] Wang X, Hua X, Xiao F, et al. Multi-object detection in traffic scenes based on improved SSD[J/OL]. Electronics, 2018, 7(11): 302[2023-10-11]. https://doi.org/10.3390/electronics7110302.

[17] Womg A, Shafiee M J, Li F, et al. Tiny SSD: a tiny single-shot detection deep convolutional neural network for real-time embedded object detection[C]//IEEE: 2018 15th conference on computer and robot vision (CRV). New York, USA: IEEE, 2018: 95-101.

[18] Zhai S, Shang D, Wang S, et al. DF-SSD: an improved SSD object detection algorithm based on DenseNet and feature fusion [J/OL]. IEEE Access, 2020, 8: 24344-24357[2023-10-11]. https://doi.org/10.1109/ACCESS.2020.2971026.

[19] Girshick R. Fast r-cnn[C]//2015 IEEE international conference on computer vision (ICCV). Conference paper. New York, USA: IEEE, 2015: 1440-1448.

[20] Li J N, Liang X D, Shen S M, et al. Scale-aware fast R-CNN for pedestrian detection[J/OL]. IEEE Transactions on Multimedia. 2018, 20(4): 985-996[2023-10-11]. https://doi.org/10.1109/TMM.2017.2759508.

[21] Ren S, He K, Girshick R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J/OL]. Advances in neural information processing systems, 2017, 39(6): 1137-1149[2023-10-11]. https://doi.org/10.1109/TPAMI.2016.2577031.

[22] Bochkovskiy A, Wang C Y, Liao H. Yolov4: optimal speed and accuracy of object detection[J/OL]. arXiv, 2020[2023-10-11]. https://doi.org/10.48550/arXiv.2004.10934.

[23] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection[C]//IEEE: Proceedings of the IEEE conference on computer vision and pattern recognition. New York, USA: IEEE, 2016: 779-788.

[24] Redmon J, Farhadi A. YOLO9000: better, faster, stronger[C]//IEEE: Proceedings of the IEEE conference on computer vision and pattern recognition. New York, USA: IEEE, 2017: 6517-6525.

[25] Redmon J, Farhadi A. Yolov3: An incremental improvement[J/OL]. arXiv, 2018[2023-10-11]. https://doi.org/10.48550/arXiv.1804.02767.

[26] Liu Z, Lin Y, Cao Y, et al. Swin transformer: Hierarchical vision transformer using shifted windows[C]//IEEE/CVF: Proceedings of the IEEE/CVF international conference on computer vision (ICCV). New York, USA: IEEE, 2021: 9992-10002.

[27] Fang W, Wang L, Ren P M. Tinier-YOLO: a real-time object detection method for constrained environments[J/OL]. IEEE Access, 2019, 8: 1935-1944[2023-10-11]. https://doi.org/10.1109/ACCESS.2019.2961959.

[28] 趙永強, 饒元, 董世鵬, 等. 深度學習目標檢測方法綜述[J/OL]. 中國圖象圖形學報, 2020, 25(4): 629-654. https://doi.org/10.11834/jig.190307.

Zhao Yongqiang, Rao Yuan, Dong Shipeng, et al. A review of deep learning target detection methods[J/OL]. Jounal of Image and Graphics, 2020, 25(4): 629-654. https://doi.org/10.11834/jig.190-307.

[29] 邢潔潔, 謝定進, 楊然兵, 等. 基于YOLOv5s的農田垃圾輕量化檢測方法[J/OL]. 農業工程學報, 2022, 38(19): 153-161. https://doi.org/10.11975/j.issn.1002-6819.2022.19.017.

Xing Jiejie, Xie Dingjin, Yang Ranbing, et al. Lightweight detection method for farmland waste based on YOLOv5s[J/OL]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(19): 153-161.https://doi.org/10.11975/j.issn.1002-6819.2022.19.017.

[30] Hou Q, Zhou D, Feng J. Coordinate attention for efficient mobile network design[C]//IEEE/CVF: Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (CVPR). New York, USA: IEEE, 2021: 13708-13717.

[31] Gevorgyan Z. SIoU loss: more powerful learning for bounding box regression[J/OL]. arXiv, 2022[2023-10-11]. https://doi.org/10.48550/arXiv.2205.12740.

[32] Guo G, Wang H, Bell D, et al. KNN model-based approach in classification[C/OL]//Meersman R, Tari Z, Schmidt D C. On The Move to Meaningful Internet Systems 2003: CoopIS, DOA, and ODBASE. Berlin: Springer, 2003: 986-996[2023-10-11]. https://doi.org/10.1007/978-3-540-39964-3_62.

[33] Gupta G. Algorithm for image processing using improved median filter and comparison of mean, median and improved median filter[J/OL]. International Journal of Soft Computing and Engineering, 2011, 1(5): 304-311. https://doi.org/10.1007/b94348.

(責任編輯:莊蕾 責任校對:王國鑫)

主站蜘蛛池模板: 91精品啪在线观看国产| 久久频这里精品99香蕉久网址| 亚洲大学生视频在线播放| 亚洲精品自在线拍| 成人一级免费视频| AV不卡无码免费一区二区三区| 一级做a爰片久久毛片毛片| 亚洲水蜜桃久久综合网站| 亚洲欧洲日韩综合| 亚洲AV无码乱码在线观看裸奔 | www.国产福利| 国产日产欧美精品| 97色伦色在线综合视频| 日韩欧美国产综合| 欧美亚洲欧美| 国产精品亚洲一区二区三区z | 老司国产精品视频91| 国产成人精品优优av| 中文字幕在线视频免费| 国产网站免费| 国产欧美日本在线观看| 一级毛片免费观看不卡视频| 欧美日本在线播放| 一级毛片在线播放免费| 精品国产香蕉伊思人在线| 国产精品手机在线播放| 美女内射视频WWW网站午夜| 一区二区在线视频免费观看| 国产99欧美精品久久精品久久| 欧美日本在线观看| 高潮毛片免费观看| 久久国产乱子伦视频无卡顿| 熟妇人妻无乱码中文字幕真矢织江 | 九九精品在线观看| 亚洲精品成人福利在线电影| 成人精品午夜福利在线播放| 麻豆AV网站免费进入| 国产啪在线91| 国产精品片在线观看手机版 | 久久久久无码精品国产免费| 欧美激情视频二区| 高清免费毛片| 色香蕉网站| 欧美性色综合网| 国产伦精品一区二区三区视频优播| 中文字幕首页系列人妻| 国产午夜一级毛片| 无码日韩视频| 国产精品成人久久| 国产成人亚洲综合a∨婷婷| 香蕉精品在线| 久久这里只精品国产99热8| 国产亚洲欧美在线专区| 粉嫩国产白浆在线观看| 特级精品毛片免费观看| 在线观看91香蕉国产免费| 亚洲综合亚洲国产尤物| 成年看免费观看视频拍拍| 最新无码专区超级碰碰碰| 久久国产乱子| 女人18一级毛片免费观看| 制服丝袜无码每日更新| 亚洲国内精品自在自线官| 重口调教一区二区视频| 国产成人在线无码免费视频| a毛片免费在线观看| 欧美不卡视频在线| 奇米影视狠狠精品7777| aⅴ免费在线观看| 四虎影视库国产精品一区| 精品欧美视频| 日韩欧美网址| 成人字幕网视频在线观看| 青青操国产视频| 一级成人a毛片免费播放| 亚洲AV成人一区二区三区AV| 日本欧美一二三区色视频| 国产成人夜色91| 国产乱子伦一区二区=| 国产日本欧美在线观看| 99r在线精品视频在线播放| 亚洲精品免费网站|