999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于AR眼鏡和改進YOLOv8m-seg的田間小麥赤霉病嚴重度識別方法

2024-12-01 00:00:00徐瑋周佳良錢嘯符首夫
農業大數據學報 2024年4期

摘要:及時發現小麥田間赤霉病發生情況并根據發病嚴重程度采取相應的防治措施,有利于提高小麥的產量和質量。當前識別小麥赤霉病嚴重度的方法大多基于一株或幾株麥穗進行識別,這種方式由于效率較低不適用于田間調查。為解決該問題,該研究提出一種高效準確的田間小麥赤霉病嚴重度識別方法。通過引入CBAM注意力機制以改進YOLOv8m-seg模型的性能。利用改進的YOLOv8m-seg模型對采集的遠景圖像進行小麥麥穗實例分割,然后基于非目標抑制方法進行單株小麥麥穗切圖,再利用改進的YOLOv8m-seg模型對每一株小麥麥穗中的病小穗和健康小穗進行實例分割,最后通過病小穗和健康小穗的數量計算每一株小麥麥穗的赤霉病嚴重度。為驗證本文方法的有效性,構建了小麥麥穗(D-WE)和小麥小穗(D-WS)兩個數據集進行測試。試驗結果表明YOLOv8m-seg在兩個數據集上的綜合性能優于YOLOv8n-seg、YOLOv8s-seg、YOLOv8l-seg和YOLOv8x-seg。引入CBAM的模型優于引入SE、ECA和CA注意力機制的模型,與原模型相比,改進YOLOv8m-seg模型的平均精度均值在兩個數據集上分別提高了0.9個百分點和1.2個百分點。該研究提出的小麥赤霉病嚴重度識別方法與其他三種識別方法相比嚴重度準確率分別提高了38.4個百分點、6.2個百分點和2.4個百分點,通過TensorRT將改進的YOLOv8m-seg模型部署后總算法耗時僅僅為原來的1/7。最后,該研究基于AR眼鏡進行三地的小麥田間赤霉病嚴重度調查,調查結果表明,基于AR眼鏡的小麥赤霉病智能識別平均病穗計數準確率高達0.953,且調查耗時僅為人工調查的1/3,充分說明了該研究提出方法的有效性,為智能化小麥赤霉病田間調查奠定良好的基礎。

關鍵詞:小麥赤霉病;卷積神經網絡;YOLOv8;注意力機制;AR眼鏡

1 "引言

小麥是三大糧食作物之一,在人們生活中起著重要的作用,小麥的產量穩定對保障國家的糧食安全有重大意義[1]。赤霉病是一種小麥田間多發疾病,極大程度地影響小麥的產量和品質,從而影響我國的農業經濟[2]。及時發現小麥田間的赤霉病并根據發病情況采取相應的措施來防治能保證小麥的產量和品質[3]。目前小麥赤霉病田間調查多以人工計數方式為主,這種調查方式勞動強度較大且耗費人力[4]。因此,快速、準確識別小麥赤霉病能極大地減小勞動強度,從而為小麥赤霉病防治提供重要保障。

近年來,越來越多的研究者開展了農作物的病蟲害識別課題[5-8]。早期的方法大多為基于經典數字圖像處理技術來進行病蟲害識別,這種方法通過人工提取顏色、形狀等特征來識別病蟲害,這些方法一般魯棒性較差,很難在室外復雜的環境下準確的識別病蟲害[9]。隨著深度學習技術在農業領域的不斷發展,越來越多的研究者使用卷積神經網絡技術進行病蟲害識別[10-16]。張正華等[17]通過在YOLOv7的主干網絡中引入多頭自注意力機制和使用加權雙向特征金字塔網絡分別提高模型的特征提取能力和提高傳遞特征信息的豐富性,用改進后的模型對麥穗籽粒的檢測精度和召回率分別提高了0.33個百分點和1.83個百分點。鮑文霞等[18]利用UNet對大田環境下的小麥圖像進行分割,再通過設計結構簡單的多路卷積神經網絡分別提取紅綠藍三個通道的特征,最后通過特征融合獲得高辨識性的麥穗圖像語義特征,實驗結果表明他們提出的算法對單株麥穗赤霉病識別精度為100%。類似的,陳鵬等[19]提出一種融合卷積神經網絡和注意力機制的小麥赤霉病語義分割網絡UNetA,該模型的分割平均交并比達到83.9%,分割單張圖片耗時0.588"s。高君等[20]提出一種改進的YOLOv5s來檢測小麥赤霉病,通過引入CBAM來提升模型的檢測精度,使用GhostConv模塊來替換原有的Conv模塊以提高計算速度,該改進的YOLOv5s模型的平均精度均值為93.8%。戴雨舒等[21]使用Deeplabv3+模型對小麥赤霉病發病麥穗識別,實驗結果表明該模型的平均精度達到96.9%。上述小麥赤霉病識別方法大多基于一株或幾株麥穗進行識別,而在田間麥穗通常非常密集,拍攝一株或者幾株這種近景圖片難度較大,此外每次只識別一株或者幾株導致田間調查效率非常低,極大地增加調查人員的勞動強度。因此,現有的小麥赤霉病識別方法很難用于實際的田間調查。

本文基于實際調查場景提出了一種田間小麥赤霉病嚴重度識別方法。首先通過改進的YOLOv8m-seg模型對遠景圖像中的麥穗進行實例分割,然后基于非目標抑制方法將每個單株小麥進行截取,再基于改進的YOLOv8m-seg模型對截取的每個單株小麥圖像進行健康小穗和病小穗的實例分割,最后通過每一株小麥中的健康小穗和病小穗數量計算嚴重度。經試驗驗證,該方法高效準確地實現了田間復雜環境下的小麥赤霉病嚴重度調查。

2 "數據集構建

2.1""小麥赤霉病圖像采集

為了保證數據集的多樣性,本文試驗使用的小麥圖像來源于多個采集點,包括杭州市蕭山區、寧波市寧海縣、金華市蘭溪市、蕪湖市南陵縣。采集時間為2023年4月到6月和2024年4月到5月。采集使用的設備為AR眼鏡搭載的索尼IMX582相機,拍攝時集成了電子防抖、光學防抖和自動對焦功能,拍攝的圖像分辨率為3840×2160像素。為了能夠清楚地拍攝到小麥的發病情況,拍攝角度為平視麥穗。考慮到田間調查大多在白天進行,因此圖片采集均在白天完成。為了均衡拍攝圖像的清晰度和田間赤霉病調查效率問題,拍攝時相機視野內保證有效的小麥麥穗的數量不超過一百株,將無效數據去除后總計采集了977張小麥赤霉病圖像。

2.2""小麥麥穗識別數據集構建

為了構建小麥麥穗識別數據集,將977張原始圖像劃分為訓練集和測試集,其中訓練集總計816張圖片,測試集總計161張圖片。使用Labelme標注工具對977張原始圖像進行標注,標注目標為小麥麥穗,標注結果為一系列小麥麥穗邊緣點的坐標信息。圖中距離較遠處或其他模糊的小麥為無效目標不進行標注,如圖1所示。

每一張圖片的標注信息保存在對應的Json格式文件中。標注完成后將所有Json格式的文件轉換為Txt格式的文件以構建最終YOLO訓練和驗證使用的數據集,將構建的小麥麥穗識別數據集命名為D-WE。

2.3""單株小麥小穗識別數據集構建

為了進一步識別每株小麥麥穗的嚴重度,需要對每一株小麥麥穗中的小穗進行進一步識別。利用2.2節中構建的數據集,將每一株小麥麥穗從原圖中截取為單株圖像。由于截取的圖像為矩形,其中可能包含有其他株小麥中的信息,這會影響模型的識別效果。為此利用已有標注的邊緣點信息將非小麥區域像素點處理為背景色,處理后的每一株小麥麥穗圖像作為單株小麥小穗識別的原始數據。經批量處理并人工剔除模糊不清的小麥麥穗圖像后獲得5864張單株小麥麥穗的圖像,將其劃分為訓練集和測試集,其中訓練集圖片4768張,測試集圖片1096。使用Labelme標注工具對這些單株圖像進行標注,標注目標為健康小穗和病小穗,如圖2所示。

每一張單株圖片的標注信息保存在對應的Json格式文件中。標注完成后將所有Json格式的文件轉換為Txt格式的文件以構建最終YOLO訓練和驗證使用的數據集,將構建的單株小麥小穗識別數據集命名為D-WS。

3""小麥赤霉病嚴重度識別算法

3.1 "算法概述

為了準確識別小麥赤霉病嚴重度,本文提出的小麥赤霉病嚴重度識別方法主要包括以下四個步驟:1)原始圖像經過WE-YOLOv8-seg實例分割后獲得每個小麥麥穗的邊界框和像素區域;2)第二步利用第一步的結果并基于單株切圖和非目標抑制方法獲得不包含背景信息的單株小麥麥穗圖像;3)第三步將第二步獲得的若干單株小麥麥穗圖像通過WS-YOLOv8-seg實例分割后分別獲得每個單株小麥麥穗中的健康小穗和病小穗的數量;4)第四步利用第三步的結果并基于小麥嚴重度計算方法計算出每個單株小麥的赤霉病嚴重度。圖3為本文提出的小麥赤霉病嚴重度識別方法流程圖。

3.2""融入注意力機制的YOLOv8-seg實例分割算法

YOLOv8-seg是ultralytics團隊基于YOLOv8提出的一種實例分割模型,根據模型的深度和寬度可分為n、s、m、l、x五種尺度的模型,這五種尺度的模型參數量依次增大。使用者可根據具體場景選擇最佳的模型。YOLOv8-seg算法分為輸入預處理(preprocess)、主干網絡(backbone)、特征融合網絡(neck)、預測頭(head)和后處理(postprocess)五個部分組成。原始圖像經過預處理后獲得模型輸入圖像,主干網絡的作用是從輸入圖像中提取不同尺度的特征,特征融合網絡將主干網絡提取的多尺度特征進行融合并整合這些特征得到最終用于預測的三個尺度的特征,預測頭則利用特征融合網絡輸出的三個尺度的特征預測分別在三個尺度上的結果,后處理通過將多個尺度上的

結果還原到原圖尺寸并通過非極大值抑制算法來去除冗余的預測結果。

注意力機制是一種提高卷積神經網絡性能的常用方法,一般的模型在提取特征的過程中存在大量的冗余信息,導致特征的有效性降低,模型存在性能瓶頸。在模型中合適的位置引入注意力機制能夠讓模型從大量的特征信息中專注于對識別更為重要的有效信息,從而提高提取特征的有效性來突破模型的性能瓶頸。近年來,卷積注意力機制(Convolutional Block Attention Module,CBAM)因其高效的性能被研究者廣泛使用。CBAM的核心由通道注意力和空間注意力兩個模塊組成。輸入特征依次進入這兩個模塊分別在通道維度和空間維度上來提高有效特征所占的比重。圖4為CBAM結構示意圖。

通道注意力模塊中將輸入分別進行自適應最大池化和自適應平均池化操作分別獲得保留通道信息的兩個特征,這兩個特征再使用多層感知機(Multilayer Perceptron,MLP)整合后相加并使用Sigmoid激活函數將值映射到0-1之間,該值即為每個通道的權重系數,最后將通道權重系數與原輸入特征相乘即為該模塊的輸出。空間注意力模塊中將輸入分別進行最大池化和平均池化操作分別獲得保留尺度信息的兩個特征,這兩個特征進行通道拼接后通過卷積進行整合并使用Sigmoid激活函數將值映射到0-1之間,該值即為每個特征點的權重系數,最后將特征點的權重系數與原輸入相乘即為該模塊的輸出。

本文將CBAM注意力機制引入到YOLOv8-seg模型以提高模型的性能,引入的位置和改進后的YOLOv8-seg模型的結構如圖5所示。

使用改進后的YOLOv8-seg模型分別識別小麥麥穗和單株麥穗中小穗,將識別小麥麥穗的模型命名為WE-YOLOv8-seg,該模型經過預處理后的圖像尺寸為640×640。將識別單株麥穗中小穗的模型命名為WS-YOLOv8-seg,由于單株小麥麥穗圖像通常較小,選擇較大的輸入會引入大量的無效信息,因此該模型經過預處理后的圖像尺寸為320×320。

3.3""單株小麥切圖與單株小麥赤霉病嚴重度計算方法

3.3.1""基于非目標抑制方法的單株小麥切圖

本文的小麥赤霉病嚴重度識別方法第二步需要將每一株小麥麥穗從原圖上截取出來,由于小麥田間麥穗分布非常密集,導致截取某個小麥麥穗的圖像中會存在其它小麥麥穗,從而影響后續WS-YOLOv8-seg識別小麥小穗。為解決這個問題,本文提出一種非目標抑制的方法將非當前小麥麥穗像素處理為背景。WE-YOLOv8實例分割后能夠獲取每個小麥麥穗的像素區域和坐標位置。本文提出的非目標抑制方法的單株小麥切圖通過坐標位置進行切圖,通過像素區域進行非目標抑制,如圖6所示。

3.3.2""單株小麥赤霉病嚴重度計算方法

為了對單株小麥赤霉病發病程度進行量化,國家制定了相應的量化標準[22]。根據單株小麥麥穗中出現穗腐癥狀(或由稈腐引起的白穗癥狀)的病小穗數占全部小穗的比例劃分為5個級別,病小穗數量為0即為0級,病小穗占全部小穗的0-0.25為1級,病小穗占全部小穗的0.25-0.5為2級,病小穗占全部小穗的0.5-0.75為3級,病小穗占全部小穗的0.75以上為4級。本文在提出的小麥赤霉病嚴重度識別算法第三個步驟中利用WS-YOLOv8實例分割可以獲得每株小麥中病小穗和健康小穗的數量,再根據國家標準中方法計算單株小麥的嚴重度。

4""試驗結果與分析

4.1 "試驗環境與訓練參數

本文中試驗硬件環境為:GPU NVIDIA RTX 4090,CPU Intel I9-13900KF,內存32GB。軟件環境為:操作系統Windows 11,深度學習框架Pytorch2.2.2,CUDA11.8。模型訓練初始學習率為0.01,學習率優化器為SGD,SGD的動量系數為0.937,權重衰減系數為0.0005,訓練總周期數為400。

4.2 "評估指標

為驗證本文提出的小麥赤霉病嚴重度識別算法的有效性,采用精確率(Precision,P)、召回率(Recall,R)和平均精度均值(mean Average Precision,mAP)作為評價WE-YOLOv8和WS-YOLOv8模型性能的評價指標,嚴重度準確率(Severity Accuracy,SA)作為評價小麥赤霉病嚴重度識別算法的評價指標。它們的計算公式如下:

(1)

(2)

(3)

(4)

式中:TP為識別正確的樣本數量,FP為識別錯誤的樣本數量,FN為漏識別的樣本數量,Fi為預測的赤霉病嚴重度等級,Ai為實際的赤霉病嚴重度等級。對于某個預測框而言,若沒有真實框與它的交并比大于0.5,則該預測框為識別錯誤的樣本;若存在真實框與它的交并比大于0.5,取交并比最大的那個真實框,若該真實框與預測框的預測類別相同則為識別正確樣本,反之則為識別錯誤樣本;對于某個真實框而言,若沒有預測框與它的交并比大于0.5,則該真實框為漏識別的樣本。

4.3""YOLOv8-seg不同尺度模型的性能對比

為了選擇最佳尺度的YOLOv8-seg模型以達到精度和速度的平衡,本節對n、s、m、l、x五種不同尺度的模型進行訓練并評估,使用的數據集為上文中的D-WS和D-WE。試驗結果如表1所示。

從表1中試驗結果可以看出,在D-WE數據集上YOLOv8m-seg模型的精確率和平均精度均值最高,YOLOv8l-seg模型的召回率最高,YOLOv8m-seg的召回率略低于YOLOv8l-seg。在D-WS數據集上YOLOv8m的平均精度均值最高,YOLOv8s-seg模型的召回率最高,YOLOv8l模型的精確率最高。在推理時間方面,YOLOv8m-seg單次推理耗時約5.7ms,比YOLOv8l-seg和YOLOv8x-seg耗時少,相較于參數量較少的YOLOv8n-seg和YOLOv8s-seg耗時多。綜合幾種尺度模型在兩個數據集上的性能對比結果,YOLOv8m-seg在兩個數據集上有3項指標最優,YOLOv8s-seg有1項最優,YOLOv8l-seg有2項最優。因此,本文最終選擇YOLOv8m-seg作為實例分割模型,該模型的總體精度優于其他尺度模型,推理耗時也能滿足實際需求。

4.4 "不同注意力機制在YOLOv8m-seg中不同位置的性能對比

為了提高YOLOv8m-seg識別精度,在模型中不同的位置引入不同的注意力機制進行訓練評估以獲得性能最佳的模型。本文對比的注意力機制有CA、ECA、SE和CBAM,由于注意力機制一般插入到網絡的特征提取模塊后面以提高提取特征的有效性,因此本節的對比試驗中注意力插入模型的位置分別為backbone中的第二到第四個C2f模塊后面和neck中所有C2f后面。表2為不同注意力機制在YOLOv8m-seg模型中不同位置中的性能對比情況。

從表2中模型在D-WE數據集上的試驗結果可以看出,引入CBAM到YOLOv8m-seg模型的backbone中時,模型的精確率、召回率和平均精度均值分別提高了0.2個百分點、1.0個百分點和0.9個百分點,而將CBAM引入到neck中或者backbone和neck中模型的性能提升較少甚至降低,此外引入CBAM注意力機制后模型的性能也優于引入其他幾種注意力機制。從表2中模型在D-WS數據集上的實驗結果可以看出,引入CBAM到YOLOv8m-seg模型的backbone中時,模型的精確率、召回率和平均精度均值分別提高了0.4個百分點、0.9個百分點和1.2個百分點,優于在neck或backbone和neck中引入CBAM后的模型,雖然在模型的backbone中引入SE注意力機制時精確率最高,但模型的召回率略下降。類似的,在模型的backbone中引入CA注意力機制時召回率最高,但模型的精確率略下降。因此,通過對比該試驗結果,將CBAM引入到模型的backbone中是最優的,此時的改進YOLOv8m-seg模型相比原YOLOv8m-seg模型在兩個數據集上均表現出更優的性能。

4.5 "不同小麥赤霉病嚴重度識別算法對比

為了充分驗證本文提出的小麥赤霉病嚴重度識別算法的有效性,將本文提出的方法與另外三種方法進行對比。對比的第一種方法為直接用YOLOv8m-seg在原圖中分割小麥麥穗和小麥小穗,然后進行匹配后計算嚴重度。對比的第二種方法前兩個步驟與本文方法相同,第三個步驟替換為使用YOLOv8m目標檢測模型來檢測單株麥穗的小穗,第四個步驟與本文方法相同。對比的第三種方法前兩個步驟與本文方法相同,第三個步驟替換為使用UNet來分割單株小麥中的健康小穗和病小穗,第四個步驟替換為通過病小穗占單株麥穗的面積來計算嚴重度。對比使用的評價指標為3.2節中的SA,結果如表3所示。

從表3中試驗結果分析可以看出本文提出的小麥赤霉病嚴重度識別方法嚴重度精確率高達94.8%,與其他三種方法相比分別提高了38.4個百分點、6.2個百分點和2.4個百分點,優于其他三種方法。第一種方法由于小麥小穗較小,直接在原圖中利用YOLOv8m-seg識別小麥小穗時包含了大量的背景信息,導致模型識別小麥小穗的精度太低,從而導致嚴重度精確率低。第二種方法與本文方法對比僅識別單株麥穗中小穗的模型不同,導致嚴重度精確率差異主要原因是YOLOv8m-seg實例分割模型相較于YOLOv8m目標檢測模型學習了更多的信息,對于小穗的區域更加關注。第三種方法用面積來近似計算赤霉病嚴重度會受病小穗中生病面積的影響,此外UNet語義分割模型由于更加關注對每個像素點的分類,缺乏全局信息,很容易受到光線的影響把健康區域識別為生病區域,從而導致其精度略低于本文提出的方法。

4.6 "小麥赤霉病嚴重度識別算法部署

Pytorch框架由于其性能的局限性通常不適合實際的算法部署。TensorRT是英偉達基于CUDA提出的一種推理框架,該框架能提高硬件適配性和模型的推理速度。從Pytorch框架轉換到TensorRT框架需要經過Onnx框架中轉,即先將Pytorch框架下的模型轉換為Onnx框架下的模型,再將其轉換為TensorRT框架下的模型。此外,在算法部署時C++由于其優秀的運行效率被研究者們廣泛使用。本文基于C++版的TensorRT框架對提出的算法進行部署,并通過對多張小麥赤霉病圖像進行識別與原Python版的Pytorch框架的算法進行時間,結果如表4所示。

本文提出的小麥赤霉病嚴重度識別算法的第三個步驟的輸入數量為第一個步驟中識別的麥穗的數量,因此當識別的麥穗數量越多算法耗時就越長。從表4中試驗結果可以看出,將本文提出的小麥赤霉病嚴重度識別算法通過C++版的TensorRT推理框架部署后整個算法的耗時相較于原Python版的Pytorch框架有大幅度的減少,平均算法耗時約為1.036s,僅為原來的1/7。說明通過TensorRT推理框架部署后極大地提高了小麥赤霉病嚴重度算法的效率,減少了田間調查的耗時。圖7為部署后算法的識別結果。

5""基于AR眼鏡的田間小麥赤霉病嚴重度調查試驗

本文將提出的小麥赤霉病嚴重度識別算法與AR眼鏡相結合來進行田間調查,圖8為整個流程圖。

調查人員佩戴AR眼鏡并進入小麥赤霉病調查場景,通過語音識別來觸發拍照指令,拍照完成后將拍攝的圖片通過網絡傳輸到識別服務器上進行識別,識別服務器完成識別后將識別結果返回到AR眼鏡端并在眼鏡中顯示結果同時后臺保存識別結果到數據庫中。本次田間調查分別在寧海、蕭山和金華進行,將AR眼鏡識別的結果與人工統計的結果進行統計對比,并通過計數準確率(Counting Precision,CP)來評價AR眼鏡識別的效果,CP的計算方式如式(5)所示,

(5)

式中N為人工計數數量,Np為AR眼鏡識別的數量。

表5為本次田間調查試驗結果。從表中試驗結果可以看出,蕭山和金華田間病穗率較低發病較輕,寧海的病穗率較高發病較嚴重。AR眼鏡在蕭山、寧海和金華三地不同發病率的田間識別小麥麥穗總數的計數準確率分別為0.944、0.924和0.923,識別小麥病穗的計數準確率分別為0.948、0.947和0.963,識別小麥麥穗總數和小麥病穗數的平均計數準確率分別為0.930和0.953。在對不同的嚴重度等級的小麥進行識別中,對嚴重度為0級、1級、2級、3級的識別平均計數準確率分別為0.910、0.957、0.926、0.825,對4級病穗的識別平均計數準確率較低,僅為-0.03,原因主要是樣本偏少,偶然性較大。

此外,在本次田間調查試驗過程中,對人工統計方式和AR眼鏡識別方式分別進行了耗時統計,每塊系統田對近800株的樣本調查,傳統人工調查用時約30分鐘,使用AR眼鏡調查用時約9分鐘。即使用AR眼鏡進行田間小麥赤霉病嚴重度調查時間僅為傳統人工調查的1/3左右,同時使用AR眼鏡進行調查的病穗率計數準確率高達0.953,說明使用AR眼鏡進行田間小麥赤霉病調查在保證較高的準確率的前提下極大地縮短了調查時間,大幅度降低了調查人員的勞動強度。

6""結論

為及時發現小麥田間赤霉病的發病情況并做出相應防治措施,本文提出了一種田間小麥赤霉病嚴重度識別方法。首先利用WE-YOLOv8m-seg模型對小麥麥穗進行實例分割,其次通過基于非目標抑制方法進行單株小麥切圖,再將切取后的單株小麥通過WS-YOLOv8m-seg模型對單株小麥的小穗進行實例分割以檢測健康小穗和病小穗,最后通過國家調查規范中赤霉病嚴重度計算方法計算出單株小麥的嚴重度。

本文提出的WE-YOLOv8m-seg小麥麥穗實例分割模型與原模型相比準確率、召回率和平均精度均值分別提高了0.2個百分點、1.0個百分點和0.9個百分點,提出的WS-YOLOv8m-seg單株小麥小穗實例分割模型與原模型相比準確率、召回率和平均精度均值分別提高了0.4個百分點、0.9個百分點和1.2個百分點。

將本文提出的小麥赤霉病嚴重度識別方法與另外三種方法進行了對比,結果表明本文提出的方法嚴重度準確率高達94.8%,優于另外三種方法。此外,本文通過TensorRT推理框架對算法進行部署加速,部署后的算法耗時僅為原來的1/7。

基于搭載了本文提出的小麥赤霉病嚴重度識別算法的AR眼鏡進行小麥赤霉病田間調查試驗,結果表明AR眼鏡識別的小麥赤霉病病穗計數準確率高達0.953,同時使用AR眼鏡進行田間調查耗時僅為人工調查的1/3左右。

因此,使用AR眼鏡進行田間調查是未來大勢所趨,不僅有較高的準確率,同時也能大幅度減少調查耗時從而降低調查人員的勞動強度。

參考文獻

[1] 王成社,張保軍,單明珠.入世后我國小麥生產面臨的挑戰及其對策[J].水土保持研究,2002(2):67-69.

[2] 黃沖,姜玉英,吳佳文,等.2018年我國小麥赤霉病重發特點及原因分析[J].植物保護,2019,45(2):160-163.

[3] 陳云,王建強,楊榮明,等.小麥赤霉病發生危害形勢及防控對策[J].植物保護,2017,43(5):11-17.

[4] 商鴻生,張文軍,井金學.小麥赤霉病菌源的田間分布型和取樣調查方法[J].西北農林科技大學學報(自然科學版),1991(S1):66-70.

[5] 姚建斌,張英娜,劉建華.基于卷積神經網絡和遷移學習的小麥病蟲害識別[J].華北水利水電大學學報(自然科學版),2022,43(2):"102-108.

[6] 劉奕.計算機視覺技術在農作物病蟲害檢測中的運用研究[J].科技資訊,2024,22(13):154-156.

[7] 毛銳,張宇晨,王澤璽,等.利用改進Faster-RCNN識別小麥條銹病和黃矮病[J].農業工程學報,2022,38(17):176-185.

[8] 馬超偉,張浩,馬新明,等.基于改進YOLOv8的輕量化小麥病害檢測方法[J].農業工程學報,2024,40(5):187-195.

[9] 溫艷蘭,陳友鵬,王克強,等.基于機器視覺的病蟲害檢測綜述[J].中國糧油學報,2022,37(10):271-279.

[10] 周善良,李銳.基于卷積神經網絡的農作物病蟲害識別研究綜述[J].智慧農業導刊,2024,4(17):39-45.

[11] 慕君林,馬博,王云飛,等.基于深度學習的農作物病蟲害檢測算法綜述[J].農業機械學報,2023,54(S2):301-313.

[12] 徐博文,童孟軍.基于改進的Faster R-CNN的小麥麥穗檢測識別[J].湘潭大學學報(自然科學版),2022,44(4):48-59.

[13] 韓弘煒,張漪埌,齊立萍.基于卷積神經網絡的農作物病蟲害檢測綜述[J].智慧農業導刊,2023,3(6):6-9.

[14] 高偉鋒.基于YOLOv8的柑橘病蟲害識別系統研究與設計[J].智慧農業導刊,2023,3(15):27-30.

[15] 楊鋒,姚曉通.基于改進YOLOv8的小麥葉片病蟲害檢測輕量化模型[J].智慧農業(中英文),2024,6(1):147-157.

[16] 鄧國強,王君嬋,楊俊,等.基于圖像和改進U-net模型的小麥赤霉病穗識別[J].麥類作物學報,2021,41(11):1432-1440.

[17] 張正華,吳宇,金志琦.基于MHSA-YOLOv7的小麥赤霉病感染率檢測[J].無線電工程,2024,54(1):71-77.

[18] 鮑文霞,孫慶,胡根生,等.基于多路卷積神經網絡的大田小麥赤霉病圖像識別[J].農業工程學報,2020,36(11):174-181.

[19] 陳鵬,馬子涵,章軍,等.融合注意力機制的小麥赤霉病語義分割網絡[J].中國農機化學報,2023,44(4):145-152.

[20] 高君,張正華,邵明,等.基于改進YOLOv5s的小麥赤霉病檢測方法[J].信息與電腦(理論版),2023,35(12):61-65.

[21] 戴雨舒,仲曉春,孫成明,等.基于圖像處理和Deeplabv3+模型的小麥赤霉病識別[J].中國農機化學報,2021,42(9):209-215.

[22] GB/T 15796-2011,小麥赤霉病測報技術規范[S].

引用格式:徐瑋,周佳良,錢嘯,符首夫.基于AR眼鏡和改進YOLOv8m-seg的田間小麥赤霉病嚴重度識別方法[J].農業大數據學報,2024,6(4):"497-508. "DOI: 10.19788/j.issn.2096-6369.000065.

CITATION:"XU Wei, ZHOU JiaLiang, QIAN Xiao, FU ShouFu. Severity Recognition Method of Field Wheat Fusarium Head Blight Based on AR Glasses and Improved YOLOv8m-seg[J]. Journal of Agricultural Big Data, 2024,6(4):"497-508. DOI: 10.19788/j.issn.2096-6369.000065.

Severity Recognition Method of Field Wheat Fusarium Head Blight Based on AR Glasses and Improved YOLOv8m-seg

XU Wei, ZHOU JiaLiang*, QIAN Xiao, FU ShouFu

JinHeTech, Beijing 100027, China

Abstract:"Timely detection of the severity of Fusarium head blight in the field and taking corresponding prevention and control measures based on the severity of the disease can improve the quality of wheat production. The current methods for identifying the severity of wheat Fusarium head blight are mostly based on identifying one or several wheat ears, which is not suitable for field investigations due to its low efficiency. To address this issue, the study proposes an efficient and accurate method for identifying the severity of wheat Fusarium head blight in the field. By introducing CBAM attention mechanism to improve the performance of YOLOv8m-seg model. Using the improved YOLOv8m-seg model to segment wheat ear instances in the collected distant images, and then using non target suppression method to cut individual wheat ear. Then, using the improved YOLOv8m-seg model to segment diseased and healthy spikelets in each wheat ear, the severity of Fusarium head blight in each wheat ear is calculated based on the number of diseased and healthy spikelets. To verify the effectiveness of the method proposed in this article, two datasets were constructed for testing, namely dateset of wheat ear (D-WE) and dateset of wheat spikelet (D-WS). The experimental results show that YOLOv8m-seg has better overall performance than YOLOv8n-seg, YOLOv8s-seg, YOLOv8l-seg, and YOLOv8x-seg on two datasets. The model that introduces CBAM is superior to the model that introduces SE, ECA, and CA attention mechanisms. Compared with the original model, the mean average precision of the improved YOLOv8m-seg model has increased by 0.9 percentage points and 1.2 percentage points on two datasets, respectively. The severity recognition method for Fusarium head blight proposed in this study has improved the severity accuracy by 38.4 percentage points, 6.2 percentage points, and 2.4 percentage points compared to the other three recognition methods. After deploying the improved YOLOv8m-seg model through TensorRT inference framework, the total algorithm time consumed is only 1/7 of the original. Finally, this study conducted a investigation on the severity of wheat Fusarium head blight in three locations based on AR glasses. The results showed that the average counting accuracy of intelligent identification of wheat Fusarium head blight based on AR glasses was as high as 0.953, and the investigation time is one-third of the manual investigation time. This fully demonstrates the effectiveness of the proposed method and lays a good foundation for intelligent field investigation of wheat Fusarium head blight.

Keywords: Fusarium head blight; CNN; YOLOv8; attention mechanism; AR glasses

主站蜘蛛池模板: 2021国产乱人伦在线播放| 日韩精品无码免费一区二区三区| 久久久久久午夜精品| 男女精品视频| 试看120秒男女啪啪免费| 无码免费试看| 中文无码精品A∨在线观看不卡| 72种姿势欧美久久久大黄蕉| 免费无遮挡AV| 美女国产在线| 福利在线不卡| 国产欧美网站| 亚洲综合日韩精品| 国产精品va免费视频| 亚洲男人的天堂在线观看| 久久青草精品一区二区三区 | 亚洲三级a| 伊人丁香五月天久久综合| 日韩天堂在线观看| 99在线视频免费| 国产黄在线观看| 午夜电影在线观看国产1区| 欧美区一区| 亚洲美女一级毛片| 欧美乱妇高清无乱码免费| 国产白丝av| 免费中文字幕一级毛片| 亚洲精品动漫| 国产91在线|日本| 久久精品人妻中文视频| 日本道综合一本久久久88| 日本人又色又爽的视频| 亚洲Aⅴ无码专区在线观看q| 亚洲欧美一区二区三区蜜芽| 亚洲国产精品成人久久综合影院| 亚洲日本中文字幕天堂网| 国产永久免费视频m3u8| 久久鸭综合久久国产| 欧美日本在线观看| 亚洲欧美在线看片AI| 99热这里只有精品5| 亚洲精品视频免费观看| 日本草草视频在线观看| 欧美成人免费一区在线播放| 91青青草视频| 亚洲香蕉在线| 露脸一二三区国语对白| 91国内在线观看| 中文精品久久久久国产网址| 熟妇丰满人妻| 国产91小视频在线观看| 激情综合网激情综合| 亚洲欧美日韩成人高清在线一区| 国产色爱av资源综合区| 国产精品开放后亚洲| 99中文字幕亚洲一区二区| 成人蜜桃网| 国产人成在线观看| 熟女成人国产精品视频| 国产精品女熟高潮视频| 免费在线播放毛片| 日本在线免费网站| 新SSS无码手机在线观看| 精品国产aⅴ一区二区三区| 天天色综合4| 萌白酱国产一区二区| 国产成人综合日韩精品无码不卡| 99性视频| 日韩最新中文字幕| 久久99久久无码毛片一区二区| 日本一区二区三区精品AⅤ| 乱系列中文字幕在线视频| 久久一日本道色综合久久| 亚洲无线视频| 无码日韩人妻精品久久蜜桃| 67194在线午夜亚洲| A级毛片无码久久精品免费| 亚洲,国产,日韩,综合一区| 永久成人无码激情视频免费| 亚洲AV色香蕉一区二区| 国产迷奸在线看| 中文字幕在线欧美|