999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的大田甘藍在線識別模型建立與試驗

2022-05-12 09:31:06翟長遠鄭申玉吳華瑞趙學觀
農業機械學報 2022年4期
關鍵詞:特征檢測模型

翟長遠 付 豪 鄭 康 鄭申玉 吳華瑞 趙學觀

(1.北京市農林科學院智能裝備技術研究中心,北京 100097;2.廣西大學機械工程學院,南寧 530004)

0 引言

甘藍是我國廣泛種植的蔬菜之一,種植面積超過2.53×106hm2,位居所有蔬菜種植面積第3位。其產量與質量受到病蟲害影響,目前病蟲害防治最有效的手段依然是化學農藥噴施[1-3]。目前甘藍植保作業中多采用連續均一的噴藥方式,導致田間殘留量大,不僅增加生產成本,同時嚴重污染環境。對靶施藥是提高農藥利用率的有效方式,而靶標精準識別定位是實現對靶施藥技術的首要條件。目前常用的大田靶標識別技術,主要有機器視覺技術[4-5]、超聲波傳感器探測技術[6]、三維激光雷達探測技術[7],超聲波傳感器及三維激光雷達能判斷區域內靶標是否存在,但其難以準確區分出大田中的作物與雜草。機器視覺技術憑借獲取信息量大、準確和智能的優點,在甘藍識別中具備一定的優勢。

甘藍和雜草顏色相近,且土壤受濕度、光照、枯草等因素影響,背景復雜多變,使得利用單一的圖像特征來檢測甘藍存在很大的困難,為了提高識別精度,研究者相繼采用多特征融合的特征分類器進行靶標識別[8],主要包括支持向量機[9]、神經網絡[10]、遺傳算法[11]等,取得了優異的識別效果。與特征分類器的思想相比,深度學習最大的優勢在于不依賴圖像預處理與數據轉換,自主獲取圖像中的有用特征信息。近年被越來越多的應用于農業靶標識別[12-13]。

采用深度學習技術進行田間甘藍在線識別,面臨兩個主要問題:田間環境復雜,作物識別準確率低;深度學習模型推理過程計算量大,對于移動端部署設備要求算力高、體積小、功耗低。針對以上問題研究人員探索了深度學習模型優化與模型應用方法。在模型的優化過程中側重于提高模型的識別精度而忽略了識別速度[14-16],通過對網絡模型的優化[17-19],一定程度上提高了作物識別準確率,但圖像處理時間增加較大,對于高速行駛下的實時操作,較長的模型圖像處理時間,不可避免地影響作業性能,田間實際應用存在一定困難[20]。在深度學習模型的應用方面眾多學者將模型部署于配備GPU的高性能計算機進行目標識別[21-23]。上述研究推動了深度學習在對靶施藥領域的應用,但研究中使用的GPU功率高,不能滿足大田條件下長時間持續工作要求。

本文以甘藍為靶標,結合其生長早期及中早期病蟲害對靶施藥的需求,針對基于深度學習的甘藍識別模型圖像處理時間長,田間在線識別時使用高功率GPU,不能長時間持續工作的問題,基于深度學習方法搭建一種甘藍在線靶標識別模型,對深度學習模型進行輕量化優化,以提高甘藍識別速度,滿足實際生產需要。同時模型部署于低功率嵌入式設備上,實現大田甘藍實時識別與定位,并輸出甘藍直徑數據,為后續甘藍病害防治與對靶施藥提供依據。

1 甘藍識別模型構建

1.1 數據采集與數據集制作

于2021年5月1日—6月10日,在北京小湯山國家精準農業研究示范基地,從甘藍定植后第5天開始,分6次進行采集,主要采集甘藍幼苗期到蓮座期前期,甘藍之間存在間隙,無相互交疊時期的圖像,如圖1所示,采集設備為大恒工業相機,分辨率為2 592像素×1 944像素,USB 3.0接口,采用垂直向下的方式進行圖像及視頻采集。為保證樣本的全面性,圖像視頻采集時間分別為晴天、多云、陰雨3種室外光照條件,共采集圖像1 380幅。獲得的甘藍圖像數據集雜草生長位置及密度多樣,圖像中均包含多個甘藍目標以及不同雜草,與實際應用情況相同。為提高數據樣本的豐富性,本研究采用圖像旋轉90°、亮度調整、模糊、對比度增強4種方式增強數據集,將數據總數擴充為原來的4倍,采用LabelImg軟件手動標注為YOLO文件格式,獲取到每幅圖像中目標的邊界框坐標矩陣。按照COCO數據集格式,根據比例4∶1∶1將數據集劃分為訓練集、測試集和驗證集。訓練集用于訓練網絡參數,測試集用于模型訓練后模型的泛化誤差評估,驗證集用于對訓練過程中所用到的超參數進行調優,以提高模型的性能。

圖1 不同生長階段甘藍圖像Fig.1 Cabbage images at different growth stages

1.2 甘藍目標檢測模型構建

本研究選擇目前3種主流目標檢測模型Faster R-CNN[24]、YOLO v5s[25]、SSD[26]進行對比研究,以選擇最優甘藍識別遷移學習模型。Faster R-CNN是二階段檢測模型,首先通過RPN網絡(Region proposal network)生成甘藍目標候選框,將候選框映射到特征圖上,輸入全連接層進行目標分類;相較于Faster R-CNN的二階段檢測,YOLO v5s算法將甘藍的分類、定位功能融合于一個神經網絡當中,輸入甘藍圖像只需經過一次網絡計算即可得到圖像中目標邊界框位置以及目標種類。SSD模型結合多尺度檢測的思想,采用多個不同尺度的甘藍特征圖進行檢測,能顯著提高大目標的檢測效果[27]。

根據對比試驗結果,選擇YOLO v5s神經網絡進行優化,搭建針對復雜大田環境中甘藍識別速度快、準確率高的甘藍目標檢測模型。主要優化內容包括:優化卷積計算方式以及甘藍主干特征提取網絡。

1.2.1融合深度可分離卷積

傳統神經網絡使用普通卷積,卷積計算過程如圖2a所示,采用多個3維卷積核對輸入的3通道彩色甘藍圖像進行卷積運算,運算過程中卷積核作用于輸入圖像或者特征圖的每一個通道,其計算量計算公式為

圖2 卷積計算示意圖Fig.2 Convolution calculation diagram

FLOPs=WHCD2K

(1)

式中FLOPs——浮點運算次數

W——圖像像素列數

H——圖像像素行數

C——圖像(特征圖)通道數

D——卷積核尺寸

K——輸出特征圖數量

計算量與輸入圖像分辨率W、H成正比,輸入圖像像素數越大,計算量越大,同時計算量是導致圖像處理時間變長的決定性因素之一。甘藍識別定位中,圖像處理時間限制了圖像處理幀率,同一運動速度下處理幀率越低定位精度越差。同時,嵌入式部署要求模型計算量較小。本文采用深度可分離卷積[28](Depthwise separable convolution)進行甘藍特征提取,深度可分離卷積計算過程如圖2b所示,首先采用二維卷積核分別對彩色甘藍圖像中每一個通道進行卷積運算,得到單通道圖像的甘藍特征,接著使用1×1×M卷積核對通道卷積結果進行卷積運算,融合不同通道下的甘藍特征信息,深度可分離卷積的計算量計算公式為

FLOPs=WHCD2+D2CK

(2)

以采集的3通道彩色甘藍圖像為例,分辨率為480像素×360像素,進行一次卷積時輸出特征圖數量為16,卷積核尺寸為3×3,使用傳統卷積計算量為7.46×107,使用深度可分離卷積計算量為4.67×106。使用深度可分離卷積進行甘藍特征提取相對于傳統卷積計算量減少了93.7%。因此本文使用深度可分離卷積代替YOLO v5s中的傳統卷積。

1.2.2甘藍主干特征提取網絡

主干特征提取網絡用于自動提取圖像中甘藍特征,對識別準確率有重要影響,同時主干特征提取網絡的深度決定模型識別的速度,網絡深度越淺識別速度越快,根據實時識別的要求,本研究通過對比YOLO v5s、MobileNet v3s[29]、ShuffleNet v2[30]輕量化主干特征提取網絡對甘藍特征的提取效果,根據試驗結果選擇MobileNet v3s作為甘藍識別模型的主干特征提取網絡。MobileNet v3s使用H-SWISH代替傳統計算耗時較長的SWISH激活函數,提高了網絡的運算速度。針對甘藍與背景土壤顏色差異較大的特點,采用輕度注意力模塊(Squeeze-and-excitation,SE),SE模塊來源于SENet[31],通過學習不同圖像通道之間的相關性,提高模型對甘藍圖像綠色通道的注意力,SENet模塊計算如圖3所示,甘藍特征圖經過全局池化壓縮成大小1×1×C特征圖,將特征圖輸入兩個全連接層組成的激勵網絡,最后輸出的各通道權重參數與原特征圖對應通道相乘得到經注意力機制處理的特征圖,以提高對圖像中甘藍目標的關注度,提高識別準確率。

圖3 SE模塊Fig.3 SE module

1.2.3甘藍檢測模型整體結構

本研究采用YOLO-mdw,模型結構如圖4所示。YOLO-mdw由主干特征提取網絡、Neck網絡和輸出網絡構成。本文采用輕量級主干特征提取網絡MobileNet v3s代替原始YOLO v5s中的主干特征提取網絡,MobileNet v3s采用深度可分離卷積,相較于傳統卷積計算量大幅度減小;Neck網絡部分采用特征金字塔網絡(Feature pyramid networks,FPN)和金字塔注意力網絡(Pyramid attention network,PAN),FPN提取不同尺度下的甘藍特征信息,并將其融合,在不增加計算量的情況下,提高對小個體甘藍的檢測精度,PAN網絡將甘藍圖像深淺層語意特征進行融合,避免了經過多次卷積操作后特征信息丟失的問題。輸出網絡部分輸出檢測目標邊界框的坐標以及目標種類和置信度。

圖4 甘藍目標識別模型Fig.4 Cabbage target detection model

1.3 模型訓練

本文在對比Faster R-CNN、SSD、YOLO v5s深度學習模型以及測試YOLO v5s、YOLO v5+ShuffleNet v2、YOLO v5+MobileNet v3s、YOLO-mdw不同主干特征提取網絡對甘藍的識別效果時,采用獲取到的甘藍圖像數據集訓練模型。

1.3.1訓練平臺

模型訓練平臺為臺式工作站,工作站配置為:48 GB內存,搭載Intel(R)Core(TM)i9-10900K CPU,主頻3.70 GHz,GPU為NVIDIA RTX 3090,運行環境為Windows 10(64位)操作系統,Python 3.8編程語言版本,Pytorch 1.7深度學習框架。

1.3.2訓練策略

系統實時檢測要求圖像處理速度較快,通過對比不同輸入圖像像素對模型性能影響,選擇訓練輸入圖像尺寸為480像素×360像素,訓練時以16幅圖像作為一個批次進行訓練,每訓練一次更新一次權重,通過前期試驗得到,不同模型收斂時最大迭代次數為500次,為保證試驗時參數的統一性,所有模型訓練迭代次數均為500次,為提升模型性能防止過擬合,選擇隨機梯度下降法(Stochastic gradient descent,SGD)作為訓練優化方法,初始學習率為0.025,動量因子0.6,權重衰減系數0.001。模型訓練完成后,采用Pytorch框架部署于NVIDIA Xavier NX開發板上。

1.3.3評價指標

為全面評估模型性能,采用基于精準率和召回率計算的模型綜合性能評價參數——識別準確率與平均圖像處理時間作為模型評價指標。

1.4 模型測試結果分析

1.4.1目標檢測模型選擇與結果分析

Faster R-CNN、SSD、YOLO v5s目標檢測模型在甘藍數據集上的試驗結果如表1所示。

表1 不同模型性能測試結果Tab.1 Performance test results for different models

由表1可知,YOLO v5s的甘藍識別準確率為95.10%,比Faster R-CNN高3.14個百分點,比SSD高5.21個百分點;YOLO v5s的單幀圖像平均處理時間為7.20 ms,是Faster R-CNN的19%,比SSD快0.95 ms。綜上所述,在甘藍識別準確率以及圖像處理速度上YOLO v5s相對于Faster R-CNN和SSD都有一定的優勢,因此本文選擇YOLO v5s為甘藍目標識別遷移學習模型。

1.4.2不同主干特征網絡模型測試結果與分析

YOLO v5s采用不同主干特征網絡以及本文提出的YOLO-mdw甘藍目標檢測模型,在甘藍數據集上的試驗結果如表2所示。

表2 不同主干特征網絡模型測試結果Tab.2 Cabbage recognizes model test results

從表2可以看出,本文提出的融合MobileNet v3s主干特征提取網絡與深度可分離卷積的YOLO-mdw模型,平均圖像處理時間低于YOLO v5s以及采用ShuffleNet v2和MobileNet v3s主干網絡的目標檢測模型,在識別準確率方面YOLO-mdw的識別準確率為95.67%,高于YOLO v5s、YOLO v5+ShuffleNet v2、YOLO v5+MobileNet v3s。因此本文提出的甘藍目標檢測算法相對于傳統YOLO v5s、YOLO v5+ShuffleNet v2、YOLO v5+MobileNet v3s算法,在甘藍識別準確率和圖像處理時間上有一定優勢。

模型部署于NVIDIA Xavier NX開發板上,性能參數如表3所示。

表3 模型在NVIDIA Xavier NX開發板上性能Tab.3 Model performance on NVIDIA Xavier NX development boards

從表3可以看出,在NVIDIA Xavier NX開發板上模型識別準確率與計算機上相同,在模型圖像處理時間方面,YOLO-mdw模型為53.30 ms,低于YOLO v5s、YOLO v5+ShuffleNet v2、YOLO v5+MobileNet v3s。試驗表明在移動端部署后YOLO-mdw模型在識別準確率和圖像處理時間方面,仍然比YOLO v5s、YOLO v5+ShuffleNet v2、YOLO v5+MobileNet v3s模型有一定優勢。

1.4.3不同圖像分辨率模型測試結果與分析

測試了YOLO-mdw甘藍目標檢測模型在1 296像素×972像素、640像素×480像素、480像素×360像素、360像素×240像素4種不同分辨率下模型的識別準確率和圖像處理時間,試驗結果如表4所示。

從表4可以看出,分辨率為360像素×240像素時,識別準確率相對于1 296像素×972像素下降了3.99個百分點。分辨率為480像素×360像素時識別準確率下降不超過1個百分點,圖像處理時間縮短了154.03 ms,因此選擇480像素×360像素作為識別系統的輸入圖像分辨率。

表4 不同分辨率模型測試結果Tab.4 Results of model performance at different resolutions

2 甘藍定位方法

本文提出的甘藍定位方法流程如圖5所示,主要包括4個步驟:①使用目標檢測模型對相機拍攝到的甘藍視頻中每一幀圖像進行處理,目標檢測模型輸出甘藍目標的邊界框坐標。②將獲取的t幀甘藍目標邊界框坐標使用卡爾曼濾波算法進行處理,對目標在t+1幀中的位置進行預測,同時該預測結果結合目標檢測中的檢測結果,更新t+1幀中的目標結果。③采用匈牙利算法對比t、t+1兩幀圖像中甘藍目標邊界框的馬氏距離,進行最優匹配,建立兩幀圖像中同一個目標的運動關系,避免了同一甘藍在不同幀圖像中重復識別。④在相機視場固定位置設置虛擬線,如圖6所示,當滿足前幀甘藍邊界框前端中點在虛線前,下一幀圖像甘藍邊界框前端中點在虛線后的條件時,判定甘藍運動到指定位置,控制器發出信號,為后續對靶施藥提供信號依據。

圖5 甘藍定位算法流程圖Fig.5 Flow chart of cabbage positioning algorithm

圖6 虛擬線定位示意圖Fig.6 Schematic of virtual line positioning

3 臺架試驗

3.1 光照強度影響試驗

為驗證算法在不同光照強度下的魯棒性,搭建了可調光照強度試驗臺,獲取不同光照強度下的甘藍圖像。其組成如圖7所示,包括載物臺、相機(PSNSSX5268-1080P型)、LED條形光源(沃德普公司,HDL3型)、光源控制器(科麥視覺公司,ACS2.0-2C060W-24PS型)、光照強度傳感器、單片機(Arduino UNO)、計算機(FX-PLUS)。夏季太陽光直射下光照強度為60 000~100 000 lx,選擇的LED條形光源光照強度在0~124 000 lx之間可調。參考文獻[32]將光照強度分級為50、24 800、49 600、74 400、99 200、124 000 lx 6個等級,每個等級拍攝100幅甘藍圖像,使用甘藍目標檢測模型進行識別檢測,并統計識別準確率及目標平均置信度。

圖7 可調光照強度試驗臺Fig.7 Adjustable light intensity test bench1.光源控制器 2.載物臺 3.光照強度傳感器 4.單片機 5.計算機 6.LED條形光源 7.相機

將采集到的6個等級光照下的圖像,每個等級100幅,輸入甘藍目標檢測模型,進行識別驗證,識別結果如圖8所示。

圖8 不同光照強度下目標識別結果Fig.8 Target recognition results under different illumination intensities

不同光照強度下相機采集到的圖像表明,當光照強度低于99 200 lx時,圖像紋理特征較為清晰,當光照強度增加到124 000 lx,甘藍葉片表現出整體或局部反光現象,紋理特征減弱,增加了模型識別難度。

表5為每個光照強度等級下識別準確率和置信度結果,每個光照等級下識別準確率均為100%,但識別置信度有區別,置信度為甘藍目標檢測模型輸出的每個檢測框的種類是甘藍的概率,本文設置置信度閾值為0.5,即檢測框置信度大于0.5時,判定檢測框中目標種類為甘藍,光照強度在50~124 000 lx之間,最小平均識別置信度為0.87,所以在實驗室中,YOLO-mdw模型輸入的圖像光照強度為50~124 000 lx之間時,靜態條件下光照強度變化對甘藍識別準確率無影響。

表5 不同光照條件下識別結果Tab.5 Recognition results of different lighting conditions

3.2 甘藍識別定位精度試驗

為檢測甘藍靶標識別系統的識別、定位準確性以及甘藍識別直徑誤差,搭建了甘藍識別定位試驗臺,其結構如圖9所示。

圖9 甘藍識別定位試驗臺構成圖Fig.9 Composition diagram of cabbage identification and positioning test bench1.同步帶 2.甘藍 3.電機 4.電機調速器 5.示波器 6.光柵傳感器 7.NVIDIA Xavier NX開發板 8.顯示器 9.相機

工作時,在電機的驅動下同步帶可按照設定速度運動,調速范圍在0~1 m/s。同步帶兩側安裝有蘇州固函機械科技公司生產的A06-20型對射式光柵傳感器,傳感器響應時間小于10 ms,光束間距20 mm,常開類型,傳感器對射光線與定位方法設置的虛擬線位于同一位置,當有物體遮擋對射光線時輸出12 V高電平信號,反之輸出低電平。運動甘藍開始遮擋光柵傳感器光幕時,傳感器輸出信號出現上升沿,甘藍離開光幕時刻,信號出現下降沿,通過示波器記錄,同時位于同步帶正上方的攝像頭采集甘藍視頻信息,相機像素100萬像素,幀率為30 f/s,部署于NVIDIA Xavier NX開發板的甘藍靶標識別系統對下方運動甘藍進行實時識別定位處理,開發板的具體參數如下:功率為15 W,集成384個CUDA核心、48個Tensor 核心和2個NVDLA引擎,操作系統為Ubuntu 20.10,同時配置有Pytorch深度學習框。當識別定位系統識別定位到甘藍時,輸出高電平,反之輸出低電平,同時將電平信號保存于示波器(TDS2000型)。試驗臺實物如圖10所示。

圖10 試驗臺實物圖Fig.10 Physical view of test bench

試驗時,通過電機調速器調節同步帶分別以速度0.2、0.4、0.6、0.7、0.8 m/s運動,當同步帶速度運行平穩后,選擇10棵種植于育苗杯中的甘藍,人工平放于同步帶上,隨同步帶運動,在運動到同步帶盡頭時,人工從同步帶上取下甘藍,每棵甘藍重復放置10次,放置順序隨機,根據大田中甘藍株距為30 cm,相鄰放置的兩顆甘藍距離范圍在10~50 cm之間,每個速度下采集100組數據。將同步帶運動方向記為正方向,示波器采集光柵傳感器及甘藍識別系統的輸出信號。

使用甘藍識別定位試驗臺進行試驗,采集到光柵傳感器與識別系統信號,如圖11所示,圖中D1為甘藍實際直徑,D2為系統檢測到的甘藍直徑;ΔL為定位誤差。

圖11 光柵傳感器與識別定位系統輸出信號Fig.11 Output signal of grating sensor and identification and positioning system

光柵傳感器檢測到甘藍時輸出的高電平信號時間乘以同步帶速度得到甘藍實際直徑D1,識別系統輸出的高電平信號時間乘以同步帶速度得系統檢測到的甘藍直徑D2,兩信號的時間差乘以速度,得到甘藍靶標識別系統的定位誤差ΔL。

不同速度下甘藍識別準確率如表6所示,試驗結果表明,本文提出的模型能在甘藍運動速度低于0.6 m/s時有較高的識別效果。當速度提升至0.7 m/s時,由于產生運動模糊,影響甘藍特征提取,識別準確率降低。

(1)還需通過實驗分析改變溫度,實驗時長等條件的變化下對SiBCN先驅體進行分子動力學模擬,并分析結果規律。

表6 甘藍識別準確率Tab.6 Cabbage identification accuracy

在驗證識別準確率的同時,根據光柵傳感器與甘藍識別系統輸出信號的時間差計算甘藍定位誤差,結果如表7所示,試驗表明甘藍平均定位誤差隨速度的增加而增大,該定位誤差主要由圖像處理時間產生。

表7 甘藍定位誤差Tab.7 Cabbage positioning error

甘藍直徑識別誤差如表8所示,可以看出在不同速度下,甘藍直徑識別平均誤差范圍為1.33~1.56 cm,采用SPSS Statistics26數據分析軟件對所得識別直徑誤差數據進行單因素方差分析,分析結果如表9所示,取顯著性水平α=0.05,表中計算得P=0.351,大于著性水平0.05。在實驗室條件下,甘藍直徑識別平均誤差不超過1.56 cm,且誤差與甘藍運動速度無顯著關系。

表8 甘藍直徑識別誤差Tab.8 Detection error of cabbage diameter

表9 單因素方差分析結果Tab.9 Results of one-factor variance analysis

甘藍識別定位準確性試驗表明,在實驗室中甘藍直徑識別誤差與運動速度無顯著關系,甘藍運動速度不大于0.6 m/s時,本文提出的甘藍識別系統對甘藍識別準確率為94%,當速度提升至0.7 m/s時,識別準確率下降為61%,考慮噴霧作業質量要求,作業速度應小于0.6 m/s,此時平均定位誤差為4.13 cm。

4 田間試驗

為驗證甘藍識別模型在大田條件下識別準確性,于2021年9月18日(天氣多云,北風2級,氣溫15~24℃)、2021年9月23日(天氣小雨,東風2級,氣溫17~27℃)、2021年9月29日(天氣晴,東風1級,氣溫16~27℃)在北京市小湯山國家精準農業研究示范基地進行田間試驗。試驗主要采集不同光照條件下的甘藍視頻,采集時將相機安裝于田間移動平臺前端,相機垂直向下拍攝,移動平臺以速度0.5 m/s勻速行進,將視頻輸入甘藍識別模型,統計田間條件下甘藍識別準確率。

不同天氣條件下甘藍識別模型識別結果如圖12所示。多云條件下,光照較均勻,甘藍與雜草顏色相近,但紋理差異較明顯;晴天條件下,光照強度大,圖像亮度大,甘藍葉片葉脈部分反光情況較為嚴重;陰雨天氣條件下,光照較均勻,甘藍紋理輪廓特征清晰,地面存在水印,背景較為復雜。3種天氣條件下均有較好識別效果。

圖12 不同天氣識別結果Fig.12 Results for different weather recognition results

表10為田間甘藍識別準確率結果,其中晴天條件下識別準確率相較于多云天氣低1.61個百分點。晴天條件下識別準確率略低的原因是,強光環境下,作物與雜草表面反光較為嚴重,獲取到的圖像紋理特征變弱,降低了作物與雜草的區分度,增加了目標檢測的難度。本研究中未識別甘藍中存在部分甘藍苗較小,相鄰的雜草較大,對甘藍產生了遮擋,影響了靶標準確識別,進而造成了漏識別。

表10 大田環境甘藍識別準確率Tab.10 Identification accuracy of cabbage in field environment

5 討論

本研究以大田甘藍為研究對象,實現大田復雜環境下甘藍實時識別定位,分析不同光照條件以及不同速度對模型識別定位性能的影響。YOLO-mdw模型部署于NVIDIA Xavier NX開發板上,圖像處理時間為53.30 ms,相對于原始模型提高了19.69 ms,根據識別定位方法原理,速度為0.6 m/s時定位誤差可減小1.18 cm。在0.6 m/s時,平均定位誤差為4.13 cm,定位誤差與圖像處理時間成正相關,該方法用于田間對靶施藥時可進行定位誤差補償,即

L=0.053 3v

(3)

v——噴霧機作業速度,m/s

本文甘藍檢測模型部署采用功率為15 W的嵌入式設備,相較于文獻[21,23]采用高功率的英偉達顯卡進行模型部署,在田間無外接電源情況下,能大幅度提高設備工作時間。

在構建甘藍目標識別系統時,本文采用甘藍視頻輸入甘藍目標模型的方式,結合卡爾曼濾波以及匈牙利算法,通過對識別目標進行跟蹤,建立兩幀圖像間同一個甘藍目標的運動關系,解決攝像頭視場內幀間目標重復識別的問題,相較于姜紅花等[22]采用相機每間隔0.5 s拍攝一幅圖像進行目標識別的方式,本文提出的方法不會因平臺移動速度變化而重復識別甘藍目標,系統使用普適性更具有優勢;本文甘藍識別系統在工作速度為0.6 m/s時,仍有超過94%的識別準確率。相較于文獻[22]中采用計算量較大的Mask R-CNN的對靶施藥系統時工作速度只有0.2 m/s,有效提高了噴藥作業的效率。在速度進一步提高時,識別準確率急劇下降,提取不同速度下相機拍攝到的圖像,如圖13所示,在速度0.2、0.4 m/s時相機拍攝到圖像中的甘藍目標紋理特征以及輪廓特征相對清晰,甘藍運動速度提升到0.6 m/s后,輪廓特征出現一定的模糊,受相機曝光時間影響,速度提升到0.7 m/s和0.8 m/s時,甘藍目標出現嚴重運動模糊,造成甘藍目標檢測模型提取到的有效特征變少,降低甘藍的辨識度,導致識別準確率降低,與文獻[21]得出結論相同。可在圖像輸入深度學習模型前增加圖像去模糊算法,來解決高速運動狀態下識別準確率低的問題。

圖13 不同速度下甘藍拍攝圖像Fig.13 Cabbage shooting effects at different speeds

大田試驗結果顯示本文模型在不同天氣條件下平均識別準確率為94.03%,有5.97%的甘藍未識別或錯誤識別,未識別甘藍如圖14所示。

圖14 未識別甘藍Fig.14 Unrecognized cabbage

從圖14可以看出,甘藍受到惡劣天氣或病蟲害影響,葉片出現殘缺情況,如圖14a所示,這類情況導致甘藍特征數量少、模糊,影響模型識別準確性;對于補栽甘藍,如圖14b,幼苗未成活,葉片數量少,面積小,相機拍攝到甘藍特征少,大部分為甘藍葉片背面特征,模型訓練使用的數據集圖像均為垂直拍攝,更多是甘藍葉片正面特征,導致補栽未成活甘藍識別準確率較低。晴天條件下,如圖14c,對于葉片出現殘缺的甘藍,白色葉脈占比增大,在強光照下,反光嚴重,獲取甘藍紋理特征少,導致出現未識別現象。

3組試驗中總共將179株雜草識別為甘藍,識別錯誤情況如圖15所示。在強光條件下,葉片較光滑類型雜草反光嚴重,與甘藍相似度高,且輸入模型的圖像尺寸為480像素×360像素,分辨率較低,目標特征模糊,進一步降低甘藍與雜草的差異,導致出現識別錯誤現象。

圖15 錯誤識別Fig.15 Error identification

針對小目標、甘藍殘缺信息量少的問題,可構建包含受氣候災害或病蟲害影響和健康甘藍的均勻的綜合性大型數據集,或在輸入甘藍目標檢測模型前,使用相應的圖像處理技術將小目標或殘缺甘藍進行放大,再合并到原圖位置,增加信息量,提高檢測精度。

6 結論

(1)提出一種融合MobileNet v3s主干特征提取網絡與深度可分離卷積的YOLO-mdw甘藍識別模型,并結合卡爾曼濾波、匈牙利算法設計了甘藍定位方法。

(2)實驗室試驗表明,甘藍目標檢測模型輸入圖像尺寸為480像素×360像素,部署于嵌入式設備NVIDIA Xavier NX開發板時推理時間為53.30 ms,光照強度在50~124 000 lx之間識別準確率不受光照強度影響。識別定位試驗表明,甘藍運動速度對甘藍直徑檢測無顯著影響,對識別準確率以及定位準確性有一定影響,速度不大于0.6 m/s時,平均定位誤差為4.13 cm,識別準確率為94%。

(3)田間試驗表明,晴天、多云、陰雨天氣條件下甘藍識別準確率分別為93.14%、94.75%和94.23%,圖像處理時間為54.09 ms,識別效果滿足實際生產中在線精準識別的要求,該方法可為大田甘藍中早期對靶施藥提供技術支撐。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 国产成人一级| 国产亚洲精品自在线| 国产精品无码翘臀在线看纯欲 | av在线人妻熟妇| 欧洲av毛片| 欧美一区二区啪啪| 小蝌蚪亚洲精品国产| 欧美中文字幕在线视频| 蜜桃视频一区| 国产成人欧美| 亚洲综合在线最大成人| 国产在线自揄拍揄视频网站| 久久精品波多野结衣| 另类专区亚洲| 日韩久草视频| 色综合热无码热国产| 尤物在线观看乱码| 中国精品自拍| 97视频在线观看免费视频| 91精品国产丝袜| 色婷婷视频在线| 国产精品大尺度尺度视频| 精品99在线观看| 精品国产欧美精品v| 性喷潮久久久久久久久| 欧美日韩激情在线| 色呦呦手机在线精品| 国内自拍久第一页| 欧美亚洲一区二区三区导航| 精品無碼一區在線觀看 | 精品国产一区二区三区在线观看| 亚洲人人视频| www.精品国产| 91口爆吞精国产对白第三集| 真实国产乱子伦视频| 白浆视频在线观看| 在线观看亚洲精品福利片| 日本妇乱子伦视频| 亚洲成在线观看 | 激情综合网激情综合| 多人乱p欧美在线观看| 中文字幕av无码不卡免费| 国产精品永久免费嫩草研究院| 久久综合一个色综合网| 亚洲日韩AV无码一区二区三区人| 全部毛片免费看| a天堂视频| 在线免费亚洲无码视频| www欧美在线观看| 91精品啪在线观看国产91九色| 欧美精品综合视频一区二区| 久久美女精品| 2021最新国产精品网站| 毛片一级在线| 亚洲精品日产AⅤ| 精品久久国产综合精麻豆| 日韩午夜福利在线观看| 国产成人精品视频一区二区电影| 成人午夜在线播放| 亚洲精品视频网| 欧美精品v欧洲精品| 青青网在线国产| 国产精品无码一区二区桃花视频| 亚洲第一黄色网址| 青青草原国产免费av观看| 免费三A级毛片视频| 亚洲大尺度在线| 99精品视频九九精品| 大学生久久香蕉国产线观看| 色天堂无毒不卡| 青青草原国产精品啪啪视频| 国产最爽的乱婬视频国语对白 | 亚洲欧美一区二区三区图片 | 欧美第九页| 日韩人妻少妇一区二区| 91黄视频在线观看| 国产精品私拍在线爆乳| 一区二区三区高清视频国产女人| 国产乱人伦精品一区二区| 国产专区综合另类日韩一区| 在线国产91| 欧美激情视频二区|