周維 牛永真 王亞煒 李丹














摘要: 針對水稻病蟲害檢測精度低、速度慢、模型復雜度高、部署困難等問題,改進了YOLOv4目標檢測算法,結合輕量化GhostNet網絡,提出了一種基于改進的YOLOv4-GhostNet水稻病蟲害識別方法:1)利用幻象模塊代替普通卷積結構,替換主干特征提取網絡CSPDarkNet53,構建GhostNet模塊進行圖像的特征提取;2)改進YOLOv4網絡的加強特征提取部分PANet結構;3)結合遷移學習與YOLOv4網絡訓練技巧。通過試驗將YOLOv4及其MobileNet系列輕量化網絡與Faster-RCNN系列網絡和SSD系列網絡進行對比,結果表明,改進的YOLOv4-GhostNet模型平均準確率達到79.38%,檢測速度可達1 s 34.51 幀,模型權重大小縮減為42.45 MB,在保持檢測精度達到較高水平的同時模型參數量大幅度降低,適用于部署在計算能力不足的嵌入式設備上。
關鍵詞: 水稻病蟲害檢測; GhostNet網絡; YOLOv4; 輕量化; 遷移學習
中圖分類號: TP391.4?? 文獻標識碼: A?? 文章編號: 1000-4440(2022)03-0685-11
Rice pests and diseases identification method based on improved YOLOv4-GhostNet
ZHOU Wei, NIU Yong-zhen, WANG Ya-wei, LI Dan
(College of Information and Computer Engineering, Northeast Forestry University, Harbin 150040, China)
Abstract: Aiming at the problems of low accuracy, slow speed, high model complexity and difficult deployment in rice pests and diseases detection, the YOLOv4 target detection algorithm was improved. Combined with the lightweight GhostNet network, a rice pests and diseases recognition method based on the improved YOLOv4-GhostNet was proposed. The phantom module was used to replace the ordinary convolution structure, the backbone feature extraction network CSPDarkNet53 was replaced, and the GhostNet module was constructed for image feature extraction. The PANet structure of the enhanced feature extraction part of YOLOv4 network was improved. Transfer learning was combined with YOLOv4 network training skills. YOLOv4 and its MobileNet series lightweight networks were compared with Fast-RCNN series networks and SSD series networks. The results showed that the average accuracy of the improved YOLOv4-GhostNet model was 79.38%, the detection speed was 34.51 frames per second, and the weight of the model was reduced to 42.45 MB. While maintaining high detection accuracy, the number of model parameters is greatly reduced. It is suitable for embedded devices with insufficient computing power.
Key words: rice diseases and pests detection; GhostNet network; YOLOv4; lightweight; transfer learning
水稻是中國主要糧食作物,在中國農業生產中占據重要地位。而水稻病害、蟲害直接影響水稻產量及其經濟效益,水稻病蟲害的研究十分重要 [1-2] 。目前圖像識別與機器學習方法在病蟲害識別領域中廣泛應用。張武等利用K-均值聚類算法和最大類間方差法分割小麥病害圖像 [3] 。馬媛等利用均值漂移算法監督葡萄生長狀態與病蟲害 [4] 。鮑文霞等釆用橢圓型度量矩陣提升SVM分類器識別水稻蟲害能力 [5] 。王映龍等應用圖像處理技術對水稻蟲害進行識別 [6] 。Xia等利用原位檢測方法檢測溫室條件下出現多葉重疊遮擋現象和復雜背景的胡椒葉片病害圖像識別 [7] 。Ye等基于顏色在強光與非強光區域逐漸變換的原理,提出一種基于概率超像素馬爾可夫網絡的抗強光照作物特征方法 [8] 。以上基于機器學習的病蟲害識別方法,實質上是以圖片分類的方式實現,對于復雜背景的圖片需要進行多種算法的處理,且各算法之間存在著特征能力描述和識別速度之間相互排斥的矛盾,提取的特征相似度較高,難以同時識別特征相差較大的病害和蟲害。
隨著深度學習網絡的不斷發展,其應用也被引入到農作物病害識別領域。Mohanty等利用AlexNet和GoogLeNet識別開放數據庫PlantVillage中14種不同植物的26 種病害 [9] 。Ferentinos等利用健康和患病植物葉片圖像,訓練幾種卷積神經網絡,檢測9 種不同的番茄病蟲害 [10] 。房若民等使用MobileNet模型,檢測10個物種,包括27個類型的農業病蟲害 [11] 。燕斌等利用Inception-V3網絡和ImageNet數據集實現8 種病害的識別 [12] 。楊國國等利用優化后的卷積神經網絡識別復雜自然背景下茶園害蟲 [13] 。
基于深度學習的方法往往需要大量數據作為模型訓練基礎,而農業病蟲害檢測數據集構建困難,缺少病蟲害公共數據集,實際數據檢測精度往往較低。為了提升深度學習網絡的精度,往往設計網絡層數更深、結構更復雜、參數量更大的神經網絡,這使得模型訓練時間長,模型復雜度高,部署困難。對于從事水稻病蟲害研究與防治的用戶而言,其設備計算資源、存儲能力往往有限,研究輕量化的水稻病蟲害目標檢測方法十分必要。張陶寧等利用一種改進的YOLOv3-MobileNet目標檢測算法,提升了模型的檢測精度和運算速度 [14] 。李維剛等利用一種基于改進YOLOv4的新型室內場景目標檢測算法,使平均檢測精度達到83.0% [15] 。曹遠杰等利用GhostNet殘差結構進行4 種飲料識別,衡量指標mAP到達79.43%,參數量縮減10% [16] 。張官榮等利用面向小目標檢測的輕量化YOLOv3-CSP算法,實現對原模型參數量95%的壓縮 [17] 。董藝威等應用輕量化卷積神經網絡 SlimNet將參數量降低32%,計算量降低50% [18] ;。劉超軍等應用GhostNet的卷積特征,改進EOC目標跟蹤算法,提高了全程的跟蹤速度 [19] 。
本研究擬構建輕量化GhostNet結構,對YOLOv4框架的主干特征提取網絡CSPDarkNet53進行替換,對加強特征提取金字塔PANet進行改進,并采用基于PASCAL VOC [20] 數據集得到的基礎網絡,進行遷移學習,凍結訓練數據量較小的水稻病蟲害目標檢測模型,同時檢測9種水稻病蟲害。
1 材料與方法
1.1 數據材料
1.1.1 數據采集 擬利用PASCAL VOC數據集對模型進行預訓練。PASCAL VOC數據集數據量大,圖像種類多,具有背景信息豐富、目標提取簡單等易于泛化的圖像特征,其包含了圖片、標簽和訓練集、測試集、驗證集劃分文件。
構建水稻病蟲害數據集,對圖片數據進行采集,圖片來源于百度、谷歌網站,部分圖片如圖1所示。其中水稻病害數據主要有5 類:稻曲病、水稻細菌性條斑病、稻瘟病、水稻胡麻斑病、水稻白葉枯病;水稻蟲害數據主要有4 類:稻飛虱、稻蝗、稻棘緣蝽、螟蟲。采集的數據類別及種類占比信息見表1。由于圖片來源有限,數據量少,擬采用數據增強策略來提高模型對檢測目標的魯棒性。
1.1.2 數據預處理 水稻病蟲害圖像數據總計1 009 張,通過離線數據增強操作對圖像進行加噪聲、反轉、旋轉、平移、光度隨機調節、HVS調節,將數據量擴充至6 054 張,按PASCAL VOC數據集格式,創建水稻病蟲害數據集。利用Python腳本,將增強后的數據圖片以數字序號批量重命名,修改圖片格式,以.jpg格式存入相對應的圖片文件夾中。使用LabelImg軟件人工標定數據,生成.xml格式的標簽文件,記錄所有的目標檢測框的位置、大小和類別信息,命名為對應圖片的編號,存入標簽文件夾。按照63∶ 27∶ 10的比例劃分訓練集、驗證集、測試集。在模型訓練過程中,使用在線增強策略,對輸入圖片數據進行隨機放縮、扭曲、調整色域等增強操作,同時對目標檢測框實施相應的校準,使得每次訓練進入網絡的數據具有不相同的概率,無需將增廣后的數據合成出來,節省了數據的存儲空間,具有很高的靈活性。
1.2 方法
1.2.1 遷移學習 利用公開數據集PASCAL VOC的預訓練權值,得到基礎網絡。修改網絡的通道數,將已經學習到的圖像特征遷移到本研究構建的水稻病蟲害目標檢測網絡上,對模型進行訓練。水稻病蟲害數據集(6 054 張)與PASCAL VOC數據集(20 000 張)相比,數據量小,圖像特征的相似度低,因此采用凍結與訓練(Freeze and Train)策略:凍結預訓練模型中前 K 層主干特征提取網絡的權重,將更多的算力資源分配給后面的 N-K 層網絡。凍結訓練迭代100次后,解凍凍結層,訓練整體網絡100 次。該策略彌補了水稻病蟲害數據集大小不足的缺陷,使得訓練時間與計算資源的利用得到了極大的改善。
1.2.2 經典 YOLOv4算法 作為經典的單階段目標檢測算法,YOLOv4 [21] 網絡模型由以下4部分組成:
輸入端(Input)將尺寸為416× 416× 3的圖像輸入網絡,進行圖像預處理。使用Mosaic數據增強,每次通過對4 張圖片組合進行翻轉、裁剪、色域變化,豐富檢測物體的背景信息,加快批量歸一化(Batch normalization, BN)的計算效率。運用類平滑標簽(Label smoothing)防止數據過擬合。采用自對抗訓練(Self-Adversarial-Training, SAT)在增添擾動的圖像上訓練,進行前、后向對抗式數據增強,提升網絡精度與泛化能力。
基準網絡(BackBone)采用 CSPDarkNet53 ?[22] 特征提取網絡,引入 CSPNet結構,將殘差塊的堆疊拆分成2 個部分,平衡每層的網絡計算量,消除網絡反向優化時梯度信息冗余現象,增強卷積網絡學習能力。采用梯度更為平滑的Mish激活函數 [23] ,增加信息傳播深度。
頸部網絡(Neck)采用空間金字塔池化(Space pyramid pool, SPP) ?[24] 和路徑聚合網絡(Path aggregation network, PANet) [25] 結構。SPP網絡對特征層進行多種尺度的最大池化(Maxpooling)操作,增加主干特征的接受范圍,將重要的上下文特征進行分離。PANet結構對特征金字塔網絡(Feature pyramid network, FPN) [26] 進行了改進,將FPN層自頂向下捕獲強語義特征與PAF自底向上傳達強定位特征組合,解決在傳遞過程中出現淺層信息丟失的問題,實現目標精準定位的功能。
頭部網絡(Head)采用完全比值損失函數(Complete IoU, CIoU),在距離比值算法(Distance-IoU, DIoU)的基礎上,添加重疊率、懲罰項等因素,檢測框的回歸更加穩定。利用非極大抑制算法,考慮邊界框中心點的位置信息,保留最佳預測框,檢測結果更加準確。
YOLOv4整體網絡結構如圖2所示。
訓練時,采用模擬余弦退火 [27] (Cosine annealing)策略降低學習率。余弦函數中隨著 x 的變化,余弦值下降可分為3 個階段:緩慢下降、加速下降、緩慢下降。這種變化模式和預熱學習率的方式配合,減少模型的不穩定因素,加快模型的收斂速度,使得模型慢慢趨于穩定,便于得到全局最優解。
檢測階段,輸入圖像(以輸入尺寸大小416× 416 為例)經過特征提取和融合,被劃分為 A× A 網格。每個網格單元對應3 個預測框,每個預測框帶有5 種信息(2 個中心點坐標偏移量、2 個邊框大小偏移量和1 個目標置信度)、目標的分類結果和檢測概率。如圖3所示,紅色小框部分為目標中心點所在的網格,黃色實線框為真實框,藍色實線框為預測框。
1.2.3 改進的YOLOv4算法
1.2.3.1 幻象模塊Ghost Module的引入 為減少冗余特征圖,提升主干特征提取網絡的運算速度,進一步減小網絡大小和計算量,采用幻象模塊(Ghost module ?[28] )對輸入圖像(Input)進行操作(圖4)。通過1 次卷積(Convolution)生成 m ?個原始特征圖 T ,進行兩部分變換:一部分采用1× 1的普通卷積進行映射(Identity),生成 m ?個必要特征濃縮;另一部分利用深度可分離卷積塊進行逐層卷積,對 T 進行線性變換(Linear transformation)與堆疊(Stack),生成 s ?個幻象特征圖。將 T 映射后的 m ?個特征圖與 s ?個幻象特征圖堆疊,得到 n ?個新特征圖, n= m× s 。
1個幻象模塊具有1個恒等映射和 m× (s-1) ?個線性運算,設普通卷積核大小為 p× p ,每個線性運算規模相同,且線性運算后卷積核大小為 j× j ,輸入圖像高度為 g ,寬度為 k ,輸入通道數為 c ,輸出圖像高度為 g′? ,寬度為 k′? ,其運算量 s 1? 為
s 1 =m×g′ ×k′ ×c×p×p+m×(s-1)×g′ ×k′ ×j×j (1)
而使用普通卷積的運算量為
s 2 =n×g′ ×k′ ×c×p×p (2)
因此,幻象模塊升級普通卷積操作的理論加速比為:
r s =s 2 s 1
=n×g′ ×k′ ×c×p×pm×g′ ×k′ ×c×p×p+m×(s-1)×g′ ×k′ ×j×j
=n×g′ ×k′ ×c×p×p(n/s)×g′ ×k′ ×c×p×p+(n/s)×(s-1)×g′ ×k′ ×j×j=c×p×p(1/s)×c×p×p+(s-1s)×j×j
由于 j<<p ,因此
r s ≈c×p×p(1/s)×c×p×p
即 r s ≈s (3)
同理計算參數壓縮比為
r c =n×c×p×pm×c×p×p+m×(s-1)×j×j
=n×c×p×p(n/s)×c×p×p+(n/s)×(s-1)×j×j
=c×p×p(1/s)×c×p×p+(s-1s)×j×j
≈c×p×p(1/s)×c×p×p
因此
r c ≈s (4)
上述分析結果說明,GhostNet網絡較大地提升了模型的速度和參數量。
1.2.3.2 主干特征提取網絡的替換 YOLOv4網絡將其主干特征提取網絡CSPDarknet53的3個有效特征層,分別傳入加強特征提取網絡SPP和PANet,進行特征金字塔的構建。在改進YOLOv4網絡過程中,利用幻象模塊(Ghost module)代替CSPDarknet53中的普通卷積,獲得幻象瓶頸結構(Ghost bottlenecks),重構主干特征提取網絡,獲取3 個有效特征層。其中,幻象瓶頸結構由多個卷積層和剪短路徑(Shortcut)組成,剪短路徑由下采樣層和步長(Stride)為2的深度卷積DWConv(Depthwise convolution)實現。
改進前后有效特征層尺寸與參數量大小對比數據如表2所示。由表2中參數量大小的變化可知,GhostNet主干特征提取網絡將原CSPDarknet53的參數量減小了28.37%。
1.2.3.3 加強特征提取網絡PANet的改進 在PANet中,利用 3×3 深度可分離卷積(Depthwise separable convolution)和1× 1點卷積代替普通3× 3卷積。深度可分離卷積的實現過程為:逐通道卷積(Depthwise convolution)和卷積核數目相同的特征圖(Feature map)生成,再利用1× 1逐點卷積(Pointwise convolution)在通道的深度上增加權重,生成新的特征圖(圖5)。
設卷積層有 w ?個濾波器,每個濾波器核心尺寸為 h× h ,輸入通道數為 i ,輸出通道數為 j ,輸入圖片尺寸為 c× c ,則:
普通卷積參數量為: w×h×i×j (5)
計算量為: w×h×(c-w+1)×(c-h+1)×i×j (6)
深度可分離卷積的參數量為: w×h×i+i×j (7)
計算量為: w×h×(c-w+1)×(c-h+1)×i+w×h×i×j (8)
深度可分離卷積參數量為普通卷積的 1/j ,且在相同計算量的情況下可以將神經網絡層數加深。PANet網絡的3× 3深度卷積利用不同的卷積核對輸入的通道數進行卷積,再通過點卷積整合深度卷積的輸出特征圖,防止普通卷積層中任意1 個卷積核都需要對所有通道進行操作。
在YOLOv4及其輕量化網絡輸入圖片尺寸相同的條件下,總參數量最低的為GhostNet網絡,為CSPDarkNet53的8.05%,其網絡大小縮減為YOLOv4網絡的6.12%,且較MobileNet系列輕量化網絡也有較大的提升(表3)。利用深度可分離卷積塊改進PANet后,各輕量化網絡參數量下降為原來的25.0%左右,PANet的改進有效降低了網絡的參數量。
1.2.4 試驗準備
1.2.4.1 試驗環境 使用的硬件配置為Intel(R)Core(TM)i7-10750H CPU,NVIDIA GeForce RTX 2060 Ti顯卡, Windows10操作系統。軟件環境為CUDA10.0,Cudnn10.0,采用Pytorch深度學習框架,安裝Scipy、Numpy、Matplotlib、Opencv等軟件進行數據分析與圖像繪制。輸入圖片的尺寸為416× 416× 3,運用馬賽克數據增強和余弦退火學習率策略,平滑標簽設置為0.005。共設置200次迭代,進行4 類損失值觀測。其中,凍結訓練迭代次數為100 次,初始學習率設置為0.001,Batch size為16;解凍訓練迭代次數為100 次,初始學習率為0.000 1 ,Batch size為8。損失函數隨迭代次數的變化關系如圖6所示。由圖6可見,前25次迭代損失值急劇降低,直到50次迭代后變化趨于穩定。后面的迭代過程中,4 類損失值均變化較小,在小范圍振蕩。
1.2.4.2 模型評價機制 水稻病蟲害檢測問題本質上屬于二分類問題。針對一個二分類問題,本研究將9 類待檢測實例劃分為正類和負類。若一個實例是正類,并且被預測為正類,即為真正類(True positive, TP);若一個實例是正類,但是被預測為負類,即為假負類(False negative, FN);若一個實例是負類,但是被預測為正類,即為假正類(False positive, FP);若一個實例是負類,并且被預測為負類,即為真負類(True negative, TN)。于是定義如下評價指標:
精確率( Precision )表示預測為正的所有樣本中真正為正樣本所占的比例,計算公式為:
Precision=TPTP+FP (9)
召回率( Recall )表示真正為正的樣本中被預測為正的樣本所占比例,計算公式為:
Recall=TPTP+FN (10)
F 1值為在 Precision和Recall 的基礎上對 Precision和Recall 進行整體評價, F 1的定義如下:
F1=Precision×Recall×2Precision+Recall (11)
平均精度( AP )為精確率-召回率曲線(Precision-Recall curve)下的面積, Total images 代表數據集中總圖片數目,計算公式為:
AP=∑PrecisionN(Totalimages) (12)
mAP 值為所有待檢測類別(Class)的 AP 的平均值, Total classes 代表數據集中待檢測目標總類別數,計算公式為:
mAP=∑APN(Total classes) (13)
在目標檢測系統中,由于 F 1值與 mAP 評價指標綜合考慮了準確率和召回率,消除了單一評價對結果的影響,因此性能參數優先級別由大到小依次為 mAP 值、 F 1值、準確率和召回率。
2 結果與分析
2.1 遷移學習試驗結果分析
使用預訓練權重與凍結訓練的遷移學習策略,獲得了基礎特征網絡,將PASCAL VOC公開數據集上學習到的知識或模式應用到水稻病蟲害檢測領域中。由表4可見,使用遷移學習策略獲得的基礎特征網絡加強了輕量化網絡提取特征的效率,使得模型在迭代次數較低(200 次)的條件下,獲得近2倍的 mAP 值的提升。融合遷移學習訓練的水稻病蟲害目標檢測模型,平均訓練時間大幅度縮減為原來的近1/12,CPU占用率平均降低約12%,內存使用情況也有所降低。遷移學習策略的應用,大幅度提升了模型的平均訓練速度,降低了對模型訓練的計算機性能要求。
2.2 不同模型對水稻病蟲害目標檢測性能的比較
為驗證改進的YOLOv4輕量化模型對水稻病蟲害目標檢測性能,按照各種評價指標的優先級次序,將其與經典目標檢測模型Faster-RCNN系列、單激發多盒探測(SSD)系列進行對比,并對結果進行分析。圖7顯示,在各目標檢測網絡模型的 mAP 值中,YOLOv4系列目標檢測算法的 mAP 值最低為79.02%,最高可達84.79%,整體性能優于Faster-RCNN系列的63.64%與SSD系列目標檢測模型的63.32%; SSD-MobileNet系列 mAP 值僅為38.38%,YOLOv4系列輕量化模型可達81.60%,實現2.13倍的提升,可見改進的YOLOv4輕量化模型更適合對水稻病蟲害的目標檢測。
表5顯示,改進的YOLOv4系列模型 F 1值明顯高于Faster-RCNN系列與SSD系列模型,YOLOv4-MobileNet對9類檢測目標的 F 1值平均值為0.780,YOLOv4-GhostNet為0.781,表明單階段目標檢測算法YOLOv4在采用了多尺度檢測后,綜合準確率與召回率更好。
圖8顯示,Faster-RCNN系列和未改進的YOLOv4模型坐標點距原點距離過遠,其中未改進的YOLOv4模型訓練時間長達67 020 ?s,模型權重大小達到244.37 MB,相比于SSD系列和改進的YOLOv4輕量化模型,模型大小與參數量規模龐大,在水稻病蟲害檢測中,嚴重消耗算力資源,增加模型檢測成本。
綜合上述分析,SSD系列模型訓練時間最短,模型權重最小,但是準確率過低,無法實現水稻病蟲害的目標檢測任務;Faster-RCNN系列的訓練時間過長,模型權重過大,訓練準確度雖比較SSD系列有所提升,但仍然處于較低水平;YOLOv4目標檢測網絡平衡了準確率、訓練時間、網絡大小與參數量,可以較好地完成水稻病蟲害目標檢測任務。
2.3 不同輕量化YOLOv4模型的水稻病蟲害檢測效果
在水稻病蟲害數據集上,分析YOLOv4模型與其輕量化改進的數據,結果表明各類水稻病蟲害檢測效果的 AP 值(精確度-召回率曲線與 x 軸所圍圖形的面積)基本持平(表6)。其中GhostNet網絡最小,參數量最低, AP 值最高可達97.2%。
與原YOLOv4模型和YOLOv4-MobileNet系列輕量化目標檢測模型對比,YOLOv4-GhostNet的檢測精度 mAP 值略有損失,平均降低1.895個百分點;權重大小僅為YOLOv4的17.37%,比YOLOv4-MobileNet系列平均縮小8 MB;傳輸幀數與原YOLOv4模型相比,每秒提高了11.59幀,相較于YOLOv4-MobileNet系列平均降低了15.20幀;訓練時間比其余4 種模型平均減少了41.72%(表7)。本研究通過對YOLOv4-GhostNet模型部分結構與訓練策略的改進,綜合考慮目標檢測模型的各種評價指標與影響因素,實現了對9 種水稻病蟲害的檢測,在不影響精度的條件下縮減模型規模,降低參數量。改進的YOLOv4-GhostNet模型更適用于配置在普通算力的設備上,進行水稻病蟲害的精準檢測。
2.4 不同數據集與不同數據類別對改進的YOLOv4-GhostNet模型檢測效果的影響
在分析不同數據集對改進的YOLOv4-GhostNet模型檢測效果影響的試驗中,利用水稻病蟲害數據集與其他研究者不同的研究方法和不同的數據集進行對比,并分析水稻病蟲害數據集自身的檢測數量、檢測類別對改進的模型的影響,數據如表8所示。
文獻[28]和文獻[15]分別使用植物幼苗數據集和室內場景數據集對2種模型進行了評估,平均檢測精度( mAP 值)均接近80%,與YOLOv4模型相比,YOLOv4-GhostNet模型和文獻中改進的YOLOv4模型每秒傳輸幀數均獲得提升,但模型的權重大小降低幅度不明顯。本研究在使用PASCAL VOC數據集、水稻病害數據集、水稻蟲害數據集和水稻病蟲害數據集進行對比檢測時,在YOLOv4模型下獲得了較高的 mAP 值,使用改進的模型后, mAP 值和 F 1值略有損失,但權重文件大小縮減為原來的1/6,且傳輸幀數有了近1 s 10幀的提升。
水稻病蟲害數據集(6 054 張)相比于PASCAL VOC數據集(20 000 張)較小,檢測目標物體圖像細節特征不明顯,導致 mAP 值下降。水稻病害、蟲害數據集劃分訓練與合并訓練對改進的YOLOv4-GhostNet模型的各類評價指標均無較大影響,說明該模型對水稻病蟲害檢測具有較強的適應性。
由表5可知,各檢測網絡對稻曲病、稻蝗、稻棘緣蝽等病蟲害的檢測效果較好。這類病蟲害圖像特征表現為檢測目標體積大、密度小、重疊少、種類單一、與背景清晰分離,且數據集制作時標注清晰明確,人為誤差較小。而對于稻飛虱、水稻細菌性條斑病、白葉枯病等病蟲害的檢測效果略差。原因為其圖像特征表現為檢測目標小、數量大、密度高,在進行圖像特征提取時,有效特征數據被縮減。同時在輕量化網絡構建時,由于縮減了網絡參數進而導致細小目標的特征被模糊化,導致檢測 AP 值下降。為降低網絡輕量化與人為標注時產生的誤差,本研究在對該類目標進行數據標注時采用了成組標注法,即對待檢測目標進行區域性標注,使得單個目標檢測框中的目標數量增加,降低有效特征被裁剪的概率,有利于提升目標檢測的準確性,減少人為標注誤差帶來的不良結果。
3 結 論
本研究用構建的GhostNet結構替換YOLOv4目標檢測模型中的主干特征提取網絡CSPDarkNet53,對水稻病蟲害進行特征提取。利用深度可分離卷積代替普通卷積,改進了PANet特征金字塔。結合遷移學習與YOLOv4網絡的訓練技巧,對YOLOv4-GhostNet水稻病蟲害網絡模型進行訓練。改進的YOLOv4-GhostNet模型平均精確度達到79.38%,檢測速度為1 s 34.51 幀,模型權重大小縮減為42.45 MB,在降低參數量和計算量的同時,增加了特征表達能力,提升了水稻病蟲害檢測的性能,輕量便捷。與Faster-RCNN系列、SSD系列和YOLOv4及其MobileNet系列輕量化模型相比,改進的YOLOv4-GhostNet模型各項性能具有較高的水平和較強的魯棒性,為水稻病蟲害目標檢測的具體應用提供了新思路與新方向。
參考文獻:
[1] 商世吉,楊立群,趙庸洛,等. 水稻品種抗稻瘟病性鑒定方法的研究[J].東北農學院學報,1989(4):321-326.
[2] 張亞玲,周萬福,靳學慧. 黑龍江省稻瘟病菌與水稻品種的互作分析[J].東北農業大學學報,2011,42(1):28-33.
[3] 張 武,黃 帥,汪京京,等. 復雜背景下小麥葉部病害圖像分割方法研究[J].計算機工程與科學,2015,37(7):1349-1354.
[4] 馬 媛,馮 全,楊 梅. 基于HOG的釀酒葡萄葉檢測[J].計算機工程與應用,2016,52(15):158-161.
[5] 鮑文霞,邱 翔,胡根生,等. 基于橢圓型度量學習空間變換的水稻蟲害識別[J].華南理工大學學報(自然科學版),2020,48(10):136-144.
[6] 王映龍,戴香糧. 圖像處理技術在水稻蟲害系統中的應用[J].微計算機信息,2007(26):274-275,256.
[7] XIA C, LEE J M , LI Y ,et al. Plant leaf detection using modified active shape models[J]. Biosystems Engineering, 2013,116(1):23-35.
[8] YE M, CAO Z, YU Z , et al. Crop feature extraction from images with probabilistic superpixel Markov random field[J]. Computer & Electronics in Agriculture, 2015, 114:247-260.
[9] MOHANTY S P, HUGHES D P, MARCEL S. Using deep learning for image-based plant disease detection[J]. Frontiers in Plant Science, 2016,7: 14-19.
[10] FERENTINOS K P. Deep learning models for plant disease detection and diagnosis[J]. Computers and Electronics in Agriculture, 2018,145:311-318.
[11] 房若民,沈凱文,李浩偉. MobileNet算法的嵌入式農業病蟲害識別系統[J].單片機與嵌入式系統應用,2020,20(5):61-63.
[12] 燕 斌,周 鵬,嚴 利. 基于遷移學習的小樣本農作物病害識別[J]. 現代農業科技,2019(6):87-89.
[13] 楊國國,鮑一丹,劉子毅. 基于圖像顯著性分析與卷積神經網絡的茶園害蟲定位與識別[J].農業工程學報,2017,33(6):156-162.
[14] 張陶寧,陳恩慶,肖文福. 一種改進MobileNet_YOLOv3網絡的快速目標檢測方法[J].小型微型計算機系統,2021,42(5):1008-1014.
[15] 李維剛,楊 潮,蔣 林,等. 基于改進YOLOv4算法的室內場景目標檢測[J].激光與光電子學進展,2022,59(18):1-19.
[16] 曹遠杰,高瑜翔. 基于GhostNet殘差結構的輕量化飲料識別網絡[J].計算機工程,2022,48(3):310-314.
[17] 張官榮,陳 相,趙 玉,等. 面向小目標檢測的輕量化 YOLOv3算法[J].激光與光電子學進展, 2022,59(16):1-13.
[18] 董藝威,于 津. 基于SqueezeNet的輕量化卷積神經網絡SlimNet[J].計算機應用與軟件,2018,35(11):226-232.
[19] 劉超軍,段喜萍,謝寶文. 應用GhostNet卷積特征的ECO目標跟蹤算法改進[J].激光技術,2022,46(2):239-247.
[20] EVERINGHAM M, GOOL L V, WILLIAMS C, et al. The pascal visual object classes (VOC) challenge[J]. International Journal of Computer Vision, 2010, 88(2):303-338.
[21]WANG C Y, MARK LIAO H Y, WU Y H, et al. CSPNet: a new backbone that can enhance learning capability of CNN[C]//IEEE. 2020 IEEE/CVF conference on computer vision and pattern recognition workshops (CVPRW). Seattle, WA, USA: IEEE Press, 2020: 1571-1580.
[22] 周睿璇,汪俊霖,孫 宏,等. 一種改進YOLO v3的貨車車輪檢測算法[J].山西電子技術,2021(4):37-40.
[23] HE K, ZHANG X, REN S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1904-1916.
[24] LIU S, QI L, QIN H, et al. Path aggregation network for instance segmentation[C]//IEEE. 2018 IEEE conference on computer vision and pattern recognition. Salt Lake City, UT, USA:IEEE Press, 2018: 8759-8768.
[25] LIN T Y, DOLLAR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]//IEEE. 2017 IEEE conference on computer vision and pattern recognition. Honolulu, HI, USA. IEEE Press, 2017: 936-944.
[26] 張 娜,賀興時. 基于模擬退火的自適應正余弦算法[J].紡織高校基礎科學學報,2021,34(1):84-90.
[27] HAN K, WANG Y, TIAN Q, et al. Ghostnet: More features from cheap operations[C]//IEEE. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Washington, USA:IEEE Press, 2020: 1580-1589.
[28] 李文婧,徐國偉,孔維剛,等. 基于改進YOLOv4的植物葉莖交點目標檢測研究[J].計算機工程與應用,2022,58(4):221-228.
(責任編輯:張震林)
收稿日期:2021-12-09
基金項目:國家級大學生創新訓練計劃項目(41111214)
作者簡介:周 維(2001-),女,吉林長春人,本科,研究方向為計算機視覺與病蟲害目標檢測。(E-mail)xingan_cangshu@nefu.edu.cn
通訊作者:李 丹,(E-mail)ld725725@126.com