徐 妍
(浙江農林大學,浙江 杭州 310000)
根據聯合國糧食及農業組織發布的一份報告指出,每年農業生產自然損失的30%以上是由農作物病害[1]造成的,農作物病害問題成為目前影響農業生產和糧食安全[2]的最重要因素。依賴于實驗室觀察和試驗的傳統方法很容易導致錯誤的診斷。此外,由于缺乏專業的農業技術人員,往往很難快速查明農作物的疾病和蟲害,以便采取適當的補救行動。為了克服這些問題,一些研究人員轉向使用機器學習方法和計算機視覺技術來識別農作物病蟲害。
近年來,研究人員將現有的植物病理學知識和相關知識整合到圖像識別技術的研究中來支持這一觀點。一般來說圖像識別技術的過程,首先涉及分析和處理與農作物病害有關的圖像數據;然后建立機器學習模型,得到對應層次的不同圖像特征;最后利用分類器對不同類型的農作物疾病進行快速準確的識別,最終目的都是為農作物病害的防治提供技術指導[3]。
公開數據集PlantVillage 數據集是實驗室采集的農作物葉片病害圖像數據集,共55 448 張圖片,39 類。本文拍攝真實場景葉部病害圖像共5 645 張,采用隨機光照增強、隨機對比度增強、上下翻轉、左右翻轉、隨機旋轉縮放等方法進行數據增強后共15 190 張。將增強的PlantVillage 數據集和真實場景下的數據并為MultiplePlant數據集。真實場景下感染病害的農作物葉片在采集時容易遇到葉片自遮擋、果實遮擋、葉片卷曲、人手遮擋等各種復雜的情況,相對于實驗室采集的圖像,其特征更不容易提取。MultiplePlant 數據集中測試集中每類50 張測試圖片,全都為真實場景的自采圖片(其中包含物體遮擋、葉片自遮擋、復雜背景的圖片)。剩下的圖片數據分別按90%、10%的比例隨機選取圖片劃分訓練集、測試集和驗證集。
利用圖像級別特征變換,對圖像中的目標進行協同定位DDT(Deep Deor Transforming)[4],尋找每一類圖像最具有正關聯性的目標葉片病斑區域,并將其作為目標對象潛在區域,和訓練圖像合并作為訓練數據集,用于訓練對象級別細粒度圖像分類器。本方法將特征變換與深度卷積神經網絡EfficientNet 結合,以層進式的形式,逐步找到能夠有效提高細粒度圖像分類任務準確性的目標潛在區域以及最具有判別能力的部件區域,取得較高的細粒度圖像分類準確率。圖1 展示MultiplePlant數據集種圖片通過DDT方法定位到葉片邊界框的過程。
將預先訓練好的模型進行微調并,使用遷移學習的方式在ImageNet上對CNN 模型的權值進行預訓練。在PyTorch 平臺上進行對象級別分類器參數訓練,然后設置各個參數的數值為:學習率為base_lr=1×10-3,迭代次數為max_iter=100 00,學習率衰減系數為gamma=0.1。
DDT-EfficientNet-B4 分類模型在MultiplePlant 數據集訓練的分類網絡中,VGG16、inception-V3、ResNet50、Efficient-Net-B4表現最好的是EfficientNet-B4,在MultiplePlant數據集中測試集平均準確率為96.52%;在分類網絡結構前添加DDT預訓練網絡進行目標定位,DDT+EfficientNet-B4 展現了98.39%的測試集準確率,在同樣的數據集下模型測試集準確率提升了1.87%,在真實場景取樣分類場景下具有更好的泛化性與魯棒性。
從表1 可以看出,DDT+EfficientNet-B4 的模型大小為268.62 M,與 VGG16、inception-V3、ResNet50 和原 Efficient-Net-B4網絡相比僅比輕量化網絡inception-V3和原Efficient-Net-B4 的模型略大,但在MultiplePlant 測試集上的分類準確率卻提升了1.87%,可以說DDT+EfficientNet-B4 在兼顧了模型準確率的同時,實現了模型的精簡和壓縮,為模型在硬件受限的場景下部署奠定了基礎。

表1 協同定位基礎上分類試驗結果Tab.1 The experimental results
本文提出的基于Co-Location 的的弱監督細粒度圖像分類方法在復雜背景的MultiplePlant 圖像數據集中,在識別精度上相較于傳統CNN卷積神經網絡圖像識別方法,分類準確率提升了1.87%。用于訓練的復雜場景的數據集較少的情況下,基于Co-Location的DDT-EfficientNet-B4方法可以導特征提取的網絡能對患病的葉片部位更加敏感,在農作物田間監測場景下具有實際的使用價值。