張軍國 韓歡慶 胡春鶴 駱有慶
(1.北京林業大學工學院, 北京 100083; 2.北京林業大學林學院, 北京 100083)
云南省祥云縣境內地形單元多樣,溝谷縱橫,地勢高于四鄰,具有十分嚴重的干旱缺水氣候特征,形成了該縣單一云南松(Pinusyunnanensis)林分結構。這種特殊的氣候環境和單一的林分結構易導致取食云南松的切梢小蠹大規模爆發,使得該地成為松小蠹危害的典型地區,嚴重影響了當地林業生態安全和經濟效益。對切梢小蠹蟲害危害程度進行高效率準確監測識別是進行蟲害防治的重點工作內容之一。隨著小型無人機技術的日臻完善,小型無人機(Unmanned aerial vehicle, UAV)遙感平臺在農林業信息監測領域的應用日益廣泛[1-3],在林業蟲害航拍監測領域也已有實際應用案例。
無人機蟲害遙感監測的關鍵問題就是如何對遙感圖像中的蟲害區域進行識別。目前國內主要基于可見光航拍圖像對森林蟲害區域監測進行研究[4-6]。為了能夠獲取更為豐富的森林植被信息,提高監測識別準確率,近年來,小型無人機掛載多光譜近地遙感成像系統取代可見光成像系統[7]正逐步成為該領域的趨勢,并已經取得了一些研究成果[8-10],如LEHMANN等[11]基于面向對象的圖像分割方法對一個橡木林場的無人機近紅外圖像蟲害區域進行識別,但分類精度并不是很理想。ZAINUDDIN等[12]和ELFAITH等[13]基于多光譜圖像建立了葉片蟲害程度與NDVI指數之間的分析模型,但植被指數方法并不適用于含混度大的林區遙感圖像。張帥堂等[14]提出了一種遺傳優化反向傳播神經網絡(Back propagation, BP)實現了茶葉病斑的精準識別,但其識別效率會受到自然條件下背景的影響。此外由于自然條件下的林區多光譜遙感圖像存在“同譜異物”和“同物異譜”的現象[15],會在一定程度上限制樣本的質量,從而影響識別精度。
針對祥云縣云南松蟲害區域高精度識別的需求,本文嘗試基于云南松蟲害多光譜圖像提出一種J- M(Jeffries- Matusita)距離優化的BP神經網絡分類方法,并通過優化樣本特征的選取,著重解決分類識別的精度以及樣本訓練的效率問題。
本文使用的無人機遙感平臺為自主設計的八旋翼飛行器,如圖1a所示;多光譜傳感器為Tetracam公司生產的ADC Snap,如圖1b所示,光譜范圍包括綠波段、紅波段和近紅外波段(波長范圍520~920 nm,光譜分辨率為30 nm)。

圖1 八旋翼飛行器遙感平臺Fig.1 Eight rotorcraft remote sensing platform
多光譜圖像采集工作于2016年4月在云南省祥云縣(100.91°E, 25.34°N)完成。在遭受蟲害的典型地區規劃了8塊標準地,每塊地規格為30 m×30 m,標準地之間具有一定的蟲口密度差異和林分密度差異。圖像采集工作均在多云天氣下完成,最終篩選出用于處理的圖像樣本512幅,分辨率1 280像素×1 024像素,篩選規則為圖像內無陰影、清晰且包含各類地物,并且要保證同一標準地內的樣本圖像能夠覆蓋整個標準地。飛行器飛行高度為30~35 m之間,此條件下地面分辨率約為3 cm。
采集時先對標準白色校正板進行采集得到全白標定圖像,然后采集一個全黑標定圖像,再進行樣本數據采集得到原始多光譜圖像。為保證光譜數據的準確性并且消除采集過程中的噪聲干擾,按照
(1)
式中R——校正后的多光譜圖像
IS——多光譜相機采集的原始多光譜圖像
D——多光譜相機采集得到的全黑標定圖像
W——多光譜相機采集得到的全白標定圖像
對原始多光譜圖像進行校正得到校正后的多光譜圖像[16]。
在對圖像校正完畢后,還需依據各類地物實地調查得到的先驗知識完成對圖像樣本的標記,為后續特征向量提取和識別分類奠定基礎,本文分別對512幅多光譜圖像進行了標記。同時,本文隨機選出400幅多光譜圖像樣本作為訓練集,并對訓練集圖像中的每類地物分別選取一定范圍作為訓練樣本,其余112幅作為測試集。多光譜圖像中主要包括4類地物樣本:蟲害木、健康林木、灌木叢和裸地道路,圖2為4類地物在圖像中的示例。

圖2 4類地物類型Fig.2 Four types of ground objects
4類地物樣本在每一幅樣本圖像中都有體現,但由于森林的特殊性,不同標準地中的地物樣本都是不盡相同的,同一標準地中取得的樣本也會存在拍攝角度的差別。不過每一類地物的影像特征是具有共性的:健康林木樹冠形狀規則為單簇或多簇的健康針葉,顏色較亮,紋理較為均勻;蟲害木樹冠形狀不規則,無完整的簇狀針葉結構或全為枝干,為黃色或灰色,紋理不均勻;灌木叢形狀規則,冠部葉片紋理均勻,顏色最亮;裸地道路形狀不規則,多為褐色和紅褐色。
本文多光譜圖像樣本存在“同譜異物”或“同物異譜”的現象,并非完全相互獨立,傳統的BP神經網絡分類算法容易產生過擬合現象,影響神經網絡模型的精度和訓練效率。因此,本文將J- M距離引入到神經網絡訓練過程中,建立樣本的選區規則。
算法關鍵步驟如下:①計算訓練集內各樣本圖像的J- M距離,并據此優化訓練集。②提取訓練集內各樣本圖像的顏色、紋理、光譜值及植被指數特征向量。③配置BP神經網絡參數并訓練模型。④得到分類模型后使用測試集對其進行驗證。
為有效降低“同譜異物”或“同物異譜”現象對蟲害區域識別的影響,提升BP神經網絡分類模型的分類精度和訓練效率,本文首先計算每幅樣本圖像中各類地物樣本之間的J- M距離,通過對建模自變量的優化選擇來提升網絡的訓練效率,并降低網絡的過擬合現象。優化的算法流程如圖3所示。

圖3 算法流程圖Fig.3 Flowchart of optimized algorithm
J- M距離能夠衡量訓練樣本的可分離程度,進而確定各個類別之間的差異性,其取值范圍為0~2。J- M距離J的計算公式為
J=2(1-e-B)
(2)

式中B——巴氏距離
m1、m2——類別的特征均值
τ1、τ2——類別的特征標準差
在對訓練集內所有圖像的J- M距離進行計算后,即可按照以下規則優化訓練圖像:當訓練集圖像中任意兩類地物之間J- M距離均大于1.8時,說明樣本之間可分離性較好,屬于優質樣本;當出現小于1.8并且大于1的情況時,說明該訓練圖像中對應地物樣本之間的可分離性一般,需要適當調整對應地物的樣本區域;當小于1時,需要考慮剔除該訓練圖像中對應地物的樣本區域。
云南松林受切梢小蠹危害可分為3個表征階段,第1階段切梢小蠹蟲大范圍集群攻擊樹干,但樹木枝葉在視覺上仍顯綠色而邊材濕度下降,樹木處于綠葉狀態而稱為“綠色攻擊階段”。第2階段隨著切梢小蠹攻擊的不斷進行,樹葉逐漸從綠色變為黃色甚至紅色,造成黃冠或紅冠而稱為“紅色攻擊階段”。第3階段為“灰色攻擊階段”,大多數寄主樹木失去全部針葉[17]。由于第1階段危害視覺效果不明顯,本文重點對第2、3階段進行分析,引入顏色特征、紋理特征與光譜值特征,并構建植被指數模型來識別多光譜圖像中的各類地物。
2.2.1顏色特征提取
RGB顏色模型是圖像處理中最常用的顏色模型,可以通過計算其各分量顏色矩的方法來描述顏色特征。顏色信息主要集中在低階矩體現,一階矩(均值)反應顏色分量的平均強度,二階矩(方差)反應區域的顏色方差,三階矩描述顏色的偏移性。本文通過計算樣本圖像的前三階顏色矩得到樣本的9個顏色特征值,計算公式為
(3)
(4)
(5)
式中Pij——第i個像素的第j個顏色分量
N——像素數量
μi——一階矩,顏色的平均強度
σi——二階矩,顏色的不均勻性
ζi——三階矩,顏色的不對稱性[18]
2.2.2紋理特征提取
紋理特征描述了圖像區域所對應物體的局部結構及排列規律,如粗糙度、光滑度、顆粒度、隨機性和規范性等。通過觀察圖像中4類地物區域的紋理特征差異,將紋理特征作為識別蟲害區域的特征之一。本文通過灰度共生矩陣(Gray-level co-occurrence matrix, GLCM)算法進行紋理特征的提取,是一種通過研究灰度空間相關性來描述紋理的常用方法,可用Pij(d,θ)(i=1,2,…,G;j=1,2,…,G)表示區域灰度共生矩陣,其中G表示圖像的灰度級數。Pij(d,θ)表示以灰度級為i的點為起點,計算方向θ上與它距離為d的灰度級為j的點出現的概率。

圖4 樣本在4個方向上的紋理特征均值Fig.4 Texture feature mean values of samples in four directions
將經過灰度處理的地物樣本區域圖像根據
(6)
(7)
(8)
(9)
式中μx——{px(j);j=1,2,…,G}的均值
σx——{px(j);j=1,2,…,G}的方差
μy——{py(i);i=1,2,…,G}的均值
σy——{py(i);i=1,2,…,G}的方差
n——區域內起點與終點之間的灰度級差值
λASM——能量的紋理特征值
λCON——對比度的紋理特征值
λCOR——相關度的紋理特征值
λENT——熵的紋理特征值
計算能量、對比度、相關度和熵的紋理特征值。
在0°、45°、90°和135°共4個方向上取窗口尺寸為3×3,得到樣本的16個紋理特征值。圖4為樣本在4個方向上的紋理特征均值,其中ASM表示能量,CON表示對比度,COR表示相關度,ENT表示熵。由圖4可知,裸地道路樣本的能量總體高于其他3類,反映了裸地道路區域紋理較粗。4個方向上的對比度對4類地物樣本的區分效果良好,其中裸地道路和蟲害木區域的對比度高于其他兩類,紋理溝較深,視覺效果清晰。相關度方面,4類地物樣本差異不大。在熵值方面則表現為蟲害木區域樣本最小,表明其非均勻程度較大。
2.2.3光譜值特征提取
云南松針葉表面的相對光譜反射率能夠反映其內部生物化學組成信息。當葉片受到害蟲侵襲后,會造成病害位置的葉綠素短缺,水分含量下降,從而使各波段光譜反射率表現出極大的差異[17]。本文樣本的平均相對光譜反射率曲線如圖5所示。

圖5 相對光譜反射率曲線Fig.5 Relative spectral reflectance curves
根據圖5曲線可知蟲害區域和健康林區光譜反射率曲線趨勢基本相同,在可見光區域內(520~700 nm)體現為反射率相對較低,并且在550 nm附近有一個波峰,在580 nm和680 nm附近有波谷,在近紅外光區域(700~920 nm)反射率急劇上升并維持穩定,形成高反射光譜區。兩者在可見光區域內的反射率差別較小,在近紅外波段范圍內反射率出現了較大差距,說明不同健康狀況的云南松的光譜數據確實存在差異,利用光譜值特征來進行蟲害區域的分類識別是可行的。并且兩者在580、680、800 nm共3個波段處具有顯著差異,因此可以選定這3個波段所對應的相對光譜反射率作為光譜值特征來識別蟲害區域。
2.2.4植被指數特征提取
單一地使用相對光譜反射率信息并不能發揮多光譜圖像的優勢,在基于多光譜圖像的植被健康狀況分析領域,植被指數是應用最為廣泛的技術。植被指數與植被活力、植被的生化物理參數等密切相關,還可以在一定程度上消除反射光譜中大氣、土壤等因素的干擾。針對云南松蟲害區域的分類識別,本文根據多光譜圖像波長范圍和經典組合形式提出5種植被指數,即
(10)
(11)
(12)
(13)
(14)
式中ρNIR——近紅外波段反射率
ρRed——紅光波段反射率
ρGreen——綠光波段反射率
NDVI——歸一化植被指數
NDVIm——改進型歸一化植被指數
SRI1——近紅外與紅波段比值植被指數
SRI2——近紅外與綠波段比值植被指數
EVIm——改進型增強植被指數
在對優化的訓練集進行特征提取得到33維的特征向量后,本文采用BP神經網絡對云南松多光譜圖像樣本進行訓練,另外為驗證該優化的BP神經網絡在分類精度上的優越性,同時采用傳統的BP神經網絡算法和支持向量機(Support vector machine, SVM)算法處理圖像作為比對。BP神經網絡層數為3層,輸入層節點數與對應的特征向量維數一致,即33,輸出層節點數與地物數量一致,即4。網絡的學習率設置為0.1,RMS誤差設置為0.1,最大迭代次數設置為500。隱含層激活函數為對數函數,輸出層傳遞函數為線性函數,隱含層節點個數[19]為
(15)
式中H——隱含層節點數
I——輸入層節點數
O——輸出層節點數
同時,本文為檢驗光譜值特征和植被指數對分類的有效性,嘗試使用3個特征向量組合進行檢驗。由2.2節得知,共有顏色特征、紋理特征、光譜值特征和植被指數4組特征值。組合1為顏色特征和紋理特征,組合2為顏色特征、紋理特征和光譜值特征,組合3為顏色特征、紋理特征、光譜值特征和植被指數。3種組合對應的輸入特征向量維數分別為25、28和33。
為了對比算法的分類精度,本文采用Kappa指數和總體分類精度對結果進行評價。對測試集中的每一幅圖像所對應的區域進行地面隨機采樣調查,通過將采樣點分類結果與實地采樣結果進行一致性情況比對,即可列出混淆矩陣。
得到混淆矩陣后,即可進一步得到總體分類精度OAI和Kappa指數KIA。其中OAI為分類正確的采樣點占采樣點總數的百分比,KIA是一種由LANDIS和KOCH提出的通過隨機采樣來評價分類結果一致性和信度的重要指標[20],0≤KIA≤0.2表示“極低的一致性”,0.2 (16) 其中 式中KIA——Kappa指數 PA——觀察一致性 Pe——機遇一致性 r——地物類型數量 x——混淆矩陣中的數據 圖6為J- M優化的BP神經網絡、傳統BP神經網絡和SVM 3種分類模型在各個特征向量組合下的分類效果對比圖。從視覺效果來看,3種模型通過特征向量組合3都能較好地區分4類地物樣本,JM- BP和BP通過特征向量組合2的分類效果一般;對于特征向量組合1,3種模型都出現了不同程度的分類錯誤,其中SVM效果最差。但分類精度還需通過評價指標來確定,不同算法下各特征向量組合的評價結果如表1所示。 圖6 蟲害監測圖像分類效果對比Fig.6 Classification effect comparison of pest monitoring image 由表1評價結果得出,J- M優化的BP神經網絡、傳統BP神經網絡和SVM通過特征向量組合2和組合3都能較好地區分4類地物樣本,其中組合3效果最優。SVM對樣本測試集的KIA分別為0.60、0.75和0.78,BP神經網絡對樣本測試集的KIA分別為0.71、0.82和0.87,而JM- BP算法對樣本測試集的KIA分別為0.75、0.89和0.92,整體高于另外兩種分類模型的分類效果,而且模型建立時間相對于傳統BP神經網絡算法也縮短了38%,在分類精度提升的同時也實現了訓練效率的提升。因此,針對森林蟲害區域分類識別這一領域,本文提出的J- M距離優化的BP神經網絡的分類效果優于傳統BP神經網絡算法和SVM算法。 表1 不同算法下各特征向量組合的評價結果Tab.1 Evaluation results of various feature vectorcombinations under different algorithms 根據3種模型下各特征向量組合的評價結果可進一步得出:顏色特征和紋理特征組成的特征向量組合對測試集的分類精度普遍較低。由圖4可以看出,能量、相關度、熵這3個紋理特征值差異不大,很容易造成誤識別,這也是特征向量組合1識別率較低的重要原因。由顏色特征、紋理特征和光譜值特征組成的特征向量組合2,對于測試集的分類精度高于組合1,并且具有大幅提升,其原因是不同地物類型的光譜反射率存在著明顯的差異。綜合了顏色特征、紋理特征、光譜值特征和植被指數的特征向量組合3,對測試集的分類精度達到了“幾乎完全一致”的等級,說明組合3中包含的5種植被指數特征能夠進一步地提升模型的分類精度。 針對云南省祥云縣云南松蟲害區域的分類識別問題,在搭建八旋翼多光譜圖像采集平臺的基礎上,采用無人機近地遙感技術,基于多光譜圖像的顏色特征、紋理特征、光譜值特征和植被指數提出了一種J- M距離優化的BP神經網絡分類模型。并從總體分類精度和Kappa指數兩方面與傳統BP神經網絡和SVM算法進行比較。結果表明,本文算法的分類精度優于另外兩種算法,對4類地物樣本識別的平均OAI和KIA分別達到了94.01%和0.92,建模時間相對于傳統BP神經網絡算法也縮短了38%,實現了分類精度和訓練效率的提升,表明本文算法對于處理自然條件下的高冗余度圖像分類具有顯著優勢。同時,經3種算法驗證,光譜值特征和植被指數可以對林區多光譜圖像蟲害區域的分類識別起到促進作用。綜上可得,利用多光譜成像技術和基于J- M距離的優化神經網絡可以實現對云南松蟲害區域的高精度識別。 1 田明璐,班松濤,常慶瑞,等. 基于無人機成像光譜儀數據的棉花葉綠素含量反演[J/OL]. 農業機械學報,2016,47(11):285-293.http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?flag=1&file_no=20161139&journal_id=jcsam.DOI:10.6041/j.issn.1000-1298.2016.11.039. TIAN Minglu,BAN Songtao, CHANG Qingrui, et al.Estimation of SPAD value of cotton leaf using hyperspectral images from UAV based imaging spectroradiometer[J/OL]. Transactions of the Chinese Society for Agricultural Machinery,2016,47(11):285-293.(in Chinese) 2 韓文霆,張立元,張海鑫,等. 基于無人機遙感與面向對象法的田間渠系分布信息提取[J/OL].農業機械學報,2017,48(3):205-214. http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?flag=1&file_no=20170326&journal_id=jcsam. DOI:10.6041/j.issn.1000-1298.2017.03.026. HAN Wenting,ZHANG Liyuan,ZHANG Haixin,et al.Extraction method of sublateral canal distribution information based on UAV remote sensing[J/OL].Transactions of the Chinese Society for Agricultural Machinery,2017,48(3):205-214. (in Chinese) 3 姚雄,余坤勇,楊玉潔,等.基于隨機森林模型的林地葉面積指數遙感估算[J/OL].農業機械學報,2017,48(5):159-166. http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?flag=1&file_no=20170519&journal_id=jcsam. DOI:10.6041/j.issn.1000-1298.2017.05.019. YAO Xiong, YU Kunyong, YANG Yujie, et al. Estimation of forest leaf area index based on random forest model and remote sensing data[J/OL]. Transactions of the Chinese Society for Agricultural Machinery, 2017, 48(5): 159-166. (in Chinese) 4 張軍國,馮文釗,胡春鶴,等. 無人機航拍林業蟲害圖像分割復合梯度分水嶺算法[J]. 農業工程學報,2017,33(14):93-99. ZHANG Junguo,FENG Wenzhao,HU Chunhe, et al.Image segmentation method for forestry unmanned aerial vehicle pest monitoring based on composite gradient watershed algorithm[J].Transactions of the CSAE,2017,33(14):93-99.(in Chinese) 5 LIU W. A marker-based watershed algorithm using fractional calculus for unmanned aerial vehicle image segmentation[J]. Journal of Information and Computer Science, 2015, 12(14): 5327-5338. 6 費運巧,劉文萍,陸鵬飛,等. 基于無人機圖像分形特征的油松蟲災級別判定[J].計算機應用研究,2017,34(4): 1253-1256. FEI Yunqiao, LIU Wenping, LU Pengfei, et al. Judgment on disaster classification of Chinese pine based on fractal features in UAV image[J]. Application Research of Computers, 2017,34(4): 1253-1256.(in Chinese) 7 ROBERTSD A, SMITHM O, ADAMSJ B. Green vegetation, nonphotosynthetic vegetation, and soils in AVIRIS data[J]. Remote Sensing of Environment, 1993, 44(2-3):255-269. 8 吳瓊. 基于遙感圖像的松材線蟲病區域檢測算法研究[D]. 合肥:安徽大學,2013. WU Qiong. Research onBursaphelenchusxylophilusarea detection based on remote sensing image[D]. Hefei: Anhui University, 2013. (in Chinese) 9 PENA J M, TORRES-SANCHEZ J, DE CASTRO AI, et al. Weed mapping in early-season maize fields using object-based analysis of unmanned aerial vehicle (UAV) images[J]. PLOS ONE, 2013, 8(10):e77151. 10 LU B, HE Y. Species classification using unmanned aerial vehicle (UAV)-acquired high spatial resolution imagery in a heterogeneous grassland[J]. Isprs Journal of Photogrammetry & Remote Sensing, 2017, 128:73-85. 11 LEHMANN J R K, NIEBERDING F, PRINZ T, et al. Analysis of unmanned aerial system-based CIR images in forestry-anew perspective to monitor pest infestation levels[J]. Forests, 2015, 6(3):594-612. 12 ZAINUDDIN K, BOHARI S N, GHAZALI N, et al. Utilizing quadcopter as LARS image platform to determine the paddy spectral and growth parameter[C]∥ IEEE International Conference on Aerospace Electronics and Remote Sensing Technology. IEEE, 2014:210-215. 13 ELFAITH M A, FETHI B A, RIYAD I, et al. Random forest regression and spectral band selection for estimating sugarcane leaf nitrogen concentration using EO- 1 hyperion hyperspectral data[J]. International Journal of Remote Sensing, 2013, 34(2):712-728. 14 張帥堂,王紫煙,鄒修國,等. 基于高光譜圖像和遺傳優化神經網絡的茶葉病斑識別[J].農業工程學報,2017,33(22):200-207. ZHANG Shuaitang,WANG Ziyan,ZOU Xiuguo, et al.Recognition of tea disease spot based on hyperspectral image and genetic optimization neural network[J].Transactions of the CSAE,2017,33(22):200-207.(in Chinese) 15 李石華,王金亮,畢艷,等. 遙感圖像分類方法研究綜述[J]. 國土資源遙感,2005,17(2):1-6. LI Shihua, WANG Jinliang, BI Yan, et al. A review of methods for classification of remote sensing images[J]. Remote Sensing for Land & Resources, 2005, 17(2): 1-6. (in Chinese) 16 鄭志雄,齊龍,馬旭,等. 基于高光譜成像技術的水稻葉瘟病病害程度分級方法[J].農業工程學報,2013,29(19):138-144. ZHENG Zhixiong,QI Long,MA Xu, et al.Grading method of rice leaf blast using hyperspectral imaging technology[J].Transactions of the CSAE,2013,29(19):138-144.(in Chinese) 17 鄧槿. 基于TVDI的石林縣云南松切梢小蠹遙感監測研究[D]. 北京:北京林業大學,2016. DENG Jin. Research on remote sensing monitoring ofPinusyunnanensisdamaged by tomicus in Shilin based on TVDI [D]. Beijing: Beijing Forestry University, 2016. (in Chinese) 18 張東彥,張競成,朱大洲,等. 小麥葉片脅迫狀態下的高光譜圖像特征分析研究[J]. 光譜學與光譜分析,2011,31(4):1101-1105. ZHANG Dongyan, ZHANG Jingcheng, ZHU Dazhou, et al. Investigation of the hyperspectral image characteristics of wheat leaves under different stress[J]. Spectroscopy and Spectral Analysis, 2011,31(4): 1101-1105. (in Chinese) 19 李宗儒. 基于圖像分析的蘋果病害識別技術研究[D]. 楊凌:西北農林科技大學,2010. LI Zongru. Research on identify technologies of apple’s disease based on image analysis[D]. Yangling: Northwest A&F University, 2010. (in Chinese) 20 LANDIS J R, KOCH G G. The measurement of observer agreement for categorical data [J]. Biometrics, 1977, 33(1):159-174.3 分類結果與分析


4 結束語