林 鑫,陳 琦,王明婷,麻小梅,劉 亞
(1.廣西壯族自治區林業勘測設計院,廣西南寧 530011;2.廣西華森設計咨詢有限公司,廣西南寧 530011;3.自然資源部北部灣經濟區自然資源監測評價工程技術創新中心,廣西南寧 530011)
松樹(Pinusspp.)是我國主要造林樹種之一。近年來,松樹受松材線蟲(Bursaphelenchusxylophilus)病危害越來越嚴重,大量松樹死亡,給林業生產造成重大損失,也在一定程度上影響生態環境。松材線蟲病是由松材線蟲侵染導致的病害。松材線蟲已被全球50多個國家列為檢疫性有害生物[1]。其致病力強,發病時間短,傳播速度快,治理難度大;其防控主要有3個關鍵環節,即病害檢疫和疫情監測、疫木除治及媒介昆蟲防治[2]。及時發現和準確定位疫區中的枯死樹有助于及時處置枯死樹,對松材線蟲的防治有重要意義。
目前,較常用的發現和準確定位枯死樹的方法為人工踏查和衛星遙感,其應用均存在一定局限性;人工踏查成本高,時間長,效率低,難以實現大面積檢測;衛星遙感受分辨率、重訪周期和天氣狀況等因素影響較大[1]。特別是在復雜林區,采用人工踏查和衛星遙感,難以實現松材線蟲病疫情普查和枯死樹監測。無人機(Unnamed Aerial Vehicle,UAV)遙感影像具有實時、靈活、范圍廣、成本低和高空間分辨等優點,已被應用于松材線蟲病疫情普查工作中。早期的無人機遙感影像識別依賴于從圖像中提取人工設計特征,使用這些特征訓練淺層分類器算法,如隨機森林、支持向量機和人工神經網絡等,難以提取高級語義特征,存在時間復雜度高、依賴人工設計特征和缺乏魯棒性等問題[3]。近年,在卷積神經網絡(Convolutional Neural Network,CNN)結構中以自動特征提取的深度學習方法在圖像識別領域取得了極大成功[4]。張瑞瑞等[5]利用UNet 網絡實現松材線蟲病枯死樹圖像分割;Xia 等[6]對比U-Net、DeepLabv3+和PSPNet 等神經網絡在松材線蟲病枯死樹自動識別工作中的識別準確率,選出表現最優的模型;Yu 等[7]提出3D-Res CNN 模型,并將其應用于松材線蟲病的早期識別檢測。這些研究大部分基于可見光(RGB)影像進行。但單一可見光影像所含波段信息較少,通過超高分辨率影像對松材線蟲病疫區枯死樹進行分類時,受到目標小、背景復雜等問題的制約,影響分類精度[8]。本研究基于同一卷積神經網絡,以相同訓練參數對不同波段組合的無人機多光譜影像進行訓練和預測,探尋最優波段組合,提出一種基于無人機多光譜影像自動識別松材線蟲病疫區枯死樹的方法,進一步提升松材線蟲病疫情監測水平。
選取廣西柳州市三江侗族自治縣(108°54′ ~109°27′E,25°43′~25°52′N)、河池市宜州區(108°26′~108°37′E,24°27′ ~24°34′N)和大化瑤族自治縣(107°57′~108°0′E,23°42′~23°45′N)、南寧市橫州市(109°13′~109°15′E,22°38′~22°39′N)及桂林市平樂縣(110°45′E,24°51′N)的42 個松材線蟲病害疫點小班及其周邊2 km 范圍內的松樹林圖斑,共計39.05 km2。研究區多為山地,屬亞熱帶季風氣候,年均氣溫17 ~23 ℃,年均降水量1 080 ~2 760 mm,年均日照時長1 169 ~2 219 h,氣候溫暖,熱量豐富,降水豐沛。主要植被類型為常綠闊葉林,常見樟科(Lauraceae)、殼斗科(Fagaceae)、山茶科(Theaceae)、橄欖科(Burseraceae)、山欖科(Sapotaceae)和楝科(Meliaceae)樹種,人工林樹種主要有馬尾松(Pinus massoniana)、杉木(Cunninghamialanceolata)、桉樹(Eucalyptusspp.)和油茶(Camelliaoleifera)。
1.2.1 設備與飛行參數
無人機型號為DJI Mavic 3 Multispectral,最大航線作業速度15 m/s,最長續航時間43 min,搭載RTK(Real Time Kinematic)定位模塊,懸停精度±0.1 m。無人機搭載可見光相機與多光譜相機的集成影像模塊;其中,可見光相機的有效像素為2 000 萬,光圈范圍f/2.8 ~f/11,等效24 mm 焦距,可采集的最大照片尺寸為5 280× 3 956 像素;多光譜相機的有效像素為500 萬,包含綠光(Green,G)波段[(560 ±16)nm]、紅光(Red,R)波段[(650 ± 16)nm]、紅邊(Red Edge,RE)波段[(730 ± 16)nm]和近紅外(Near Infrared,NIR)波段[(860±26)nm],光圈f/2.0,等效25 mm焦距,可采集的最大照片尺寸為2 592 ×1 944像素。
基于12.5 m空間分辨率的ALOS DEM 數據進行航線規劃,設定相對飛行高度為200 m,飛行速度為15 m/s,對焦設置為無窮遠,航向重疊為80%,旁向重疊為70%;每次起飛作業前采用漫反射板對多光譜相機進行輻射定標。
1.2.2 數據處理
采用DJI Terrav 3.6.6 軟件完成可見光和多光譜影像鑲嵌拼接及多光譜影像輻射校正,得到空間分辨率為0.06 m 的拼接可見光正射影像和空間分辨率為0.10 m 的多光譜正射影像。采用ArcGIS Desktop軟件,以目視解譯法對研究區內所有疑似松材線蟲病枯死樹進行標注,并進行多人、多次人工標注檢查,相互驗證,得到最終人工標注結果。將標注結果在Python 3.7.6軟件中進一步處理。
采用最近鄰法對可見光正射影像進行重采樣,得到空間分辨率為0.10 m 的正射影像,并將其作為可見光組;對多光譜正射影像進行拉伸,使所有像元值在0 ~255范圍內;對多光譜正射影像進行不同波段間的相互運算,提取歸一化差異植被指數(Normalized Difference Vegetation Index,NDVI)和歸一化差異紅色邊緣指數(Normalized Difference Red Edge Index,NDRE),計算公式為[9-10]:
分別將NDVI 值和NDRE 值與可見光正射影像和多光譜正射影像進行波段組合,得到NDVI 組(RGB + G + R + NIR + RE + NDVI)和NDRE 組(RGB+G+R+NIR+RE+NDRE)數據結果。
分別將可見光組、NDVI組和NDRE 組數據結果與人工標注結果進行裁剪,得到3 組23 763 個512×512像素的影像和對應的標簽。
1.2.3 識別方法
在CPU 為I9-12700 K、顯卡GPU 為GeForece GTX 4090 的計算機平臺上,采用Python 3.7.6 軟件和Tensorflow 2.8 架構實現U-Net 神經網絡[11],進行學習與訓練,自動識別松材線蟲病疫區中的枯死樹。網絡結構中,U-Net 由特征提取和特征融合2個部分組成。特征提取部分獲取輸入圖像的語義信息,特征融合部分準確定位語義信息。在網絡結構中,未使用全連接層,可減少需訓練的參數數量,提高網絡運行速度和效率。
將3 組影像及其標簽均按6∶2∶2 的比例分為14 258個訓練集、4 752個測試集和4 753個驗證集。將訓練集和驗證集輸入神經網絡,進行訓練;訓練參數設置為batch size=4,learningrate=0.000 1,epochs=100,不使用預訓練模型。采用Adam優化器,選擇Dice Loss 為損失函數,根據訓練過程中Loss 與Accuracy(Acc)的變化(圖1),記錄完成全部訓練所需時間、最優模型出現時的次數和模型精度。

圖1 數據訓練過程中Loss與Acc變化曲線Fig.1 Change curves of Loss and Acc during data training
訓練完成后,分別得到3 組模型。利用3 組模型,分別對3個組的測試集進行預測;將預測結果與人工標注結果進行對比,對3組模型進行精度評價。
以準確率Accuracy(Acc,%)為精度評價指標,計算公式為:
式中,TP 為正確預測;FP 為錯誤預測,漏檢目標計入錯誤預測。
可見光組訓練總時長為42.63 h,在第46次訓練時得到最優模型;將最優模型應用到測試集上進行預測,得到自動識別結果(圖2)。可見光組共自動識別出6 266株枯死樹,與人工標注結果對比,錯檢921株,漏檢525株,自動識別結果的準確率為81.25%。

圖2 可見光組模型測試集預測結果Fig.2 Prediction results of model test set in visible light group
NDVI 組訓練總時長為53.64 h,在第71 次訓練時得到最優模型;將最優模型應用到測試集上進行預測,得到自動識別結果(圖3)。NDVI 組共自動識別出6 378株枯死樹,與人工標注結果對比,錯檢759株,漏檢251 株,自動識別結果的準確率為86.33%。

圖3 NDVI組模型測試集預測結果Fig.3 Prediction results of model test set in NDVI group
NDRE 組訓練總時長為51.97 h,在第68 次訓練時得到最優模型;將最優模型應用到測試集上進行預測,得到自動識別結果(圖4)。NDRE組共自動識別出6 356 株枯死樹,與人工標注結果對比,錯檢813 株,漏檢327 株,自動識別結果的準確率為84.79%。

圖4 NDRE組模型測試集預測結果Fig.4 Prediction results of model test set in NDRE group
3 組數據對比,可見光組完成訓練所需時間最短,最優模型出現時所需的訓練次數最少,模型識別準確率最低;NDVI 組完成訓練所需時間最長,最優模型出現時所需的訓練次數最多,模型識別準確率最高;NDRE 組完成訓練所需時間、最優模型出現時所需的訓練次數和模型識別準確率與NDVI 組相近。
NDVI 組和NDRE 組均加入了多光譜波段和植被指數波段,可凸顯健康松樹與枯死木的區別,其識別準確率優于單一可見光組。這一結果與周小杰等[12]和Rao 等[13]利用無人機多光譜影像和神經網絡對松材線蟲病疫區枯死樹進行自動識別的準確率相近。周小杰等[12]利用RedEdge-3 五波段(R、G、B、NIR和RE)多光譜成像儀在一塊面積約為1.5 km2的松材線蟲病疫區內進行染病與病死松樹的自動識別,識別準確率達到91.20%;Rao 等[13]利用RedEdge-MX 五波段(R、G、B、NIR 和RE)多光譜成像儀在一塊面積為5.4 km2的松材線蟲病疫區內對枯死樹進行檢測,識別準確率為90.00%。雖然二者識別準確率均較高,但研究區域較小,其成果在大面積實際監測工作中的應用情況未知。
NDVI 組加入歸一化差異植被指數,NDRE 組加入歸一化差異紅色邊緣指數;NDVI 組識別準確率比NDRE 組高,說明加入歸一化差異植被指數比加入歸一化差異紅色邊緣指數的識別精度更高。Park等[14]研究中,NDVI 組(RGB + NIR + RE + NDVI)識別精度也表現最優(86.75%)。說明加入多光譜波段影像和相應的植被指數參與識別,有助于提高識別準確率。
本研究中,單一可見光組的識別準確率為81.25%,與黃華毅等[15]和徐信羅等[16]利用可見光的識別準確率(82.00%和82.42%)較接近,說明單一可見光可用于疑似松材線蟲病枯死樹的自動識別;但在實際生產應用中,單一可見光的識別結果需人工核查,對結果進行修正,需付出一定的人工成本。
識別結果中,3 組均出現錯檢、漏檢現象;錯檢主要是將林間一些小范圍祼土、堆放的草料誤認為枯死樹;漏檢主要是漏掉了一些冠幅較小、受到部分遮擋的枯死樹。NDVI組和NDRE 組的錯檢、漏檢現象比單一可見光組少。在下一步的研究中,可采用選擇更適宜的網絡結構、對易錯分地物進行標注和調整優化訓練參數等方法對本方法進行優化,以提高大范圍松材線蟲病疫區枯死樹識別準確率。
本研究所有識別成果均帶有絕對地理坐標,在與相應的森林資源管理“一張圖”成果進行疊加分析后,可快速獲得所有枯死樹所在的坐落單位名稱、林班號和小班號等信息,有助于管護人員開展工作。本研究采用DJI Mavic 3 Multispectral 無人機,與其他多光譜無人機相比,其價格較低,且可折疊,可降低外業人員的作業難度。
本研究采用無人機多光譜影像結合U-Net神經網絡進行學習和訓練,監測松材線蟲病疫區枯死樹,提出一種基于多光譜影像的松材線蟲病疫區枯死樹自動識別方法;多光譜最優波段組合為可見光+紅波段+ 綠波段+ 近紅外波段+ 紅邊波段+ 歸一化差異植被指數。該方法可快速、準確地識別松材線蟲病疫區枯死樹,且數據采集和處理成本較低,具有一定推廣應用價值。
利益沖突:所有作者聲明無利益沖突。
作者貢獻聲明:林鑫負責試驗設計、數據采集與分析和論文撰寫;陳琦負責試驗計劃確定和論文修改;王明婷負責樣本標注;麻小梅負責文獻檢索;劉亞負責數據匯總。