999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的松材線蟲病害松木識別

2021-11-30 00:32:28李浩方偉泉李浪浪陳學永
林業工程學報 2021年6期
關鍵詞:深度

李浩,方偉泉,李浪浪,陳學永

(福建農林大學機電工程學院,福州 350002)

松材線蟲病被稱作“松樹的癌癥”,自入侵我國以來已在多個省份暴發,造成了巨大的經濟損失[1]。松材線蟲主要以松褐天牛為中間宿主在林區中傳播,具有危害性強、防治難度高的特點[2]。健康松木在感染松材線蟲后,會在1~2個月內因樹株脫水而逐漸枯死,被感染后的松木需要及時發現并就地砍伐掩埋,防止進一步擴散到周邊松木。在廣袤林區內及時、精準、有效地實現對病害松木的監測,一直是林業病害防治工作中的重點[3]。

而在病害松木監測方面,主要還是依靠護林人員的目測觀察和地面普查,該方式存在著時效性差和誤差較大的弊端,無法保證林區病害監測的時效性與準確性[4]。隨著機器學習與無人機技術的不斷發展,在林區病害監測方面的科研工作也取得了一定的進展,使得機器學習手段替代傳統人力勘察成為可能[5]。李衛正等[6]利用小型無人機獲取病區遙感影像,并結合GeoLink軟件定位病害松木,該方法較傳統地面普查方法在成本和效率方面具有一定優勢。張學敏[7]利用3種支持向量數據描述的方式對遙感影像中的病害松樹進行識別,實現了無人機在可見光與紅外圖像條件下對病害松樹的分類識別。劉遐齡等[8]利用模板匹配法識別無人機遙感影像中的病害松木,并通過實地勘查方式證明了該方法在勘測效率和識別精度上均優于傳統人工判讀方法。劉金滄等[9]利用CRF方法完成了對可見光遙感圖像中病害松木的高效判別,為小范圍病害精準監測工作提供了切實可行的技術手段。陶歡等[10]提出基于“色調-飽和度-明度”(HSV)的閾值分割法,證明其效果優于RGB閾值分割法,有效提高了人工判讀的效率。隨著深度學習的出現,YOLO、R-CNN、SSD等基于深度學習手段的目標檢測算法逐漸在病害識別和目標分類等領域大放異彩[11],深度學習技術也有效改善了傳統機器學習中廣泛存在的計算重復和效率低下的問題。

針對當下廣泛存在的遙感影像背景復雜、數據獲取處理難度高以及深度學習前期數據量較大的情況,筆者基于SSD、YOLO v3、Faster R-CNN深度學習目標檢測算法,使用預訓練模型調優(fine-tuning)技術減少深度學習網絡前期數據量,引入深度殘差網絡(ResNet)代替VGG16以提高模型訓練效率和識別精度,最終實現對林區遙感影像病害松木更加高效精準的判別。

1 圖像采集與數據集制作

本次試驗地點位于福建省東北部的建甌市,該地區屬于山區且交通不便,當地主要以種植馬尾松(PinusmassonianaLamb)為主,屬于中亞熱帶海洋性季風氣候,非常適合松材線蟲病暴發蔓延,是福建省松材線蟲病暴發的重點監測區。為加強本試驗的應用性,本次采集樣張試驗地點共3處,均是被當地林業局確定的松材線蟲病暴發集中區域。3個地區地理坐標區間分別為27°3′0″~27°3′9″N,118°8′47″~118°25′38″E;27°0′50″~27°1′21″N,118°19′8″~118°19′38″E;27°14′39″ ~27°15′11″N,118°16′15″~118°16′45″E。病區森林總面積約為3 km2,林區中60%為松樹,其余為毛竹以及少量桉樹。為確保試驗后期對病害松木進行有效驗證,選用精靈Phantom 4 RTK無人機,該機搭載像素2 000 萬的F1.8鏡頭,型號為fc6310,像素尺寸為2.41 μm×2.41 μm。由Phantom 4 RTK所拍攝樣張中含有厘米級精度的GPS信息,后期可以實現對圖像中任意像素GPS信息的提取,從而實現對單株病害松木的精確定位。

本次工作數據采集時間為2019年8—11月,根據病害松木的病情進展特點,采樣期間以25 d為時間間隔進行連續性圖像采集工作,在提高樣張基礎數據的同時進一步增強網絡的范化性。工作時間設定在上午10:00—11:30,下午2:30—4:00,選擇晴朗無風天氣,避免航拍過程受強風以及過曝等因素干擾。本次工作拍攝原始圖像1 067張,樣張尺寸為5 472×3 648,因拍攝期間圖像間重疊度較高,剔除不相關背景圖像與多余重復圖像后剩余423張,再通過裁切、旋轉等操作增加321張,最終測試集單張尺寸為1 824×1 824,整體樣張數量為744張。按照病害進展過程,松材線蟲病理過程主要可以分為3個階段,如圖1所示。

注:a)針葉開始變色,松木蒸騰作用下降;b)松木大部分針葉變成黃褐色甚至紅褐色,出現萎蔫;c)針葉大部分變成紅褐色,部分病死松木出現干枯褪色,部分針葉出現脫落。圖1 松木染病后各階段進展Fig. 1 Progress in various stages after pine infection

針對林區中病害松木會在同一時期內呈現不同程度病害的情況,利用標記軟件labellmg對圖像中受到感染的病害松木進行標注,并將病害分為Leve1 1、Leve1 2、Leve1 3共3種標注策略,分別對應感染輕度、重度、病死的松木,并按照整體3∶7的比例隨機將數據集分成測試集和訓練集。圖像采集與數據標注的整體流程如圖2所示。

圖2 試驗區采集與數據集標注Fig. 2 Test area collection and data set annotation

為保證標記過程以及后期驗證的準確性,標記分類過程也邀請福建省建甌市林業局相關專家進行指導,并對后期測試集準確率進行統計,整體標記數據如表1所示。

表1 病害松木標注Table 1 Labeling of diseased pines

2 基于深度學習的目標檢測

目前,基于深度學習的目標檢測框架主要分為one-stage與two-stage兩類,基于two-stage的深度學習框架主要將檢測任務分為回歸(location)和分類任務,如Fast R-CNN[12]、Faster R-CNN等,整體識別精度更高。基于one-stage的目標檢測框架能夠同時完成檢測和回歸任務, 如SSD、YOLO v3等,整體運行速度相對較快。

Faster R-CNN是在Fast R-CNN的基礎上構建區域預測網絡(RPN)并直接產生Region proposal來代替其他方法得到ROI,整體運行速度相比R-CNN、Fast R-CNN得到巨大提升。YOLO v3[13]是在YOLO,YOLO v2基礎上對其缺點做出彌補與改進,顯著提升網絡的訓練速度,可以實現任務的實時檢測。相比YOLO與R-CNN系列,SSD[14]則是同時借鑒了YOLO的網格化與Faster R-CNN的anchor機制,SSD在最后以及高層特征層處均產生經過正負樣本篩選的anchor,整體上兼具了快速與準確的識別特性。理論上,two-stage框架識別準確率更高,在速率上處于弱勢;one-stage框架運行速度更快,但在識別精度上做出了一定的犧牲。綜合而言,對于不同的環境條件和不同任務對象,3種框架均有各自的優劣。

在本次訓練過程中,面對試驗區較多,數據采集難度高、背景復雜、基礎數據相對較少的情況,使用fine-tuning來提高模型性能,即使用較大型數據量網絡中預訓練好的模型參數初始化網絡,可以顯著提升網絡訓練的效率,節省訓練時間,同時取得更好的識別精度[15]。考慮到本次工作主要用于輔助林場人員在后期實現對林區病害松木的判別和整體病情進展監測,結合技術的實現成本和普及性,最終確定選用臺式計算機作為部署平臺。硬件主要信息如表2所示。

表2 計算機軟件硬件環境具體信息Table 2 Specific information of computer software and hardware environments

搭配好硬件與軟件平臺后,調整數據規模、設置訓練參數對最終試驗效果也有直接影響,要充分考慮訓練模型的規模以及最終訓練精度、訓練速度之間的多重平衡。相同硬件條件下,模型規模較大的計算機訓練速度變慢,嚴重影響訓練進程。在訓練參數方面,batch-size、epochs、learning_rate的設定尤為重要。在訓練過程中,batch-size的大小決定了單次訓練迭代(epochs)時間和迭代(iteration)之間梯度的平滑程度,1個iteration等于使用batch-size個樣本訓練1次;學習率(learning rate)的設置尤為重要,當學習率設置過大或過小時,會出現收斂過程異常緩慢甚至無法收斂的情況,最終導致試驗失敗。結合試驗環境、數據類型和各框架特性,最終試驗參數設置見表3。

表3 各框架參數設置Table 3 Parameter settings of each frame

3 不同框架性能分析

深度學習框架在訓練過程中,損失函數與識別精度是評價模型準確與效果的重要指標,其中,損失函數主要用于估計模型預測與實際之間的差別程度。損失函數是一個絕對值,損失函數的值越小,說明該模型的擬合度越好。在本次試驗中,SSD與Faster R-CNN框架選用網絡程度更深、運算量更小的深度殘差網絡ResNet50[16]代替VGG16作為前置網絡,并分別選用SmoothL1與CrossEntory;ObjLoss、BoxCenterLoss、BoxScaleLoss與ClassLoss進行驗證;YOLO v3則以darknet作為前置網絡,選用ObjLoss、BoxCenterLoss、BoxScaleLoss以及ClassLoss進行驗證。作為機器學習中評價模型好壞的另一個指標,平均準確率(mAP,公式中記為mAP)的數值也至關重要。mAP即平均AP(average precision,公式中記為AP)值,是對多個驗證集求平均AP值,如式1所示:

(1)

式中:QR為驗證集個數;q為單個驗證集。

處理過程的性能分析如圖3所示。從圖3中的運行過程可以看到,YOLO v3、SSD、Faster R-CNN隨著迭代次數的不斷提升,損失函數曲線的數值也在逐漸降低,在經過1 000次迭代訓練之后,YOLO v3、SSD、Faster R-CNN的損失函數曲線都逐漸收斂并趨于平穩,驗證了數據設置的合理性。在識別精度方面,整個訓練過程中YOLO v3的震蕩最劇烈,SSD整體狀況居中,Faster R-CNN最出色,收斂情況較YOLO v3、SSD表現更好。通過對比,Faster R-CNN無論是在Level 1、Level 2、Level 3還是平均精度值上,均明顯優于SSD與YOLO v3,在架構上對識別精度做出一定犧牲的YOLO v3則表現最差。經過統計,最終結果如表4所示。

表4 各框架對不同病害程度松木識別效果Table 4 Recognition results of each frame on diseased pine with different degrees

圖3 各框架處理性能分析Fig. 3 Analysis of processing performance of each frame

憑借one-stage的架構優勢,SSD與YOLO v3在圖像處理速度上的優勢十分明顯,YOLO v3的處理速度是基于two-stage的Faster R-CNN的2.8倍,達到了7.40樣本/s,但是識別精度表現最差;Faster R-CNN處理速度為2.60樣本/s,相比于居中的SSD差距并不明顯?;趖wo-stage的Faster R-CNN在運行速度上相比YOLO v3與SSD處于劣勢,考慮到部署平臺并非無人機,雖然整體運行速度相對較慢,但結合Faster R-CNN在識別精度上展現出的巨大優勢,總體上依然是Faster R-CNN表現最佳。

4 結果分析

在本次試驗處理中,同一試驗環境下分別使用Faster R-CNN、YOLO v3和SSD 3種主流目標檢測框架,將標記好的病害訓練集進行訓練,并對最終的識別結果進行分析對比,最終3種框架平臺的訓練識別效果如圖4所示。

圖4 各框架最終識別效果Fig. 4 Final recognition results of each frame

由最終識別效果可知,在相同的試驗環境下,基于one-stage架構的YOLO v3最終識別效果最差,圖像中許多明顯已經病死的松木都未能被成功識別,對松木病害程度的判定也出現了較為明顯的誤差;同樣基于one-stage架構的SSD框架表現較好,能夠基本實現對病害松木的判別,但對于較為極端的情況,也存在對松木病害程度判別失準的情況;相比而言,Faster R-CNN模型實現了對病死松木更加準確的判別,對于病害松木存在不同程度病害的情況,檢測框也通過顏色和數值做出了詳細的分類,除了在個別樣張中存在錯檢的情況,整體識別高效精準。經過最終識別與分析統計,Faster R-CNN、YOLO v3和SSD的整體識別正確率如表5所示。

表5 各框架最終識別結果Table 5 Final recognition results of each frame

試驗結果表明,在測試的3種目標檢測框架中,Faster R-CNN識別效果最佳,在整體測試的樣本數量中正確率達到83.2%,相比SSD的66.2%以及YOLO v3的53.2%優勢明顯。而從時間成本上考慮,利用深度學習框架對數據量較大的圖像進行識別時,相比傳統的人工標記也具有明顯優勢,能夠更快更好地完成對林區病害的監測。

5 結 論

從整體上看,基于ResNet網絡的Faster R-CNN目標檢測框架對遙感影像中的病害松木做到了高效自動識別,相比SSD以及YOLO v3的效果更好,對于遙感影像中容易出現的光線不均勻以及背景對比不明顯的情況能夠做到很好地克服,fine-tuning的加入使得在較少前期數據的情況也能達到較為理想的效果,高效快速地識別病害松木并判斷其病害程度。該方法可以替代傳統的人力勘測手段,滿足林區遙感影像病害識別工作的任務要求,也為相關工作的深入研究奠定了技術基礎。

對于識別過程中依然存在的個別誤判現象,綜合分析與圖像采集區域較為分散、背景環境過于復雜以及計算機性能有限有關。相對于其他研究大都使用同一研究區數據進行測試和訓練,本試驗數據選自3個病害暴發區,數據本身存在更多差異性,但結果更具適用性。同時,計算機的性能相對有限也對最終試驗結果有一定的影響。在后續可以著手于以下兩方面的研究:1)適當提高樣張數據的圖像數量與質量,如無人機搭載高光譜傳感器以獲取更高精度的影像資料,能夠實現對病害死亡和正常死亡松木的精準判別;2)采用更高性能、更強算力的計算平臺提高網絡的訓練速度,徹底展現算法的能力,如設置更大的batch-size以取得更好的擬合效果。

猜你喜歡
深度
深度理解不等關系
四增四減 深度推進
深度理解一元一次方程
深度觀察
深度觀察
深度觀察
深度觀察
芻議深度報道的深度與“文”度
新聞傳播(2016年10期)2016-09-26 12:14:59
提升深度報道量與質
新聞傳播(2015年10期)2015-07-18 11:05:40
微小提議 深度思考
主站蜘蛛池模板: 少妇精品久久久一区二区三区| 色一情一乱一伦一区二区三区小说| 国产综合亚洲欧洲区精品无码| 欧美色图久久| 国产精品第三页在线看| 亚洲国产清纯| 久久美女精品国产精品亚洲| 无码一区中文字幕| 在线看片国产| 国产乱人伦精品一区二区| 精品少妇三级亚洲| 国模在线视频一区二区三区| 99久久国产综合精品女同| 精品视频在线观看你懂的一区 | 国产三级毛片| 在线观看欧美精品二区| 日韩在线欧美在线| 亚洲一区国色天香| 亚洲成人在线网| 久久这里只精品国产99热8| 91久久精品日日躁夜夜躁欧美| 亚洲视频黄| 日韩亚洲高清一区二区| 亚洲无线视频| 午夜无码一区二区三区| 71pao成人国产永久免费视频| 亚洲av无码专区久久蜜芽| 国产91全国探花系列在线播放| 91欧洲国产日韩在线人成| 国产精品 欧美激情 在线播放| igao国产精品| 亚洲美女久久| 欧美午夜性视频| 日韩欧美视频第一区在线观看| 国产亚洲视频播放9000| 91小视频在线观看免费版高清| 亚洲精品福利视频| 激情国产精品一区| 欧美成人一区午夜福利在线| www.亚洲天堂| 狠狠色狠狠色综合久久第一次| 91成人免费观看| 亚洲男人天堂网址| 国产91精品最新在线播放| 青青操国产| 国产噜噜噜| 国产精品亚欧美一区二区| 久久精品电影| 国产JIZzJIzz视频全部免费| 国产在线第二页| 五月婷婷综合网| 制服丝袜国产精品| 在线人成精品免费视频| 国产激情无码一区二区APP| 熟妇无码人妻| 亚洲日韩精品欧美中文字幕| 欧美亚洲国产视频| 在线亚洲小视频| 国产亚洲欧美在线专区| 国内老司机精品视频在线播出| 国产女人18毛片水真多1| 精品一区二区三区视频免费观看| 亚欧乱色视频网站大全| 综合色区亚洲熟妇在线| 不卡色老大久久综合网| 国产情精品嫩草影院88av| 日韩高清一区 | 影音先锋丝袜制服| 国产新AV天堂| 欧美.成人.综合在线 | 欧美日韩免费观看| 久久久久久午夜精品| 国产一区二区三区在线精品专区| 午夜一区二区三区| a国产精品| 国产精品主播| 91美女视频在线观看| 91色综合综合热五月激情| 国产精品深爱在线| 九色综合视频网| 国产亚洲精品精品精品| 98精品全国免费观看视频|