999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的無人機多光譜圖像柑橘樹冠分割

2023-06-10 16:05:41宋昊昕尤號田劉遙唐旭陳建軍
森林工程 2023年3期
關鍵詞:深度學習

宋昊昕 尤號田 劉遙 唐旭 陳建軍

摘 要:樹冠信息的準確獲取是研究柑橘樹生長及產量預測的重要指標,但復雜的樹木結構給樹冠的準確提取帶來一定影響,深度學習的快速發展為柑橘樹冠信息準確獲取提供了可能。采用一種新的基于深度學習的柑橘樹冠自動提取方法,即將消費級無人機采集的多光譜圖像與一種新的深度學習模型U2-Net結合,通過對獲取的圖像進行幾何變換以構建柑橘樹冠圖像數據集。將U2-Net模型和當前3種主流深度學習模型(即PSPNet、U-Net和DeepLabv3+)分別在3個典型試驗分區進行試驗以提取柑橘樹冠信息,并對提取結果進行對比分析。結果表明,在3個試驗分區,U2-Net模型的柑橘樹冠提取精度最高,其中交并比(IoU)、總體精度(OA)和F1分數(F1-score)分別為91.93%、92.34%和93.92%。與其他3種深度學習模型相比,U2-Net模型的IoU、OA和F1-socre分別提高了3.63%~8.31%、1.17%~5.25%和1.97%~4.91%。此外,U2-Net模型柑橘樹冠提取面積和測量面積之間具有較高的一致性,3個試驗分區決定系數(R2)均高于0.93,且與其他3種深度學習模型相比,U2-Net模型的錯誤率也較低,均方根誤差(RMSE)為1.35 m2,均方誤差(MRE)為8.15%。此研究將無人機多光譜圖像與U2-Net模型相結合的方法能夠實現柑橘樹冠的精確提取,且提取樹冠輪廓完整性較好,可為柑橘動態生長變化監測和產量預測提供基礎數據與技術支撐。

關鍵詞:柑橘;深度學習;U2-Net;樹冠分割;無人機影像

中圖分類號:S252.3;P237 文獻標識碼:A 文章編號:1006-8023(2023)03-0140-10

Abstract:Accurate acquisition of canopy information was an important indicator to study the growth and yield prediction of citrus trees, but the complex tree structure had a certain impact on the accurate extraction of canopy. The rapid development of deep learning provided the possibility for accurate acquisition of citrus canopy information. Based on this, an automatic extraction method of citrus canopy based on deep learning was adopted, which combined the multispectral images collected by consumer drones with a new deep learning model U2-Net, and constructed a dataset of citrus tree canopy by performing geometric transformation on the acquired images. The U2-Net model and the current three mainstream deep learning models (i.e. PSPNet, U-Net and DeepLabv3+) were tested in three typical sample regions to extract the citrus canopy, and the extracted results were compared. Results showed that: in the three sample regions, the U2-Net model had the highest extraction accuracy of citrus canopy, with the intersection over union (IoU), overall accuracy (OA) and F1-score of 91.93%, 92.34% and 93.92%, respectively. Compared with the other three deep learning models, the IoU, OA and F1-socre of the U2-Net model were improved by 3.63%-8.31%, 1.17%-5.25% and 1.97%-4.91%, respectively. In addition, the U2-Net model had high consistency between the extraction area and the measured area of the citrus canopy, and the coefficient of determination (R2) of the three sample regions was higher than 0.93, and the error rate of the U2-Net model was lower than that of the other three deep learning models, with a root mean square error (RMSE) of 1.35 m2 and a mean relative error (MRE) of 8.15%. The results showed that the method of combining the U2-Net model with the multi-spectral image of the drones can realize the accurate extraction of citrus canopy, and the extracted canopy contour had a good integrity, which can provide basic data and technical support for the monitoring of citrus dynamic growth changes and yield prediction.

Keywords:Citrus; deep learning; U2-Net; canopy segmentation; drone imagery

基金項目:國家自然科學基金(41901370, 42261063);廣西自然科學基金(2020GXNSFBA297096);廣西科技基地和人才專項(桂科AD19110064);桂林理工大學科研啟動基金(GLUTQD2017094);廣西八桂學者專項項目(何宏昌)

第一作者簡介:宋昊昕,碩士研究生。研究方向為攝影測量與遙感。E-mail: 2120201703@glut.edu.cn

*通信作者:尤號田,博士,副教授。研究方向為攝影測量與遙感。E-mail: youht@glut.edu.cn

0 引言

柑橘作為我國南方廣泛種植的果樹,在增加農民收入等方面發揮著重要作用。柑橘樹冠、產量等基礎數據的準確獲取是實施精準農業的前提[1]。然而,目前獲取這些數據的標準方法仍主要依靠人工勞動,費時費力。由于成本限制,大范圍調查通常只選擇幾棵進行,抽樣偏差和測量的稀疏性可能導致數據不準確[2]。因此,需要開發一種快速、可靠的技術,精確提取柑橘單木信息。

柑橘因樹冠相對較小,一般僅為2.5~5 m,因而導致絕大多數基于遙感數據的研究多局限于區域尺度,難以精細到單木尺度。無人機(Unmanned Aerial Vehicles, UAV)憑借飛行高度低、操作靈活且成本較低等優點,可獲得高達厘米級的影像數據,為柑橘單木提取研究提供了可靠的數據源。束美艷等[3]基于UAV影像,利用分水嶺算法進行柑橘單木樹冠分割,從而提取柑橘株數、樹高和冠幅投影面積等結構參數信息。Koc-San等[4]基于UAV獲取多光譜影像生產數字表面模型,采用順序閾值、Canny 邊緣檢測和圓形霍夫變換算法提取柑橘樹冠邊界,結果最高精度可達80%。

除影像空間分辨率外,單木分割算法也是影響柑橘單木信息精確提取的另一關鍵因素。傳統分割算法雖已發展較為成熟,但在單木分割領域研究結果卻不令人滿意。陳周娟等[5]采用種子區域增長算法和標記控制分水嶺算法分別進行單木冠幅提取,結果正確率分別為73.14%和63.43%。萬祖毅[6]利用面向對象分割方法進行單木分割進而提取柑橘株數,結果精度僅為84.45%。深度學習(Deep Learning, DL)作為一種新興的數據挖掘技術,現已廣泛應用于圖像目標檢測與分割研究[7]。如:Osco等[8]提出一種新的卷積神經網絡,基于無人機多光譜圖像估計柑橘單木數量,結果準確度高達95%,但該算法樹冠識別結果為圓形,無法精確分割樹冠的細節。韓蕊等[9]基于UAV多光譜影像,在VGG16模型的基礎上通過篩選對柑橘分類較為準確的波段,之后基于篩選波段利用U-Net進行柑橘單木樹冠分割,結果準確率達91.99%,但該研究所選樣地郁閉度不高,隨著郁閉度的增加分割準確率有所下降。王輝等[10]構建了基于Mask R-CNN單株樹冠的識別與分割模型,雖能精準快速識別并分割復雜環境下的單株柑橘樹冠,準確率達到97%,但該模型測試圖像中僅有一棵柑橘樹,沒有進行多棵柑橘樹的識別。綜上所述可知,先前研究所用主流深度學習模型雖能實現單木樹冠分割,但仍存在一定不足,主要是因為這些模型用于提取原始圖像全局語義細節的主干是VGG[11]、ResNet[12]和DensNet[13]等結構。這些網絡結構主要是為圖像分類任務而設計的,很容易忽略豐富的低級和中級語義特征,導致地物提取的完整性降低。而且這些應用于遙感地物提取的深度學習模型通常需要使用大量的遙感數據集進行預訓練。如果目標對象的特征與這些數據集有很大差異,則總體提取效果相對較差。U2-Net模型是Qin等[14]2020年提出的一種新的深度學習模型,具有2個嵌套層的U形深度網絡,無須對大量數據進行預訓練,即可獲得較高的精度,現已成功用于人像圖像處理和生物醫學圖像分割,但在復雜樹木單木分割方面研究則較少,將其與無人機多光譜影像協同應用進行柑橘單木分割潛能仍需進一步探索與驗證。

本研究利用UAV進行柑橘多光譜影像數據采集,并對UAV圖像進行處理以構建柑橘樹冠檢測和分割數據集,利用U2-Net模型與PSPNet, U-Net和DeepLabv3+深度學習模型分別進行單木樹冠提取并對不同模型提取結果進行對比研究,以探究U-2-Net模型進行單木樹冠分割的潛能,從而獲得精度較高的單木分割方法,為柑橘動態生長變化監測和產量預測提供基礎數據與技術支撐。

1 材料與方法

1.1 研究區概況

本研究所用研究區位于廣西壯族自治區桂林市雁山鎮柑橘種植基地(110°17′57.624″ E,25°2′6.072″ N),該區域地勢相對平坦,高程變化較小,研究區內柑橘種植年份不同,因而冠形結構差異較大。為進一步驗證深度學習模型對不同冠形結構柑橘單木分割的適用性,在研究區內選擇了3塊不同冠形結構的柑橘,具體如圖1所示,其中區域A的柑橘樹種植年份相對較短,樹冠較小,間距大,樹冠間沒有明顯重疊;區域B柑橘樹樹冠間存在少部分重疊和粘附;區域C柑橘樹樹冠相對較大,且樹冠間有明顯的重疊或粘附。

1.2 無人機圖像采集

2021年11月在晴朗無風的天氣利用DJI Phantom 4多光譜無人機對柑橘樹進行數據采集,該多光譜傳感器配備6個CMOS(1/2.9英寸),可同時獲得6張影像,其中包括1張RGB真彩色圖片以及5張不同波段的灰度圖片,即藍光(Blue,B)、綠光(Green,G)、紅光(Red,R)、紅邊(Red Edge,RE)和近紅外(Near Infrared,NIR)。飛行高度設置為135 m,航向和旁向重疊度分別設置為75%,整個研究區域共采集了RGB以及5個波段11 800張照片,使用Pix4D軟件對采集的圖像進行拼接,以生成空間分辨率為7.14 cm的數字正射影像圖。通過對比發現,RNB( RNB為R波段,NIR波段和B波段組合的圖像)波段組合的圖像與RGB圖像相比,更能清晰地顯示柑橘樹冠輪廓,如圖2所示,因此本研究采用RNB圖像。

1.3 數據集構建與數據擴充

首先將研究區域的正射影像分為410個子圖像,從中選擇395個子圖像,其中包含柑橘樹。為了讓U2-Net深度學習模型更有效地學習圖像中柑橘樹冠的光譜特征,使用LabelMe 3.1.6圖像注釋軟件在每個子圖像中手動標記柑橘樹冠得到真實標簽。為獲得最佳精度,深度學習模型通常需要許多圖像作為訓練數據集。然而,在研究區域采樣的圖像數量通常是有限的,這將導致模型訓練期間的過度擬合[15]。因此,本研究使用數據增強方法對圖像執行一系列變換,擴大數據集中的樣本數量,增強模型的泛化能力,研究區域的原始UAV圖像通過旋轉、翻轉和縮放進行幾何變換,如圖3所示。擴充后最終獲得2 370幅圖像,按照9∶1的比例劃分訓練集和測試集,幾何變換后的數據使模型能夠更好地獲取不同角度、大小和形狀的柑橘樹冠特征,并提高了在各種條件下的適應性。

1.4 U2-Net深度學習模型

該模型的總體設計框架為2層嵌套的U形網絡結構,如圖4所示。每級都遵循一個編碼器-解碼器(encoder-decoder)結構,類似于U-Net模型中的結構。U2-Net模型的最外層是由編碼器和解碼器塊組成的11個獨立的大型U形結構,每個U形結構填充小的殘差U形塊(ReSidual U-blocks,RSU)。在前4個編碼階段(En_1~4),通過增加卷積層數來擴展感受野,獲得更多的局部和全局特征。其中,頂層編碼器En_5和En_6中的特征映射的分辨率相對較低,進一步降低這些特征映射的下采樣(downsampling)導致有用特征信息的丟失。因此,在En_5和En_6階段中,用擴展卷積代替了池和上采樣(Upsample)操作,這使En_5和En_6的特征映射與其輸入特征映射具有相同的高分辨率。解碼階段與編碼階段類似,采用逐步上采樣、合并和卷積對高分辨率特征圖進行編碼,減少了直接上采樣造成的細節損失。模型還增加了一個不同尺度的特征圖融合模塊來生成顯著性概率圖。原理如下:以分辨率為288×288的圖像為例,U2-Net首先通過一個3×3卷積層和一個sigmoid函數,從En_6、De_5、De_4、De_3、De_2和De_1生成6側輸出顯著性概率圖(six side output saliency probability maps):S(6)side(1×9×9)、S(5)side(1×18×18)、S(4)side(1×36×36)、S(3)side (1×72×72)、S(2)side(1×144×144)和S(1)side(1×288×288)。然后,分別以32、16、8、4、2和1的采樣率對不同大小的特征概率圖進行上采樣,以獲得6個1×288×288特征圖,這些特征圖使用1×1卷積層和Sigmoid函數進行融合。最后,以最小的誤差生成樹冠預測圖(288×288)。新的設計使網絡能夠提取多尺度特征,并且不降低特征映射分辨率或顯著增加內存和計算成本的情況下增加整個模型架構的深度。

1.4.1 RSU結構

通過借鑒經典的U-Net網絡,該模型設計了一種新的殘差U-block(RSU),用于在幀內捕捉多尺度特征。RSU(Cin、M和Cout)的結構如圖5所示,其中Cin和Cout分別表示特征映射輸入和輸出通道的數量,而M表示RSU內部層中的通道數量,L表示編碼器中包含的層數量。RSU由3個主要部分組成: 1)位于最外層的卷積層首先將輸入特征映射x(H(圖像高度)、W(圖像寬度)和Cin)轉換為輸出通道為Cout的中間映射F1(x)。卷積層的作用是提取圖像的局部特征; 2)轉換后的中間映射F1(x)被輸入到層數為L的U形結構對稱編碼器-解碼器中。用U(F1(x))來展示這種結構,其可以提取多尺度信息,并減少上采樣造成的上下文信息損失。L越大,RSU的層數越深,執行的池化操作越多,感受野范圍越大,獲得的局部和全局上下文特征越豐富;3)局部特征和多尺度特征通過剩余連接融合。

1.4.2 損失

在訓練過程中,模型輸出不僅包含最終的樹冠預測圖,還包含前6個不同尺度的特征圖(S(1)side—S(6)side)。因此,在訓練模型的過程中,不僅要監督網絡的最終輸出結果圖,還要監督中間不同尺度的特征圖。因此,本研究采用了一種類似于整體嵌套邊緣檢測的深度監控方法的深度監督方法,如式(1)所示,每次迭代輸出7個損失(在公式中用Loss表示)。這些損失用于調整模型參數,以最小誤差描繪重疊樹冠。

式中:m為側數;l(m)side(M=6,如圖4中Sup1—Sup6所示) 是特征圖在上采樣過程中通過sigmoid激活函數之后得到對應的預測概率圖S(m)side與真實標簽計算得到的損失;lfuse是最終融合輸出顯著圖預測結果Sfuse和真實標簽計算得到的損失;W(m)side和Wfuse是每個損失的權重。

對于每一項,使用標準二值交叉熵來計算損失(l),如式(2)所示。

式中:(i,j)分別是像素坐標; H、W是圖像的高度和寬度;PG(i,j)和Ps(i,j)分別表示地面真值和預測顯著性概率圖的像素值。訓練過程試圖將總損失Loss降至最低。在測試過程中,選擇融合輸出lfuse作為最終的顯著性圖。

1.5 評價指標

交并比(intersection over union, IoU,公式中用IoU表示)經常被用作語義分割任務的精度度量。在參考(reference, R)和預測(prediction, P)掩碼中,IoU由2個掩碼中的像素數與像素總數的比率來指示。通過比較樣本的真實類別與模型的預測結果,可以將其分為以下4種情況:真陽性(true positive, TP,公式中用TP表示),其中柑橘冠的預測值與真實值一致;假陽性(false positive,FP,公式中用FP表示),實際情況是背景,但被錯誤地預測為樹冠;假陰性(false negative, FN,公式中用FN表示),真實場景中的樹冠未正確識別;真陰性(true negative, TN,公式中用TN表示),背景與真實值一致。此外,精確度(Precision,公式中用Precision表示)和召回率(Recall,公式中用Recall表示)、總體準確度(overall accuracy, OA,公式中用OA表示)和F1分數(F1-Score,公式中用F1-Score表示)被用作評估模型的評估指標。精確度、召回率、OA和F1分數越高,預測值越接近真實值。公式如下:

選擇決定系數(R2)、平均相對誤差(mean relative error, MRE,公式中用MRE表示)和均方根誤差(root mean square error, RMSE,公式中用RMRE表示)測試U2-Net模型的可靠性,其中R2接近1,表明預測值和測量值相關性更高,MRE和RMRE越小,表明預測值越接近實測值。公式如下

2 結果與分析

本研究的硬件和軟件參數見表1。U2-Net模型的一個主要優點是不需要基于大數據集的預訓練模型。因此,本研究使用Xavier方法[16]初始化模型中的所有卷積層,并使用Adam優化算法[17]調整模型訓練過程。模型批量大?。╞atch size)設置為14,迭代次數(epoch)設置為300,損失權重設置為1,其余超參數設置為默認值(初始學習率=0.003,betas=(0.9,0.999),eps=1×10-8,權值衰減=0)。根據給定的參數配置模型,并輸入數據集進行迭代訓練,總共需要18 h的訓練時間。

2.1 基于U2-Net模型的樹冠分割結果

3個分區中使用U2-Net模型提取柑橘樹冠的結果如圖6所示。由圖6可知,所有試驗分區均顯示出良好的提取結果。A、B試驗分區柑橘樹冠密度較低,因此,樹木之間有很好的區別,樹冠的整體輪廓清晰,形狀與實際一致。B區柑橘樹的密度高于A區。盡管如此,該地區大多數樹冠之間仍存在一定差距,因此U2-Net模型也可以很好地區分單株樹冠,只有少數樹冠相互附著。相反,C區柑橘密度較高,導致樹冠重疊較多;因此,該分區的判別結果不如其他分區。根據不同分區的預測結果可以看出,郁閉度和樹木間距對U2-Net模型的影響最大。嚴重的樹冠遮蔭和較近的樹間距都使模型無法很好地區分每棵樹。

U2-Net模型在不同分區提取的冠數的定量評估結果見表2。3個分區獲得了較高的準確率,F1分數高于92.96%,OA超過91.23%。通過對各分區柑橘樹預測精度的分析,發現U2-Net在A、B分區表現優異,其中柑橘樹密度較低,樹冠邊緣附著和重疊低,OA分別為96.15%和95.09%,F1分數分別為97.94%和96.52%。隨著柑橘樹密度的增加,樹冠邊緣的粘連和重疊更加嚴重,導致U2-Net模型在C分區的性能略有下降,Precision為92.09%,OA為91.23%,F1分數為92.96%。可以看出,U2-Net模型在低樹冠密度地區具有良好的適用性。3個分區的統計結果表明,IoU、OA和F1分數的平均值分別為90.74%、94.15%和95.81%,表明該方法用于柑橘樹冠提取是可行的。

2.2 基于不同深度學習模型的樹冠分割結果

為了研究U2-Net模型的適用性,本研究將其圖像分割和提取結果與其他3種主流深度學習模型(即PSPNet、U-Net和DeepLabv3+)進行了比較。DeepLabv3+,U-Net和PSPNet均使用VOC12+SBD預訓練權重,所有4個模型使用相同的數據集進行訓練。測試可視化提取結果如圖7所示。由圖7可以看出,4種深度學習模型在同一試驗區域的提取效果沒有明顯的誤分類現象,表明這些模型能夠很好地區分目標特征和背景特征。然而,在觀察細節時,可以看到DeepLabV3+和U-Net的在B試驗分區和C試驗分區對相連樹冠識別的較差。與前2種模型相比,PSPNet模型具有更好的整體效果。但是該模型檢測出的柑橘樹冠一些部分有欠缺,與U2-Net模型相比存在遺漏現象。本研究使用的U2-Net模型顯著減少了誤分類和遺漏。雖然還存在一些缺陷,有幾個樹冠相互粘連,但樹冠邊緣分割的效果良好。

4個模型提取精度的定量分析結果見表3—表5。在A樣地中,4個模型的評價結果幾乎相同,每個模型的精度都較好,PSPNet模型的Recall與F1分數最高,達到98.65%和97.95%,僅僅比U2-Net模型高0.54%和0.01%。U2-Net模型的IoU,Precision,OA結果更好。在B樣地中,柑橘樹比較密集,4個模型的精度都有所降低,PSPNet模型的降幅較大,IoU與Recall分別降低了10.19%和11.23%,U2-Net模型降幅最小,表現穩定,整體結果依然比其他3個模型更好。在C樣地中,柑橘樹非常密集,4個模型結果差異更加明顯,雖然U-Net的Precision最高,為92.87%,但IoU指標的表現不如其他3個模型。使用ResNet-101作為骨干網絡的DeepLabv3+,在總體準確性方面優于U-Net。雖然以RSU為骨干網絡的U2-Net模型的精度略低于U-Net模型,但在Recall、IoU、OA和F1分數方面更具有優勢。U2-Net模型與其他3種模型相比,IoU、OA和F1分數分別提高了14.50%~17.33%、0.21%~9.24%和1.80%~9.06%,綜上所述,U2-Net模型可以在樣本數據較少的情況下實現更高的準確度,能夠滿足實際應用場景的準確度要求。

2.3 柑橘樹冠面積提取結果

真實冠幅面積根據像素點測算,在labelme軟件中通過目視解譯手動勾勒測試圖像的柑橘冠幅,生成只有冠幅和背景的標簽文件,導入ArcMap查看每個冠幅對應的像素數,再乘以每個像素點的面積得到冠幅的真實面積。不同試驗區使用U2-Net模型對冠面積提取進行定量評估的結果見表6。A試驗分區柑橘樹分布均勻,低樹冠密度,背景復雜度低,其RMSE和MRE分別為0.34 m2和2.27%,達到了最高的精度。B區的樹冠密度較高,但單株樹之間存在一定的差距,因此,附近樹木的陰影受影響較小,預測值接近測量值。RMSE和MRE分別為1.01 m2和7.72%。準確度最差的是C區,由于樹冠密度很高,受陰影影響很大,RMSE和MRE在所有分區中最低,分別只有2.7 m2和14.67%。

比較3個試驗分區中預測和測量的樹冠面積之間的關系,如圖8所示,2個試驗分區A和B的R2大于0.95。大多數點分布在1∶1的直線周圍,表明U2-Net模型在這些區域提取的面積與測量值高度一致。然而,分區C的決定系數(R2)相對較低,只有0.93。由于該地區柑橘樹的嚴重重疊和粘附,大多數提取面積小于RMSE和MRE所示的測量值。

另一方面,不同試驗分區的提取面積值通常與實測值接近。因此,U2-Net模型在提取柑橘樹冠面積方面具有較高的精度,能夠滿足林業調查中提高樹冠面積精度的要求,柑橘冠提取任務中4個模型的誤差如圖9所示。由此可以看出,U2-Net模型在RMSE和MRE中的錯誤率最低,平均達到1.35和8.15%,表明其提取的面積值最接近測量值。U-Net模型的表現類似于U2-Net,RMSE值為1.71,MRE值為10.42%,而DeepLab V3+和PSPNet的表現更差,RMSE分別為4.24和6.19,MRE分別為16.63%和18.74%。因此,U2-Net的表現優于其他3個模型。

3 結論與討論

研究利用UAV進行柑橘多光譜影像數據采集,并對UAV圖像進行處理以構建柑橘樹冠檢測和分割數據集,利用U2-Net模型與PSPNet, U-Net和DeepLabv3+深度學習模型分別進行單木樹冠提取,并對不同模型提取結果進行對比研究,所得結論主要如下。

1)U2-Net模型在不同的試驗分區中均取得了較好的柑橘單木檢測和分割結果,其中在試驗分區A中,識別準確率最高,準確率和召回率分別為97.78%和98.11%。與3種主流的深度學習模型(PSPNet、U-Net和DeepLabv3+)相比,U2-Net模型在冠數提取方面具有更高的IoU,OA和F1分數,平均值分別提高了6.20%~8.68%、0.93%~4.83%和2.03%~5.25%。

2)U2-Net模型在樹冠面積提取方面也表現良好,模型的預測面積更接近實測面積,3個樣地的R2均高于0.93。與3種主流的深度學習模型(PSPNet、U-Net和DeepLabv3+)相比,U2-Net模型的平均相對誤差和均方根誤差最低,分別為1.35和8.15%。

研究結果表明利用UAV多光譜圖像和U2-Net深度學習模型相結合的方法可以有效地提取柑橘單木樹冠,可為更高層次的應用提供準確的數據支持,但該方法仍有一些局限性,有待改進。

1)通過分析不同試驗分區的提取結果,發現,即使在中午進行航空攝影,UAV圖像仍然無法完全避免光引起的陰影問題。由于陰影的存在,模型很難提取被陰影遮擋的柑橘樹冠,導致預測值低于測量值。

2)復雜的植被類型、密集重疊的樹冠和較小的樹木間距會阻礙樹冠的提取[18]。因此,在未來的研究中應選擇更優秀的模型在復雜的環境條件進行柑橘單木樹冠提取研究,以克服陰影及復雜地形的影響,進而提高柑橘單木樹冠的分割精度。

【參 考 文 獻】

[1]NARVAEZ F Y, REINA G, TORRES-TORRITI M, et al. A survey of ranging and imaging techniques for precision agriculture phenotyping[J]. IEEE/ASME Transactions on Mechatronics, 2017, 22(6): 2428-2439.

[2]BARGOTI S, UNDERWOOD J P. Image segmentation for fruit detection and yield estimation in apple orchards[J]. Journal of Field Robotics, 2017, 34(6): 1039-1060.

[3]束美艷,李世林,魏家璽,等.基于無人機平臺的柑橘樹冠信息提取[J].農業工程學報,2021,37(1):68-76.

SHU M Y, LI S L, WEI J X, et al. Extraction of Citrus crown parameters using UAV platform[J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(1): 68-76.

[4]KOC-SAN D, SELIM S, ASLAN N, et al. Automatic citrus tree extraction from UAV images and digital surface models using circular Hough transform[J]. Computers and Electronics in Agriculture, 2018, 150: 289-301.

[5]陳周娟,程光,卜元坤,等.基于無人機傾斜影像的闊葉林單木參數提取[J].林業資源管理,2022(1):132-141.

CHEN Z J, CHENG G, BU Y K, et al. Single tree parameters extraction of broad-leaved forest based on UAV tilting photography[J]. Forest Resources Management, 2022(1): 132-141.

[6]萬祖毅.基于無人機遙感的柑橘果樹信息提取及應用研究[D].重慶:西南大學,2020.

WAN Z Y. Research on information extraction and application of Citrus fruit trees based on UAV remote sensing[D]. Chongqing: Southwest University, 2020.

[7]WU J, YANG G, YANG H, et al. Extracting apple tree crown information from remote imagery using deep learning[J]. Computers and Electronics in Agriculture, 2020, 174: 105504.

[8]OSCO L P, ARRUDA M, JUNIOR J M, et al. A convolutional neural network approach for counting and geolocating citrus-trees in UAV multispectral imagery[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020, 160: 97-106.

[9]韓蕊,慕濤陽,趙偉,等.基于無人機多光譜影像的柑橘樹冠分割方法研究[J].林業工程學報,2021,6(5):147-153.

HAN R, MU T Y, ZHAO W, et al. Research on citrus crown segmentation method based on multi-spectral images of UAV[J]. Journal of Forestry Engineering, 2021, 6(5): 147-153.

[10]王輝,韓娜娜,呂程序,等.基于MaskR-CNN的單株柑橘樹冠識別與分割[J].農業機械學報,2021,52(5):169-174.

WANG H, HAN N N, LYU C X, et al. Recognition and segmentation of individual Citrus tree crown based on Mask R-CNN[J].Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(5):169-174.

[11]SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[EB/OL]. 2014, arXiv:1409.1556[cs.CV].

[12]HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). June 27-30, 2016, Las Vegas, NV, USA. IEEE, 2016: 770-778.

[13]HUANG G, LIU Z, VAN DER MAATEN L, et al. Densely connected convolutional networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). July 21-26, 2017, Honolulu, HI, USA. IEEE, 2017: 2261-2269.

[14]QIN X, ZHANG Z, HUANG C, et al. U2-Net: going deeper with nested U-structure for salient object detection[J]. Pattern Recognition, 2020, 106: 107404

[15]SU D, KONG H, QIAO Y, et al. Data augmentation for deep learning based semantic segmentation and crop-weed classification in agricultural robotics[J]. Computers and Electronics in Agriculture, 2021, 190: 106418.

[16]GLOROT X, BENGIO Y. Understanding the difficulty of training deep feedforward neural networks[J]. Journal of Machine Learning Research - Proceedings Track, 2010.

[17]KINGMA D P, BA J. Adam: a method for stochastic optimization[EB/OL]. 2014, arXiv: 1412.6980[cs.LG].

[18]CASAPIA X T, FALEN L, BARTHOLOMEUS H, et al. Identifying and quantifying the abundance of economically important palms in tropical moist forest using UAV imagery[J]. Remote Sensing, 2019, 12(1): 9.

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 欧美69视频在线| 黄色在线不卡| 高清欧美性猛交XXXX黑人猛交| 日韩av资源在线| 99热国产这里只有精品无卡顿"| 国产激爽大片高清在线观看| 久草国产在线观看| 在线视频一区二区三区不卡| 亚洲乱强伦| 精品国产Av电影无码久久久| 欧美色视频网站| 1769国产精品免费视频| 无码不卡的中文字幕视频| 久青草免费在线视频| 久久五月天国产自| 欧美一区福利| 亚洲男人的天堂在线| 欧美乱妇高清无乱码免费| 国产一在线观看| 欧洲一区二区三区无码| 亚洲欧美精品日韩欧美| 综合色在线| 97无码免费人妻超级碰碰碰| 久草美女视频| 真实国产乱子伦高清| 成年女人a毛片免费视频| 国产成人一区二区| 欧美三級片黃色三級片黃色1| 国产成人福利在线视老湿机| 久久久黄色片| 一级毛片免费的| 白浆免费视频国产精品视频| 欧美成人aⅴ| 精品無碼一區在線觀看 | 制服丝袜无码每日更新| 91福利一区二区三区| 久久精品欧美一区二区| 国产一级妓女av网站| av在线手机播放| 国产午夜在线观看视频| 精品无码一区二区三区电影| 亚洲成人一区二区| 免费在线色| 国产黑丝一区| 成人小视频在线观看免费| 国产91小视频在线观看| 91娇喘视频| 亚洲清纯自偷自拍另类专区| 91黄视频在线观看| 中文无码精品a∨在线观看| 亚洲视频二| 亚洲欧美日韩综合二区三区| 久久免费看片| 免费精品一区二区h| 任我操在线视频| 国产91麻豆免费观看| 亚洲天堂区| a级毛片免费在线观看| 欧美一区二区丝袜高跟鞋| 国产高清国内精品福利| 国内精品伊人久久久久7777人 | 真实国产乱子伦高清| 国产欧美日韩视频怡春院| 欧美一区二区人人喊爽| 日本成人一区| 性欧美久久| 亚洲久悠悠色悠在线播放| 免费人欧美成又黄又爽的视频| 日本人又色又爽的视频| 亚洲日韩精品综合在线一区二区| 国产一区二区三区免费观看| 国内熟女少妇一线天| swag国产精品| 亚洲精品第五页| 国产成人综合在线观看| 久久这里只有精品66| 国产乱子伦视频在线播放| 99re在线视频观看| 国产美女自慰在线观看| 亚洲国产成人精品一二区| 国语少妇高潮| 国产高清精品在线91|