999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進U-Net的高光譜農林植被分類方法

2022-04-26 03:24:06王克奇彭熙雯張怡卓羅澤蔣大鵬
森林工程 2022年1期

王克奇 彭熙雯 張怡卓 羅澤 蔣大鵬

摘 要:針對高光譜圖像中的“同譜異物”和“同物異譜”現象導致傳統機器學習方法難以精確區分,以及深度學習模型處理高維遙感數據耗時較長的問題,本文以河北省雄安新區雄縣雄州鎮馬蹄灣村19種土地覆被類型(農林植被為主)為研究對象,提出一種基于改進U-Net的高光譜農林植被分類方法。該方法以U-Net為基礎框架,首先利用主成分分析(Principal Component Analysis, PCA)提取主要光譜波段,降低光譜冗余度;然后提出特征提取模塊,該模塊使用深度可分離卷積替代U-Net中的傳統卷積,提取高光譜圖像多尺度特征,降低網絡復雜度,并采用非線性更好的h-swish(hard-swish)激活函數提升網絡的泛化性能;最后在每個特征提取模塊中引入殘差連接提取深層次語義信息。結果表明,改進的U-Net對19種覆被分類的整體精度為96.68%,與Mobile-UNet、U-Net、Res-UNet相比,精度分別提高了4.47%、2.92%、0.45%,訓練時間較分類精度相近的Res-UNet減少了23.5%。由此可知,殘差連接提升了網絡分類精度,使模型在描述植被邊緣和細節方面表現良好;深度可分離卷積使模型輕量化,減小訓練時間;改進的U-Net模型能夠準確、快速地對研究區的農林植被進行區分。

關鍵詞:高光譜;植被區分;U-Net;深度可分離卷積;殘差連接;模型輕量化

中圖分類號:S771.5??? 文獻標識碼:A?? 文章編號:1006-8023(2022)01-0058-09

A Hyperspectral Classification Method for Agroforestry

Vegetation Based on Improved U-Net

WANG Keqi, PENG Xiwen, ZHANG Yizhuo*, LUO Ze, JIANG Dapeng

(College of Mechanical and Electrical Engineering, Northeast Forestry University, Harbin 150040, China)

Abstract:In view of the difficulty in accurately distinguishing between “same spectrum foreign objects” and “same object foreign spectrum” in hyperspectral images caused by traditional machine learning methods, and the time-consuming processing of high-dimensional remote sensing data by deep learning models, 19 land cover types (mainly agroforestry vegetation) in Matiwan village, Xiong’an New Area, Hebei Province, were taken as the research object, and a hyperspectral classification method for agroforestry vegetation based on improved U-Net was proposed. This method was based on U-Net framework. Firstly, Principal Component Analysis (PCA) was used to extract the main spectral bands to reduce spectral redundancy. Then, the feature extraction module was proposed, which used the depthwise separable convolution to replace the traditional convolution in U-Net to extract multi-scale features of hyperspectral images to reduce the complexity of the network, and uses the better nonlinear h-swish (hard-swish) activation function to improve the generalization performance of the network. Finally, residual connection was introduced into each feature extraction module to extract deep semantic information and improve the classification accuracy. The results showed that the overall accuracy of the improved U-Net for 19 cover classification was 96.68%, which was 4.47%, 2.92% and 0.45% higher than that of Mobile-UNet, U-Net and Res-UNet, respectively, and the training time was 23.5% less than that of Res-UNet with similar classification accuracy. Therefore, residual connection improved the accuracy of network classification and made the model perform well in describing vegetation edges and details. Depthwise separable convolution made the model lightweight and reduced the training time. The improved U-Net model can accurately and rapidly distinguish agroforestry vegetation in the study area.

Keywords:Hyperspectral; vegetation differentiation; U-Net; depthwise separable convolution; residual connection; model lightweight

0 引言

隨著我國人口的快速增長,農林牧業爭地的矛盾日益突出。農林植被分類為農林資源的合理配置提供重要依據,對提高土地利用率,實現精準農業高效估產有重要意義[1]。傳統的土地植被覆蓋信息獲取主要采用人工調查的方式,這種方法雖然制圖精度高,但十分耗費人力、物力,且不適用于對大面積植被進行識別[2]。

高光譜遙感技術是近年來迅速發展起來的一種對地觀測的技術,其影像具有“圖譜合一"、波段數目多和信息量大等顯著優勢[3]。國內外學者提出了多種高光譜植被分類方法,其中光譜指數法利用植被原始光譜反射率的波段組合計算分析植被類別,分類效果明顯,張波等[4]利用光譜平均值的一階導數和倒數取對數計算歸一化植被指數(Normalized Difference Vegetation Index, NDVI),將準噶爾盆地4種植被進行區分。基于植被指數的分類方法雖然有效,但精度普遍不高,且受環境影響大,對于景觀破碎、地形復雜地區有很大局限性[5];機器學習方法在高光譜植被分類中取得了很大的進展,張文博等[6]對干旱區的遙感影像進行特征選擇,并分別建立決策樹、支持向量機、隨機森林分類模型,結果表明隨機森林分類模型精度最高。但是此類方法需要人工提取特征,影響分類精度。此外,高光譜圖像存在“同譜異物”和“同物異譜”現象,表現為光譜類間可分離性小、類內差異性大,機器學習方法無法利用高光譜的空間特征,容易引起誤分類問題[7]。

深度學習方法通過自動學習數據中的空間關系獲取高級特征信息,簡化了復雜的人工設計特征過程,成為高光譜圖像植被分類的研究熱點[8]。U-Net是基于編碼器-解碼器結構的全卷積網絡,具有簡潔的分割邏輯和出色的分割效率,因此在遙感圖像分割領域被廣泛應用[9]。蘇健民等[10]利用U-Net模型對“CCF衛星影像的AI分類與識別競賽”數據集中的植被、建筑和水域等多種土地類型進行分類;Bragagnolo等[11]基于U-Net對亞馬遜的森林植被與非植被區域分類,對森林覆蓋變化做出評估。然而當植被類別較多時,U-Net無法充分提取高光譜的空間特征,導致其輸出邊緣粗糙。殘差連接通過恒等映射連接其他卷積層,在提取更深層特征的同時,解決了層數加深導致的梯度消失問題,提高模型分類的準確性。Zhu等[12]提出了基于融合殘差網絡的高光譜圖像土地覆被分類方法,利用殘差單元學習更具判別力的高級特征。然而,深度學習方法在處理高維遙感數據時,往往存在模型計算量大、耗時較長的問題。因此,對于遙感圖像分類模型輕型化的研究,需要進一步探索。

本文針對U-Net無法充分利用高光譜圖像的深層抽象信息,以及傳統深度學習語義分割算法在處理遙感圖像的過程耗時較長的問題,提出基于改進U-Net的高光譜農林植被分類方法。該模型中提出特征提取模塊替代U-Net中的傳統卷積層,在特征提取模塊中采用計算量更少的深度可分離卷積進行特征提取,采用h-swish(hard-swish)非線性激活函數,并引入殘差連接提取深層次語義信息。以河北省雄安新區雄縣雄州鎮馬蹄灣村19種土地覆被類型(農林植被為主)為研究對象,與其他3種分類模型進行比較,為研究區內農林資源規劃管理提供有力支撐。

1 材料與方法

1.1 材料

1.1.1 研究區域概況

研究區位于河北省雄安新區雄縣雄州鎮馬蹄灣村,地理坐標為38°9′ E,北緯116°07′ N,是繼深圳經濟特區和上海浦東新區之后又一具有劃時代意義的新區。雄安新區地處冀中腹地,北距北京108 km,東距天津100 km,西距保定70 km,東西長26 km,南北寬25.5 km。全境西北地勢較高,東南略低,海拔為7~19 m,為緩傾平原,土層深厚,地形開闊,植被覆蓋率很低[13]。

該高光譜影像由中國科學院上海技術物理研究所研制的高分專項航空系統全譜段多模態成像光譜儀采集,參照同步測量的地面和大氣數據,經過幾何、輻射和大氣校正,得到的關于各地表覆蓋類型反射率的偽彩色影像,如圖1所示。其光譜范圍為400~1 000 nm,波段256個,空間分辨率0.5 m[13]。

1.1.2 分類系統的構建

依據《土地利用現狀分類》(GB/T 21010—2017)和《森林資源規劃設計調查主要技術規定》,并結合實際土地覆被情況,建立研究區覆被分類系統。利用分類系統在影像上選取樣本,每個像素類別代表其所在位置屬于的土地覆被類型,各覆被類型及其包含樣本數見表1。

1.1.3 數據分析

在高光譜圖像中,同類別的地物在周圍的環境如光照、密度以及成像時間等多種因素作用下,呈現出差異較大的光譜曲線,稱為“同物異譜”現象;同時,由于高光譜圖像包含的地物種類多樣,背景信息復雜,不同的地物在高分辨率下可能呈現出極為相似的光譜曲線,這種現象為 “同譜異物”現象[14]。這2種特點可能導致模型的誤分類問題,對高光譜圖像的分類任務造成了很大的挑戰。

使用ENVI 5.3軟件對馬蹄灣村高光譜圖像進行光譜提取,如圖2所示。圖2(a)為在柳樹樣本中隨機選取8個像素點獲得的光譜曲線,圖2(b)為10種典型植被經曲線平滑處理的平均光譜曲線,橫坐標為波長,縱坐標為反射率。由圖2(a)可以看出,同種植被類別的光譜曲線仍存在差異;由圖2(b)可以看出,不同植被類型如榆樹和國槐、玉米和復葉槭的光譜信息相似。以上馬蹄灣村高光譜圖像中存在的“同物異譜”與“同譜異物”現象對模型的泛化性能提出了極高的要求。

1.2 研究方法

1.2.1? 深度可分離卷積

深度可分離卷積是可分解的卷積,分為深度卷積(Depthwise convolution)和逐點卷積(Pointwise convolution)2部分, 具有輕量級和低參數量的特點[15]。

深度卷積由與輸入數據的通道數相同的卷積核組成,在與輸入通道卷積后,生成的輸出特征保留其原始深度與尺寸。圖3為尺寸為[H×W×N]的輸入圖像的深度卷積運算,其中,H為高度,W為寬度,N為通道數。

逐點卷積用于將深度卷積輸出的特征通道混合,圖4為對尺寸為[H×W×N]的輸入特征的逐點卷積運算,逐點卷積核大小為[1×1×N],最終得到[H×W×1]的輸出特征。

深度可分離卷積模塊的計算如公式(1)—公式(3)所示。

Md=i×j×k 。 (1)

Mp=1×1×p×k 。? (2)

M=Md+Mp 。 (3)

R=i×j×1×k+1×1×p×ki×j×p×k=1p+1i×j? 。(4)

式中:Md、Mp和M分別為逐通道卷積參數量、逐點卷積參數量和深度可分離卷積總參數量;i、j、k和p分別為卷積核的長、寬、數量和通道數;R為深度可分離卷積與普通卷積參數量比值[16]。

本文采用卷積核的長和寬均為3,高光譜降維后的通道數為6,經公式(4)計算可得R約為0.278,通過該比值可以看出深度可分離卷積的參數量遠少于傳統卷積參數量,進而可以降低模型復雜度。

1.2.2 殘差單元

殘差網絡通過在卷積層的輸入和輸出之間引入直接連接的shortcut回路學習殘差函數,確保每一層具有相同的映射,圖5為殘差單元示意圖,將圖5中的殘差學習定義為:

Xl+1=fXl+gXl 。(5)

式中:Xl和Xl+1分別為殘差單元的輸入和輸出;g·為殘差函數,f·為ReLU激活函數。

根據公式(5),從第k層到第l層的特征學習表示為

Xl=Xk+∑l-1i=kgXi。???? (6)

根據導數鏈式法則,損失函數的梯度表示為:

εxk=εxlxlxk=εxl1+xk∑l-1i=KgXi=εxl+εxlxk∑l-1i=kgXi 。? (7)

由以上公式可知,①網絡在訓練過程中不會出現梯度消失的問題,因為xk∑l-1i=kgXi不能始終為-1;②εxl表示從深層l到淺層k的反向傳播過程。對殘差單元的正向和反向傳播過程的分析可知,shortcut可以使信息平滑的在上下層之間傳遞,因此可以更好地訓練深度模型[17-19]。

1.2.3 改進的U-Net模型

U-Net[20]由全卷積神經網絡改進而來,是目前比較流行的圖像分割模型。網絡模型采用編碼器-解碼器結構,編碼部分對圖像特征提取,解碼部分對圖像部分細節還原,并通過1×1卷積輸出期望的分類結果[21]。

鑒于深度可分離卷積與殘差單元的優勢,本文提出了特征提取模塊,結構如圖6所示。該模塊分別在3×3的深度卷積(Depthwise convolution)和1×1的逐點卷積(Pointwise convolution)后,進行批處理歸一化(BatchNorm)操作,并將輸入和輸出直接相加進行殘差函數的學習,形成殘差連接。采用h-swish激活函數(公式中用hswish表示),該激活函數非線性更強,彌補了傳統的線性整流函數(Rectified Linear Unit, ReLU,公式中用ReLU表示)及其衍生激活函數對負值取0會丟掉部分特征信息的缺陷,提升網絡的泛化性能[22]。

hswishx=x·ReLU6x+36? (8)

改進的U-Net網絡,結構如圖7所示。

圖7改進的U-Net模型由編碼部分、解碼部分和跳躍連接組成。其中,編碼部分和解碼部分均包含5層,每層添加2個特征提取模塊,對稱的解碼和編碼部分形成一個U形結構。編碼部分通過特征提取模塊進行特征提取,并在結構上重復采用2×2的最大池化進行下采樣,從上下文中提取圖像特征;解碼部分同樣采用提出的模塊替代U-Net中的卷積層,為了在融合中確保相同的分辨率,在每個圖層前對基礎特征圖進行2×2上采樣還原圖像大小,最后一層通過1×1的卷積核對每一個像素進行分類;跳躍連接部分將從編碼和解碼部分提取的特征進行尺度融合,以保證淺層的細節信息與深層的背景語義信息更好地結合。

網絡在訓練過程中將每個像素的分類視為二分類問題,因此使用二元交叉熵損失函數:

Jω,b=-1m∑mi=1yilogy^i+1-yilog1-y^i。

(9)

式中:m為樣本量;yi為樣本i的標簽;y^i為樣本i預測值;ω為權重;b為偏置。

1.2.4 評價指標

采用準確率(Ac)、召回率(Recall)和相似系數(F1作為精度評價指標[21]。

Ac=TP+TNTP+TN+FP+FN×100%。? (10)

Recall=TPTP+FN×100% 。 (11)

F1=2×Te∩PeTe∪Pe×100%

=2×TPFP+2TP+FN×100%。(12)

式中:TP為真正例;TN為真反例;FP為假正例;FN為假反例;Te為像素e的實際類別;Pe為像素e的預測類別;∩為真實類別與預測類別相同的情況,即TP,∪為所有情況的總概率。

采用“每秒所執行的浮點運算次數” (floating-point operations per second,FLOPs)和參數(Parameter)作為模型復雜度的評價指標,用于衡量模型的計算復雜度(公式中用FLOPs表示),決定模型的訓練/預測時間,Parameter表征參數數量(公式中用Parameter),決定模型的體積大小。

FLOPs=o∑Dl=1M2l·K2l·Cl-1·Cl(13)

Parameter=o∑Dl=1K2l·Cl-1·Cl+∑Dl=1M2·Cl (14)

式中:o表示FLOPs的數值漸進地不大于括號中等式的值;D為卷積層數;Ml為第l層輸出特征圖的邊長;Kl為第l層卷積核的邊長;Cl為第l層的卷積核個數;Cl-1為第l-1層輸出通道數。

2 結果與分析

2.1 實驗參數

實驗所用計算機配置為NVIDIA Quadro RTX 5000顯卡,Intel(R) CoreTM i9-1085H處理器;在Windows操作系統下基于PyCharm2019.2.3平臺,使用python3.7編程語言,通過PyTorch框架運行實驗。實驗時,將主成分分析(Principal Component Analysis,PCA)降維后的高光譜圖像按512×512的大小隨機剪裁,并依據4∶1的比例分成訓練集和測試集。設置批次訓練的樣本集為4,最大訓練迭代次數(epoch)為600代,網絡初始學習率為0.000 1;在迭代次數等于100后,學習率變為十萬分之一,使網絡尋找局部最優解;初始權重為ImageNet的預訓練權重。

2.2 對比驗證與分析

為驗證改進模型的分割性能,本文選取U-Net和以ResNet34、 MobileNetV1替換U-Net的編碼器與解碼器特征提取部分的Res-UNet與Mobile-UNet模型進行對比實驗。

圖8為訓練過程中準確率與損失函數隨迭代次數變化曲線,表2為各模型測試集精度的評價指標。由圖8(a)可以看出,本文提出的模型訓練(Our-Net)精度最高,Res-UNet與其準確率近似,其次是U-Net,準確率最低的是Mobile-UNet;此外,相較于其他3個模型,改進的U-Net在訓練100代左右時趨于穩定,最快達到收斂。由圖8(b)可以看出,改進模型的損失下降最快。以上結果表明,深度可分離卷積能夠大幅提高模型計算效率,但在一定程度上降低了網絡分類精度;殘差結構使模型學習到更深層次的特征,進而提升網絡分割能力,彌補了深度可分離卷積對特征提取能力不足的缺陷。

由圖9和表3可知,改進U-Net的Parameter分別是U-Net和Res-UNet的0.50、0.27倍; FLOPs分別是U-Net、Res-UNet和Mobile-UNet的0.63、0.42、1.09倍;改進的U-Net與Mobile-UNet的Parameter相同,FLOPs相近,因為殘差單元的shortcut連接在網絡訓練時沒有引入額外的參數,不會給網絡增加額外計算量,在不增加額外訓練時間的情況下更易于優化參數,但會增加模型計算復雜度;改進的U-Net與Mobile-UNet訓練和測試時間相近,均少于U-Net和Res-UNet。可見相比于U-Net和Res-UNet使用的傳統卷積,深度可分離卷積的分步卷積過程能夠在一定程度上減少網絡參數量以及計算復雜度,節約計算成本,使模型更加輕量化。

植被之間光譜相似度較高,從而存在錯分、漏分的情況,對分類精度產生了一定的影響。此外,由于各覆被類別像元個數分布不平衡,樣本量較少的幾類地物如大豆、菜地和刺槐分類精度不高。因此,將數據集預處理以增加光譜間差異性,并對小樣本類別進行數據擴增以提高整體分類精度將是今后研究的重點。

為觀察分類可視化效果,隨機選取測試集中的4張圖像進行顯示,如圖10所示。由圖10可以看出,本文提出的方法分類效果最優,不僅對小樣本植被分類的準確率更接近真實值,而且可以更好地描述不同植被區域的邊緣和細節,這是因為殘差連接增強了特征的傳播能力,提取更多的地物細節信息,減少信息丟失[24]。以上結果表明,改進的U-Net模型在分類精度和時間消耗上均有不錯的表現,對植被的分類結果較其他3種方法更佳。

3 結論

本文以河北省雄安新區雄縣雄州鎮馬蹄灣村高光譜影像為研究對象,將深度可分離卷積和殘差連接結合作為U-Net的改進策略,對19種土地覆被類別(農林植被為主)進行分類。主要結論如下。

(1) 相比于傳統高光譜圖像分類任務,改進的U-Net引入的殘差連接能夠更好地捕捉高光譜圖像上下文語義信息,模型整體分類精度較U-Net、Mobile-UNet、Res-UNet分別提高了4.47%、2.92%、0.45%。

(2) 在處理遙感數據時,使用深度可分離卷積可以有效降低模型復雜度,計算復雜度(FLOPs)分別較Res-UNet、U-Net減少了58.5%、37.2%。

(3) 通過對實驗結果的定量及定性分析可知,改進的U-Net較好地解決了“同譜異物”和“同物異譜”現象引起的誤分類問題,可以在提升分類精度的同時,有效提高分類效率,為研究區內農林資源管理規劃提供有力支撐。

【參 考 文 獻】

[1]虞佳維,程志慶,張勁松,等.高光譜信息的農林植被種類區分[J].光譜學與光譜分析,2018,38(12):3890-3896.

YU J W, CHENG Z Q, ZHANG J S, et al. An approach to distinguishing between species of trees and crops based on hyperspectral information[J]. Spectroscopy and Spectral Analysis, 2018, 38(12): 3890-3896.

[2]ZHAO F C, WU X M, WANG S. Object-oriented vegetation classification method based on UAV and satellite image fusion[J]. Procedia Computer Science, 2020, 174: 609-615.

[3]FANG B, LI Y, ZHANG H K, et al. Collaborative learning of lightweight convolutional neural network and deep clustering for hyperspectral image semi-supervised classification with limited training samples[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020, 161: 164-178.

[4]張波,牛婷,房世峰,等.荒漠-綠洲交錯地帶典型植被光譜特征研究[J].光譜學與光譜分析,2016,36(4):1104-1108.

ZHANG B, NIU T, FANG S F, et al. Research on the spectral characteristic of typical vegetation in desert-oasis crisscross zone[J]. Spectroscopy and Spectral Analysis, 2016, 36(4): 1104-1108.

[5]楊超,鄔國鋒,李清泉,等.植被遙感分類方法研究進展[J].地理與地理信息科學,2018,34(4):24-32.

YANG C, WU G F, LI Q Q, et al. Research progress on remote sensing classification of vegetation[J]. Geography and Geo-Information Science, 2018, 34(4): 24-32.

[6]張文博,孔金玲,楊園園,等.面向對象的旱區植被遙感精細分類研究[J].測繪科學,2021,46(1):136-140,183.

ZHANG W B, KONG J L, YANG Y Y, et al. Fine vegetation classification of remote sensing in arid areas based on object-oriented method[J]. Science of Surveying and Mapping, 2021, 46(1): 136-140, 183.

[7]魏立飛,余銘,鐘燕飛,等.空-譜融合的條件隨機場高光譜影像分類方法[J].測繪學報,2020,49(3):343-354.

WEI L F, YU M, ZHONG Y F, et al. Hyperspectral image classification method based on space-spectral fusion conditional random field[J]. Acta Geodaetica et Cartographica Sinica, 2020, 49(3): 343-354.

[8]張怡卓,徐苗苗,王小虎,等.殘差網絡分層融合的高光譜地物分類[J].光譜學與光譜分析,2019,39(11):3501-3507.

ZHANG Y Z, XU M M, WANG X H, et al. Hyperspectral image classification based on hierarchical fusion of residual networks[J]. Spectroscopy and Spectral Analysis, 2019, 39(11): 3501-3507.

[9]LU Y, QIN X J, FAN H Y, et al. WBC-Net: a white blood cell segmentation network based on UNet++ and ResNet[J]. Applied Soft Computing, 2021, 101: 107006.

[10]蘇健民,楊嵐心,景維鵬.基于U-Net的高分辨率遙感圖像語義分割方法[J].計算機工程與應用,2019,55(7):207-213.

SU J M, YANG L X, JING W P. U-net based semantic segmentation method for high resolution remote sensing image[J]. Computer Engineering and Applications, 2019, 55(7): 207-213.

[11]BRAGAGNOLO L, DA SILVA R V, GRZYBOWSKI J M V. Amazon forest cover change mapping based on semantic segmentation by U-Nets[J]. Ecological Informatics, 2021, 62: 101279.

[12]ZHU H, MA M R, MA W P, et al. A spatial-channel progressive fusion ResNet for remote sensing classification[J]. Information Fusion, 2021, 70: 72-87.

[13]岑奕,張立福,張霞,等.雄安新區馬蹄灣村航空高光譜遙感影像分類數據集[J].遙感學報,2020,24(11):1299-1306.

CEN Y, ZHANG L F, ZHANG X, et al. Aerial hyperspectral remote sensing classification dataset of Xiong’an New Area (Matiwan Village)[J]. Journal of Remote Sensing, 2020, 24(11): 1299-1306.

[14]ORTAC G, OZCAN G. Comparative study of hyperspectral image classification by multidimensional Convolutional Neural Network approaches to improve accuracy[J]. Expert Systems With Applications, 2021, 182: 115280.

[15]KULKARNI U, S M M, GURLAHOSUR S V, et al. Quantization friendly MobileNet (QF-MobileNet) architecture for vision based applications on embedded platforms[J]. Neural Networks, 2021, 136: 28-39.

[16]KC K, YIN Z D, WU M Y, et al. Depthwise separable convolution architectures for plant disease classification[J]. Computers and Electronics in Agriculture, 2019, 165: 104948.

[17]王明常,朱春宇,陳學業,等.基于FPN res-unet的高分辨率遙感影像建筑物變化檢測[J].吉林大學學報(地球科學版),2021,51(1):296-306.

WANG M C, ZHU C Y, CHEN X Y, et al. Building change detection in high resolution remote sensing images based on FPN res-unet[J]. Journal of Jilin University (Earth Science Edition), 2021, 51(1): 296-306.

[18]岳振興,岳彩榮,鄒會敏.基于KPCA的AISA eagle Ⅱ機載高光譜數據的降維與樹種識別[J].西部林業科學,2020,49(4):83-90.

YUE Z X, YUE C R, ZOU H M. Dimension reduction and tree species recognition of AISA eagle II airborne hyperspectral data based on KPCA[J]. Journal of West China Forestry Science, 2020, 49(4): 83-90.

[19]劉歆.基于遙感影像的土地資源利用區劃自動識別技術[J].自動化技術與應用,2021,40(9):99-103.

LIU X. Automatic recognition technology of land resources division based on remote sensing image[J]. Techniques of Automation and Applications, 2021, 40(9): 99-103.

[20]RONNEBERGER O, FISCHER P, BROX T. U-net: convolutional networks for biomedical image segmentation[C]//Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015, Munich, Germany, 2015:234-241.

[21] LIU S P, LI Y M, ZHOU J J, et al. Segmenting nailfold capillaries using an improved U-net network[J]. Microvascular Research, 2020, 130: 104011.

[22]楊晉生,楊雁南,李天驕.基于深度可分離卷積的交通標志識別算法[J].液晶與顯示,2019,34(12):1191-1201.

YANG J S, YANG Y N, LI T J. Traffic sign recognition algorithm based on depthwise separable convolutions[J]. Chinese Journal of Liquid Crystals and Displays, 2019, 34(12): 1191-1201.

[23]劉浩,駱劍承,黃波,等.基于特征壓縮激活unet網絡的建筑物提取[J].地球信息科學學報,2019,21(11):1779-1789.

LIU H, LUO J C, HUANG B, et al. Building extraction based on SE-unet[J]. Journal of Geo-Information Science, 2019, 21(11): 1779-1789.

[24]DIAKOGIANNIS F I, WALDNER F, CACCETTA P, et al. ResUNet-a: a deep learning framework for semantic segmentation of remotely sensed data[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020, 162: 94-114.

主站蜘蛛池模板: 超薄丝袜足j国产在线视频| 九色在线观看视频| 亚洲妓女综合网995久久| 91麻豆精品视频| 日韩在线播放中文字幕| 成人年鲁鲁在线观看视频| 日韩无码黄色网站| 国产精品无码在线看| 四虎精品国产永久在线观看| 国产亚洲一区二区三区在线| 国产乱码精品一区二区三区中文 | 日韩在线第三页| 亚洲无码高清一区| 就去色综合| 久久久久国产精品嫩草影院| 亚洲国产AV无码综合原创| 亚洲一道AV无码午夜福利| 黄色网站不卡无码| 国产精品jizz在线观看软件| 亚洲精品自拍区在线观看| 国产香蕉在线| 国产成人8x视频一区二区| 四虎永久免费地址| 四虎国产精品永久一区| 欧美无专区| 制服丝袜国产精品| 91久久国产综合精品| 久久99精品久久久久久不卡| 伊人国产无码高清视频| 欧美第一页在线| 无码中文AⅤ在线观看| 九九九精品成人免费视频7| 免费人成网站在线观看欧美| 国产免费怡红院视频| 91福利在线看| 国产精品所毛片视频| 五月天在线网站| 97se亚洲综合在线韩国专区福利| 综合五月天网| 国产成人久视频免费| 在线观看无码av免费不卡网站| 久久综合干| 国产真实自在自线免费精品| 日韩精品无码不卡无码| 国产美女在线免费观看| aa级毛片毛片免费观看久| 国产男女免费视频| 亚洲精品免费网站| 熟妇无码人妻| h视频在线播放| 婷婷丁香色| 国产午夜福利在线小视频| 国产呦精品一区二区三区下载 | 操国产美女| 国产在线视频自拍| 亚洲精品福利网站| 亚洲va精品中文字幕| 亚洲欧美激情小说另类| 免费无码在线观看| 成人国产一区二区三区| 97se亚洲综合在线天天| 欧美在线黄| 亚洲人成网站色7777| 真实国产乱子伦视频| 久久成人18免费| av一区二区三区高清久久| 色综合色国产热无码一| 亚洲美女一区| 国产亚洲精品无码专| 日本亚洲成高清一区二区三区| 国产精品丝袜在线| 亚洲日韩精品无码专区97| 中国黄色一级视频| 亚洲综合片| 亚洲成人网在线观看| 人人爽人人爽人人片| 精品伊人久久久久7777人| 欧美成人综合视频| 就去吻亚洲精品国产欧美| 国内精品视频| 午夜毛片免费观看视频 | 综合色区亚洲熟妇在线|