999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

SAT-CNN:基于卷積神經網絡的遙感圖像分類算法

2018-04-13 10:18:02張德園常云翔張利國石祥濱
小型微型計算機系統 2018年4期
關鍵詞:分類特征

張德園,常云翔,張利國,石祥濱

1(沈陽航空航天大學 計算機學院,沈陽 110136) 2(遼寧省通用航空研究院 人因工程研究室,沈陽 110136) E-mail :dyzhang@sau.edu.cn

1 引 言

遙感圖像分類是根據衛星等遙感設備拍攝到的圖像來識別地面目標,常用于監測地球的地表狀況.遙感圖像受到傳感器類型、波長、拍攝區域等因素的影響,使得采集到的圖像空間分辨率較低、圖像細節較模糊,因此遙感圖像分類問題具有很大的挑戰性[1].鑒于遙感圖像標注樣本數量較少,傳統的遙感圖像分類方法主要研究適合遙感圖像的特征提取算法[2-4],以及小樣本分類算法[5].為了適應不同應用的特征普適性,人們提出了一些方法來獲取更加靈活和泛化能力更強的特征,比如:稀疏編碼[6]、fisher特征[7]等.

近年來深度神經網絡由于其優異的性能在計算機視覺的各個領域得到廣泛的研究[8,9].其主要的成功在于能夠通過端到端的方式從大量標注的訓練數據中學習到具有極強表達能力和泛化能力的特征.深度神經網絡在遙感圖像領域的應用正在引起研究者們的關注[10].

然而在遙感圖像分類任務上,采用遙感圖像數據集訓練端到端神經網絡尚未得到深入的研究.主要原因在于深度神經網絡需要大量的訓練數據,而遙感圖像數據集中數據量較少,無法滿足這種龐大的數據量需求[11].大規模的高分辨率遙感圖像數據集直到2015年才出現,Basu[12]通過對圖像提取150種不同類型的特征,采用DeepSAT深度神經網絡框架分類取得了較優的性能,然而采用端到端的神經網絡訓練模型是否適合遙感圖像分類仍然未得到深入的研究.

本文提出了SAT-CNN,一個用于遙感圖像分類任務的端到端的深度神經網絡框架.該框架有四個構件塊構成,其中兩個構件塊用于提取遙感圖像局部區域的底層特征,其他兩個構件塊用于提取遙感圖像局部區域的空間位置關系.采用三種不同網絡配置進行訓練,實驗結果表明SAT-CNN能夠提取適合遙感圖像分類的圖像特征.對SAT-CNN的特征遷移性以及受圖像通道的影響進行了詳細的分析,驗證了SAT-CNN框架得到特征的泛化性和魯棒性.

2 相關工作

遙感圖像分類任務過去的工作主要集中于設計復合濾波器,研究提取具有良好表達能力的特征來描述圖像.Camps-Valls等人[13]通過對同一區域的光譜和空間特征進行加權求和,設計了一個復合的濾波器.文獻[14]中提出一種基于使用貝葉斯架構(bayes framework)的目標檢測方法并使用Latent Dirichlet Allocation對目標進行后續的聚類.這種方法對檢測高度抽象的目標群體(比如,停車場)有較好的效果.

過去幾年,計算機視覺領域發生巨大變革并推進到采取一種快速的、可擴展的、端到端的學習架構:卷積神經網絡(convolutional neural network,CNN).基于深度卷積神經網絡的方法在分類、定位、語義分割和動作識別等任務上比其他方法得到遠超出傳統方法的精度.在大規模識別任務中學習到的卷積神經網絡特征已經成功遷移到了不同的視覺任務上,比如目標檢測、語義分割和動作檢測.雖然深度學習在計算機視覺應領域的所有方法中精度最高,但在遙感圖像1分類任務上研究起步較晚,尚未得到充分的研究.文獻[14]中介紹了一種深度學習算法,結合空間和光譜信息對高分辨率圖像(VHR)進行有監督分類.Minh[15]等人研究了深度網絡對航拍圖像分類中類別標簽噪聲的魯棒性.近幾年,Romero[16]提出了一種深度卷積分層的架構,在AVIRS Indiana′s Indian數據集上實驗和測試分類的精度.Tokarczyk[17]中改進了特征提取技術和分類器提出了一種改進的多特征學習策略.由于訓練數據受到明顯的限制,他們的方法相比于隨機森林沒有過多的提升.文獻[12]中提出了一種基于深度網絡的遙感圖像的分類架構DeepSat,并構建了大規模高分辨率的遙感圖像數據集SAT-4和SAT-6.DeepSat方法從圖像中提取特征、進行歸一化,然后采用深度置信網絡對這些歸一化后的特征進行分類.當有足夠多的訓練數據時,DeepSat能夠得到一個很高的分類精度.在大量標注訓練樣本的情況下,采用端到端的神經網絡是否能夠進行遙感圖像特征提取是一個尚未充分研究的問題.本文我們采用端到端的方式直接使用深度卷積神經網絡在未經預處理的遙感圖像數據上學習和分類,分析深度學習在遙感圖像分類任務上的性能.

3 卷積神經網絡介紹

近年來卷積神經網絡在圖像分類任務上大幅提升傳統方法的性能.卷積神經網絡的發展主要得益于海量數據以及多種隱藏層神經元的提出,主要的隱藏層神經元操作描述如下:

1)卷積操作conv(convolutional):卷積操作使用滑動窗口分割原始圖像,在每個滑窗內使用 相同的參數進行線性計算得到輸出圖像.在一張圖像上使用一個卷積核(kernel)的進行卷積運算的計算如公式(1)所示:

(1)

2)批規范化操作bnorm(batch normalization)[18]:批規范化操作通過對神經網絡隱藏層的輸出進行歸一化處理防止反向傳播過程中的梯度彌散,加速神經網絡在訓練時的收斂速度.其計算如公式(2)所示:

(2)

3)修正線性操作ReLU(rectified linear unit):修正線性操作是網絡中使用到的激活函數,其計算如公式(3)所示:

yh,w,c=max{0,xh,w,c}

(3)

其中,x∈RH×W×C為輸入圖像;y∈RH×W×C為輸出圖像.

4)最大池化mp(maxpooling):最大池化操作采用滑動窗口分割圖像,在每個滑窗內取最大值作為輸出,其計算如公式(4)所示:

(4)

其中,x∈RH×W×C為輸入圖像;y∈RH″×W″×C為輸出圖像;f∈RH′×W′×C為滑窗大小,窗口每次滑動一個窗口大小的步長.

5)全連接操作fc(fully connected):全連接操作對輸入圖像的所有數據進行加權求和的線性運算,可以通過卷積操作的方式來實現.公式(1)中窗口大小f∈RW′×H′×C修改為f∈RW×H×C即可將卷積操作變為全連接操作.

4 SAT-CNN框架

4.1 SAT-CNN網絡設計

本文針對遙感圖像數據集的特點提出了用于遙感圖像分類的SAT-CNN卷積神經網絡框架,主要考慮了兩方面因素:第一,遙感圖像空間分辨率較低導致圖像的細節較為模糊,識別遙感圖像主要依賴于遙感圖像局部區域間的整體關系,不需要過多考慮遙感圖像局部區域內存在復雜的空間位置關系;第二,遙感圖像數據集中訓練數據量相對較少,采用更大、更深的網絡結構將導致SAT-CNN中有更多的參數需要訓練,需要更大的訓練數據量.為了便于實現和分析,我們依據模塊化的思想提出了具有不同功能的構件塊用來描述SAT-CNN的網絡結構.SAT-CNN由四個構件塊(block)通過線性堆疊的方式組成,每個構件塊實現一個基本的功能:局部特征提取、全局特征提取和標簽預測.如圖1所示,構件塊1和構件塊2用于從遙感圖像的局部區域內提取底層特征;構件塊3用于整合不同底層特征間的非線性空間位置關系得到整張圖像的全局特征;構件塊4根據整張圖像的特征對圖像在每種類別上的可能性做出預測,得出預測標簽.

圖1 SAT-CNN網絡結構圖Fig.1 SAT-CNN network structure

SAT-CNN中根據LeNet、AlexNet和VggNet三種經典的卷積神經網絡的結構共性,設計了四種不同類型的構件塊,分別命名為:CM、CCM、FC和Pre.其中,CM和CCM類型構建塊用于提取局部特征,FC類型構建塊用于提取全局特征,Pre類型構建塊用于預測類別標簽.每個構件塊由線性變換(conv)、批規范化(bnorm)、非線性變換(ReLU或pooling)等基本操作組成.四種不同類型構建塊的內部結構如下:

1)CM:該構件塊由一組卷積(conv)-批規范化(bnorm)-最大池化(mp)的三層結構構成.該構件塊能夠提取較簡單的區域內像素關系.

2)CCM:該構建塊由一組卷積(conv)-批規范化(bnorm)-激活函數(ReLU)-卷積(conv)-批規范化(bnorm)-最大池化(mp)組成的六層結構.其中兩個卷積操作使用相同大小、相同個數的卷積操作.與CMBLOCK相比,該構件塊提取較復雜的區域內像素關系.

3)FC:網絡中使用到的一種全連接構件,由一組全連接(fc)-批規范化(bnorm)-激活函數(ReLU)組成的三層結構.該構件塊能夠提取不同區域特征之間的非線性空間關系.常用于將網絡中所有的局部特征組合得到表示整張圖像的高層特征.

4)Pre:網絡中使用到的另一種全連接構件塊,僅由一個全連接(fc)操作組成.與FCBLOCK不同,該構件塊能夠提取不同區域特征之間的線性空間關系.常用于將網絡中提取到的特征輸出成對每個類別標簽的預測值.

SAT-CNN網絡由以上四種類型的構件塊線性堆疊組成,并分別借鑒圖像分類中常用的LeNet、AlexNet和VggNet網絡結構,設置了三種不同參數的網絡結構,分別命名為SAT-LeNet、SAT-AlexNet和SAT-VggNet.三種不同網絡結構的具體配置如表1所示.

表1中采用構件塊的方式描述網絡結構,其中K為構件塊中卷積操作使用的卷積核大小,D為使用的卷積核個數,P為填充像素數量,S為每次滑動的步長.

SAT-LeNet和SAT-AlexNet的網絡由兩個CM類型的構建塊、一個FC類型的構件塊和一個Pre類型的構件塊組成.SAT-LeNet的前兩個構件塊用5×5的卷積核“感知”圖像上的局部信息.SAT-AlexNet中采用了比SAT-LeNet更大的卷積核來提取更大區域的淺層局部特征、增加網絡中的參數數量,分別使用了11×11和7×7的卷積核.SAT-VggNet中使用到的卷積構件塊為CCM類型的構建塊,能夠在圖像的局部區域提取更復雜的特征、增加網絡的深度.網絡的前兩個構件塊中采用3×3的卷積核.三種網絡結構的后兩個構件塊中

表1 SAT-CNN網絡配置Table 1 SAT-CNN network configuration

的線性操作為全連接操作,使用與前一層輸出大小相同的卷積核來“感知”整張圖像的信息.第一個全連接層輸出的128維向量為神經網絡從圖像上學習到用來表示整張圖像的全局特征;最后一個全連接層為預測構建塊,輸出4或6維的向量,對應于我們使用的數據集中的標簽數量.輸出的標簽預測向量通過softmax層的計算得到一個可以用來表示圖像在每個類別可能性的后驗概率.

4.2 訓練方法

采用計算預測值與實際標簽之間的對數損失(softmax log-loss)交叉熵作為優化目標函數,使用基于動量的隨機梯度下降的方法進行優化.將訓練數據集中的數據每500個樣本劃分成一個數據塊(mini batch),在全部數據塊上調整參數為一輪迭代,設置迭代200輪尋找最優的網絡參數.網絡權重采用正態分布的隨機采樣來初始化,偏置系數初始化為0,學習率設置為0.001,動量值設置為0.9.在訓練時,輸入SAT數據集中28×28大小的四通道圖像,輸出為圖像在每個類別上的線性預測值,根據預測值的大小判斷網絡對圖像預測的類別.我們采用原始的圖像作為輸入數據,沒有做任何的數據增強和圖像預處理.文中使用到的三種網絡都是在SAT數據集上重新訓練得到的.

5 實 驗

5.1 實驗設置

實驗在SAT-4和SAT-6數據集的訓練集上訓練本文提出的三種不同結構的卷積神經網絡模型,為每種類型的模型確定最優的參數并在測試集上測試分類精度.我們的實驗結果將與SAT-4和SAT-6數據集上其他方法的結果進行比較.

SAT-4和SAT-6是一組公開的高分辨率遙感圖像數據集.這兩個數據集中的圖像從National Agriculture Imagery Program (NAIP)截取得到.該圖像的地面空間分辨率為1米.圖像包含4個通道,紅(R)、綠、(G)、藍(B)以及近紅外(NIR)通道.SAT-4包含共50萬張圖片,分為貧瘠土地(barren)、樹木(trees)、草地(grass)以及除了以上三種類別的其他類別(none)共4個類別.SAT-6包含6個土地覆蓋類別:貧瘠的土地(barren),樹木(trees),草地(grass),道路(road),建筑物(building)和水體(water).SAT數據集中每個圖像大小均為28×28像素,訓練和測試數據集使用偽隨機數生成器隨機化.

實驗中使用SAT-4和SAT-6數據集中的80%數據作為訓練數據來訓練網絡模型,20%作為測試數據用來測試模型的性能.SAT-4和SAT-6數據集的具體配置如表2所示.

表2 SAT數據集實驗配置Table 2 SAT dataset configuration

實驗使用MatConvNet19構建文中提出的三種不同類型的卷積神經網絡模型.在一塊帶有6GB顯存的Nvidia GeForce GTx980Ti顯卡上使用Nvidia提供的CuDNN加速網絡的訓練過程.訓練過程周期性地在訓練集合的子集上評估交叉熵目標函數,調整網絡參數,直到訓練交叉熵穩定為止.對于該部分算法,我們沒有在驗證集合上觀察到過擬合.

5.2 SAT-CNN的分類性能比較與分析

對于文中提出的三種模型,我們分別在SAT-4和SAT-6的訓練集上訓練卷積神經網絡.選擇每種模型在驗證集上性能最優的模型測試分類精度.SAT-CNN與DeepSat[12]方法和DBN方法的分類精度如表3所示.

表3 SAT-CNN在SAT-4與SAT-6上的分類精度Table 3 Accuracy of SAT-CNN on SAT-4 and SAT-6

本文提出的SAT-CNN獲得的精度均達到了98%以上,比DeepSat方法有更優秀的表現.三種不同類型的卷積神經網絡在SAT-4和SAT-6數據集上都達到很高的分類精度,其中性能最佳的SAT-VggNet網絡在SAT-4和SAT-6數據集上的分類精度分別為99.98%和99.97%.可以看出,卷積神經網絡可以在不對數據進行任何預處理的情況下從原始圖像數據中進行學習.相較于傳統的提取特征-選擇分類器的遙感圖像分類方法,SAT-CNN在圖像分類精度上有極大的提升.

從表3的實驗結果中可以看出,SAT-6數據集上各種網絡結構的分類精度與SAT-4數據集上的相比差距不大,甚至高于SAT-4數據集上各種網絡結構的分類精度.SAT-6數據集比SAT-4數據集中有更多更復雜的類別需要區分,從直覺上來說其類精度應低于SAT-4數據集上的分類精度.我們對SAT-VggNet在兩個數據集上的分類結果進行分析,其迷惑矩陣分別如表4和表5所示.表中第一列為樣本的真實標簽,第一行為樣本的預測標簽,每行的數值表示各個類別的樣本經過VggNet預測后分類到的各個類別的樣本數量.

表4中,SAT-4數據集中共分錯20個樣本,barren誤分為grass的有11個;表5中,SAT-6數據集中共分錯27個樣本,barren誤分為grass的有24個.由迷惑矩陣可以看出,在SAT-4和SAT-6數據集上最容易混淆的兩類均為barren和grass.

表4 SAT-VggNet在SAT-4數據集上的迷惑矩陣Table 4 Confusiong matrix of SAT-VggNet on SAT-4

表5 SAT-VggNet在SAT-6數據集上的迷惑矩陣Table 5 Confusion matrix of SAT-VggNet on SAT-6

由于SAT-6數據集中包含的barren和grass兩個類別的樣本比例相對于SAT-4數據集包含的樣本比例要更少,所以SAT-6比SAT-4數據集要更加容易區分.圖2為數據集中標簽為barren被分類成grass的圖像.

圖2 SAT-4數據集中barren被誤分類為grass的圖像樣例Fig.2 Barren images misclassified as grass in SAT-4

可以看出,SAT數據集中存在部分標簽為barren實際更接近grass的圖像.主要原因在于SAT數據集在構建時采用一張完整的大的遙感圖像進行分割標注,有些小區域中可能包含兩種或多種地面目標,所以數據集中可能存在部分類別之間有交叉的樣本圖像.

5.3 SAT-CNN的特征遷移性分析

神經網絡遷移是用訓練后的神經網絡模型在新數據集上提取特征進行分類.實驗中,使用SAT-4數據集上訓練得到的三種網絡模型和SAT-6上訓練得到的網絡模型分別遷移到SAT-6和SAT-4數據集上.將遷移網絡的最后一個預測構建塊移除,余下的部分作為特征提取器在遷移數據集上提取特征.然后,使用遷移數據集上網絡結構中最后一個預測構件塊作為線性分類器對特征進行分類.簡而言之就是將遷移網絡最后一層的預測構件塊替換為遷移數據集上相應的預測構件塊.重新調整預測構件塊的參數至最優,并在測試集上測試分類精度.實驗結果如表6所示.

三種SAT-CNN網絡結構均有良好的遷移性能.SAT-4網絡模型向SAT-6數據集遷移的結果中,最高的分類精度為96.31%;SAT-6網絡向SAT-4數據集遷移的結果中為92.70%.雖然遷移后的方法性能有所下降,但相對于傳統的方法這種遷移的結果仍有較好的精度.說明了卷積神經網絡能夠從大量的數據中通過端到端的結構學習到辨別性很強的高層抽象特征.這種特征能夠采用線性的方式劃分來對圖像分類,并且能夠很好地用來提升傳統分類器的性能.

表6 采用SAT-CNN的特征遷移的分類精度表Table 6 Accuracy of SAT-CNN′s feature transfer

5.4 圖像通道對SAT-CNN的影響分析

普通的圖像分類任務中使用到的圖像為可見光圖像,即RGB三通道圖像.遙感圖像數據集SAT-4和SAT-6中的圖像與RGB圖像相比增加了一個近紅外光線拍攝到的圖像.為了研究遙感圖像中圖像通道對SAT-CNN的影響,我們分別使用SAT數據集中四通道圖像的可見光(RGB)和近紅外(nir)通道的數據進行分類.提取SAT-4和SAT-6數據集四通道圖像中的前三個通道生成可見光圖像,構建新的SAT可見光數據集SAT-4-rgb和SAT-6-rgb.使用SAT-4和SAT-6數據集中圖像的第四個通道生成近紅外圖像,構建SAT近紅外數據集SAT-4-nir和SAT-6-nir.

根據5.2節的實驗結果,采用SAT-VggNet網絡結構分別在SAT-4-rgb、SAT-6-rgb、SAT-4-nir和SAT-6-nir四個新生成的數據集上進行實驗.修改SAT-VggNet網絡中的輸入層,使卷積核的維度與新構建的四個數據集中的數據的維度相同,保持其他網絡配置不變.

重新在四個數據集上采用與4.2節實驗中相同的配置訓練網絡.從200輪迭代中選取在驗證集上誤差最小的網絡作為測試用網絡模型.分別使用在SAT-4-rgb、SAT-6-rgb、SAT-4-nir和SAT-6-nir數據集上得到的網絡模型在相應的測試數據集上進行分類測試.表7為使用SAT-VggNet在四種數據集上的測試精度.

表7 SAT-VggNet采用不同通道數據的分類精度Table 7 Accuracy of SAT-VggNet classify on different channels

在使用了可見光部分SAT-4-rgb和SAT-6-rgb進行的分類實驗中,分類精度均達到了99.97%.與原始的四通道數據集上的測試精度相比,僅丟失了0.01%~0.02%的分類精度.使用了近紅外部分的數據集SAT-4-nir和SAT-6-nir進行的實驗中,分類精度分別為97.71%和98.88%.與原始數據集相比,分別丟失了2.28%和1.1%的分類精度.在SAT數據集中,地面目標的類別較少且各類目標間差異較為顯著,便于分類.同時,由于各個類別圖像的顏色和紋理等可見光部分的特性較明顯,采用可見光部分進行圖像分類能夠達到較高的分類精度.此外,不同的地面目標反射的近紅外光線不同,近紅外圖像能夠在一定程度上表現不同目標間的差異從而用來進行目標分類.卷積神經網絡能夠從不同的數據通道中學習到體現目標在該光譜下得特性,提取易于分辨的特征,得到較好的分類結果.

6 結 論

本文采用模塊化的思想構建了面向遙感圖像分類的SAT-CNN卷積神經網絡框架,并設計了四種不同類型的構件塊對網絡結構進行描述和實現.根據遙感圖像特點,SAT-CNN堆疊兩個卷積功能的構件塊和兩個全連接功能的構件塊,分別用于建模圖像局部區域內的像素關系以及區域間的像素關系,并給出三種不同的網絡參數設置.實驗分析說明了卷積神經網絡可以通過端到端的方式從圖像中學習到顯著性較強的特征,在SAT數據集上訓練得到的SAT-CNN達到了較高的分類精度.針對SAT-CNN是否能夠作為遙感圖像的特征提取模塊,對遷移性的分析表明SAT-CNN作為特征提取模塊的可行性.此外,本文分析了SAT-CNN在不同圖像通道上的性能.實驗結果表明,使用可見光部分通道時性能幾乎沒有下降;在近紅外通道仍然保持較高的分類精度,說明了SAT數據集中的可見光部分中包含了大部分與目標相關的特性.

[1] Panchal S,Thakker R.Implementation and comparative quantitative assessment of different multispectral image pansharpening approches[J].Journal of Virology,2015,73(6):4622-4630.

[2] Xie Yong-hua,Yang Jing-yu.Aproach to remote-sensing image detection based on multi-direction two-scale wavelet transform[J].Mini-Micro Systems,2005,26(6):1054-1056.

[3] Qiu Jian-bin,Li Shi-jin,Zhu Yue-long,et al.Fast hyperspectral image band selection method based on curve shape feature[J].Journal of Chinese Computer Systems,2014,35(8):1906-1910.

[4] Mojaradi B,Abrishami-Moghaddam H,Zoej M J V,et al.Dimensionality reduction of hyperspectral data via spectral feature extraction[J].IEEE Transactions on Geoscience & Remote Sensing,2008,12(4):579-585.

[5] Liu Meng-meng,Liu Ya-lan,Sun Guo-qing,et al.SVM land cover classification based on spectral and textural features using stratified samples[J].Remote Sensing Technology and Application,2014,29(2):315-323.

[6] Sun Xiao-xia,Qu Qing,Nasrabadi N M,et al.Structured priors for sparse-representation-based hyperspectral image classification[J].IEEE Geoscience & Remote Sensing Letters,2014,11(7):1235-1239.

[7] Yang Guo-peng,Yu Xu-chu,Chen Wei,et al.Hyperspectral remote sensing image classification based on kernel fisher discriminant analysis[J].Journal of Remote Sensing,2008,12(4):579-585.

[8] Alex Krizhevsky,IIya Sutskever,Geoffrey E Hinton.Imagenet classification with deep convolutional neural networks[J].In Advances in Neural Information Processing Systems,2012:1097-105.

[9] Karen Simonyan and Andrew Zisserman.Very deep convolutional networks for large-scale image recognition[C].International Conference on Learning Representations,2015:1-14.

[10] Zhang Liang-pei,Shen Huan-feng.Progress and future of remote sensing data fusion[J].Journal of Remote Sensing,2016,20(5):1050-1061.

[11] Zhang Liang-pei,Li Jia-yi.Development and prospect of sparse representation-based hyperspectral image processing and analysis[J].Journal of Remote Sensing,2016,20(5):1091-1101.

[12] Basu S,Ganguly S,Mukhopadhyay S,et al.Deepsat: a learning framework for satellite imagery[C].Proceedings of the 23rd SIGSPATIAL International Conference on Advances in Geographic Information Systems,ACM,2015,37.

[13] Camps-Valls G,Gomez-Chova L,Munoz-Mari J,et al.Composite kernels for hyperspectral image classification[J].Geoscience & Remote Sensing Letters IEEE,2006,3(1):93-97.

[14] Vaduva C,Gavat I,Datcu M.Deep learning in very high resolution remote sensing image information mining communication concept[C].Signal Processing Conference,2012:2506-2510.

[15] Mnih V,Hinton G.Learning to label aerial images from noisy data[C].International Conference on Machine Learning,2012.

[16] Romero A,Gatta C,Camps-Valls G.Unsupervised deep feature extraction of hyperspectral images[C].IEEE Workshop on Hyperspectral Image and Signal Processing,Whispers.IEEE,2014.

[17] Tokarczyk P,Montoya J,Schindler K.An evaluation of feature learning methods for high resolution image classification[J].ISPRS Annals of Photogrammetry,Remote Sensing and Spatial Information Sciences,2012,I-3:389-394.

[18] Ioffe S,Szegedy C.Batch normalization:accelerating deep network training by reducing internal covariate shift[C].Proceedings of the 32nd International Conference on Machine Learning (ICML-15),2015:448-456.

附中文參考文獻:

[2] 謝永華,楊靜宇.基于多方向二進小波變換的遙感圖像特征提取方法[J].小型微型計算機系統,2005,26(6):1054-1056.

[3] 仇建斌,李士進,朱躍龍,等.基于曲線形狀特征的快速高光譜圖像波段選擇[J].小型微型計算機系統,2014,35(8):1906-1910.

[5] 劉萌萌,劉亞嵐,孫國慶,等.結合紋理特征的SVM樣本分層土地覆蓋分類[J].遙感技術與應用,2014,29(2):315-323.

[7] 楊國鵬,余旭初,陳 偉,等.基于核Fisher判別分析的高光譜遙感影像分類[J].遙感學報,2008,12(4):579-585.

[10] 張良培,沈煥鋒.遙感數據融合的進展與前瞻[J].遙感學報,2016,20(5):1050-1061.

[11] 張良培,李家藝.高光譜圖像稀疏信息處理綜述與展望[J].遙感學報,2016,20(5):1091-1101.

猜你喜歡
分類特征
抓住特征巧觀察
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
主站蜘蛛池模板: 美女一区二区在线观看| 高清色本在线www| 国产精品不卡片视频免费观看| 中文字幕av无码不卡免费| 久久免费看片| 99这里只有精品在线| 国产亚洲欧美在线中文bt天堂| 婷婷综合在线观看丁香| 99偷拍视频精品一区二区| 国产jizzjizz视频| 久久夜色精品国产嚕嚕亚洲av| 伦伦影院精品一区| 色偷偷一区二区三区| 一个色综合久久| 欧美亚洲欧美区| 91福利免费| 亚洲国产成人久久77| 欧美.成人.综合在线| 91亚洲免费| 亚洲黄色成人| 亚洲国产中文欧美在线人成大黄瓜| 97se亚洲综合在线韩国专区福利| 日韩黄色大片免费看| 国产欧美高清| 青草精品视频| AV无码无在线观看免费| 人妻中文久热无码丝袜| 18禁色诱爆乳网站| 五月六月伊人狠狠丁香网| 99热亚洲精品6码| 亚洲综合国产一区二区三区| 久久香蕉欧美精品| 色综合综合网| 成人日韩精品| 久久国产精品嫖妓| 国产成人免费视频精品一区二区| 99国产在线视频| 在线观看国产精品日本不卡网| 国产精品第| 国产自产视频一区二区三区| 国产在线观看人成激情视频| 亚洲Va中文字幕久久一区| 小13箩利洗澡无码视频免费网站| 亚洲一本大道在线| 成人久久精品一区二区三区 | 亚洲综合在线最大成人| 国产亚洲视频免费播放| 午夜精品一区二区蜜桃| 国产成人综合日韩精品无码不卡| 91小视频在线播放| 国产麻豆精品手机在线观看| 亚洲一区国色天香| 国产精品视频观看裸模| 无码专区国产精品第一页| 国产制服丝袜91在线| 国产成人精品在线| 国产嫖妓91东北老熟女久久一| 国产成人a在线观看视频| 91高清在线视频| 精品欧美日韩国产日漫一区不卡| 亚洲美女久久| 国产香蕉一区二区在线网站| 片在线无码观看| 中文字幕av一区二区三区欲色| 国产白浆视频| 色综合久久综合网| 欧美高清国产| 亚洲色图另类| 国产最新无码专区在线| 99re这里只有国产中文精品国产精品 | 亚洲一区二区三区在线视频| 国产精品无码在线看| 久久久久久久97| 国产午夜无码专区喷水| a在线亚洲男人的天堂试看| 极品av一区二区| 国模极品一区二区三区| 丁香六月激情综合| 亚洲婷婷六月| 亚洲三级网站| 久久激情影院| 亚洲一区无码在线|