999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于焦點損失的半監督高光譜圖像分類

2020-06-01 10:54:20張凱琳
計算機應用 2020年4期
關鍵詞:分類方法

張凱琳,閻 慶*,夏 懿,章 軍,丁 云

(1. 安徽大學電氣工程與自動化學院,合肥230601;2. 測繪遙感信息工程國家重點實驗室(武漢大學),武漢430079)

(?通信作者電子郵箱*rubby_yan5996@sina.com)

0 引言

高光譜圖像(HyperSpectral Image,HSI)[1]包含數百個連續的窄光譜帶,跨越可見光到紅外光譜波段,光譜信息豐富,因此在諸如遙感數據分析[2]、土地覆蓋分類[3]、城市區域的檢測[4]和環境科學[5]等許多應用中發揮了至關重要的作用,其中高光譜分類問題[6]受到了學術界的極大關注。近年來深度學習方法在計算機視覺和圖像處理等領域取得了較好的效果[7-8],與傳統機器學習相比具有表達能力強、適合處理大數據等優點,已經廣泛應用于高光譜圖像分類領域中。基于深度學習的高光譜圖像分類方法主要可以分為無監督、監督和半監督三種類型。無監督分類算法僅利用未標記數據來傳達數據內在信息,完成分類。例如堆疊自編碼器[9]和深度置信網絡[10]已被用于從高光譜數據中提取深度特征。相對于傳統機器學習,無監督方法無需訓練過程,可以直接利用數據進行建模分析;然而,由于缺乏先驗知識,無監督方法的效果受到了一定的限制。

監督分類方法通過利用類標簽的先驗知識,建立分類判別規則來完成分類任務。在監督分類方法中,深度卷積神經網絡(Convolutional Neural Network,CNN)[11]在光譜域中對高光譜圖像進行分類。和傳統機器學習方法相比,CNN 不需要人工構造特征,而且還具有一定的自學習能力,能夠從訓練數據中學習到高度代表性的圖像特征;但CNN 只利用了光譜信息,對空間特征的關注不足。針對這些不足,近年來也有很多學者進行了相應的改進。如三維卷積神經網絡(3D CNN,3D-CNN)[12]和雙通道卷積神經網絡(Dual-Channel CNN,DCCNN)[13]結合了空間信息和光譜信息,實現了“光譜合一”,與傳統的CNN 相比無論是視覺效果還是數值分析結果都取得了較大提升。循環神經網絡(Recurrent Neural Network,RNN)[14]把高光譜像素視為序列信息,然后通過網絡預測每個樣本的類別,可以有效地處理高光譜數據并減少參數總數,對比其他算法獲得了更高的準確度。

與傳統機器學習基于手工特征提取的方法不同,深度神經網絡以端到端的方式執行高光譜圖像的分類。為了執行端到端的分類,這些基于深度學習的方法需要在訓練期間利用大量標記樣本來學習參數。監督分類算法借助于大量訓練信息的指導,所以分類精度比較高,因此在很多領域被廣泛使用,但是其效果在很大程度上取決于標記樣本的數量和質量。然而,眾所周知,對于高光譜圖像而言,對樣本的標記工作非常困難且代價高昂,因此可利用的訓練樣本數量非常有限。而這正是利用監督分類方法實現高光譜圖像分類的難以克服的障礙之一。為了解決這個問題,一些學者提出了半監督深度學習方法[15-16]。半監督方法是通過利用有限的標記樣本和大量未標記的樣本來減輕“小樣本問題”。半監督算法不僅可以利用標記樣本傳遞的有限監督信息,而且充分考慮到高光譜圖像中未標記樣本提供的豐富信息,從而既克服了無監督算法的低精度又緩解了監督算法中對訓練樣本的過分依賴、忽視了非標記樣本在分類任務中的巨大價值的問題,對分類性能的改善具有重要的意義。例如,李繡心等[17]構造了一種能同步處理帶標簽和未帶標簽數據的卷積神經網絡,同時將交叉熵損失函數和K-means 聚類算法結合起來,進而提高了分類性能;Kipf等[18]提出了一種基于圖的半監督學習方法,該方法能夠以圖作為輸入,可以學習到隱藏層的特征,從而達到較好的效果;Ma等[19]提出了一種基于多決策標注和深度特征學習的半監督分類方法,以利用盡可能多的信息來實現分類任務;Wu 等[16]提出了一種通過基于Dirichlet 過程的聚類方法——C-DPMM,首先利用該聚類算法獲得所有樣本的偽標簽,再利用這些偽標簽對網絡進行預訓練,最后使用標記樣本對網絡進行精調。Wu方法[16]利用了大量未標記的數據,實現了參數的初始化并且可以有效防止過擬合。然而,該算法仍然有兩個缺點:首先,該算法中使用的基于C-DPMM 的聚類方法無法捕獲高光譜圖像的稀疏特征。高光譜圖像是一種高維數據,基于稀疏的方法在處理高光譜圖像方面[20-21]已經表現出較大的優勢。例如,Yan 等[20]提出了通過使用已知的監督信息來估計未標記樣本的類概率,然后將類概率引入到稀疏子空間聚類(Sparse Subspace Clustering,SSC)模型中,以獲得更準確的稀疏表示系數矩陣,從而可以獲得更好的聚類結果。其次,因為高光譜圖像的樣本分布存在不平衡的問題,Wu等[16]所采用的交叉熵損失函數不能充分掌握高光譜樣本的分布不平衡的狀況,也嚴重制約了高光譜數據分類精度的進一步提高。

在深度學習領域,對目標函數的改進也是一個引人關注的課題。Wen 等[22]通過將交叉熵損失與中心損失結合起來,使學習的特征具有更好的泛化能力以及判別能力;Liu等[23]利用廣義大邊緣交叉熵損失(L-Softmax),可以讓學習的特征更加清晰;Lin 等[24]提出了通過焦點損失(Focal Loss)來解決分類問題中數據類別不平衡以及判別難易程度差別的問題。

最后,值得注意的是,高光譜圖像分類的大多數算法只關注光譜特征,而對分類任務同樣重要的空間特征往往被忽視了。馬爾可夫隨機場(Markov Random Fields,MRF)可以將光譜信息與空間信息相結合,鼓勵相鄰像素具有相同的類別標簽[25],已被驗證可以顯著提高高光譜圖像的分類精度[26]。

基于文獻[16,24]方法,本文提出了一種新的基于焦點損失的半監督判別卷積神經網絡的算法。考慮到高光譜圖像的稀疏性,本文選擇用稀疏子空間聚類(SSC)代替基于Dirichlet的算法(C-DPMM)來實現聚類。稀疏子空間聚類是一種基于稀疏表達的優秀聚類方法,在人臉聚類[27]、運動分割[28]都有廣泛的應用。此外,引入了基于焦點損失的目標函數來解決分類問題中數據分類難度差異的問題,以此來提高分類性能。最后,本文比較了兩個框架的效果,其中一個框架將馬爾可夫隨機場作為圖像后處理,而另一個框架沒有進行后處理,以此分析馬爾可夫隨機場在分類任務中的效果。

1 相關工作

1.1 稀疏子空間聚類

稀疏子空間聚類(SSC)是一種將稀疏表示(Sparse Representation,SR)引入到子空間聚類中的方法,為子空間聚類提供了一種新的模式,已成功應用于人臉識別[29]、運動分割[30]和圖像分割[31]。稀疏子空間聚類是基于譜聚類的子空間聚類方法。通常,高維數據屬于某個低維子空間,因此可以在低維子空間中被線性表示。稀疏子空間聚類的基本思想是數據的自表達屬性,即子空間集合中的每個數據點可以有效地被表示為來自同一子空間的其他樣本點的線性組合。因此,SSC 模型利用數據的自表達性來構建稀疏表示模型,如式(1)所示:

其中:C的第i列向量是樣本yi的稀疏表示;diag(C) = 0是C的對角元素;E 是誤差矩陣;λ 是稀疏系數和噪聲矩陣之間的權衡參數。進一步,通過式(2)實現系數C的歸一化:

根據歸一化后的稀疏系數C 構建相似性矩陣,其中Q 是對稱非負相似性矩陣。

最后,將譜聚類應用于相似矩陣Q,并獲得數據的聚類結果。

1.2 卷積神經網絡

卷積神經網絡(CNN)在許多應用中都發揮著重要的作用,例如目標跟蹤[32]、遙感成像[33]、行為識別[34]等。它是由卷積層(Convolution layer)、池化層(Pooling layer)、全連接層(Fully connected layer)組成。本文使用的卷積神經網絡結構如圖1所示。

在高光譜圖像分類任務中,每個樣本是大小為k × k × d的三維塊,其中k × k是空間維度中的塊的大小,d是高光譜數據的波段數。在將樣本塊傳送到輸入層之前,樣本塊是三維向量。

圖1 卷積神經網絡結構Fig. 1 Structure of CNN

1.3 焦點損失函數

目前目標檢測的框架一般分為兩種:基于候選區域的兩階段的檢測框架[35]和基于回歸的單階段的檢測框架[36]。相對于兩階段的方法,單階段的方法具有快速、簡單的特點,但是其準確率會差一些。Lin 等[24]認為是大量背景信息淹沒了重要信息,即簡單樣本引導了梯度下降的方向導致了這個結果。于是Lin 等[24]提出了一種新的損失函數,即焦點損失來解決這一問題。

對于二分類的交叉熵損失(Cross Entropy,CE)函數,可以表示為:

其中:y ∈{± 1}表示數據的真實標簽;p是y = 1時的類估計概率。在二分類中樣本標簽y = 1和y = -1是互斥的,因此引入一個分段變量pt,表示為:

所以,二分類的交叉熵損失就可以表示為:

CE(p,y) = CE(pt)= -log(pt) (6)

針對樣本不平衡問題中產生的不同樣本分類難度差異問題,Lin 等[24]對損失函數的形式進行了改進,降低易分樣本的權重并專注于訓練難分樣本。因此引入了超參數γ,它表示難易樣本權重差別的難度,γ 越大,差別也就越大,于是將焦點損失函數定義為:

針對數據集樣本不均衡的問題,又引入一個權重參數α ∈[0,1],為了標記方便引入一個分段變量αt,αt可以表示為:

簡單地對正負樣本的損失進行加權,αt平衡了正負樣本的重要性。所以α-平衡焦點損失定義為:

2 基于焦點損失的半監督深度學習框架

2.1 半監督學習框架

本文提出的半監督深度學習框架的結構如圖2 所示。標記數據表示為{XL,YL},其中YL是XL的標簽,未標記的數據表示為XU。對于全部數據X,表示為{XL,XU},X 的偽標簽Z 可以由稀疏子空間聚類(SSC)生成。本文算法的流程如下:

1)由稀疏子空間聚類生成X的偽標簽Z;

2)引入焦點損失函數代替交叉熵損失函數構造預訓練卷積神經網絡,稱為CNN1,并利用{X,Z}完成CNN1的訓練;

3)在CNN1的基礎上構建新的卷積神經網絡CNN2;

4)使用帶標記的數據{XL,YL}來訓練CNN2 中的全連接層和分類層,這一步稱為微調;

5)將分類得到的結果,利用將馬爾可夫隨機場作為圖像后處理,以此分析馬爾可夫隨機場在分類任務中的效果。

圖2 本文半監督深度學習框架的結構Fig. 2 Structure of the proposed semi-supervised deep learning framework

在高光譜樣本標記困難的背景下,用全部樣本及其偽標簽訓練CNN1 可以充分利用大量未標記數據實現對網絡的預訓練。雖然這些偽標簽不能提供確切的監督信息,但它們與真實地物標簽具有一定的一致性。因此,可以通過CNN1 提取的特征來獲得對精確分類有利的判別信息。

預訓練和微調階段網絡模型如圖3 所示。其中CNN2 保持與CNN1 相同的體系結構和參數,在去除焦點損失分類層后加入了全連接層和交叉熵分類層。通過引入焦點損失函數,使數據集樣本不均衡和訓練困難的問題得到改善。

圖3 預訓練和微調階段的框架Fig. 3 Framework of pre-training and fine-tuning stages

2.2 焦點損失用于多分類

對于多分類的問題,可以直接將交叉熵損失函數推廣為多分類的形式。多分類的交叉熵損失函數如下所示:

其中:pi表示的是第i 個樣本經激活函數后得到的概率;yi表示的是第i個樣本真實標簽。

交叉熵損失函數只對真實標簽所對應的某一個單類進行相應計算,無法克服因數據集樣本分布不均衡產生的分類難度差異的問題。而高光譜分類問題很明顯是一個多分類的問題,因此受到二分類中焦點損失函數可以克服樣本分類難度差異的啟發,本文在多分類的任務中也引入了焦點損失。其中n表示的是類別數。多分類的焦點損失可以表示為:

焦點損失在多分類任務中的原理:

1)當一個樣本被誤分類時,則pi的值很小,調制因子(1-pi)接近1,損失不被影響;當一個樣本被分得比較好時,則pi趨近于1,(1- pi)接近0,那么分得比較好的樣本的權值就被調低了。

2)超參數γ 平滑地調節了易分樣本調低權值的比例。增大超參數γ 能增強調制因子的影響。調制因子減少了易分樣本的損失貢獻,拓寬了樣例接收到低損失的范圍。

由以上分析可知,焦點損失函數中降低了易分樣本的權重而增大了難分的易錯樣本的權重;因此在訓練中更加關注到難分樣本的貢獻,從而解決了數據樣本不均衡數據集難以訓練的問題,可以進一步提高分類精度。

3 實驗與結果分析

為了驗證本文算法在不同情景中的有效性,在兩個真實的高光譜圖像數據集上進行了實驗。使用以下三個評價指標對性能進行評估:總體準確度(Overall Accuracy,OA)、平均準確度(Average Accuracy,AA)和卡帕(Kappa)系數。OA 表示正確分類的樣本的數量占所有樣本的比例;AA表示各個類別分類精度的平均值;Kappa 用來度量分類結果與真實地表的一致程度。以上三個評價指標的值越大,說明分類性能越好。

3.1 實驗數據描述

本文實驗采用兩個數據集:

1)Indian Pines 數據集,由機載可見光/紅外成像光譜儀AVIRIS(Airborne Visible Infrared Imaging Spectrometer)傳感器收集。該數據集有145× 145 像素,220 個光譜波段。實驗選擇了75× 82 × 220 子集,其中包含6 個類別的地物標簽。其偽彩色圖和真實地物圖如圖4所示。

圖4 Indian Pines數據集的部分圖例Fig.4 Subset of Indian Pines dataset

2)Pavia University 數據集,由反射式成像光譜儀ROSIS(Reflection Optics System Imaging Spectrometer)傳感器獲得。該數據集有610 × 340 像素和103 個波段。在本文實驗中,選擇了170 × 160 × 103 子集,其中包含9 類地物標簽。其偽彩色圖和真實地物圖如圖5所示。

將本文算法與CNN 和半監督卷積神經網絡(Semi-Supervised CNN,SS-CNN)算法在上述兩個數據集中進行了比較。CNN算法是一種比較常見的應用于高光譜圖像分類的算法,它只考慮了高光譜的空間信息。SS-CNN 算法同樣是將半監督的卷積神經網絡算法與稀疏子空間聚類相結合,充分考慮到未標記的數據對高光譜圖像分類的貢獻,但SS-CNN算法在預訓練階段的損失函數為交叉熵損失函數。在SS-CNN 的基礎上,本文提出了基于焦點損失的半監督卷積神經網絡(Semi-Supervised Focal loss CNN,SSF-CNN)。通過對這兩種半監督方法的對比可以驗證本文在損失函數方面改進的有效性。最后為了分析馬爾可夫隨機場在分類任務中的效果,本文就是否對分類結果采用馬爾可夫鏈進行后處理進行了一組對比實驗。

圖5 Pavia University的部分圖例Fig.5 Subset of Pavia University dataset

3.2 Indian Pines數據集上的實驗分析

為了在有限的訓練樣本的情況下評估所提出的方法,對于Indian Pines 數據集,從數據集的每個類別中隨機選擇10%的樣本用于訓練,其余的用作測試。在該數據集上采用不同方法得到的結果如圖6所示。從圖6的視覺效果中可以看出:本文SSF-CNN 算法表現出更好的分類效果,而CNN 和SSCNN 方法存在明顯的誤分,比如很多Corn-notill 類的樣本被誤分為Soybean-mintill類。此外,進一步采用馬爾可夫隨機場針對分類結果進行了后處理。因為馬爾可夫隨機場充分利用了樣本的空間相關性,促進相鄰樣本被分為同一類別。因此這種網絡框架,通過卷積神經網絡充分利用高光譜樣本的光譜相關性的同時又考慮到樣本的空間相關性,實現了“光譜合一”的效果。從圖6 可以看出,其分類的視覺效果得到明顯的提升,進一步減少了誤分和椒鹽噪聲的存在。

在表1 中給出了數據的定量分析。表1 的結果進一步驗證了從圖6 得出的結論,與CNN 相比,SSF-CNN 算法的OA、AA、Kappa 分別提高了2.5個百分點,5.52個百分點和3.46個百分點;與同是半監督框架的SS-CNN 相比,OA、AA、Kappa 也分別提高了1.17 個百分點、1.89 個百分點和1.61 個百分點。而當采用馬爾可夫隨機場作為分類后處理后,本文SSF-CNNMRF 算法取得了更好的分類結果,在6 個類別上的分類精度都 最 高,分 別 達 到95.12%、98.32%、99.78%、99.70%、98.29%和100%。就總體分類評價指標而言,SSF-CNN-MRF算 法 的OA、AA 和Kappa 分 別 達 到98.73%、98.54% 和98.24%??梢钥闯?,在分類任務中馬爾可夫隨機場作為圖像后處理是有益的,這是因為馬爾可夫隨機場側重于高光譜圖像的空間信息,并與卷積神經網絡提取的光譜信息相結合,進一步提高了分類性能。

表1 Indian Pines數據集上不同方法的分類精度和運行時間對比Tab. 1 Comparison of classification accuracy and running time of different methods on Indian Pines dataset

圖6 在Indian Pines數據集上的不同方法獲得的分類圖和后處理圖Fig.6 Classification and post-processing images obtained by different methods on Indian Pines dataset

3.3 Pavia University數據集上的實驗分析

對于Pavia University 數據集,本文從每個類別中隨機選擇了40 個樣本進行訓練,其余的樣本用作測試。實驗結果如圖7 所示。和上述實驗結論類似,圖7 表明本文提出的SSFCNN 和SSF-CNN-MRF 算法分別取得到了最優的分類結果。進一步觀察可以發現,CNN 和SS-CNN 都較多地將Self-Blocking 類和Bitumen 類誤分為Gravel,而本文算法則明顯減少了這種誤分的發生。

與Indian Pines數據集上的實驗類似,馬爾可夫隨機場作為圖像后處理可以進一步提高分類精度。表2 中給出了實驗結果的定量分析。由表2 可以發現,與CNN 相比,SS-CNN 和SSF-CNN 的OA分別增加1.77個百分點和2.61個百分點。這是因為SS-CNN 和SSF-CNN 不僅利用了標記的樣本,還使用了未標記的樣本以增加可用的訓練信息。當使用馬爾可夫隨機場作為圖像后處理時,Pavia University 數據集的分類效果得到了顯著的提升;與沒有使用馬爾可夫隨機場作為圖像后處理相比,CNN-MRF、SS-CNN-MRF 和SSF-CNN-MRF 的結果表明,OA 的增加分別為1.63個百分點、0.77個百分點和1.08個百分點,表明了馬爾可夫隨機場在提高分類準確性方面起著重要作用。由于高光譜地物復雜且具有不同的數據結構,SSF-CNN-MRF 算法在分類過程中無法保證每一種地物的分類效果都很好,但是基于本文提出的半監督框架的SSF-CNNMRF 算法在三個總體性能指標OA、AA 和Kappa 上都是最高的。

圖7 在Pavia University數據集上的不同方法獲得的分類圖和后處理圖Fig.7 Classification and post-processing images obtained by different methods on Pavia University dataset

3.4 超參數γ的選取過程

在SSF-CNN 和SSF-CNN-MRF 算法中有一個重要超參數γ,在本節中,分別在上述兩個數據集上進行的實驗,來選取效果最優的超參數γ。實驗結果如圖8所示。

在圖8中可以觀察到,對于上述兩個數據集,OA和γ之間的關系不是線性的,OA不是隨著γ的增加而增加。當γ值為2時,在兩個數據集上都獲得了最佳的分類結果。同時,可以觀察到,無論是否使用馬爾可夫隨機場作為圖像后處理,超參數γ 的變化趨勢都是相似的。此外,使用馬爾可夫隨機場作為圖像后處理時,兩個數據集上的SSF-CNN-MRF算法的分類結果都得到顯著改善,再次表明馬爾可夫隨機場對于提高分類結果是十分重要的。

表2 Pavia University數據集上不同方法的分類精度和運行時間對比Tab. 2 Comparison of classification accuracy and running time of different methods on Pavia University dataset

圖8 選取不同γ值獲得的分類結果Fig.8 Classification results with different γ values

3.5 與經典基于深度學習的高光譜圖像分類方法的對比

為了進一步評估本文提出的SSF-CNN-MRF 算法的性能,本文比較了三種基于深度學習的高光譜圖像分類算法:2DCNN[37]、3D-CNN[12]和DC-CNN[13]。2D-CNN[37]方法是利用二維卷積提取高光譜圖像的空間信息,不考慮圖像的光譜信息;3D-CNN[12]方法是在2D-CNN 的基礎上實現的,可以提取高光譜的空間信息和光譜信息;DC-CNN[13]是利用一維卷積神經網絡提取光譜特征,并利用二維卷積神經網絡提取與空間相關的分層特征。對比方法都是目前在高光譜分類領域比較常用的效果較好的方法。通過對比實驗,可以充分說明本文改進的高光譜圖像半監督分類方法使分類精度進一步得到了提高。實驗選擇相同比例的訓練樣本,選擇方法和前面的實驗相同。

幾種深度學習方法在兩個數據集上獲得的分類如圖9 所示。從圖9 可以看出:與其他方法相比,本文方法的視覺分類效果是最好的。如圖9(a)所示,對于Indian Pines 數據集,其他算法將Corn-notill 類誤分為Soybean-mintill 類,而本文SSDCNN-MRF 算法的這種誤分明顯得到了抑制;如圖9(b)所示,在Pavia University 數據集上因為各種方法得到的分類精度都比較高,從視覺上觀察本文方法的優勢并不明顯。因此后續對實驗結果進一步進行了數值分析。

Indian Pine 數據集的定量實驗結果如表3 所示。可以看出:與其他方法相比,本文SSF-CNN-MRF 算法得到了最佳的分類結果。表3 中的定量分析再一次驗證了從視覺效果上得出的結論。在Indian Pines 數據集上,本文提出的SSF-CNNMRF 算法在6 個類別中有5 個類別都更接近真實標簽的精度。和前一個實驗情況類似,由于高光譜波段之間存在的信息冗余性,可能無法有效提取純凈且高質量的光譜和空間信息,無法保證每一種地物的分類效果都最好,但是與2DCNN[37]、3D-CNN[12]和DC-CNN[13]相比,該算法的OA 分別增加了2.22個百分點、0.92個百分點和0.34個百分點。

對于Pavia University 數據集,在表4中給出了具體對比結果。與其他深度學習方法相比,本文方法得到的OA、AA 和Kappa 均取得了最好的結果,這也說明本文方法整體的分類效果是最佳的。

表3 Indian Pines數據集上不同深度學習分類方法的分類精度和運行時間對比Tab. 3 Comparison of classification accuracy and running time between different deep learning classification methods on Indian Pines dataset

表4 Pavia University數據集上在不同深度學習分類方法的分類精度和運行時間對比Tab. 4 Comparison of classification accuracy and running time between different deep learning classification methods on Pavia University dataset

圖9 不同深度學習分類方法的分類結果Fig. 9 Classification results obtained by different deep learning classification methods

從表1~4 中的實驗運行時間可看出,本文方法比其他方法時間復雜度更高,這是由于本文算法不僅利用了標記樣本,而且還充分考慮到高光譜圖像中未標記的樣本,所以不可避免地犧牲了時間性能。

4 結語

本文提出了一種基于卷積神經網絡(CNN)和稀疏子空間聚類(SSC)的半監督深度學習框架,用于高光譜圖像分類。該框架首先利用稀疏子空間聚類生成全部數據的偽標簽,然后在一個卷積神經網絡(CNN1)上進行預訓練,并利用標記的訓練樣本對另一個卷積神經網絡(CNN2)進行微調,進一步利用整個數據集提供的綜合結構特征。此外,在預訓練階段,通過引入新的目標函數,解決了因為數據分布不平衡帶來的樣本分類難度差異和難以訓練的問題。最后,馬爾可夫隨機場(MRF)作為圖像后處理,鼓勵鄰近像素具有相同的標簽,整個算法框架充分結合了光譜信息和空間信息,更有利于高光譜分類。實驗結果表明,本文方法在兩個高光譜圖像數據集上分類性能優于其他深度學習方法。針對訓練樣本不足的情況,所采用的這種半監督深度學習框架在實際遙感應用中非常有意義。

猜你喜歡
分類方法
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
學習方法
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
給塑料分分類吧
主站蜘蛛池模板: 亚洲天堂在线免费| 青青青视频免费一区二区| 国产福利拍拍拍| 999国内精品久久免费视频| h视频在线观看网站| 亚洲热线99精品视频| 99激情网| 中文字幕在线观| 国产又黄又硬又粗| 亚洲性色永久网址| 精品国产aⅴ一区二区三区| 欧美日韩一区二区在线播放 | 97国产精品视频人人做人人爱| 国产精品手机视频一区二区| 热久久这里是精品6免费观看| 欧洲精品视频在线观看| 欧美成人精品在线| 国产亚洲欧美另类一区二区| 67194在线午夜亚洲| 无码日韩精品91超碰| 成人中文在线| 亚洲精品片911| 88av在线播放| 久久国产精品波多野结衣| 色悠久久综合| 精品1区2区3区| 国产精品三级专区| 中文字幕乱码二三区免费| 亚洲三级色| 2020最新国产精品视频| 久久亚洲美女精品国产精品| 91在线视频福利| 精品久久久无码专区中文字幕| 激情影院内射美女| 国产h视频在线观看视频| 国产黑丝一区| 国产成人做受免费视频| 全免费a级毛片免费看不卡| 欧美 国产 人人视频| 成人福利视频网| 国产精品视频导航| 四虎永久免费网站| 天天综合色天天综合网| 久久久久九九精品影院| 日韩黄色精品| 中文字幕 日韩 欧美| 欧美亚洲综合免费精品高清在线观看| 中文字幕伦视频| 欧美日韩理论| 久热99这里只有精品视频6| 久久窝窝国产精品午夜看片| 欧美视频二区| 久久国产精品娇妻素人| 91九色国产porny| 国产精品99久久久久久董美香| 五月婷婷丁香综合| 91视频国产高清| 人人妻人人澡人人爽欧美一区| 久久亚洲国产视频| 性69交片免费看| 黄网站欧美内射| 国产精品人成在线播放| 在线国产三级| 国产精品久久久久久久久久久久| 91精品国产自产在线观看| 国产亚洲精品自在久久不卡| 精品欧美日韩国产日漫一区不卡| 无码aⅴ精品一区二区三区| 九九精品在线观看| 精品无码日韩国产不卡av | 亚洲欧美不卡视频| 欧美一区二区三区国产精品| 男女性色大片免费网站| 亚洲 欧美 中文 AⅤ在线视频| 中文字幕免费视频| 国产高清自拍视频| 青青草国产在线视频| 毛片久久网站小视频| 国产91久久久久久| 毛片手机在线看| 欧美狠狠干| 日本国产精品一区久久久|