999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結合雙深度學習特征的高光譜遙感圖像分類

2018-03-27 01:23:59陳鍛生
小型微型計算機系統 2018年2期
關鍵詞:分類特征模型

曾 銳,陳鍛生

(華僑大學 計算機科學與技術學院,福建 廈門 361021)

1 引 言

由于高光譜衛星圖像具有豐富的地物波譜信息,早期多數的遙感圖像分類研究側重于圖像的光譜信息[1],但這也給分類帶來了一些挑戰,例如統計模型下的分類器在少量訓練樣本的情況下無法準確的估計出高維空間的類條件概率密度函數,往往會導致分類精度的下降,這也被稱作Hughes現象[2],為了避免該現象,一般需要先對高維數據降維或是提取出更加魯棒的特征[3-5],其中降維操作主要是指將高維特征映射到更容易判別特定地物類別的低維特征空間.然而一些傳統的降維方法(PCA、LDA等)無法保留各個波段的物理特性,因此有人將波段選擇作為另一種降維方法[6].隨后的研究發現結合空間信息和光譜信息的特征有助于提升高光譜圖像的分類精度[7,8].例如Benediktsson[9]等人基于形態學的操作,也有Li[10]等人提取gabor特征,以及Wang[11]等人將紋理信息、形態學信息、光譜信息堆疊后進行分類.合理的預處理和后處理也在一定程度上提高了高光譜圖像的分類準確率.例如Kang[12]等人先使用保邊去噪預處理后再分類.Li[13]等人用Sobel邊緣檢測算法處理圖像形成一張權重圖,既可以用于圖像保邊去噪也能優化分類后的概率表.Kang[14]等人基于鄰接像素的連接強度作為一種后處理方法來優化初始分類得到的概率表.

近幾年深度學習作為一種可以提取不同層次特征的工具受到了越來越多的關注,并且已經在圖像處理、自然語言、語音等方面取得了重大進展,現在也被逐漸運用到高光譜圖像的分類和分割.Chen[15]、Zhou[16]等人先是使用主成分分析(PCA)將光譜特征降維,取像素一定鄰域形成的圖像塊,將其展成一維向量,然后和原始圖像的光譜信息串聯成新的一維向量作為輸入,然后使用棧式自編碼網絡(SAE)或是深度置信網絡(DBN)來對像素進行分類.雖然他們考慮了空間上的鄰接像素(一定鄰域的像素同屬一類的概率很大),但是將其展成一維后破壞了它原有的空間結構.后來Chen[17]等人提出了使用卷積神經網絡(CNN)來改善上述問題,它允許數據以二維或者三維的形式作為輸入,實驗也證明CNN對高光譜圖像的分類準確率明顯高于SAE和DBN.Cao[18]等人基于貝葉斯理論,將CNN分類結果當作似然概率,超像素分割方法提供先驗,最后得到分類結果.Zhao[5]等人延續了上面所提的像素鄰域的圖像塊思想,并且提出了基于局部鑒別嵌入算法(LDE)改進的降維算法BLDE,隨后將降維后的光譜特征和CNN提取的特征拼接,最后使用支持向量機和邏輯回歸兩種分類器進行分類.

原始圖像因為獲取過程中受諸多因素的干擾,或多或少存在噪聲,而且標注樣本的獲取代價昂貴,所以如何在盡可能少的訓練樣本前提下,合理地結合預處理提取和結合多種不同的深度學習的高光譜特征是一個值得探索的方向.因此本文先使用保邊松弛算法[13]對高光譜圖像每個波段對應的灰度圖進行保邊去噪處理,然后將像素的光譜信息(此時已經包含空間信息)作為卷積神經網絡的輸入用來提取一種光譜-空間特征.隨后對高光譜圖像的光譜維度進行降維,取像素點一定大小鄰域形成的圖像塊(跟中心點像素同類別)作為另一個卷積神經網絡的輸入用來提取第二種光譜-空間特征(對于提取圖像邊緣的像素點的圖像塊,事先已對邊界做了零元素填充),最后將兩個特征串行拼接后使用支持向量機分類.此次本文提出的分類模型:1)使用的模型簡單,參數少,所以只需要很少的訓練樣本;2)多特征相比單特征在分類精度上有更大的提升;3)基于改良后的保邊松弛算法算法用于圖像預處理,在本文分類框架下取得了很高的分類精度.

2 分類框架及其相關技術

本文提出的結合兩種光譜-空間特征的分類框架TFCNN(Two spectral-spatial Features concatenation based on CNN)如圖1所示.因為原始圖像在獲取過程受諸多因素的干擾,例如大氣層、光照變化等,存在噪聲,所以首先使用Li[13]提出的算法對圖像進行保邊去噪處理,在這里本文對該算法做了一些改良,以提高在本文提出模型下的分類精度.然后基于它的光譜維提取第一種光譜-空間特征,因為光譜高維的特點,為了避免計算復雜度,隨后對圖像的光譜維PCA降維(保留主要信息),取像素的一定大小鄰域組成的圖像塊來代表中心像素,基于圖像塊提取第二種光譜-空間特征.最后串行拼接兩種特征作為分類器的輸入進行分類.

圖1 TFCNN分類系統框架Fig.1 TFCNN classification system framework

市場容量的大小,是企業擴充的根本決定因素,企業首先應該考慮的方式是高效率或低成本擴張。如果企業缺乏高效率的工業基礎,盲目擴張,即使產量再大,也不一定成為贏家。一旦市場價格下滑的速度高于企業成本的降低速度,企業就可能陷入被市場淘汰的僵局。

2.1 保邊松弛算法

如圖3(a)和圖3(b)所示,分別為本文提出的兩種提取光譜-空間特征的卷積神經網絡框架.其中對于pixel-CNN我們把每個像素樣本當成一個高度為波段數,寬度為1的二維圖像[23],網絡有一個卷積層(16個特征表,卷積核為10×1)、一個池化層(池化大小2×2)以及兩個全連接層(神經元數分別為50、像素類別數),而Block-CNN網絡有一個卷積層(16個特征表,卷積核為4×4)、一個池化層(池化大小2×2)以及兩個全連接層(神經元數分別為100、像素類別數).本文實驗在兩個模型的卷積層和全連接層后均添加了Dropout層,以防止過擬合的發生.

(1)

其中p=[p1,…,pn]∈RK×n,pi=[pi(1),…,pi(K)],K表示的是原始圖像p的波段數,n表示像素個數,u表示為優化后的圖像,維度跟原圖一致.λ為權衡因子,用來控制目標函數對兩項的懲罰力度.?i表示第i個像素的八鄰域,εj表示的是邊緣權重圖ε中第i個像素的八鄰域對應的邊緣權重,ε如式(2)所示:

2.4 年齡對圍產兒死亡發生影響 圍產兒死亡的發生率,在經產婦中隨年齡組的增高而增高, RR值更高。見表5。

(2)

1.1.4 心肌穿孔 心肌穿孔的發生率<1%,主要發生在右心室。心肌穿孔引起的心包填塞則是十分兇險的并發癥,也是永久起搏器植入術后最嚴重并發癥。

(3)

優化后的圖像如圖2(b)所示,雖然圖像的邊緣模糊程度更大了一點,但它基本保持了原圖像的邊緣形狀,本文后續實驗也將證實基于新的ε優化后的圖像能夠更大程度上的提高分類精度.接下來本文用PR*來表示基于εreplace的保邊松弛算法.

在實驗室資源得到合理應用的同時,更要及時的處理實驗室使用過程中存在的問題。民辦高校要建立健全實驗室的規章制度和維護措施,很多學校為了減少經費,并沒有聘請專門的實驗室管理人才,而是由教師替代負責實驗室的管理工作。要培養這部分教師對實驗設備的管理和維護技能,使實驗設備能夠得到有效的維護和保養。

圖2 Indian Pines的第24個波段對應的灰度圖Fig.2 The 24th band′s grayscale image in Indian Pines

2.2 卷積神經網絡

本文使用了兩個高光譜數據集1來檢驗所提出的模型的分類能力.

傳統的深度神經網絡每層的每個神經元跟下一層的所有神經元相連,神經元之間的權重各不相同,CNN則不同于一般結構:1)局部相連2)權重共享.卷積層的每個神經元的值是由輸入的局部神經元的加權和加偏置項得來的,其中權值w是共享的,然后通過一個非線性激活函數后的值作為下一層的輸入,因為現實的數據大多數都是非線性的,因此神經網絡利用非線性映射去逼近數據的真實分布,人們經常使用的激活函數包括sigmoid、Relu、maxout等[20,21],其中Relu因收斂快、計算梯度簡單而被廣泛使用,而本文則使用的是由He[22]等人提出的激活函數PRelu(α為可學習的向量,確保小于0的部分梯度不為0),函數公式如下:

如圖5所示,基于PR*相比PR優化后的圖像在Pixel-CNN模型上的分類結果具有顯著的提升(設置了迭代30次以內損失不再下降則停止迭代).因為原始PR算法優化圖片后邊緣呈鋸齒狀,使得邊界兩邊出現交叉重疊,容易在分類時錯分邊界附近的像素點,所以如圖6(b)所示,使用Pixel-CNN模型進行分類時大多數分類錯誤均發生在邊界,而PR*優化后的圖像如圖6(c)所示,邊緣分類結果顯得更加規整.

(4)

Li[13]等人提出的保邊松弛(PR)算法對高光譜圖像進行平滑去噪的時候同時考慮了一定鄰域的關系,因此也起到了保留邊緣的作用,優化公式如下所示:

圖3 卷積神經網絡模型.Fig.3 CNN models(a)Pixel-CNN.(b)Block-CNN

目前已有人將CNN運用到高光譜圖像分類任務當中[23],但該作者直接根據圖像的光譜信息進行分類而并未考慮空間信息,而且原始圖像的每個波段或多或少存在噪聲,因此分類效果并不是很理想.本文用Pixel-CNN提取特征前先對圖像進行了保邊去噪處理,此時的光譜維既包含光譜信息也包含了空間信息,但因為對圖像去噪預處理的時候只考慮八個鄰接像素,包含的的空間信息有限,所以本文接著探索像素的另一種光譜-空間特征,首先對去噪后的圖像的光譜維使用PCA降維(保留主要信息的同時減少計算量),取樣本像素的一定大小鄰域形成的圖像塊作為該像素的另一種表示[15-17],因為視覺上我們單單判斷一個像素點的類別是很困難的,但是取以它為中心一定鄰域大小形成的圖像塊再來判斷,那么可以根據其他一些空間結構作為輔助信息,如形狀、顏色等,判斷出它在圖像所屬類別.所以基于這個思想,本文提出了第二個CNN模型(Block-CNN).最后將提取出來的兩種特征串行拼接后使用svm進行分類.

其中Xl表示高光譜圖像第l個波段對應的灰度圖.但本文發現根據作者提出的ε優化后的圖像如圖2(a)所示,去噪的同時沒有很好的保護邊緣,邊緣出現許多鋸齒,影響了逐像素分類精度,因此本文重新定義ε如下式所示:

3 實 驗

3.1 數據集描述

卷積神經網絡[19]是一種特殊的前饋神經網絡,它是由卷積層、池化層、全連接層組成,其中卷積層模仿人類視覺皮層神經元的性質,不用感知圖像所有區域,只需感知局部,通常使用例如3×3的卷積核對圖像進行卷積操作,旨在利用可學習的濾波器來提取輸入的局部特征,這不僅符合現實而且還能減少不必要的計算.池化層采樣類型有最大池化、平均池化、總和池化等,例如最大池化常使用2×2的窗口在圖像上滑動,并提取窗口內值最大的元素,它一般位于卷積層之后,它的作用主要是降低輸入的空間分辨率,而不丟失主要信息(實現了圖像的平移、旋轉不變性),也節省了計算開銷.全連接層接在網絡的最后,通常理解為將前面卷積和池化層提取出來的局部特征圖進行線性組合而形成全局特征,最后結合softmax進行分類,然后根據分類損失進行反向傳播來更新參數,如此反復直到損失不再下降.

第一個數據集為Indian pines是使用機載可見光/紅外成像光譜儀(AVIRIS)在美國印第安西北部采集得到的.圖像具有145×145像素以及224個光譜波段,波長范圍0.4~2.5μm,去除了覆蓋區域水吸收的影響的24個波段,最后實驗所使用的實際圖像大小為145×145×200,它包含了16個地物類別.

第二個數據集Pavia University是使用反射式成像光譜儀(ROSIS)在意大利西北部的帕維亞采集而來,圖像具有610×610像素以及103個光譜波段,去除圖像的一些無用像素,最后實驗使用的實際圖像大小為610×340×103,它包含了9個地物類別.

圖4 高光譜圖像的偽彩色圖像以及地面實況Fig.4 False color images and ground-truth maps for data sets

針對數據集樣本劃分,為了檢驗模型只根據少量樣本訓練出的分類能力,本文只用已標注的Indian Pines的5%,Pavia University的2%的樣本進行訓練,剩余作測試.

(2)薄壁空心高墩結構無論是懸臂狀態還是墩頂受支撐約束狀態,在日照作用下都會產生較大的溫差應力,而且墩頂都會產生位移變形,尤其是懸臂狀態下,墩頂位移達到1.253 4 cm,必須引起足夠的重視。

3.2 本系統框架的實驗結果分析

1數據集下載與類別樣本數詳情:http://www.ehu.eus/ccwintco/index.php?title=Hyperspectral_Remote_Sensing_Scenes

圖5 使用Pixel-CNN單模型對Indian Pines數據集分類的迭代過程Fig.5 Iterative process about Pixel-CNN model being used for classifying the dataset of Indian Pines

圖6 使用Pixel-CNN單模型對Indian Pines數據集分類的結果.Fig.6 Pixel-CNN model is used for classifying the dataset of Indian Pines

經Design-Expert 8.0.6軟件分析優化,可得到羊肚菌SDF最佳提取工藝參數為料液比1∶20.12 (g/mL)、 堿液濃度0.75%、提取溫度62.79 ℃、提取時間60 min。在此最佳工藝提取條件下,SDF理論得率為 34.62%。考慮到試驗可操作性,將制備的最優條件定為料液比1∶20(g/mL)、提取液濃度0.75%、提取溫度63 ℃、提取時間 60 min。在此制備條件下進行3組平行驗證試驗,得到羊肚菌SDF的平均值為33.06%,與模型得出的羊肚菌SDF理論值比較接近,說明數學模型對優化羊肚菌SDF的提取工藝是可行的。

圖7 不同圖像大小和主成分數對Block-CNN單模型分類精度的影響Fig.7 Classification accuracy is influenced by different size of image block and principal component

影響Block-CNN模型分類準確率有兩大主要參數:塊大小和主成分個數.如圖7所示,本文探索了不同的圖像塊的大小以及主成分個數對該模型分類精度的影響.最終實驗對于Indian Pines數據集取的塊大小為63×63,主成分數為9;Pavia University數據集取的塊大小為33×33,主成分數為10.

以下實驗如未特別說明的話均是基于PR*預處理后得出的結果.

圖8 Indian Pines分類結果圖Fig.8 Classification result of Indian Pines

圖8和圖9顯示了不同的特征提取方法結合分類器對兩個數據集的分類結果對比.其中PCA-linear-svm和PCA-rbf-svm也采用了特征拼接的方法,先用PCA對兩種光譜-空間特征降維后再串聯,最后分別使用線性SVM和基于高斯核的SVM進行分類(實驗中支持向量機涉及的參數包括懲罰系數C和核系數g,由于Indian Pines有部分類別訓練樣本數少,無法實現K倍交叉驗證,所以最終的參數設定是人為的嘗試了一些數值后確定的,而Pavia University實驗使用的參數則由10倍交叉驗證得到).實驗數據顯示無論是本文提出的單模型Pixel-CNN或是Block-CNN均要優于傳統的svm分類方法,而多特征結合后的分類效果又在單模型的基礎上提升了不少.本文還同時對比了對原始圖像預處理的三種不同情況(未預處理、PR預處理、PR*預處理)下的分類結果,本文提出的PR*+TFCNN分類效果要優于前兩種.

5月,中國水務公司積極推動旗下上市公司錢江水利開展了非公開發行募投項目。錢江水利自2000年首發上市后,主要通過銀行貸款、發行債券等債務工具籌集發展所需資金。正處于發展關鍵階段的錢江水利,資本支出規模較大,依靠自有資金積累及銀行貸款難以完全滿足項目資金需求。而通過非公開發行,可以拓寬融資渠道,募集資金滿足項目建設需要,為公司實現跨越發展提供有力保障。募投項目投產后,公司的供水規模將顯著擴大,核心競爭力將迅速提升。

圖9 Pavia University分類結果圖Fig.9 Classification result of Pavia University

3.3 與其他分類方法對比

為了與目前深度學習在高光譜分類領域已經取得較高分類精度的算法進行對比,本文使用了與作者相關論文同數量的訓練/測試樣本進行實驗,其中與本文做對比的算法的分類結果也均由其相關論文提供,如表1所示.

由Cao[18]等人提出的SLIC-CNN將深度學習與超像素分割相結合,使用CNN對光譜維分類得到初始概率表作為似然概率,隨后的簡單線性迭代聚類(SLIC)提供局部先驗概率,空間鄰接像素的聚類使得先驗具有了空間信息,最后由貝葉斯公式得到每個像素點的最大后驗概率作為最終的分類結果,然而由于超像素尺寸的原因,無法做到很好的邊緣保持,這會影響到先驗的大小,而且只根據光譜特征得出的初始分類精度太低,使得影響了接下來優化效果,所以可以從表5中看出等數量的訓練樣本的前提下,本文提出的分類方法在OA、AA、Kappa上的精度均高于SLIC-CNN許多;Chen[17]等人提出的3D-CNN保留了圖像光譜高維特征,使用三維卷積提取圖像塊的光譜-空間特征,并且用已有的訓練樣本通過線性組合來創造虛擬樣本,加上原有的樣本一起用于訓練,這在一定程度上提升了分類精度,但也只是考慮單一的光譜-空間特征,并且網絡結構更加復雜增加了計算開銷.而本文在模型更加簡單以及未添加任何輔助訓練樣本的前提下在Indian Pines數據集的OA、Kappa分類精度上相比3D-CNN高出一個百分點左右, 在Pavia University的數據集上OA、Kappa也高出0.2個百分點左右;Zhao[5]等人提出的光譜-空間特征分類(SSFC)方法中并未過多的探索不同圖像塊大小以及成分數對結果的影響,而且由于圖像噪聲的存在,光譜降維后的特征分辨能力不足,所以最終實驗結果看到,本文在Pavia University數據體整體分類精度上高出1個百分點左右.

我這次來山里,是想勸父親跟我回去。兩年前,我因車禍,右胳膊落下殘疾,這對以繪畫為生的我來說,簡直是致命的打擊。幸好,在最痛苦的時候,是父親一直鼓勵著我,安慰著我,我才漸漸走出傷痛,生活又恢復平靜。

表1 不同分類方法的分類精度對比
Table 1 Datasets are classified in different methods

Dataset分類方法整體分類精度(OA)平均分類精度(AA)卡帕系數(Kappa)IndianPinesSLIC?CNNPR?+TFCNN94.11%86.97%96.85%98.38%96.15%98.15%3D?CNNPR?+TFCNN98.53%99.50%98.20%99.54%99.20%99.48%PaviaUniversitySLIC?CNNPR?+TFCNN3D?CNNPR?+TFCNNSSFCPR?+TFCNN96.77%99.61%99.66%99.82%96.98%98.16%92.88%98.98%99.77%99.55%95.71%99.49%99.56%99.76%

4 小 結

針對高光譜圖像的分類,本文提出了PR*+TFCNN分類方法.因為遙感數據的獲取過程受諸多因素的干擾如天氣、光照等影響,或多或少的存在噪聲,所以預先對圖像去噪處理防止影響分類結果.隨后本文探索了兩種不同程度上的光譜-空間特征,其中Pixel-CNN主要提取光譜信息(以光譜維作為輸入),因為之前去噪考慮了像素的八鄰域,所以包含了局部的空間信息;Block-CNN以圖像塊作為輸入,主要提取空間信息,根據像素點周邊更大的局部空間結構來分辨像素點所屬類別,例如房屋呈現一排一排的結構、公路呈現線條狀;然后將這兩種不同的空間波譜特征拼接,彌補兩種CNN特征都存在的部分目標辨識缺陷,提高了組合特征的魯棒性,最后使用支持向量機對拼接后的特征進行分類.本文提出的特征提取和融合思想因為模型相對簡單,參數少,避免過擬合,使之能夠在少量訓練樣本的條件下也能取得較好的分類準確率.

[1] Melgani F,Bruzzone L.Classification of hyperspectral remote sensing images with support vector machines[J].IEEE Transactions on Geoscience and Remote Sensing,2004,42(8):1778-1790.

[2] Hughes G.On the mean accuracy of statistical pattern recognizers[J].IEEE Transactions on Information Theory,1968,14(1):55-63.

[3] Bandos T V,Bruzzone L,Camps-Valls G.Classification of hyperspectral images with regularized linear discriminant analysis[J].IEEE Transactions on Geoscience and Remote Sensing,2009,47(3):862-873.

[4] Villa A,Benediktsson J A,Chanussot J,et al.Hyperspectral image classification with independent component discriminant analysis[J].IEEE Transactions on Geoscience and Remote Sensing,2011,49(12):4865-4876.

[5] Zhao W,Du S.Spectral-spatial feature extraction for hyperspectral image classification:a dimension reduction and deep learning approach[J].IEEE Transactions on Geoscience and Remote Sensing,2016,54(8):4544-4554.

[6] Mausel P W,Kramber W J,Lee J K.Optimum band selection for supervised classification of multispectral data[J].Photogrammetric Engineering and Remote Sensing,1990,56(1):55-60.

[7] Du Pei-jun,Xia Jun-shi,Xue Chao-hui,et al.Review of hyperspectral remote sensing image classification[J].Journal of Remote Sensing,2016,20(2):236-256.

[8] Fauvel M,Tarabalka Y,Benediktsson J A,et al.Advances in spectral-spatial classification of hyperspectral images[J].Proceedings of the IEEE,2013,101(3):652-675.

[9] Benediktsson J A,Palmason J A,Sveinsson J R.Classification of hyperspectral data from urban areas based on extended morphological profiles[J].IEEE Transactions on Geoscience and Remote Sensing,2005,43(3):480-491.

[10] Li W,Du Q.Gabor-filtering-based nearest regularized subspace for hyperspectral image classification[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2014,7(4):1012-1022.

[11] Wang Zeng-mao,Du Bo,Zhang Liang-pei,et al.Based on texture feature and extend morphological profile fusion for hyperspectral image classification[J].Acta Photonica Sinica,2014,43(8):116-123.

[12] Kang X,Li S,Benediktsson J A.Spectral-spatial hyperspectral image classification with edge-preserving filtering[J].IEEE Transactions on Geoscience and Remote Sensing,2014,52(5):2666-2677.

[13] Li J,Khodadadzadeh M,Plaza A,et al.A discontinuity preserving relaxation scheme for spectral-spatial hyperspectral image classification[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2016,9(2):625-639.

[14] Kang X,Li S,Fang L,et al.Extended random walker-based classification of hyperspectral images[J].IEEE Transactions on Geoscience and Remote Sensing,2015,53(1):144-153.

[15] Chen Y,Lin Z,Zhao X,et al.Deep learning-based classification of hyperspectral data[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2014,7(6):2094-2107.

[16] Lin Z,Chen Y,Zhao X,et al.Spectral-spatial classification of hyperspectral image using autoencoders[C].Proceedings of 9th International Conference on Communications and Signal Processing(ICICS),2013:1-5.

[17] Chen Y,Jiang H,Li C,et al.Deep feature extraction and classification of hyperspectral images based on convolutional neural networks[J].IEEE Transactions on Geoscience and Remote Sensing,2016,54(10):6232-6251.

[18] Cao J,Chen Z,Wang B.Deep Convolutional networks with superpixel segmentation for hyperspectral image classification[C].Proceedings of Geoscience and Remote Sensing Symposium(IGARSS),2016:3310-3313.

[19] LeCun Y,Bottou L,Bengio Y,et al.Gradient-based learning applied to document recognition[J].Proceedings of the IEEE,1998,86(11):2278-2324.

[20] Goodfellow I J,Warde-Farley D,Mirza M,et al.Maxout networks[J].Computer Science,2013,28(3):1319-1327.

[21] Krizhevsky A,Sutskever I,Hinton G E.Imagenet classification with deep convolutional neural networks[C].Advances in Neural Information Processing Systems,2012:1097-1105.

[22] He K,Zhang X,Ren S,et al.Delving deep into rectifiers:Surpassing human-level performance on imagenet classification[C].Proceedings of the IEEE International Conference on Computer Vision,2015:1026-1034.

[23] Hu W,Huang Y,Wei L,et al.Deep convolutional neural networks for hyperspectral image classification[J].Journal of Sensors,2015,2015(2):1-12.

附中文參考文獻:

[7] 杜培軍,夏俊士,薛朝輝,等.高光譜遙感影像分類研究進展[J].遙感學報,2016,20(2):236-256.

[11] 王增茂,杜 博,張良培,等.基于紋理特征和形態學特征融合的高光譜影像分類法[J].光子學報,2014,43(8):116-123.

猜你喜歡
分類特征模型
一半模型
分類算一算
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
主站蜘蛛池模板: 日韩精品一区二区三区视频免费看| 老汉色老汉首页a亚洲| 国产精选小视频在线观看| 欧美.成人.综合在线| 亚洲制服丝袜第一页| 日韩精品专区免费无码aⅴ| 欧美日韩资源| 国产亚洲视频中文字幕视频| 国产v精品成人免费视频71pao| 久久人搡人人玩人妻精品一| 国产精品视频第一专区| 国产成人高清精品免费软件 | 日韩免费毛片视频| 日韩中文无码av超清| 国产青榴视频在线观看网站| 99热最新网址| 国内精自线i品一区202| 青青青国产视频| 久久青草视频| 国产在线精彩视频论坛| 国产精品久久久久久久久| 婷婷激情五月网| 99久久精品国产麻豆婷婷| 日韩免费毛片| 99偷拍视频精品一区二区| 欧洲精品视频在线观看| 91网在线| 亚欧乱色视频网站大全| 亚洲综合久久成人AV| 国产精品成人观看视频国产| 免费不卡在线观看av| 国产福利大秀91| 久久国产高潮流白浆免费观看| 欧美α片免费观看| 久久久91人妻无码精品蜜桃HD| 中文字幕av一区二区三区欲色| 午夜小视频在线| 久久精品无码一区二区日韩免费| 国产毛片高清一级国语| 被公侵犯人妻少妇一区二区三区| 女人18毛片一级毛片在线 | 91在线精品麻豆欧美在线| 色一情一乱一伦一区二区三区小说 | 婷婷伊人久久| 成人久久精品一区二区三区| 久久香蕉国产线| 全部毛片免费看| 日本在线免费网站| 永久天堂网Av| 91欧美在线| h视频在线播放| 精品国产网| 欧美精品亚洲二区| 尤物午夜福利视频| 国产后式a一视频| 日韩中文字幕免费在线观看 | 欧美视频在线第一页| 国产在线观看第二页| 国产丝袜啪啪| 婷婷六月色| 亚洲开心婷婷中文字幕| 亚洲精品人成网线在线| 色135综合网| 四虎精品免费久久| 中日无码在线观看| 亚洲国产成人麻豆精品| 国产玖玖视频| 香蕉eeww99国产精选播放| 红杏AV在线无码| 亚洲av中文无码乱人伦在线r| 久久精品aⅴ无码中文字幕| 久久精品娱乐亚洲领先| 国产美女91视频| 99视频全部免费| 国产激爽大片高清在线观看| 国产精品无码制服丝袜| 欧美成人一区午夜福利在线| 国产AV无码专区亚洲精品网站| 欧美一区中文字幕| 亚洲永久精品ww47国产| 日韩免费毛片视频| 综合人妻久久一区二区精品|