999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

詞袋模型在高分遙感影像地物分類中的應用研究

2020-09-21 08:48:49王小芹張志梅邵燁王常穎張小峰
現代電子技術 2020年17期
關鍵詞:分類特征

王小芹 張志梅 邵燁 王常穎 張小峰

摘? 要: 高分辨率遙感影像空間信息豐富,同時也給地物分類帶來挑戰。故提出一種基于詞袋模型的地物分類方法,通過實驗討論詞袋模型在這一問題中的適用性。首先在多尺度影像下隨機選取場景,通過場景的底層特征聚類建立多尺度視覺詞典;然后用視覺單詞表達少量標記樣本來訓練支持向量機;最后用分類器提取典型地物。結果表明,在多尺度詞袋模型表達下,研究區分類總體精度達到92.18%,Kappa系數為0.880 9。對比實驗結果表明,詞袋模型和多尺度詞袋模型可以有效表達語義特征,從而在少量標記樣本下提高分類精度。

關鍵詞: 高分遙感影像; 詞袋模型; 地物分類; 視覺詞典; 地物特征提取; 樣本表達

中圖分類號: TN911.73?34; TP75; TP391? ? ? ? ? ? ?文獻標識碼: A? ? ? ? ? ? ? ?文章編號: 1004?373X(2020)17?0056?04

Abstract: High?resolution remote sensing images that contain rich spatial information bring about great challenges to classification of the ground feature. In this paper, a terrain classification method based on the bag of visual words (BOVW) is proposed. The multi?scale visual dictionary is built by clustering of the low?level features in a scene that are randomly selected in the multi?scale image. The visual words are used to express a few marked samples for training the support vector machine. Finally, a classifier is used to extract the typical object features. The results show that, with the expression of the multi?scale BOVW, the overall accuracy of the classification in the study area reaches 92.18%, and the Kappa coefficient is 0.880 9. The comparative experiment results indicate that the BOVW and the multi?scale BOVW can effectively express the semantic features, thus the accuracy of the classification can be improved with a few marked samples.

Keywords: high?resolution remote sensing image; BOVW; ground object classification; visual dictionary; ground object feature extraction; sample expression

0? 引? 言

2013年以來,我國相繼發射了高分系列衛星影像,其中,高分二號的發射意味著我國進入“亞米級”高分時代,高分辨率的遙感影像雖然提供了豐富的地面細節信息,卻很容易產生“同物異譜,同譜異物”的現象。傳統面向像元的方法已無法解決地物分類問題,基于場景的分類方法成為研究熱點。如文獻[1]融合場景的像素一致性信息、空間信息和外觀信息,采用K?means聚類進行量化并統計直方圖,對場景的特征進行表達,實現了高分辨率遙感場景分類;文獻[2]提出了一種基于場景的自動識別高鐵沿線建筑物隱患目標的方法。其中,基于監督學習的方法可以有效地進行影像地物分類,但是這類方法需要大量標記樣本進行訓練,而獲取大量標記樣本需要耗費巨大的人力和物力。面對海量的高分辨率遙感數據,如何利用廉價、易得的大量未標記樣本和小部分標記樣本實現監督分類,是一個需要解決的問題。

文獻[3]提出的視覺詞袋模型(Bag of Visual Words,BOVW)通過挖掘未標記樣本在底層特征上的語義信息,在標記樣本和未標記樣本之間建立聯系,可以有效地緩解需要大量標記樣本進行訓練的問題,具有一定的泛化能力。

本文建立了一個面向高分遙感影像的地物分類模型,探究BOVW在高分辨率遙感影像地物分類問題上的適用性。具體來說,首先引入圖像尺度金字塔,用多尺度下隨機選取的未標記樣本的光譜和紋理特征作為底層特征,通過改進的聚類算法建立多尺度視覺詞典;進而結合在小樣本分類問題中占有優勢的支持向量機方法進行監督學習;然后對高分影像以滑動開窗的方式進行分類。

1? 特征表達

BOVW用未標記樣本創建視覺詞典,再對標記樣本進行視覺詞袋表達,從而建立起未標記樣本和標記樣本之間的語義聯系。具體包括底層特征計算、視覺詞典構建和詞袋特征直方圖表達。

1.1? 底層特征計算

高分辨率遙感影像的光譜波段較少,具有較低類間差異和較高類內差異的特點,而其紋理信息豐富,紋理能夠在影像灰度模式下反映出不同地物類別的空間分布特征,因而利用紋理特征對高分影像進行地物分類能夠顯著提高分類精度[4]。因此,底層特征在使用光譜特征的同時,引入了紋理特征。

灰度共生矩陣(Gray Level Co?occurrence Matrix,GLCM)已經被廣泛應用于遙感影像的地物分類中[5?7]。GLCM充分利用空間信息,可對影像的紋理分布均勻性、紋理的走向等進行準確描述[8]。基于GLCM的紋理提取方法通過統計紋理信息,研究像元灰度間的分布特性來描述紋理,從而反映影像中灰度分布的規律。利用GLCM提取紋理信息時,發現能量、相關性、對比度和逆差距4種統計量所含信息量最大,最終選取這4種統計量作為最佳紋理特征組合。將選取的紋理特征向量與高分影像的光譜特征向量組合作為底層特征。

1.2? 視覺詞典構建

在研究區影像中采用均勻網格的方法提取局部圖像塊,隨機選取圖像塊作為場景,并提取這些場景的底層特征進行聚類,將所有聚類中心作為單詞構建視覺詞典。高分辨率遙感影像豐富的空間信息一方面體現出不同地物的紋理信息,另一方面細節太多容易引起分類精度的下降,為此引入圖像空間金字塔到BOVW中,建立3個尺度的視覺詞典。

傳統的BOVW是用K?means進行聚類的,其中合適的聚類中心[K]的大小需要根據實驗反復調整。SOINN是一個結合增長式神經云和自組織特征映射網優點并加以改進的神經網絡模型,用于聚類時可以自動發現合適的類別數目,能更好地反映數據的特性[9]。

本文利用SOINN對提取的底層特征進行增量學習,將產生的初次聚類結果作為K?means的初始聚類中心,避免了K?means進行聚類時需要根據實驗反復調整合適的[K]大小。

1.3? 詞袋特征直方圖表達

已經用未標記樣本建立了3個尺度的視覺詞典,只需對標記樣本進行視覺詞袋表達,就可以建立起未標記樣本和標記樣本之間的語義聯系。首先在每個尺度影像上分別提取標記樣本,并將其進行特征量化,分別標記成與3個尺度的視覺詞典歐氏距離最小的單詞;然后利用頻次直方圖分別統計3個尺度下每個單詞出現的頻次;最后將3個尺度下的頻次直方圖加權合并得到標記樣本的特征表達,其中權值設置相等。

2? 分類器

支持向量機[10](Support Vector Machine,SVM)是基于小樣本情況下統計理論的一種機器學習方法,在標記樣本較少的情況下,亦能獲得良好的統計規律。應用SVM對遙感影像進行地物分類的優點是不用對數據進行降維,在分類精度和訓練速度等方面都具有較好的性能。遙感影像地物分類是一個多分類問題,本文利用LIBSVM工具包實現SVM多分類,采用徑向基函數(Radial Basis Function,RBF)作為核函數。在遙感影像地物分類中,給定[N]個類,對[N]個類中的每兩個類都訓練一個分類器,共訓練[N(N-1)2]個二分類器。對于一個已經進行多尺度視覺詞袋表達的場景,需要經過所有分類器的預測,使用投票的方式決定該場景所屬類別。

3? 面向高分影像的地物分類模型

圖1 給出了基于詞袋模型的地物分類流程,其具體的算法描述如下:

Step1:利用高斯濾波和下采樣(采樣因子為0.5)的方法,對原始影像不斷模糊和縮減,得到3個尺度的影像[L1],[L2]和[L3]。

Step2:在影像[L1],[L2]和[L3]中,采用均勻網格的方法提取局部圖像塊,在影像[L1]中隨機選取[M]個場景,[L2]和[L3]中隨機選取[M2]個場景,[L3]中隨機選取[M4]個場景。

Step3:對3個尺度下的場景分別提取底層特征,得到特征描述集[F1],[F2]和[F3]。

Step4:利用SOINN對3個尺度下的特征描述集[F1],[F2]和[F3]進行聚類,產生初始的聚類結果[C1],[C2]和[C3]。

Step5:利用誤差控制[ε]和K?means聚類方法,通過初始聚類結果[C1],[C2]和[C3]產生最終的3個尺度下的視覺詞典[D1],[D2]和[D3]。

Step6:分別在[L1],[L2]和[L3]影像上提取樣本,將其分別標記成與視覺詞典[D1],[D2]和[D3]歐氏距離最小的單詞,并分別用頻次直方圖統計3個尺度下每個單詞出現的頻次,最后將3個尺度下的頻次直方圖加權合并得到特征表達。

Step7:訓練SVM分類器。

Step8:利用滑動窗口的方式在影像上提取場景圖像,其中窗口大小為[W×W],滑動步長為1。

根據Step6中方法對場景圖像進行特征量化,完成場景圖像的多尺度視覺詞袋表達。

Step9:將滑動窗口中場景圖像的視覺詞袋特征依次送入SVM分類器,完成整個研究區影像的地物分類。

4? 實驗與分析

4.1? 實驗數據

實驗數據來自武漢大學遙感圖像標注數據庫2018年7月20日發布的用于土地利用分類的高分影像數據集(GID)[11]。選取了位于內蒙古自治區呼倫貝爾市牙克石市東興街道附近區域的影像,該數據成像時間為2016年7月19日,影像大小為7 200×6 800,空間分辨率為4 m。該影像包含建成區、農田、森林、草甸、水域和未知區域6類,對應分別選取了場景大小為30×30的訓練樣本15,25,20,45,15和35個。在GID中,對建成區、農田、森林、草甸、水域典型地物和未知區域6類分別用紅色、綠色、青色、黃色、藍色和黑色表示。實驗數據原始影像和專家解譯的影像如圖2a)、圖2b)所示,可以明顯地發現有多處未標注正確,尤其是草甸(黃色),故在專家解譯的影像基礎上又進行了補充,紅色方框內是主要的補充區域 ,補充后的解譯影像如圖2c)所示。

4.2? 地物分類結果

按照面向高分影像地物分類模型的算法流程,對研究區影像進行地物分類。[L1]尺度影像隨機選取800個場景,[L2]尺度影像隨機提取場景400個,[L3]尺度影像隨機提取場景200個,場景大小皆為30×30。通過算法流程得到的最終聚類中心[D1]=258,[D2]=105,[D3]=54,即3個尺度下的視覺詞典單詞個數。

在多尺度視覺詞典生成后,就可以對研究區影像進行特征量化。首先利用滑動開窗的方式提取場景圖像,其中窗口大小設置為5×5,步長為1,然后提取場景的底層特征,將其分別標記成與視覺詞典[D1],[D2]和[D3]中歐氏距離最小的單詞,并用頻次直方圖統計每個單詞出現的頻次,最后將所有尺度下的直方圖進行加權連接,完成場景的多尺度視覺詞袋表達。

將得到的視覺詞袋特征應用于訓練好的SVM分類器中完成場景的分類,最終的地物分類結果如圖3a)所示。在少量訓練樣本的情況下,能夠得到和人工解譯相近的結果。

4.3? 精度評價

為了研究詞袋模型在高分影像地物分類問題中的有效性,同樣使用SVM分類器對研究區影像進行了基于不同特征表達的對比實驗,具體包括:基于底層特征;基于BOVW;基于多尺度BOVW。其中,所有方法的訓練樣本都一致。不同方法下的分類結果如圖3b),圖3c)所示,參照補充后的解譯影像,在此基礎上進行精度評價,采用混淆矩陣的總體分類精度和Kappa系數進行評定,結果如表1所示。

通過影像的地物分類結果可以看出:基于底層特征的SVM分類存在少量的噪聲,對于大面積地物能夠較好的識別,但是對于紋理特征相似的森林、草甸和農田地物,僅依賴底層特征仍然不能很好的區分;基于BOVW的SVM分類改善了森林、草甸和農田地物的分類結果;基于多尺度的BOVW模型的分類精度相較最高,說明構建多尺度詞典是有效的。

5? 結? 語

本文針對高分辨率遙感影像地物分類問題,提出了一個地物分類模型,探究了詞袋模型的應用技巧和改進方法。實驗結果表明,該模型取得了較好的分類結果,可得到以下結論:

1) 視覺詞袋模型可以很好地刻畫復雜場景的內容,獲得更好的特征表達,適合不易獲得大量標記樣本的遙感圖像,能有效提高分類精度。

2) 將圖像尺度金字塔引入視覺詞袋模型中,建立不同尺度下的視覺單詞,通過加權組合形成多尺度視覺詞袋模型,對場景進行視覺詞袋表達,分類精度比僅基于視覺詞袋模型的分類方法有所提高。

3) K?means構建詞典時需要根據實驗效果反復調整[K]的大小。將SOINN產生的初次聚類結果作為K?means方法的初始聚類中心進行聚類可有效避免該問題。

參考文獻

[1] 徐培罡,張海青,王超,等.基于多重分割關聯子的高分辨率遙感場景分類[J].地理科學,2018,38(2):293?299.

[2] 慎利,方燦明,王繼成,等.場景解譯框架下的高鐵沿線建筑物自動識別[J].遙感信息,2018,33(3):80?87.

[3] CSURKA G, DANCE C R, FAN Lixin, et al. Visual categorization with bags of keypoints [EB/OL]. [2011?02?28]. https://wenku.baidu.com/view/5baf27c2d5bbfd0a7956736e.html.

[4] 郝劍南,王瑞紅.紋理特征與面向對象結合的高分影像耕地提取應用[J].安徽農業科學,2018,46(19):72?75.

[5] 潘一凡,張顯峰,于泓峰,等.聯合快舟一號影像紋理信息的城市土地覆蓋分類[J].遙感技術與應用,2016,31(1):194?202.

[6] 謝嘉麗,李永樹,李何超,等.利用灰度共生矩陣紋理特征識別空心村損毀建筑物的方法[J].測繪通報,2017(12):90?93.

[7] 朱秀芳,李石波,肖國峰.基于無人機遙感影像的覆膜農田面積及分布提取方法[J].農業工程學報,2019,35(4):106?113.

[8] 葉鵬,王永芳,夏雨蒙,等.一種融合深度基于灰度共生矩陣的感知模型[J].計算機科學,2019,46(3):92?96.

[9] 邱天宇,申富饒,趙金熙.自組織增量學習神經網絡綜述[J].軟件學報,2016,27(9):2230?2247.

[10] CORTES C, VAPNIK V. Support?vector networks [J]. Machine learning, 1995, 20(3): 273?297.

[11] TONG Xinyi, XIA Guisong, LU Qikai, et al. Learning transferable deep models for land?use classification with high?resolution remote sensing images [EB/OL]. [2018?08?11]. https://www.researchgate.net/publication/326437096.

猜你喜歡
分類特征
抓住特征巧觀察
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
主站蜘蛛池模板: 亚洲天堂成人| 91小视频在线播放| 国产av剧情无码精品色午夜| 亚洲码一区二区三区| 国产成年女人特黄特色大片免费| 国产迷奸在线看| 国产精品太粉嫩高中在线观看| 一级毛片免费的| 中文字幕亚洲综久久2021| 免费高清毛片| 国产精品手机在线播放| 996免费视频国产在线播放| 国产亚洲男人的天堂在线观看| 2020最新国产精品视频| 无码AV日韩一二三区| 久久96热在精品国产高清| 欧美亚洲第一页| 97色婷婷成人综合在线观看| 99中文字幕亚洲一区二区| 欧美午夜精品| 极品国产一区二区三区| 中文无码精品a∨在线观看| 好久久免费视频高清| 午夜精品久久久久久久无码软件| 日韩精品一区二区三区免费| 日韩国产另类| 欧美19综合中文字幕| 白丝美女办公室高潮喷水视频| 国产噜噜噜视频在线观看| 亚洲精品在线91| 免费国产黄线在线观看| 2021国产精品自拍| 中文字幕乱码中文乱码51精品| 日韩国产综合精选| 无码又爽又刺激的高潮视频| 国内精自视频品线一二区| 黄色网址免费在线| 国产情侣一区二区三区| 国产日韩精品欧美一区灰| 久久精品aⅴ无码中文字幕| 国产成人AV男人的天堂| 一本大道香蕉中文日本不卡高清二区| 福利一区在线| 国产成人久久综合777777麻豆| 国产欧美视频一区二区三区| 亚洲综合狠狠| 国产精品jizz在线观看软件| 色综合久久久久8天国| 中国精品久久| 久久夜色撩人精品国产| 国产真实乱子伦视频播放| 99热国产在线精品99| 性网站在线观看| 色综合狠狠操| 亚洲天堂视频网| 九九久久精品免费观看| 亚洲AⅤ永久无码精品毛片| 免费一级无码在线网站| 亚洲无码91视频| 婷婷六月色| 美女潮喷出白浆在线观看视频| 在线欧美日韩国产| 亚洲av无码人妻| 天天色天天操综合网| 国产精品密蕾丝视频| 动漫精品啪啪一区二区三区| 久久中文字幕不卡一二区| 久久人妻xunleige无码| 国产又粗又猛又爽| 欧美成人手机在线观看网址| 2021国产在线视频| 国产经典在线观看一区| 亚洲第一色网站| 亚洲另类色| AV不卡在线永久免费观看| 欧美日韩在线国产| 国产乱子伦手机在线| 国产激爽爽爽大片在线观看| 狠狠做深爱婷婷久久一区| 国产69囗曝护士吞精在线视频| 97国产成人无码精品久久久| 538国产在线|