999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

高分辨率遙感影像的平原建成區(qū)提取

2016-11-15 09:37:23李苓苓梅立琴譚毅華
光學(xué)精密工程 2016年10期
關(guān)鍵詞:特征檢測方法

溫 奇,王 薇,李苓苓,梅立琴,譚毅華

(1.民政部國家減災(zāi)中心,北京 100124;2.華中科技大學(xué) 自動化學(xué)院,湖北 武漢 430074)

?

高分辨率遙感影像的平原建成區(qū)提取

溫奇1*,王薇1,李苓苓1,梅立琴2,譚毅華2

(1.民政部國家減災(zāi)中心,北京 100124;2.華中科技大學(xué) 自動化學(xué)院,湖北 武漢 430074)

通過分析高分辨率遙感影像中平原建成區(qū)的紋理特征和局部關(guān)鍵點特征,提出了基于多核學(xué)習(xí)、多尺度分割以及多假設(shè)投票的平原建成區(qū)提取方法。該方法利用MR8紋理特征和尺度不變特征變換(SIFT)算法提取建成區(qū),融合多個特征進行學(xué)習(xí)和分類,從而加強了分類器的魯棒性和穩(wěn)定性,提高了檢測準(zhǔn)確率。該方法還通過超像素分割和多假設(shè)投票將基于圖像塊的判別結(jié)果轉(zhuǎn)化為基于像素的檢測結(jié)果,完全消除塊狀效應(yīng),使得目標(biāo)區(qū)域具有準(zhǔn)確的邊緣和形狀。在多幅GF-1衛(wèi)星遙感圖像上進行測試,結(jié)果顯示:提出方法的平均檢測精度為80%,平均召回率高于85%,平均F值可達80%以上,綜合指標(biāo)高于其他方法,驗證了提取平原地形建成區(qū)的可行性和準(zhǔn)確性。由于建成區(qū)提取結(jié)果已精確到了像素級別,同時避免了漏檢和誤檢,提取出的建成區(qū)影像很準(zhǔn)確。

高分辨率遙感影像;平原建成區(qū)提取;多假設(shè)投票;多特征學(xué)習(xí);多尺度分割

1 引 言

建成區(qū)指市行政區(qū)范圍內(nèi)經(jīng)過征用的土地和實際建設(shè)發(fā)展起來的非農(nóng)業(yè)生產(chǎn)建設(shè)地段,主要指建筑物密集分布的區(qū)域。本文所述的建成區(qū)包括城市區(qū)域和鄉(xiāng)鎮(zhèn)區(qū)域,位于建成區(qū)內(nèi)部的水體綠地等區(qū)域和村落房屋聚集區(qū)也屬于本文的建成區(qū)提取范疇。在我國廣袤的國土范圍內(nèi),地震、滑坡泥石流等自然災(zāi)害頻繁發(fā)生,使人民群眾的生命和財產(chǎn)遭受了極大損失。利用遙感影像提取建成區(qū)輪廓可以作為建筑物數(shù)量估算、街區(qū)地理網(wǎng)格構(gòu)建等工作的前期處理步驟,并可為災(zāi)害損失評估、應(yīng)急救援和災(zāi)后恢復(fù)重建提供信息支持。高分辨率遙感影像中的地物目標(biāo)信息更加豐富、精確,紋理和結(jié)構(gòu)信息更加明顯[1],利用高分辨率遙感數(shù)據(jù)精確提取建成區(qū)輪廓也成為近年來學(xué)術(shù)界研究的熱點之一。

在上述背景下,學(xué)者們對遙感影像建成區(qū)提取技術(shù)進行了探索和研究,并已取得了大量的科研成果。從有無監(jiān)督的角度,建成區(qū)提取方法可以分為兩種:一種是無監(jiān)督分類的方法。Sirmacek和Unsalan在2009年提出了一種用SIFT(Scale Invariant Feature Transform)提取關(guān)鍵點和圖理論檢測城區(qū)和建筑物的方法[2]。Tao等人提出了在多分辨率影像上提取Harris角點,再通過角點分布構(gòu)造似然函數(shù)以提取候選城區(qū)的方法[3]。利用改進后的Harris角點檢測方法[4-5],能夠更精確地提取出影像中的角點,減少噪聲的干擾,使后續(xù)提取出的建成區(qū)范圍更加精確。黃昕提出一種基于形態(tài)學(xué)理論的多方向多尺度建筑物指數(shù)MBI(Morphological Building Index),該指數(shù)對于建成區(qū)判別效果顯著[6];另一種是采用有監(jiān)督特征學(xué)習(xí)的方法檢測建成區(qū)。Barnsley和 Rarr用像元光譜特征學(xué)習(xí)的方法對遙感影像中的城區(qū)地物進行判別和分類[7]。Yu等人用馬爾可夫隨機場和貝葉斯模型,結(jié)合地圖知識和上下文信息建立一種反饋控制機制,在SPOT圖像中檢測建成區(qū)并進行圖像的魯棒性分析[8]。L. Weizman等人通過將一批圖像分割為大小相同的子塊進行離線訓(xùn)練,形成視覺詞典,然后用該視覺詞典對另一批圖像進行在線測試,由于訓(xùn)練樣本來自大量不同的圖像,故該方法能夠克服多種場景變化[9]。Tao等人采用多核學(xué)習(xí)和圖割的方法進行城區(qū)檢測,并融合了多特征對圖像子塊進行學(xué)習(xí)和判別,為了優(yōu)化圖像塊判別結(jié)果,用圖割方法進行平滑,最終得到像素級的檢測結(jié)果[10]。

以上方法在進行建成區(qū)檢測時,由于對建成區(qū)邊界范圍的準(zhǔn)確性考慮不足,導(dǎo)致提取出的建成區(qū)邊界和實際邊界差異較大,同時也存在較多的漏檢和誤檢的情況。本文結(jié)合高分辨率遙感影像中平原建成區(qū)的特點,提出了一種基于多核學(xué)習(xí)、多尺度分割以及多假設(shè)投票的平原建成區(qū)提取方法,該方法將建成區(qū)提取結(jié)果精確到像素級別,同時能夠盡量避免漏檢和誤檢的情況,因此可以提取出更加準(zhǔn)確的結(jié)果。

2 高分辨率遙感影像平原建成區(qū)檢測

2.1算法設(shè)計流程

經(jīng)過大量的觀察分析,發(fā)現(xiàn)平原建成區(qū)一般有以下特點:

(1)平原地區(qū)相對人口稠密,建成區(qū)總面積較大,而且分布較為集中。

(2)背景較為平坦單一,建成區(qū)周邊一般分布著梯田、植被、河流。

(3)建成區(qū)內(nèi)部紋理粒度較大,紋理特征與背景有明顯差別。

(4)在平原建成區(qū)區(qū)域內(nèi)部,灰度變化較均勻平坦,局部關(guān)鍵點并不豐富。

考慮到平原建成區(qū)的以上特點,選用MR8 (Maximum Response 8)紋理特征檢測建成區(qū)區(qū)域,同時使用SIFT特征濾除虛警,對有標(biāo)簽的訓(xùn)練數(shù)據(jù)集分別提取MR8特征和SIFT特征構(gòu)建各自的數(shù)據(jù)詞典,生成特征向量后分別訓(xùn)練SVM分類器,實現(xiàn)有監(jiān)督的多特征學(xué)習(xí);然后構(gòu)造線性分類器進行圖像塊的判別。為獲取更加精確的邊緣并進一步濾除虛警,對圖像進行不同參數(shù)組合的超像素分割,結(jié)合圖像塊得分與植被指數(shù)進行像素級的多假設(shè)投票。其算法流程如圖1所示。

圖1 平原建成區(qū)提取方法Fig.1 Extraction method of plain built-up area

2.2圖像預(yù)處理

衛(wèi)星獲取的遙感影像需經(jīng)過一定的預(yù)處理步驟,才能達到建成區(qū)提取的使用標(biāo)準(zhǔn)。本文所采用的遙感影像預(yù)處理技術(shù)包括正射校正、圖像配準(zhǔn)和對比度拉伸。

由于地形變化和傳感器誤差等的影響,原始遙感影像會有一定的幾何畸變。正射校正可以消除這些幾何畸變,使得校正后影像的空間位置更為準(zhǔn)確。而采用ENVI對原始影像進行正射校正,可以消除幾何畸變,并使影像攜帶地理坐標(biāo),通過地理坐標(biāo)可以將分辨率不同的全色影像與多光譜影像進行匹配,以便進行后續(xù)的檢測步驟。

在對全色影像和多光譜影像進行正射校正之后,圖像上同一地點的地理坐標(biāo)可能存在細(xì)微的偏移,因此需要對全色和多光譜影像進行配準(zhǔn)。配準(zhǔn)方法有很多,如基于改進BRISK特征的快速圖像配準(zhǔn)算法[11]、采用圖像斑點特征和角點特征相結(jié)合的配準(zhǔn)方法[12]、結(jié)合區(qū)域分割的SIFT圖像匹配算法[13]、應(yīng)用FREAK算子的多線程并行加速配準(zhǔn)算法[14]等。考慮到ENVI具有自動、準(zhǔn)確、快速的特點,而且配準(zhǔn)后的圖像可以使后續(xù)像素級的投票判別更加精確。本文用其Image Registration Workflow進行全色影像和多光譜影像的配準(zhǔn)。

通常情況下,直接獲得的原始遙感影像數(shù)據(jù)的數(shù)值分布范圍過小,對比度過小,使得影像整體偏亮或者偏暗,勢必會影響有用信息的提取。線性拉伸是最典型的用于改善對比度的方法,其通過對圖像像素值進行定比例變化來改善對比度。

在遙感影像處理中,最常用且效果最好的是2%線性裁剪拉伸。2%線性裁剪拉伸是計算出原始圖像的直方圖后,對圖像亮度值分布在2%~98%的像素做線性拉伸,即在拉伸時,去除小于2%和大于98%的值,這樣絕大多數(shù)異常值會在拉伸時舍掉。

圖2為影像上截取的同一片區(qū)域預(yù)處理前后的結(jié)果。由圖2可知,經(jīng)過對比度拉伸預(yù)處理后,明顯加大了背景與目標(biāo)的對比度,使圖像整體變得清晰。

圖2 影像預(yù)處理(上為原圖,下為預(yù)處理結(jié)果圖)Fig.2 Image pre-processing(the upper one is the original image, the below one is the image after pre-processing)

2.3基于MR8和SIFT特征學(xué)習(xí)的圖像塊判別

本文通過提取SIFT局部關(guān)鍵點特征和MR8紋理特征,構(gòu)造SVM線性分類器,進行建成區(qū)提取。

SVM是90年代中期發(fā)展起來的基于統(tǒng)計學(xué)習(xí)理論的一種機器學(xué)習(xí)方法[15],其在統(tǒng)計學(xué)習(xí)的VC維理論和結(jié)構(gòu)風(fēng)險最小原理基礎(chǔ)上建立,通過尋求結(jié)構(gòu)化風(fēng)險最小來提高學(xué)習(xí)機泛化能力,實現(xiàn)經(jīng)驗風(fēng)險和置信范圍的最小化,從而在統(tǒng)計樣本量較少的情況下,也能獲得良好的統(tǒng)計規(guī)律。SVM適用于訓(xùn)練樣本較少情況下的分類問題,具有結(jié)構(gòu)簡單、全局最優(yōu)泛化能力好和計算復(fù)雜度低等特點,而且具有較強的高維樣本處理能力。

SIFT由David Lowe在1999年提出[16],SIFT算子通過構(gòu)造尺度空間,并在尺度空間中提取極值點,從而尋找出保持尺度旋轉(zhuǎn)不變性的量,進而描述并探測圖像中的局部性特征,它具有穩(wěn)定、特征點豐富、運行速度快的特點。文獻[17]提出了改進后的SIFT算子,即在SIFT原有框架的基礎(chǔ)上融入全局形狀信息和顏色不變信息,本文使用改進后的SIFT算子進行建成區(qū)提取,以有效提升建成區(qū)的提取精度。MR8濾波器組由38個濾波器組成,但是只輸出沿各個方向的最大響應(yīng)值,組成一個8維的濾波響應(yīng)信號,其具有旋轉(zhuǎn)不變性。MR8濾波器組不僅能提取到圖像精細(xì)的局部紋理特征,而且去除了冗余響應(yīng),具有良好的紋理分類性能和效率。

接著,用以上特征構(gòu)造SVM線性分類器:首先,將含有建成區(qū)的圖像子塊和含有非建成區(qū)的圖像子塊組成訓(xùn)練樣本集,分別提取上述特征,生成視覺詞匯表;然后,對于每類特征,利用該視覺詞匯表對輸入的測試圖像進行相關(guān)特征的提取和描述;最后利用每類特征訓(xùn)練得到的w值和b值,計算線性分類器如下:

y=w*x+b.

(1)

對于數(shù)量為M的訓(xùn)練樣本集合,每個樣本包含N個像素。對于SIFT局部關(guān)鍵特征來說,一共可形成(M×N)×128維特征矢量集,對于MR8紋理特征來說,一共形成維特征矢量集。用K-Means聚類方法對特征矢量集進行聚類,假設(shè)聚成L(L=1 024)類,聚類后得到的每類中心對應(yīng)的特征向量可看作是一個視覺詞匯。由此,生成由L個視覺詞匯{w1,w2,…,wL}組成的視覺詞匯表W。生成視覺詞匯表后,根據(jù)該詞匯表提取相關(guān)特征步驟如下:

step1用測試圖像像元點的特征向量與對應(yīng)的視覺詞匯表中的每個視覺詞匯進行比較,從中找出最相近的視覺詞匯,來表示該像元點(x,y),從而將測試圖像中每個像元點(x,y)對應(yīng)到視覺詞匯表中的一個視覺詞匯上,假設(shè)該像元點對應(yīng)的視覺詞匯為wi,則記f(x,y)=i。

step2用視覺詞匯直方圖描述測試圖像中視覺詞匯的出現(xiàn)頻率,即統(tǒng)計視覺詞頻為:

hi=∑I(f(x,y)=i)i=0,1,…L-1,

(2)

式中,i為特征單詞wi序數(shù),hi表示測試圖像中特征單詞wi的數(shù)目。

利用學(xué)習(xí)得到的SVM參數(shù),可將每個圖像塊的判讀得分映射到-1和1之間。其值越接近1,則該圖像塊是建成區(qū)的可能性越大;越接近-1,則是非建成區(qū)的可能性越大。

如上所述,該多核學(xué)習(xí)框架下的圖像塊判讀得分為:

(3)

其中dj(j=1,2)表示SIFT關(guān)鍵點特征、MR8紋理特征的權(quán)值,w和b為訓(xùn)練得到的每類特征SVM分類參數(shù)。

用MR8和SIFT特征組成線性分類器,對每一圖像塊進行判別,根據(jù)公式(1)可知其判別得分如下式所示:

Scoresblock=dMR8(wMR8Xblock+bMR8)+

dSIFT(wSIFTXblock+bSIFT),

(4)

其中,Scoresblock表示任意block的判讀得分,Xblock表示任意block的視覺詞匯直方圖。wMR8、wSIFT和bMR8、bSIFT分別表示經(jīng)過訓(xùn)練得到的MR8特征分類器和SIFT特征分類器的w和b參數(shù)。dMR8和dSIFT分別表示MR8特征分類器和SIFT特征分類器的權(quán)值,依據(jù)設(shè)定不同權(quán)值進行實驗的結(jié)果可知,在選取dMR8=0.8,dSIFT=0.2時效果最佳。

2.4基于超像素塊的多假設(shè)投票判別

多假設(shè)投票是為了得到更準(zhǔn)確的基于像素水平的檢測結(jié)果,這涉及到圖像的超像素表達,多參數(shù)假設(shè)的設(shè)置和多假設(shè)投票結(jié)果的融合。

超像素是將一些具有一定相似性且空間位置相鄰的像素歸為一個像素對待,這個像素具有一定的形狀和位置。超像素塊的內(nèi)部像素不僅位置相鄰,而且具有相似的顏色、紋理、亮度等特征。超像素分割方法既考慮了像素間的空間關(guān)系,也考慮了像素間的相似性,可以省略大量的冗余信息,大大降低圖像處理的復(fù)雜度。本文中的超像素表達采用SLIC(Simple Linear Iterative Clustering)方法[14],即簡單線性迭代聚類,該方法不僅能使分割結(jié)果保持相對較準(zhǔn)確的邊緣,而且計算速度較快。

采用SLIC方法對圖像進行超像素分割,分割結(jié)果取決于緊致度參數(shù)c和分割塊數(shù)n。令分割塊數(shù)為n=sqrt(wh/k)。其中k為聚類中心初始距離,w和h為圖像的寬度和高度。多假設(shè)表達可以通過變換參數(shù)組合得到,這里取:

(1)c=15,k=5;(2)c=15,k=10;

(3)c=15,k=15;(4)c=15,k=20

用V1,V2,V3,V4表示不同超像素分割參數(shù)組合情形下得到的投票結(jié)果。多假設(shè)投票結(jié)果可表示為:

V=(V1+V2+V3+V4)/4.

(5)

結(jié)合MR8和SIFT特征學(xué)習(xí)的得分結(jié)果,對超像素塊進行投票,投票結(jié)果記為S(scores)。MR8和SIFT特征學(xué)習(xí)判別是基于圖像塊的,分別計算MR8和SIFT特征學(xué)習(xí)判別對第i個超像素的投票,其中block(pix)為像素pix所屬的圖像塊,scoresblock(pix)為其所對應(yīng)的判別得分,Ni表示第i個超像素塊的像素個數(shù)。

(6)

平原地區(qū)存在部分植被等干擾,雖然通過SIFT特征學(xué)習(xí)可以去除部分植被虛警,但為了達到更好的虛警去除效果,可以通過計算歸一化植被指數(shù)NDVI(Normalized Difference Vegetation Index)來進一步去除植被虛警。植被指數(shù)定義為可見光紅光波段和近紅外波段光譜之差與之和的比值[15],如下式所示:

(7)

其中INir和IRed分別為近紅外波段和可見光紅光波段的光譜反射率。

通過上式求得的植被指數(shù)統(tǒng)計是基于像素的,應(yīng)當(dāng)將其轉(zhuǎn)化為基于超像素塊來計算,其投票結(jié)果記為S(ndvi),用求平均值的方法對像素所屬的超像素塊進行投票。

(8)

其中,NDVIpix為像素pix的植被指數(shù),Ni表示第i個超像素塊的像素個數(shù)。

綜上所述,記S1,S2,S3,S4為不同參數(shù)假設(shè)下的超像素投票結(jié)果,像素pix在不同假設(shè)下分別屬于第i、j、k、l個超像素塊,則最終投票結(jié)果可表示為:

Vpix(scores)=(S1i(scores)+S2j(scores)+

S3k(scores)+S4l(scores))/4,

(9)

Vpix(ndvi)=(S1i(ndvi)+S2j(ndvi)+

S3k(ndvi)+S4l(ndvi))/4,

(10)

則得到最終的建成區(qū)判別準(zhǔn)則:

(11)

其中,閾值分割參數(shù)t1=0,t2=0.2,為實驗獲得的最佳閾值組合。

2.5結(jié)果后處理

以上獲得的建成區(qū)提取結(jié)果是像素級別的,在提取結(jié)果中存在將建成區(qū)區(qū)域中的部分像素誤判為非建成區(qū)或相反的情況。實際情況中,某一像素周邊像素大部分為建成區(qū),那么該像素應(yīng)該也為建成區(qū),反之亦然。基于上述前提,對提取結(jié)果中每一個像素與其周邊像素的分類結(jié)果作對比,填充建成區(qū)內(nèi)部漏檢點并消除非建成區(qū)中的虛警點,得到最終的建成區(qū)提取結(jié)果。

3 實驗結(jié)果與分析

3.1算法檢測效果

本文選取GF1衛(wèi)星的全色影像和多光譜影像進行測試,建成區(qū)提取結(jié)果如圖3、圖4所示。圖3中(彩圖見期刊電子版)影像數(shù)據(jù)來自河北省某地區(qū),其分辨率為2 m,大小為18 192×18 000,該影像中存在大量的平原建成區(qū)。圖4中(彩圖見期刊電子版)影像數(shù)據(jù)來自四川省某地區(qū),其分辨率為2 m,大小依次為1 092×1 128,876×779,1 233×1 163,影像中存在一個或多個平原建成區(qū)。圖3左圖為全景影像檢測結(jié)果,將紅色標(biāo)出部分放大顯示如右圖所示。圖4為截取的平原地形下的建成區(qū)提取結(jié)果。

為了進一步驗證本研究方法的有效性,利用準(zhǔn)確率(Precision)、召回率(Recall)和F值(F-measure)等精度評價指標(biāo)對實驗結(jié)果進行定量評價。其定義分別如下所述:

(12)

(13)

(14)

其中,TP為正確提取的建成區(qū)目標(biāo),F(xiàn)N為漏提的建成區(qū)目標(biāo),F(xiàn)P為錯誤提取的建成區(qū)目標(biāo)。定量評價結(jié)果如表1所示。

圖3 整景影像提取結(jié)果及其細(xì)節(jié)圖Fig.3 Extraction results of one whole image and its detail image

圖4 平原地形下的建成區(qū)提取結(jié)果(左圖為原圖,右圖為結(jié)果圖)Fig.4 Extraction results of plain built-up area (the left ones are original images, the right ones are result images)

3.2算法對比

采用不同方法對27幅長寬在1 000~2 000 pixel的圖像進行實驗,分別計算3個指標(biāo)的平均值。使用方法依次有:(1)M. Pesaresi (2008)提出的旋轉(zhuǎn)不變性紋理測度PanTex[16](Procedure for the Calculation of A Texture-derived Built-up Presence Index);(2) A. Kovacs (2013)提出的改進Harris角點投票法MHEC[17](Modified Harris for Edges and Corners);(3) Huang (2012)提出的形態(tài)學(xué)建筑物指數(shù)法MBI[18];(4) Tao (2013)提出的核學(xué)習(xí)和圖割法MKLGC[10](Multiple Kernel Learning and Graph Cut);(5)本文方法。結(jié)果見表2和圖5(彩圖見期刊電子版)。從中可知,本文方法的提取效果優(yōu)于其他方法。

表1 實驗結(jié)果精度統(tǒng)計

表2 建成區(qū)檢測精度對比

圖5 幾種方法的檢測精度對比結(jié)果Fig.5 Precision comparison between different methods

4 結(jié) 論

本文在分析平原建成區(qū)特點的基礎(chǔ)上,利用MR8紋理特征和SIFT關(guān)鍵點特征學(xué)習(xí)的方式進行建成區(qū)提取,融合多個特征進行學(xué)習(xí)和分類,加強了分類器的魯棒性和穩(wěn)定性,提高了檢測的準(zhǔn)確率。通過超像素分割和多假設(shè)投票的方法,將基于圖像塊的判別結(jié)果轉(zhuǎn)化為基于像素的檢測結(jié)果,完全消除了塊狀效應(yīng),并使目標(biāo)區(qū)域具有準(zhǔn)確的邊緣和形狀。通過對多幅平原建成區(qū)GF-1的衛(wèi)星圖像進行實驗測試,本方法平原地區(qū)建成區(qū)的平均檢測精度可以達到80%,平均召回率可以達到85%以上,平均F值可達到80%以上,綜合指標(biāo)高于其他方法,驗證了該方法的可行性和準(zhǔn)確性。下一步計劃考慮在多光譜影像上提取其它有益于建成區(qū)提取的特征,以進一步提高建成區(qū)的提取精度。

[1]史偉國,周立民,靳穎. 全球高分辨率商業(yè)遙感衛(wèi)星的現(xiàn)狀與發(fā)展[J]. 衛(wèi)星應(yīng)用, 2012(3): 43-50.

SHI W G, ZHOU L M, JIN Y. The present situation and development of the global commercial high resolution remote sensing satellite [J].SatelliteApplication, 2012(3): 43-50.(in Chinese)

[2]SIRMACEK B, UNSALAN C. Urban-area and building detection using SIFT keypoints and graph theory [J].IEEETransactiononGeoscienceandRemoteSensing, 2009, 47(4): 1156-1167.

[3] TAO C, TAN Y H, ZOU Z R,etal.. Unsupervised detection of built-up areas from multiple high-resolution remote sensing images [J].IEEEGeoscienceandRemoteSensingLetter, 2013, 10(6): 1300-1304.

[4]王崴, 唐一平, 任娟莉, 等. 一種改進的Harris角點提取算法[J]. 光學(xué) 精密工程, 2008, 16(10): 1995-2001.

WANG W, TANG Y P, REN J L,etal.. An improved algorithm for Harris corner detection[J].Opt.PrecisionEng., 2008, 16(10): 1995-2001. (in Chinese)

[5]王富平, 水鵬朗. 利用局部方向微分向量一致性的角點檢測[J]. 光學(xué) 精密工程, 2015, 23(12): 3509-3518.

WANG F P, SHUI P L. Corner detection via consistency of local directional differential vectors[J].Opt.PrecisionEng., 2015, 23(12): 3509-3518. (in Chinese)

[6]HUANG X, ZHANG L P. Morphological building/shadow index for building extraction from high-resolution imagery over urban areas [J].IEEEJournalofSelectedTopicsinAppliedEarthObservationsandRemoteSensing, 2012, 5(1): 161-172.

[7]BARNSLEY M J, RARR S L. Inferring urban land use from satellite sensor images using kernel-based spatial reclassification [J].PhotogrammetricEngineeringandRemoteSensing, 1996, 62(7): 949-958.

[8]YU S, BERTHOD M, GIRAUDON G. Toward robust analysis of satellite images using map information-application to urban area detection [J].IEEETransactionsonGeoscienceandRemoteSensing, 1999, 37(4): 1925-1939.

[9]WEIZMAN L, GOLDBERGER J. Detection of urban zones in satellite images using visual words [C].IEEEConferenceonGeoscienceandRemoteSensingSymposium, 2008: 160-163.

[10]TAO C, TAN J G, YU Y H,etal.. Urban area detection using multiple kernel learning and graph cut [C].IEEEConferenceonGeoscienceandRemoteSensingSymposium,2012:83-86.

[11]何林陽, 劉晶紅, 李剛, 等. 改進BRISK特征的快速圖像配準(zhǔn)算法[J]. 紅外與激光工程, 2014, 43(8): 2722-2727.

HE L Y, LIU J H, LI G,etal.. Fast image registration approach based on improved BRISK [J].InfraredandLaserEngineering, 2014, 43(8): 2722-2727. (in Chinese)

[12]王志強, 程紅, 李成, 等. 全局圖像配準(zhǔn)的目標(biāo)快速定位方法[J]. 紅外與激光工程, 2015, 44(s): 225-229.

WANG ZH Q, CHENG H, LI CH,etal.. Fast target location method of global image registration [J].InfraredandLaserEngineering, 2015, 44(s): 225-229. (in Chinese)

[13]丘文濤, 趙建, 劉杰. 結(jié)合區(qū)域分割的圖像SIFT匹配方法[J]. 液晶與顯示, 2012, 27(6): 827-831.

QIU W T, ZHAO J, LIU J. Image matching algorithm combining SIFT with region segmentation[J].ChineseJournalofLiquidCrystalsandDisplays, 2012, 27(6): 827-831. (in Chinese)

[14]王燦進, 孫濤, 陳娟. 局部不變特征匹配的并行加速技術(shù)研究[J]. 液晶與顯示, 2014, 29(2): 266-274.

WANG C J, SUN T, CHEN J. Speeding up local invariant feature matching using parallel technology [J].ChineseJournalofLiquidCrystalsandDisplays, 2014, 29(2): 266-274. (in Chinese)

[15]VAPNIKVN.TheNatureofStatisticalLearningTheory[M]. New York : Springer-Berlag, 1995.

[16]LOWE G D. Object recognition from local scale-invariant features [C].IEEEInternationalConferenceonComputerVision, 1999:1150-1157.

[17]王睿, 朱正丹. 融合全局-顏色信息的尺度不變特征變換[J]. 光學(xué) 精密工程,2015, 23(1): 295-301.

WANG R, ZHU ZH D. SIFT matching with color invariant characteristics and global context[J].Opt.PrecisionEng., 2015, 23(1):295-301. (in Chinese)

[18]ACHANTA R, SHAJI A, SMITH K,etal.. SLIC superpixels compared to state-of-the-art superpixel methods [J].IEEETransactiononPatternAnalysisandMachineIntelligence, 2012, 34(11): 2274-2282.

[19]ROUSE J W, HAAS R H, SCHELL J A,etal.. Monitoring the vernal advancement of natural vegetation, Final report[R].NASA/GCSFC,Greenbelt,MD, 1974.

[20]PESARESI M, GERHARDINGER A, KAYITAKIRE F. A robust built-up area presence index by anisotropic rotation-invariant textural measure [J].IEEEJournalofSelectedTopicsinAppliedEarthObservationsandRemoteSensing, 2008, 1(3): 180-192.

[21]KOVACS A, SZIRANYI T. Improved harris feature point set for orientation-sensitive urban-area detection in aerial images [J].IEEEGeoscienceandRemoteSensingLetter, 2013, 10(4): 796-800.

[22]黃昕. 高分辨率遙感影像多尺度紋理、形狀、特征提取與面向?qū)ο蠓诸惙椒ㄑ芯縖D]. 武漢: 武漢大學(xué), 2009.

HUANG X.Multi-scaletextureandshapefeatureextractionandobject-orientedclassificationforveryhighresolutionremotelysensedimagery[D]. Wuhan: Wuhan University,2009. (in Chinese)

溫奇(1983-),男,山西洪洞人,博士,副研究員,2004年于北京理工大學(xué)獲得學(xué)士學(xué)位,2009年于中國科學(xué)院遙感應(yīng)用研究所獲得博士學(xué)位,主要從事高分辨率遙感減災(zāi)應(yīng)用方面的研究。E-mail: whistlewen@aliyun.com

王薇(1974-),女,浙江安吉人,博士,副研究員,2006年于中國科學(xué)院地理科學(xué)與資源研究所獲得博士學(xué)位,主要從事災(zāi)害遙感應(yīng)用方面的研究。E-mail:wangwei@ndrcc.gov.cn

(版權(quán)所有未經(jīng)許可不得轉(zhuǎn)載)

Extraction of built-up area in plain from high resolution remote sensing images

WEN Qi1*,WANG Wei1,LI Ling-ling1,MEI Li-qin2,TAN Yi-hua2

(1.National Disaster Reduction Center of China,Beijing 100124,China;2.CollegeofAutomation,HuazhongUniversityofScienceandTechnology,Wuhan430074,China)*Correspondingauthor,E-mail:whistlewen@aliyun.com

By analyzing the textural features and local key points of the built-up area in a plain from high resolution remote sensing images, a method to extract the built-up area in the plain was proposed based on multi-core learning, multi-scale segmentation and multi-hypothesis voting. With the proposed method, MR8 texture characteristics and Scale Invariant Feature Transform (SIFT) algorithmwere used to extract the built-up area, and multi-characteristics was fused to implement the learning and classification to improve the robustness and stability of classifiers and to enhance the detection accuracy. Then, based on the pixel segmentation and multi-hypothesis voting, the discriminant result based on image blocks was translated into test result based on pixels to completely eliminate the block effect and to make the target area showing precise edges and shapes. The proposed method has been validated in GF-1 satellite images. The results show that the average detection precision, average recall rate and the averageF-measure of the method have been achieved above 80%, 85% , and 80%, respectively. Moreover, its comprehensive performance is better than that of other methods. These results demonstrate the feasibility and accuracy of this method. As extraction precision of the built-up area has been to be the pixel level and the leak detection and error detection have been avoided, the built up area images extracted are very accurate.

high resolution remote sensing image; extraction of built-up area in plain; multi-hypothesis voting; multi-kernel learning; multi-scale segmentation

2016-06-13;

2016-08-14.

國家自然科學(xué)基金資助項目(No.41301485);國家科技重大專項資助項目;國家863計劃資助項目(No.2013AA122104)

1004-924X(2016)10-2557-08

TP751;TP79

Adoi:10.3788/OPE.20162410.2557

猜你喜歡
特征檢測方法
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
不忠誠的四個特征
抓住特征巧觀察
小波變換在PCB缺陷檢測中的應(yīng)用
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 欧美成人手机在线观看网址| 国内毛片视频| 四虎永久免费地址| 国产高清精品在线91| 91福利片| 色网在线视频| 国产精品久久久精品三级| 久久免费看片| 激情爆乳一区二区| 永久免费无码成人网站| 亚洲欧美日韩动漫| 亚洲男人天堂久久| 欧美日韩成人在线观看| 欧美日韩久久综合| 色亚洲成人| 97无码免费人妻超级碰碰碰| 九色视频最新网址| 精品福利国产| 男女男精品视频| 免费aa毛片| 亚洲视频四区| 国产丰满成熟女性性满足视频| 国产在线观看成人91| 极品尤物av美乳在线观看| 91成人免费观看在线观看| 天天操精品| 欧美.成人.综合在线| 九九这里只有精品视频| 久久久噜噜噜| 久久精品欧美一区二区| 国产又色又刺激高潮免费看| 国产在线自乱拍播放| 无码区日韩专区免费系列| 中文字幕人成人乱码亚洲电影| a级毛片一区二区免费视频| 91国内在线观看| 中文精品久久久久国产网址| 欧美成人一区午夜福利在线| 欧美色综合网站| 狠狠干欧美| 午夜天堂视频| 国产亚洲精品无码专| 麻豆AV网站免费进入| a级毛片免费看| 免费va国产在线观看| 成人午夜视频网站| 欧美亚洲一二三区| 91小视频在线| 91激情视频| 亚洲福利片无码最新在线播放| 国产自在线播放| 日韩麻豆小视频| 日本色综合网| 国产福利观看| 亚洲欧洲自拍拍偷午夜色| 国产成人亚洲精品蜜芽影院| 欧美亚洲香蕉| 亚洲欧美一区在线| 日韩午夜福利在线观看| 久久精品午夜视频| 欧美特黄一级大黄录像| 亚洲香蕉久久| 国产成人超碰无码| 久久久精品无码一二三区| 久久久无码人妻精品无码| 国产一级妓女av网站| 免费看一级毛片波多结衣| 亚洲激情99| 91小视频版在线观看www| 欧美自慰一级看片免费| 国模视频一区二区| 国产精品国产三级国产专业不| yy6080理论大片一级久久| 日本三区视频| 美女免费精品高清毛片在线视| 91在线精品麻豆欧美在线| 成人字幕网视频在线观看| 有专无码视频| 麻豆国产原创视频在线播放| 91精品国产麻豆国产自产在线| 日韩欧美国产区| 欧美97色|