999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于顯著區(qū)域檢測(cè)的SURF特征匹配優(yōu)化算法

2017-04-13 01:42:04謙,吳
軟件導(dǎo)刊 2017年3期
關(guān)鍵詞:特征區(qū)域檢測(cè)

陳 謙,吳 清

(1.河北工業(yè)大學(xué) 計(jì)算機(jī)科學(xué)與軟件學(xué)院;2.河北省大數(shù)據(jù)計(jì)算重點(diǎn)實(shí)驗(yàn)室,天津 300401)

基于顯著區(qū)域檢測(cè)的SURF特征匹配優(yōu)化算法

陳 謙1,2,吳 清1,2

(1.河北工業(yè)大學(xué) 計(jì)算機(jī)科學(xué)與軟件學(xué)院;2.河北省大數(shù)據(jù)計(jì)算重點(diǎn)實(shí)驗(yàn)室,天津 300401)

針對(duì)傳統(tǒng)SURF匹配算法在特征點(diǎn)選取階段選取了大量不符合匹配預(yù)期的特征點(diǎn),增加了后期匹配的運(yùn)算復(fù)雜度,提出一種SURF算子和顯著區(qū)域檢測(cè)相結(jié)合的方法。為使檢測(cè)出的極值點(diǎn)和預(yù)期匹配的目標(biāo)更加接近,用SURF算子構(gòu)建出尺度空間圖像后對(duì)該空間作顯著區(qū)域檢測(cè),再對(duì)特征點(diǎn)賦顯著度權(quán)值并通過孤立點(diǎn)剔除和局部冗余篩選出目標(biāo)點(diǎn),篩選后的特征點(diǎn)比傳統(tǒng)方法得到的特征點(diǎn)數(shù)量明顯減少,在降低時(shí)間復(fù)雜度的同時(shí)匹配精度提高了18%。特征匹配時(shí)引入RANSAC算法剔除誤匹配點(diǎn)對(duì),對(duì)匹配結(jié)果作進(jìn)一步修正。實(shí)驗(yàn)表明,與傳統(tǒng)SURF算法比較,改進(jìn)算法在實(shí)時(shí)性和匹配精度方面均更優(yōu)。

SURF算法;顯著區(qū)域檢測(cè);尺度空間;特征值;匹配精度;RANSAC算法

0 引言

隨著圖像處理、機(jī)器視覺等相關(guān)領(lǐng)域技術(shù)的快速發(fā)展,特征匹配得到了廣泛應(yīng)用。在圖像匹配方法中,特征點(diǎn)的提取及匹配方法已有很多研究成果。 Forstner算子[1]、Harris算子[2]、Moravec算子[3]、SIFT(scale invariant feature transform)算子[4]等都是比較常用的特征點(diǎn)提取算子。其中,SIFT算子是由David G·Lowe提出的一種基于局部特征的描述方法,但許多研究實(shí)驗(yàn)表明SIFT算法存在著128維的特征描述符,計(jì)算復(fù)雜度較高、實(shí)時(shí)性差、誤匹配較多。SURF(speeded up robust features)算法[5]是SIFT算法的快速改進(jìn)方法,雖然都具有對(duì)尺度和旋轉(zhuǎn)的魯棒性[6],但相關(guān)實(shí)驗(yàn)表明,SURF算法采用二維Haar小波響應(yīng)、積分圖像和Hession矩陣相結(jié)合實(shí)現(xiàn)算法加速,比SIFT算法效率提升了3~5倍。

但是上述方法都存在特征點(diǎn)提取準(zhǔn)確度低和誤匹配的問題,為了減少不符合匹配預(yù)期特征點(diǎn)的個(gè)數(shù),使提取的特征點(diǎn)與人眼觀察的特征點(diǎn)相近。本文主要開展了以下幾方面的工作:為了提高SURF算子主方向精度,提出了為Haar小波響應(yīng)增加梯度權(quán)值來改變扇形區(qū)域內(nèi)各特征點(diǎn)的價(jià)值貢獻(xiàn)度;為了改善特征點(diǎn)選取,刪除信息含量較低和冗余的點(diǎn),提出了基于顯著圖、孤立點(diǎn)剔除、局部冗余三級(jí)特征點(diǎn)價(jià)值評(píng)價(jià)策略;為了降低匹配錯(cuò)誤率,對(duì)匹配結(jié)果進(jìn)行了RANSAC匹配檢驗(yàn)。

1 SURF特征點(diǎn)提取與匹配

SURF描述子包含兩個(gè)主要部分:檢測(cè)關(guān)鍵點(diǎn)和計(jì)算特征。檢測(cè)關(guān)鍵點(diǎn)采用快速Hession檢測(cè)算法,特征描述采用Haar小波圓形區(qū)域方向直方圖特征作為主特征,通過建立特征點(diǎn)附近區(qū)域內(nèi)的信息作為細(xì)節(jié)描述子。

1.1 Hession矩陣檢測(cè)特征點(diǎn)

設(shè)圖像I(X)的某一像素點(diǎn)為X=(x,y),則尺度為σ的Hessian矩陣H(X,σ)定義為[7]:

(1)

其中,Lxx(X,σ)是二階高斯濾波?2/?x2g(σ)與圖像點(diǎn)X的卷積。同理,可計(jì)算Lxy(X,σ) 和Lyy(X,σ)。但是在實(shí)際處理中,離散化高斯濾波器會(huì)有一些走樣,所以采用 Bay等提出的盒濾波來近似高斯濾波。

如圖1所示,采用該方法計(jì)算卷積時(shí),其計(jì)算量與濾波器大小無關(guān),可以極大程度地提高算法執(zhí)行速度。圖1第一行中x、y和xy方向的離散二階斯導(dǎo)數(shù)用Lxx、Lyy和Lxy表示;第二行中x、y和xy方向的加權(quán)盒濾波器近似用Dxx、Dyy和Dxy表示。

當(dāng)用σ= 1.2的高斯二階微分濾波,模板尺寸為99最為最小的尺度空間值對(duì)圖像進(jìn)行濾波和斑點(diǎn)檢測(cè),Hession矩陣的行列式可作如下簡(jiǎn)化:

(2)

另外,響應(yīng)值還要根據(jù)濾波器大小進(jìn)行歸一化處理,以保證任意大小濾波器的F范數(shù)是統(tǒng)一的。

圖1 利用盒濾波器來近似高斯濾波器

1.2 構(gòu)造SURF特征主方向和描述子

利用非極大值抑制初步確定特征點(diǎn),然后采用三維線性插值法得到亞像素級(jí)的特征點(diǎn)。再統(tǒng)計(jì)特征點(diǎn)鄰域內(nèi)的Haar小波特征,選取最大值扇形的方向作為該特征點(diǎn)的主方向。最后在特征點(diǎn)周圍取一個(gè)帶方向正方形框,然后把該框分為16個(gè)子區(qū)域,每個(gè)子區(qū)域統(tǒng)計(jì)25個(gè)像素的水平方向dx和垂直方向dy的Haar小波特征。原理如圖2所示。

圖2 特征點(diǎn)描述算子構(gòu)造

2 頻率調(diào)諧顯著區(qū)域檢測(cè)算法

為了和SURF算法進(jìn)行有機(jī)結(jié)合,本文選擇復(fù)雜度較低的頻率調(diào)諧顯著檢測(cè)算法[8],算法中使用的高斯濾波器和尺度空間每一層使用的濾波器均相同,并隨著層數(shù)的增加,不斷擴(kuò)大濾波器的尺寸。算法主要步驟如下:

(1)設(shè)輸入圖像為Iw×h,其中w為圖像寬度,h為圖像高度。用高斯濾波器對(duì)圖像進(jìn)行平滑處理,得到新的圖像Ig,其計(jì)算公式如下:

(3)

(2)將圖像Ig從RGB模型轉(zhuǎn)換到Lab模型。對(duì)每個(gè)特征分別計(jì)算其整體均值得到均值圖像Iμ=[Lμ,aμ,bμ],同時(shí)對(duì)各特征高斯平滑,得到平滑后的圖像為:

(4)

(3)計(jì)算得到顯著圖區(qū)域,即最終的顯著圖S(x,y):

(5)

算法過程如圖3所示。

3 融合顯著區(qū)域檢測(cè)的SURF算法

單純的SURF匹配算法存在特征點(diǎn)過選取的問題,為此本文融合顯著區(qū)域檢測(cè)的方法,可以有效減少SURF算法中無意義的特征點(diǎn),使匹配效率得到大幅提升。

圖3 頻率調(diào)諧顯著圖檢測(cè)步驟

3.1 構(gòu)建尺度空間

首先構(gòu)建Hessian矩陣,利用式(2)得到近似Hessian矩陣行列式,使用該近似行列式來表示圖像中某一點(diǎn)x處的斑點(diǎn)響應(yīng)值,遍歷圖像中所有的像元點(diǎn),形成在該尺度下所有點(diǎn)檢測(cè)的響應(yīng)圖像。在建立金字塔圖像空間時(shí),采用不斷增大的盒子濾波器模板尺寸,形成多尺度斑點(diǎn)響應(yīng)的金字塔圖像,利用這一金字塔圖像,基于文獻(xiàn)[9]中的思想進(jìn)行斑點(diǎn)響應(yīng)極值點(diǎn)搜索[9]。設(shè)金字塔濾波器響應(yīng)長度l、濾波器尺寸S、組索引o、層索引t和尺度σ,有:

(6)

(7)

(8)

在進(jìn)行尺度分析的情況下,隨著尺度不斷增大,被檢測(cè)到的斑點(diǎn)數(shù)量迅速衰減。本文實(shí)驗(yàn)中的金字塔只建立到第三層,由于粗尺度上選取特征點(diǎn)的數(shù)量通常相對(duì)較少,所以在第二層和第三層可以采用隔點(diǎn)濾波,從而進(jìn)一步加快運(yùn)算效率。

3.2 顯著區(qū)域檢測(cè)及特征點(diǎn)精確定位

通過顯著區(qū)域檢測(cè)使特征點(diǎn)分布更加趨近顯著區(qū),但是依然存在特征點(diǎn)數(shù)量大和質(zhì)量差的問題。為此,本文建立了以下三級(jí)價(jià)值評(píng)價(jià)策略,可以不斷優(yōu)化特征點(diǎn)數(shù)目,提高匹配精度。

3.2.1 基于顯著圖的特征點(diǎn)價(jià)值評(píng)價(jià)策略

SURF算子拋棄了SIFT算子中圖像金字塔構(gòu)建過程中輸入圖像反復(fù)與高斯函數(shù)的核卷積,并反復(fù)對(duì)其進(jìn)行二次抽樣,可避免大量的重復(fù)操作。

在此基礎(chǔ)上,本文通過對(duì)各級(jí)尺度空間圖像上作顯著性區(qū)域檢測(cè)得到尺度空間顯著圖,結(jié)合基于顯著圖的特征點(diǎn)價(jià)值評(píng)價(jià)策略為每個(gè)提取到的特征點(diǎn)分配相應(yīng)的權(quán)值。具體處理過程可分為以下兩步:首先,對(duì)顯著性區(qū)域檢測(cè)后的顯著圖作灰度圖歸一化;其次利用提取到的特征點(diǎn)響應(yīng)值和歸一化灰度圖中該點(diǎn)的灰度值相乘,得到新的特征值作為評(píng)價(jià)標(biāo)準(zhǔn)。基于該策略使得處于顯著區(qū)域的特征點(diǎn)特征得到增強(qiáng),處于背景區(qū)的特征點(diǎn)特征被削弱。

3.2.2 基于孤立點(diǎn)剔除的特征點(diǎn)價(jià)值評(píng)價(jià)策略

雖然通過顯著圖可以篩去大量處于背景中的特征點(diǎn),但仍有一部分顯著區(qū)外特征值較低的離散特征點(diǎn)無法去除。為此,本文采用基于孤立點(diǎn)剔除的策略解決這一問題。在特征點(diǎn)方向分配中,以特征點(diǎn)為中心,計(jì)算半徑為6s(s為特征點(diǎn)所在的尺度值)的鄰域內(nèi)的點(diǎn)在x、y方向的Haar小波響應(yīng),在此Haar小波邊長取4s[10]。

孤立點(diǎn)是在低密度區(qū)域中的特征點(diǎn),且認(rèn)為一個(gè)數(shù)據(jù)集中若存在孤立點(diǎn),那么孤立點(diǎn)的密度會(huì)小于平均密度[11]。下面定義每個(gè)對(duì)象密度的計(jì)算方法,標(biāo)準(zhǔn)化原始數(shù)據(jù)集后,計(jì)算n個(gè)對(duì)象兩兩之間的距離di,j,形成距離矩陣R:

(9)

設(shè)所有對(duì)象的平均距離為D,為與平均密度的定義保持一致,在計(jì)算每個(gè)對(duì)象i的對(duì)象密度時(shí),將有效直徑延長至原來的3倍,以3D為單位封閉區(qū)間的面積,掃描數(shù)據(jù)矩陣R,計(jì)算每個(gè)對(duì)象單位封閉區(qū)間的對(duì)象數(shù)Ci,也就是與對(duì)象i間距離小于3D/2的對(duì)象點(diǎn)數(shù)目。因此,每個(gè)對(duì)象i的對(duì)象密度為:

(10)

但是復(fù)雜的對(duì)象密度計(jì)算犧牲了大量時(shí)間復(fù)雜度,影響了算法整體效率,在此對(duì)算法作以下簡(jiǎn)化:

(1)計(jì)算出單位面積圖像中特征點(diǎn)密度d。

(2)統(tǒng)計(jì)以特征點(diǎn)Si為中心,半徑6s(s為特征點(diǎn)所在的尺度值)的范圍內(nèi)特征點(diǎn)數(shù)量m。

當(dāng)該特征點(diǎn)為孤立點(diǎn)時(shí)剔除該孤立點(diǎn),否則保留,如圖4所示d1~d5五個(gè)孤立點(diǎn)將被剔除。

圖4 孤立特征點(diǎn)檢測(cè)示意圖

3.2.3 基于局部冗余的特征點(diǎn)價(jià)值評(píng)價(jià)策略

以特征點(diǎn)為中心,張角為的扇形區(qū)域滑動(dòng),計(jì)算窗口內(nèi)的Harr小波響應(yīng)值dx、dy的累加,在累加過程中由于距離中心越遠(yuǎn)的點(diǎn)對(duì)特征點(diǎn)的影響越小,實(shí)驗(yàn)中通過為Haar小波響應(yīng)增加梯度權(quán)值使得主方向的計(jì)算更加精準(zhǔn)。

生成特征描述子后,特征點(diǎn)在顯著區(qū)域分布較為緊密,匹配時(shí)互相干擾太大,為此需進(jìn)一步對(duì)局部冗余的特征點(diǎn)進(jìn)行篩除。將以特征點(diǎn)為中心,M(可根據(jù)圖片分辨率和期望獲得的特征點(diǎn)個(gè)數(shù)確定,本文M取3s)為半徑范圍內(nèi)的特征點(diǎn)全部去除,確保局部只有一個(gè)有效特征點(diǎn),降低了相似點(diǎn)之間的干擾,提高了匹配精度。

3.3 RANSAC算法剔除誤匹配點(diǎn)

RANSAC算法的基本假設(shè)是樣本數(shù)據(jù)中包含正確數(shù)據(jù),也包含異常數(shù)據(jù),即數(shù)據(jù)集中含有噪聲[12]。這些異常數(shù)據(jù)可能是由于多種因素導(dǎo)致,包括錯(cuò)誤的測(cè)量、假設(shè)或計(jì)算等產(chǎn)生的。SURF匹配算法中,這些異常數(shù)據(jù)可能由 SURF算法進(jìn)行預(yù)匹配產(chǎn)生的錯(cuò)誤或者誤差比較大的匹配導(dǎo)致的。

3.3.1 RANSAC算法

本文采用RANSAC算法,實(shí)現(xiàn)步驟如下:

(1)通過選取總數(shù)為n的最小抽樣集(n為初始化所需最小樣本數(shù))和樣本集P(P樣本集大于n),在P樣本集中隨機(jī)選取n個(gè)樣本數(shù)據(jù),得到P的子集S,用來對(duì)模型M進(jìn)行初始化。

(2)得到的余集為SC=P/S,此樣本集與模型M的誤差小于某一閾值t(t為預(yù)設(shè)值)的樣本集合與S構(gòu)成集合S*。S*是內(nèi)點(diǎn)集,它們構(gòu)成S的一致集。

(3)如果#(S*)>=N,認(rèn)為模型參數(shù)正確,并利用集S*,采用最小二乘法重新計(jì)算新的模型M*。重新隨機(jī)抽取新的子集S,并重復(fù)以上操作。

(4)反復(fù)對(duì)樣本進(jìn)行抽樣,一定次數(shù)后如果沒有找到一致集,則算法失敗;反之,根據(jù)最大一致集判斷內(nèi)外點(diǎn),直到算法結(jié)束。

3.3.2 SURF算法與 RANSAC算法結(jié)合

為了通過RANSAC算法可以有效剔除誤匹配點(diǎn),具體過程如下:首先,從SURF算法預(yù)匹配結(jié)果中隨機(jī)取出一些特征匹配點(diǎn)對(duì),計(jì)算出變換矩陣;再根據(jù)得到的變換矩陣遍歷預(yù)匹配中得到的所有匹配對(duì),計(jì)算所有預(yù)匹配對(duì)中在特定閾值下滿足該變換矩陣模型的百分比。重復(fù)上面的過程n次,比較每個(gè)變換矩陣下滿足該模型的匹配對(duì)百分比,選取對(duì)應(yīng)百分比最大的矩陣作為最終得到的最佳變換矩陣。將在該最佳變換下誤差大于特定閾值的特征匹配對(duì)去除。再用去除后的特征匹配對(duì)重復(fù)上述步驟m次。

匹配過程具體參數(shù)設(shè)置如下:a是通過SURF算法預(yù)匹配后得到的特征匹配點(diǎn)對(duì)數(shù);b是通過RANSAC算法進(jìn)行去污匹配后所剩下的特征匹配點(diǎn)對(duì)數(shù)。當(dāng)滿足式(11)關(guān)系時(shí)放棄所有的匹配點(diǎn)對(duì),整個(gè)過程找出來的匹配點(diǎn)對(duì)數(shù)則為0[13]。

(11)

整個(gè)匹配過程如下:分別讀入兩幅圖像,對(duì)兩個(gè)圖像進(jìn)行特征點(diǎn)匹配,當(dāng)兩個(gè)圖像中找到的匹配點(diǎn)正好為對(duì)方的時(shí)候匹配成功,否則匹配失敗,然后用RANSAC算法去除預(yù)匹配中的誤匹配。

4 實(shí)驗(yàn)結(jié)果分析

本文算法用MATLAB R2012a實(shí)現(xiàn)。本文考慮了光照、旋轉(zhuǎn)、縮放等多種因素,選擇了大量的實(shí)驗(yàn)圖片,比較了傳統(tǒng)SURF算法與本文算法在特征點(diǎn)匹配性能上的差異。

4.1 頻率調(diào)諧顯著區(qū)域檢測(cè)實(shí)驗(yàn)結(jié)果

頻率調(diào)諧算法處理過程簡(jiǎn)單有效,圖5給出了所做實(shí)驗(yàn)中幾幅圖像的處理結(jié)果,其中(a)、(c)為原圖,(b)、(d)為顯著性檢測(cè)后的結(jié)果。可以看出頻率調(diào)諧算法有很好的特征區(qū)域提取效果。為了避免在Lab空間3個(gè)均值圖像分量進(jìn)行特征融合時(shí),灰度值有可能超過有效顯示范圍的問題,本文對(duì)顯著圖的結(jié)果進(jìn)行了歸一化處理。

圖5 顯著圖檢測(cè)結(jié)果

4.2 本文算法得到的特征點(diǎn)結(jié)果

基于得到的顯著圖,利用本文提出的分級(jí)篩選機(jī)制,對(duì)特征點(diǎn)進(jìn)行提取實(shí)驗(yàn)。圖6所示為其中的一幅圖像的實(shí)驗(yàn)結(jié)果,其中,(a)為原圖,(b)為傳統(tǒng)方法得到的特征點(diǎn),(c)為通過顯著圖篩選后的特征點(diǎn),(d)為通過孤立點(diǎn)剔除篩選后的特征點(diǎn),(e)為通過局部冗余篩選后的特征點(diǎn)。可以看出,隨著特征點(diǎn)分布的不斷優(yōu)化,沒有分布在顯著區(qū)域中的缺少匹配價(jià)值的點(diǎn)、處在背景區(qū)里孤立的點(diǎn)、相似度較高的冗余點(diǎn)相繼被篩除,留下了最具有匹配價(jià)值的點(diǎn),從而使特征點(diǎn)的精度和質(zhì)量得到提高。另外,由于特征點(diǎn)的減少,計(jì)算時(shí)間和最終匹配效率都得到了優(yōu)化。

圖6 特征點(diǎn)篩選結(jié)果

由表1可以得出,提取的特征點(diǎn)越多,所用的時(shí)間越多。因此采用本文算法來減少特征點(diǎn)提取個(gè)數(shù)在時(shí)間效率方面有很大改善。

表1 SURF算法時(shí)間分配比較

4.3 融合后的SURF匹配

特征點(diǎn)選取直接影響SURF算法的運(yùn)算復(fù)雜度,如圖7所示,其中,(a)為傳統(tǒng)的SURF匹配結(jié)果,(b)為本文改進(jìn)的SURF方法匹配結(jié)果。本文提出的算法更加優(yōu)化了特征點(diǎn)的選擇,特征點(diǎn)數(shù)量得到了控制,減少了特征點(diǎn)描述子生成的時(shí)間。而且進(jìn)一步的匹配實(shí)驗(yàn)結(jié)果表明,通過本文算法可以最大程度保證特征點(diǎn)落在視覺更加顯著的有效區(qū)域內(nèi)。

圖7 實(shí)驗(yàn)結(jié)果對(duì)比

在特征向量匹配時(shí),采用最簡(jiǎn)單的兩向量?jī)?nèi)積最大值為最匹配的點(diǎn),設(shè)定閾值n,只有當(dāng)這個(gè)最大值大于該閾值方可認(rèn)為兩特征點(diǎn)匹配,通過優(yōu)化后的匹配點(diǎn)選擇,找到了相似性更高的匹配點(diǎn),降低了誤匹配。最后再通過RANSAC算法對(duì)特征匹配點(diǎn)對(duì)進(jìn)行檢測(cè),篩選出錯(cuò)誤的匹配,進(jìn)一步優(yōu)化匹配效果。

根據(jù)表2可得,傳統(tǒng)SURF算法的效率和準(zhǔn)確率都有缺陷,本文算法在這兩方面都進(jìn)行了優(yōu)化,尤其是在匹配準(zhǔn)確率上得到了較大的優(yōu)化,比傳統(tǒng)算法平均準(zhǔn)確率提升了18%以上。

表2 本文算法與傳統(tǒng)SURF匹配對(duì)比結(jié)果

5 結(jié)語

傳統(tǒng)SURF匹配算法存在的不足,通過本文提出的方法得到了有效解決。顯著性區(qū)域檢測(cè)和特征點(diǎn)篩選使得特征點(diǎn)的數(shù)量有效減少,特征描述子和匹配速度得到了一定提升,RANSAC算法檢測(cè)使得匹配過程中出現(xiàn)的誤匹配進(jìn)一步得到優(yōu)化。但是實(shí)驗(yàn)結(jié)果對(duì)顯著區(qū)域檢測(cè)結(jié)果有一定的依賴,所以本文提出的方法在目標(biāo)相對(duì)顯著的圖像中能夠達(dá)到更好的效果。

[1] FRSTNER W,GLCH E. A fast operator for detection and precise location of distinct points, corners and circular features[C]. ISPRS intercommission conference on fast processing of photogrammetric data,1987:281-305.

[2] HARRIS C.A combined corner and edge detector[C].Alvey Vision Conference,1988:147-151.

[3] MOREVEC H P. Towards automatic visual obstacle avoidance[C].International Joint Conference on Artificial Intelligence.1977:584-584.

[4] LOWE D G. Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(60):91-110.

[5] BAY H,TUYTELAARS T,GOOL L V. SURF:speeded up robust features[J].Computer Vision & Image Understanding,2006,110(3):404-417.

[6] CECCARELLI M,MUSACCHIA F,PETROSINO A.A fuzzy scale-space approach to feature-based image representation and retrieval[M].Brain, Vision, and Artificial Intelligence. Springer Berlin Heidelberg, 2005:377-385.

[7] SCHLEICHER J,TYGEL M,HUBRAL P I.Hessian matrices[M].Society of Exploration Geophysicists, 2007.

[8] ACHANTA R, HEMAMI S, ESTRADA F, et al. Frequency-tuned salient region detection[C].IEEE International Conference on Computer Vision and Pattern Recognition (CVPR 2009).2009:1597-1604.

[9] CHEUNG W,HAMARNEH G.Dimensional scale invariant feature transform[J].IEEE Transactions on Image Processing,2009,18(9):2012-2021.

[10] NANDI S,GUHA P,VENKATESH K S.Objects from animacy:joint discovery in shape and haar feature space[C].Computer Vision, Graphics & Image Processing, 2008. ICVGIP '08. Sixth Indian Conference on. 2008:730-737.

[11] 陸聲鏈, 林士敏. 基于距離的孤立點(diǎn)檢測(cè)及其應(yīng)用[J]. 計(jì)算機(jī)與數(shù)字工程, 2004, 32(5):94-97.

[12] LEBEDA K,MATAS J,CHUM O.Fixing the locally optimized RANSAC[C].British Machine Vision Conference,2012.

[13] 陳藝蝦,孫權(quán)森,徐煥宇,等.SURF算法和RANSAC算法相結(jié)合的遙感圖像匹配方法[J].計(jì)算機(jī)科學(xué)與探索,2012,6(9):822-828.

(責(zé)任編輯:陳福時(shí))

河北省自然科學(xué)基金項(xiàng)目(F2015202239);天津市科技計(jì)劃項(xiàng)目(14RCGFGX00846)

陳謙(1991-),男,陜西興平人,河北工業(yè)大學(xué)計(jì)算機(jī)科學(xué)與軟件學(xué)院碩士研究生,研究方向?yàn)閳D像處理和模式識(shí)別;吳清(1965-),女,湖北鐘祥人,博士,河北工業(yè)大學(xué)計(jì)算機(jī)科學(xué)與軟件學(xué)院教授,研究方向?yàn)閳D像處理和模式識(shí)別。

10.11907/rjdk.162587

TP312

A

1672-7800(2017)003-0022-04

猜你喜歡
特征區(qū)域檢測(cè)
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
如何表達(dá)“特征”
不忠誠的四個(gè)特征
抓住特征巧觀察
小波變換在PCB缺陷檢測(cè)中的應(yīng)用
關(guān)于四色猜想
分區(qū)域
基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
主站蜘蛛池模板: 91久久偷偷做嫩草影院精品| 日韩AV无码免费一二三区| 国产制服丝袜91在线| 国产又大又粗又猛又爽的视频| 国产va在线观看免费| 成年看免费观看视频拍拍| jijzzizz老师出水喷水喷出| 国产视频入口| 国产屁屁影院| a天堂视频在线| 中文字幕一区二区视频| 国内精品手机在线观看视频| 欧美精品黑人粗大| 国产又爽又黄无遮挡免费观看| 免费又爽又刺激高潮网址| 亚洲欧美日韩天堂| 久久99蜜桃精品久久久久小说| 欧美午夜精品| 亚洲精品少妇熟女| 精品视频在线一区| 久久久久久尹人网香蕉| 在线视频亚洲色图| 伊人精品视频免费在线| 免费国产福利| 亚洲午夜国产精品无卡| 欧美成人二区| 精品国产香蕉在线播出| 久久精品视频一| 国产麻豆精品在线观看| 国产人前露出系列视频| 国产尤物在线播放| 男女猛烈无遮挡午夜视频| 色丁丁毛片在线观看| 在线日韩一区二区| 2022国产无码在线| 亚洲A∨无码精品午夜在线观看| 自偷自拍三级全三级视频| 亚洲精品无码人妻无码| 亚欧美国产综合| 91久久国产成人免费观看| 成年人视频一区二区| 国产欧美日韩综合在线第一| 久久婷婷色综合老司机| 在线观看免费人成视频色快速| 中国毛片网| 农村乱人伦一区二区| 波多野结衣视频一区二区| 国产欧美另类| 精品三级在线| 91成人试看福利体验区| 亚洲国产中文精品va在线播放| 超碰精品无码一区二区| 日本中文字幕久久网站| 欧美精品二区| 日本中文字幕久久网站| 亚洲人在线| 国产成人亚洲精品色欲AV| 精品国产自在现线看久久| 极品性荡少妇一区二区色欲| 九九久久精品国产av片囯产区| 国产chinese男男gay视频网| 黄色网址免费在线| 激情综合激情| 超清无码一区二区三区| 亚洲人成网线在线播放va| 一区二区在线视频免费观看| 亚洲黄色成人| 久久久成年黄色视频| 日韩高清在线观看不卡一区二区| 伊人久综合| 毛片视频网| 亚洲欧美色中文字幕| 欧美特级AAAAAA视频免费观看| 久久久波多野结衣av一区二区| 九色视频线上播放| 久久久久无码精品| 高清色本在线www| 亚洲日韩AV无码精品| 九九免费观看全部免费视频| 国产精品不卡片视频免费观看| 国产va欧美va在线观看| 亚洲AⅤ无码国产精品|