999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Harris-SIFT的移動機器人視覺定位*

2014-07-18 11:56:27
組合機床與自動化加工技術 2014年6期
關鍵詞:深度特征實驗

袁 亮

(新疆大學 機械工程學院,烏魯木齊 830047)

基于Harris-SIFT的移動機器人視覺定位*

袁 亮

(新疆大學 機械工程學院,烏魯木齊 830047)

目標識別和深度估計是移動機器人視覺定位的兩個難點問題。針對這兩個問題,文章提出了Harris-SIFT特征提取算法和基于尺度空間的深度估計算法。Harris-SIFT結合了SIFT(Scale Invariant Feature Transform)算法和Harris角點檢測器,去除SIFT得到的不具有顯著角點特征的特征點,以提高SIFT特征點集合的整體顯著性,從而改善匹配和識別效果。此外,Harris-SIFT只需要為部分SIFT特征點生成特征描述,縮短了計算時間,適合實時應用場合。基于尺度空間的深度估計算法通過計算參考圖和目標圖的特征尺度比,得到圖像中同一目標的近似尺寸比例,再結合參考圖中目標的深度信息,便可恢復出目標圖中目標的深度信息。實驗表明,在移動機器人自主導航過程中,基于Harris-SIFT的目標識別體系可以準確而有效地識別目標,同時尺度空間深度估計算法也能較準確地定位目標。結合Harris-SIFT和尺度空間深度估計算法可以很好地完成移動機器人視覺定位。

Harris-SIFT;尺度空間;深度估計;視覺定位

0 引言

在導航過程中,移動機器人需要精確知道自己(或障礙物)的當前位置,以完成局部實時避障或是全局規劃,這就是定位問題。自主移動機器人定位系統已有廣泛研究,一般應用傳感器感知的信息實現可靠的定位。近年來越來越多的定位系統使用了視覺傳感器,這是因為視覺圖像包含了目標的豐富信息,如顏色、紋理、形狀。借助計算機視覺理論,視覺系統可以準確識別目標,估計自身位姿。因此視覺定位系統對于自主移動機器人有著重要的研究意義和應用價值。但是,視覺定位的難點是:當視角、光照發生變化或存在遮擋時,如何從圖像中識別目標,提取有用信息;另外實時視頻圖像數據量很大,要求系統有較高的實時數據處理能力。

最近幾年,不變特征在目標識別和圖像匹配等應用領域上取得了巨大成功。Schmid和Mohr提出一種旋轉不變性特征檢測器用來解決一般的圖像識別問題[1]。Mikolajczyk和Schmid擴展了該思想,提出了具有尺度不變性的Harris-Laplace檢測器[2-3]。它先從固定尺度空間提取Harris角點,再使用Laplace尺度函數判斷角點的尺度是否為鄰域極大值。Harris-Laplace特征點具有比較好的尺度、仿射不變性,且實時性比較高,已成功應用于目標識別等領域。Jensfelt使用Harris-Laplace和SIFT描述特征進行目標識別,在室內環境下的vSLAM實驗中取得了比較好的結果[4]。David Lowe提出的SIFT(尺度不變特征變換)是目前比較流行且很成功的局部特征提取算法[5-6]。SIFT從尺度空間檢測特征點,再利用梯度塊構建特征描述。算法可以分為四部分:①尺度空間極值檢測;②特征點定位;③為特征點選擇主方向;④建立特征描述。研究表明[7-8],SIFT提取的特征點位置準確,具有良好的仿射、光照不變性,實時性較高,總體性能高于其它局部特征提取算子。目前SIFT已經成功應用于目標識別、圖像視頻檢索、全景拼接。此后一些學者對SIFT進行了改進。Ke和Sukthankar提出了PCA-SIFT[9]:對梯度圖像塊進行PCA變換后,將產生36維的向量作為特征描述,代替原來的SIFT描述。實驗表明,PCA-SIFT在特征匹配時速度比SIFT快,但特征不如SIFT顯著,且PCA計算量比較大[7]。Andrew Stein將目標背景信息加入SIFT的特征描述,以提高匹配的精度[10]。Michael使用積分圖像和積分直方圖實現SIFT,以提高SIFT的實時性[11]。Mikolajczyk提出的GLOH是SIFT特征描述的一種變體,具有比較好的顯著性,但計算量比較大。

本文提出一種SIFT的改進算法—Haris-SIFT。它使用Harris算子計算SIFT特征點的角點特征值,保留具有顯著角點特征的特征點,以提高SIFT特征點集合的整體顯著性,從而提高了匹配的準確性。實驗表明,Harris-SIFT的匹配分數高于SIFT和Harris-Laplace。另一方面,SIFT特征的計算復雜度比較高,且與特征點數量成正比,因此去除”不顯著”的特征點后,縮短了計算時間,提高了算法的實時性。

本文還提出了一種基于尺度空間的深度估計算法。它使用特征提取算子(如SIFT、Harris-Laplace等)從尺度空間提取特征點,每個特征點都賦予一個特征尺度,反映了目標的尺寸信息。通過匹配目標圖與參考圖,尋找匹配特征點對,計算相應的特征尺度比例,就可以得到目標的近似尺寸比例,從而估計出深度信息。與其它深度估計算法相比,如基于多視幾何的三角測量法、基于圖像結構的深度估計,本算法快速方便,具有較高的準確性,且只需要單目攝像頭。實驗表明,Harris-SIFT和尺度空間深度估計算法在室內機器人定位與導航實驗中應用得很成功,識別準確,定位可靠。

本文結構安排如下:第2部分介紹Harris-SIFT和基于尺度空間距離的估計算法;第3部分分析基于運動和結構的三維重建方法在機器人定位中的應用;第4部分介紹機器人定位與導航系統框架;并給出實驗結果和分析。最后,第5部分對本文提出的算法作出整體的評價和展望。

1 Harris-SIFT和尺度空間

1.1 Harris-SIFT

SIFT算法可以從圖像中有效地提取很多尺度不變特征點。對于一幅320×240的圖像,大約可以提取出400~1000個特征點。當圖像存在部分遮擋時,這些局部特征點可以有效識別目標。但特征點越多,計算量越大,不適合實時應用。另外,圖像發生較大的仿射形變時,匹配方法找到的特征點只是眾多SIFT特征點中的一小部分,或者說很大一部分SIFT特征點在實際匹配過程中不起作用,這是因為這些特征點不具備足夠的顯著性。它們一方面增加了生成特征點的計算量,另一方面也增加了特征點數據庫的容量和匹配復雜度,制約了算法的實時性。

上述問題與SIFT的尋找特征點的方法相關。SIFT從DoG中尋找特征點。Mikolajczyk的實驗表明,DoG生成的特征尺度不如Laplacian準確[2]。另一方面,DoG抑制了邊緣,適合提取blob結構,但邊緣和角點也具有豐富的信息,可以加以利用。Harris-Laplace算子正是結合了Harris角點和Laplacian尺度函數,得到比較可靠的特征點。不過,SIFT特征點的位置比Harris-Laplace精確,因為SIFT特征點為尺度空間鄰域內的極值點,且通過二次插值更為精確地修正了位置和特征尺寸。根據Lindeberg的尺度自動選擇理論[12]:尺度空間的極值點為穩定的特征點。因此SIFT特征點定位比較準確。而Harris角點與尺度空間的極值點不一定吻合,所以Harris-Laplace特征點定位不夠準確。Mikolajczyk提取一種迭代算法以改善Harris-Laplace的定位精確,但計算量會顯著提高[7]。

基于上述分析,本文提出的Harris-SIFT結合了Harris角點特征和SIFT特征點的優點,其目的是為了尋找具有顯著角點特征的SIFT特征點,以改善特征點集合的顯著性,提高匹配效果和算法實時性。與SIFT相同,算法首先尋找DoG中的極值點作為候選特征點,然后使用尺度空間自適應Harris算子計算候選特征點鄰域內各點的角點特征值(cornerness)[13]。公式如下:

(1)

cornerness=det(μ(x,σI,σD))-αtrace2(μ(x,σI,σD))

(2)

其中μ為尺度自適應的二階矩矩陣,σI為積分尺度,σD差分尺度,Lα為梯度算子。

如果候選特征點鄰域內最大角點特征值高于某個閾值,則認為該候選點具有顯著角點特征,是顯著的SIFT特征點,再為其生成SIFT特征描述,否則放棄該候選點。考查鄰域的理由在于:SIFT從以候選點為中心的梯度塊生成特征向量,充分包含了鄰域信息。若鄰域內存在顯著的角點特征,那么這些角點信息也會被引入SIFT特征描述。另一方面,Harris角點與DoG極值點可能不重合,只計算候選特征點的角點特征值就會丟失鄰域內的角點,從而丟失大量顯著特征點。選擇合適的鄰域半徑是個比較重要的問題,半徑過大,特征點顯著性降低,半徑過小,可能會丟失顯著特征點。實驗結果表明,半徑取2或3比較合適。

1.2 尺度空間深度估計

移動機器人視覺定位需要得到目標深度和位置信息,進而計算自身的位姿。傳統的多視幾何和極線幾何理論估計深度算法比較復雜,且容易引入誤差。本文提出的深度估計算法,在圖像發生較大的仿射形變、光照變化,或存在部分遮擋時,仍能較準確地得到目標圖像的深度信息,計算速度較快,且只需要單目攝像頭。

該算法基于Lindeberg的尺度自動選擇理論[12]。它的思想是為圖像中的結構選擇一個特征尺度,它由某個以尺度為自變量的函數確定,如LoG:

(3)

特征尺度與圖像的分辨率無關,只與圖像的結構相關,反映了結構在圖像中的尺寸。因此不同圖像中同一結構特征尺度的比例就近似反映了該結構圖像尺寸的比例。結構尺寸比例由深度變化引起,代表了深度比例,由此可以通過特征尺度估計深度信息。

深度估計的準確性,取決于特征點提取算法和匹配算法的有效性和可靠性。可以選擇Harris-SIFT(或SIFT)提取特征點,然后采用Lowe提出的匹配框架[5]:使用最近鄰居距離比原則選擇最佳匹配,再通過Hough變換檢測幾何一致性以去除誤匹配。如果特征點比較多,還可以為特征點集合建立kd-tree,再搜索最近鄰居,以加快匹配速度。

2 運動恢復結構和三維重建

利用多個視圖間的對應關系可以恢復出場景結構以及攝像機的運動軌跡,這便是運動恢復結構的問題。通過運動和結構分析還可以進一步得到場景中各個三維點的真實坐標,即三維重建。

三維重建的算法框架如下:

①從圖像中提取特征點;

②多幅圖像特征匹配;

③估計基礎矩陣;

④估計本征矩陣;

⑤三角測量法恢復3D坐標。

2.1 特征提取和匹配

特征提取和匹配是三維重建中的難點,一般提取角點再通過關聯搜索尋找匹配點對,但是角點仍不顯著,特別是不具有尺度不變性,Mikolajczyk提出的尺度自適應的角點算法可以提高角點的顯著性;另外,關聯搜索與窗口大小高度相關,且易受尺度變化、光照、仿射變換等因素的影響,從而產生誤匹配,對后續的基礎矩陣求解有很大的影響。本文使用Harris-SIFT算法提取特征點,再通過kd-tree和BBF算法快速搜索匹配點對,最后通過Hash Hough檢測一致性,去除誤匹配。實驗結果表明,這個算法流程得到的誤匹配點極少,誤匹配率低于5%,從而可以顯著提高基于RANSAC和MLE算法估計基礎矩陣的精確性和實時性。

2.2 基礎矩陣和本征矩陣

圖1 極線幾何:與Π中點p關聯的Π′中的 點p′必定在極線l′上

基礎矩陣將兩幅圖像的對應點聯系起來,包含了攝像機在不同位置成像時的運動信息。如圖1所示,p和p′通過極線l和l′關聯,其中e和e′為極點,o和o′為光心,x′和x分別為p和p′的圖像坐標。由此可以得極線約束方程(基礎矩陣方程):

x′TFx= 0

(4)

基礎矩陣F為秩為2的3×3矩陣,可以通過匹配點對求解,一般至少需要7對匹配點。由于可能存在誤匹配點對,匹配點對的坐標受噪聲干擾也有誤差,因此一般需要更多的匹配點對。借助魯棒的算法,如MAPSAC(MLESAC),RANSAC等方法可以求解出比較準確的F,基礎矩陣F與本征矩陣E的關系為:

F=C′-TEC-1

(5)

其中C,C′分別為攝像機內參數矩陣。若攝像機已標定,則C和C′已知,否則必須通過自標定估計C和C′,本文使用P.Sturm提出的算法進行自標定。

本征矩陣E可進一步分解為:

(6)

其中R為旋轉矩陣,t為光心平移向量,因此通過本征矩陣可以得到攝像機的全部運動參數。

2.3 三角測量法

經過前面幾步處理后,可以得到基礎矩陣和本征矩陣,從而可以計算射影攝像機的成像矩陣,關系如下:

x=PXandx′=P′X

(7)

(8)

其中c為任意常數,b為任意向量。結合公式(4)(7)(8)便可以使用三角測量法計算點X的三維坐標。

令p1-3為P的三行,p′1-3為P′的三行,可以得到如下方程組:

xp3TX-p1X=0

yp3TX-p2X=0

xp2TX-yp1X=0

(9)

將(9)式整理成

AX=0

(10)

其中

(11)

式(10)可以通過SVD分解或數值迭代方法求解。

3 實驗

本文提出的自主移動機器人視覺導航定位系統框架如圖2所示。里程計為系統提供實時位姿信息,攝像頭為系統提供實時圖像。導航系統從目標識別和深度估計模塊得到目標位置信息,進而規劃機器人的運動。目標模型數據庫是視覺導航系統的基礎。數據庫中的每個模型對應于一幅包含某個目標的圖像,用Harris-SIFT特征點集合表示,同時它還包含了模型深度信息。數據庫可以在系統運行之前創建,然后加載,也可以在導航過程中動態創建。基于Harris-SIFT的目標識別是整個導航系統的核心,本文采用了DavidLowe提出的識別體系[5-6],如圖3所示。首先Harris-SIFT為新得到的圖像提取特征點集合,接著采用最近鄰居搜索算法找到模型數據庫中的匹配特征點,然后通過Hough變換檢驗特征點的幾何一致性,去除誤匹配,最后對保留下的匹配點對進行評估打分,判斷是否滿足識別要求,如果匹配成功,則返回數據庫中的匹配模型。

3.1 實驗平臺與設計

圖2 Frontier-II移動機器人

實驗平臺為Frontier-II移動機器人,如圖2所示。Frontier-II使用了威盛的嵌入式主板,CPU主頻1.5GHz,配有512M DDR2內存,使用Windows XP操作系統。Frontier-II采用雙輪差速電機,安裝了八個紅外傳感器,可以完成避障測距功能;外接的Logitech Quickcam USB攝像頭可以以24幀/s采集320×240分辨率圖像;通過Cisco的Linksys Wireless-G USB無線網卡可以很方便地與其它計算機進行通訊。實驗在封閉環境中進行,過程如下:

①2.6m×4.3m的封閉室內場地中任意擺放路標和其它物品。本實驗在場地四個角落和中心處各放一個路標,共5個;

②實驗前手動采集路標,記錄下采集時的距離信息,由Harris-SIFT提取特征點,保存為數據庫。本實驗中所用路標如圖3所示;

圖3 路標

③實驗過程中,Frontier-II在場地中漫游,通過紅外傳感器自動避障。視覺系統通過Logitech Quickcam采集實時圖像(320×240),由目標識別模塊識別目標。運動規劃系統定時記錄里程計數據和已識別目標的信息(估計深度和相對偏向角);

④根據③中記錄的里程計和被識別目標信息,繪制機器人運動軌跡圖,描出目標位置。再與實際環境中目標的準確位置比較,分析實驗結果,評價算法與導航系統的性能。

3.2 實驗結果與分析

本文通過5組實驗分析,驗證了本文提出的算法的性能。

(1)實驗1:重復率和匹配分數

圖4 Graffiti圖像集,視角依次為00, 200, 400, 600

圖5 Harris-Laplace、SIFT、Harris-SIFT特征點在 40% overlap error的重復率和匹配分數

實驗1采用Mikolajczyk提出的評價體系[7-8],比較了Harris-Laplace(使用SIFT特征描述)、SIFT、Harris-SIFT特征點的重復率和匹配分數。圖4為實驗所用測試圖,拍攝視角從00每隔200變化到600。圖5為Mikolajczyk評價體系得到的結果,其中SIFT和Harris-SIFT使用的是David Lowe的代碼。結果表明:三種算法的重復率大致相同,SIFT的匹配分數明顯高于Harris-Laplace,其中又以Harris-SIFT的分數為最高。這說明通過保留SIFT特征點集合中的顯著部分,Harris-SIFT保持了SIFT定位準確的特點,同時提高了匹配分數,性能優于SIFT。圖7的匹配分數圖也反映Harris-Laplace特征位置不如SIFT準確,原因如前所述。

(2)實驗2:算法復雜度

實驗2對比了SIFT和Harris-SIFT提取和匹配特征點的時間,以反映算法復雜度差異。表1使用了Graffiti和Bark系列圖像測試了Harris-SIFT和SIFT提取和匹配特征的算法復雜度。Harris-SIFT通過去掉原始SIFT得到的大部分不具有顯著角點特征的特征點,縮短了生成特征描述和匹配的時間。對于Bark圖像,Harris-SIFT提取特征點的時間是SIFT的一半,匹配時間僅為SIFT的1/13。

值得一提的是,Harris-SIFT對于角點比較敏感,室內環境一般比較復雜,角點比較多,Harris-SIFT可以找到足夠多的匹配對以完成目標識別。因此Harris-SIFT對于室內環境下的目標識別具有較大意義,如機器人導航、地圖創建和定位等。

表1 SIFT、Harris-SIFT(HSIFT)提取特征和匹配的平均 時間(s)(使用的是未經優化的C++算法實現)

(3)實驗3:三維重建

圖6 特征匹配和極線幾何

實驗3給出了三維重建的部分結果。本文使用第三部分介紹的算法進行三維重建。圖6所示為特征匹配后得到31對匹配點對,沒有誤匹配點對,再通過MLESAC算法計算F,得到的平方誤差為1.11438,比較精確。

(4)實驗4:深度估計

實驗4利用包含同一目標的尺度變化圖像組,測試了深度估計算法的性能。圖7為深度估計算法的測試圖。圖8是通過Harris-SIFT和SIFT提取并匹配特征后得到的尺度比例。可以看到,估計結果與實際尺度基本吻合。由于SIFT特征點具有尺度、仿射、光照等不變性,在圖像發生部分遮擋,或是視角發生變化時,也能可靠匹配,得到比較準確的尺度比例和深度信息。

圖7 尺度隨拍攝距離不同的cbook系列圖。 (從左到右拍攝距離依次為100、50、75、150、200、300、400個圖像單位。其中100圖像單位為參考圖,其余為對比測試圖)

圖8 實際尺度和估計尺度比例

(5)實驗5:視覺導航定位

實驗5在Frontier-II自主移動機器人上應用第四部分提到的導航定位系統,完成了機器人導航和定位。本文擬定以下指標來評價導航定位算法的性能:①實時性:目標識別時間;②識別率:誤識別率和漏識別率;③識別能力:識別距離和角度范圍;④定位精度:距離估計的可信度。

實時性:實驗中目標識別模塊使用的是未經優化的c++代碼,在Frontier-II上運行時,識別一幀平均需3.4s,CPU占用率為100%。這主要與硬件有關,在Intel奔騰處理器上,識別一幀只需1.2s。另外,Harris-SIFT所用時間僅是SIFT的1/3~1/2。

識別率:圖9描述了Frontier-II運動軌跡和目標定位情況。紅色實心圓點代表識別出路標時機器人位置。在整個漫游過程中,共識別出目標43次,并且每次都識別出正確的目標,所以誤識別率為0。因為每次識別時間都差不多(平均3.4s),因此連續兩次識別過程中機器人的運動距離比較接近。圖中機器人的識別位置(圓點)大致等距分布,說明當目標在機器人視野中時,一般都能被正確識別出,即漏識別率比較低。

識別能力:本實驗中路標相對機器人視角較小(最大不超過150),相對距離較近(最遠3m)。在這種情況下,機器人看到的路標沒有發生顯著的幾何形變,因此識別成功率比較高。通過對目標識別模塊的單獨測試,我們發現:當視角發生300變化,距離路標3~5倍采集距離時,仍能準確識別目標。

定位精度:圖9中同一目標的估計位置(“+”)分布得比較集中(水平和垂直方向上最大分布間距均不超過0.8m),估計位置均分布在真實位置附近(同一目標的估計位置均落在以目標為中心、半徑為0.5m的圓內,且大多數更是落在半徑為0.2m的圓內)。這已經可以滿足一些對精度要求不是特別高的應用場合。

需要指出的是:里程計誤差會顯著影響定位結果。本實驗中,深度估計模塊只能得到目標相對機器人的位置,需要疊加里程計信息才能得到目標在真實環境中的絕對位置。長時間運行過程中,里程計誤差會逐漸累積增加,從而影響定位精度。圖9中目標估計位置一般都沿逆時針方向偏離真實目標一定角度,該偏差便是由里程計的累積誤差造成。實驗結果表明,機器人沿場地運行兩圈后,里程計角度誤差達160。

圖9 Frontier-II運動軌跡及目標定位圖

4 結論

本文提出的Harris-SIFT算法,結合了Harris 角點算子和SIFT的優點,提高了SIFT的匹配準確率,降低了SIFT算法復雜度,適合實時目標識別應用。本文提出的基于尺度空間的深度估計算法準確、方便、快速。移動機器人自主導航和定位實驗表明,結合Harris-SIFT和尺度空間深度估計,可以準確識別目標,可靠定位。因此這兩個算法對于移動機器人視覺定位具有較大的意義和較高的應用價值。

[1] Shmid.C. and R. Mohr.Local greyvalue invariants for image retrieval[J]. IEEE Trans. Pattern Anal. Mach. Intell,1997,19(5):530-534.

[2] K. Mikoljczyk and C. Schmid, Indexing based on scale-invariant features, in Proc. Int. Conf. Computer Vision, 2001:525-531.

[3] K. Mikolajczyk and C. Schmid. Scale & Affine Invariant Interest Point Detectors[J]. In International Journal on Computer Vision, 60(1):63-86, 2004.

[4] P. Jensfelt, D. Kragic, J. Folkesson and M. Bj¨orkman. A Framework for Vision Based Bearing Only 3D SLAM.ICRA,2006.

[5] D. G. Lowe. Object recognition from local scale-invariant features [C]. In Proc. of the International Conference on Computer Vision, 1999(9):1150-57.

[6] D. G. Lowe. Distinctive image features from scale-invariant keypoints [J]. International Journal on Computer Vision, 2004,60(2):91-110.

[7] K. Mikolajczyk and C. Schmid. A performance evaluation of local descriptors[J]. In IEEE Transactions on Pattern Analysis and Machine Intelligence, to appear, 2005.

[8] K. Mikolajzyk, Tinne Tuytelaars, Cordelia Schmid, et all. A comparison of affine region detectors and descriptors[J]. International journal on computer vision 2005.

[9] Ke, Y., Sukthankar, R. PCA-SIFT. A more distinctive representation for local image descriptors. In CVPR . 2004:506-513.

[10]Andrew Stein, Martial Hebert. Incorporating Background Invariance into Feature-Based Object Recognition [C]. WACV/MOTION 2005: 37-44.

[11]Michael Grabner, Helmut Grabner, Horst Bischof. Fast Approximated SIFT[C]. ACCV ,2006.

[12]Lindeberg, T. Feature detection with automatic scale selection[J]. International Journal of Computer Vision, 1998,30(2):79-116.

[13]K.Mikolajczyk, A. Zisserman, and C. Schmid. Shape recognition with edge-based features[J]. In BMVC, 2003,779-788.

(編輯 趙蓉)

Visual Localization for Mobile Robot with Harris-SIFT

YUAN Liang

(School of Mechanical Engineering, Xinjiang University, Urumqi 830047, China)

Object recognition and depth estimaiton are the two key problems in visual localization for mobile robot.To solve these prolbems, this paper presents a feature extraction algorithm called as Harris-SIFT and depth estimation algorithm using scale space. The Harris-SIFT algorithm is combined with the SIFT (Scale Invariant Feature Transform) algorithm and Harris corner dectector. It gets rid of some feature points with non-remarkable corner features in order to improve the whole significance in SIFT feature point collection and better the match and recognition performance. In addition, Harris-SIFT can be used in the real-time cases because it only take case of some of SIFT feature points and the computation time is decreased. The depth estimation algorithm based on scale space achieves the approximated dimensional scale by computing feature dimensional scale in a refernce image and objective image. Then the objective deption information in the objective images can be achieved by combining the objective depth information in the reference image. Experiments show that Harris-SIFT can accurately and quickly recognize the object in the navigation of the mobile robot. Meanwhile, the depth estimaiton algorithm in space scale also can localize the object accurately. Therefore, the visual localization for mobile robot can be improve by combining the Harris-SIFT and the depth estimaiton algorithm in the space scale.

Harris-SIFT; scale space; depth estimation; visual localization

1001-2265(2014)06-0019-06

10.13462/j.cnki.mmtamt.2014.06.006

2013-10-03;

2013-11-03

國家自然科學基金(61262059);新疆優秀青年科技創新人才培養項目;新疆大學博士啟動基金

袁亮(1972—),男,山東鄆城人,新疆大學副教授,博士,研究領域為機器人控制計算機視覺與圖像處理,(E-mail)ylhap@163.com。

TH166;TG65

A

猜你喜歡
深度特征實驗
記一次有趣的實驗
深度理解一元一次方程
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
深度觀察
深度觀察
深度觀察
抓住特征巧觀察
NO與NO2相互轉化實驗的改進
主站蜘蛛池模板: 亚洲成人精品久久| 久久精品91麻豆| 欧美在线一二区| 91精品国产无线乱码在线| 国产一区免费在线观看| 2021天堂在线亚洲精品专区| 亚洲无线视频| 亚洲国产成人精品青青草原| 高清码无在线看| 免费A∨中文乱码专区| 26uuu国产精品视频| 天堂岛国av无码免费无禁网站| 四虎精品黑人视频| 国产福利在线免费观看| 久久久精品久久久久三级| 国产乱子伦精品视频| 欧美在线视频a| 国产高清在线丝袜精品一区| 露脸一二三区国语对白| 国产高清色视频免费看的网址| 国产综合亚洲欧洲区精品无码| 久久久波多野结衣av一区二区| 精品无码一区二区三区电影| 国产一级精品毛片基地| 日韩成人在线网站| 欧美人与动牲交a欧美精品| 午夜啪啪福利| 欧美啪啪网| 欧洲在线免费视频| 狠狠色丁香婷婷综合| 亚洲美女一级毛片| 亚洲无码高清一区二区| 午夜三级在线| 亚洲第一黄片大全| 又大又硬又爽免费视频| 色成人亚洲| 中文字幕欧美日韩高清| 丁香六月综合网| 狠狠亚洲五月天| 久久久久亚洲AV成人人电影软件 | 中文字幕66页| jizz国产视频| 精品无码一区二区在线观看| 国产麻豆另类AV| 岛国精品一区免费视频在线观看| 欧美中文字幕一区| 视频一区视频二区日韩专区 | 欧美日一级片| 国产亚洲精品自在久久不卡| 精品欧美日韩国产日漫一区不卡| 欧美精品高清| 毛片免费在线视频| 亚洲国产成熟视频在线多多| 亚洲国产成人精品一二区| 亚洲成人网在线播放| 香蕉视频在线观看www| 1级黄色毛片| 国产精品人莉莉成在线播放| 国产精品免费入口视频| 九九九精品视频| 久久99国产综合精品女同| 国产手机在线ΑⅤ片无码观看| 久久精品亚洲中文字幕乱码| 亚洲精品黄| 久久一级电影| 婷婷午夜影院| 亚洲精品国产精品乱码不卞| 亚洲天堂网视频| 第一区免费在线观看| a级毛片免费在线观看| 国产成人综合日韩精品无码不卡| 99性视频| 国产永久在线视频| 久久国产精品娇妻素人| 成人精品视频一区二区在线 | 岛国精品一区免费视频在线观看| 五月天在线网站| 欧美视频免费一区二区三区 | 欧美日韩精品在线播放| 国产永久免费视频m3u8| 日韩欧美91| 欧美一道本|