999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)ORB算法的視覺里程計(jì)定位方法

2022-03-01 13:13:04張?zhí)煊?/span>吳懷宇陳志環(huán)
關(guān)鍵詞:特征提取特征

張?zhí)煊睿瑓菓延睿愔经h(huán)

(武漢科技大學(xué) 機(jī)器人與智能系統(tǒng)研究院,湖北 武漢 430081)

0 引 言

視覺同時(shí)定位與地圖構(gòu)建(vision simultaneous localization and mapping,V-SLAM)是一種通過視覺傳感器來建立環(huán)境模型和估算自身位姿的系統(tǒng)。該系統(tǒng)中視覺里程計(jì)的實(shí)現(xiàn)方法主要有直接法[1]和特征點(diǎn)法[2-6]兩種。由于特征點(diǎn)法具有較高的穩(wěn)定性和較好的魯棒性,所以特征點(diǎn)法一直都是當(dāng)前SLAM系統(tǒng)的主流方案。ORB(oriented fast and rotated brief)算法是特征點(diǎn)法中表現(xiàn)較突出的一種方法。

因此很多學(xué)者為了提高視覺里程計(jì)的精度,圍繞ORB算法進(jìn)行研究和改進(jìn)。Xin等[7]利用PROSAC算法剔除ORB特征匹配中的誤匹配提高算法精度。姚海芳等[8]綜合SURF算法的魯棒性和ORB算法實(shí)時(shí)性,提出了一種S-ORB來改善算法的實(shí)時(shí)性和準(zhǔn)確性。李艷山等[9]在提取特征ORB點(diǎn)時(shí),采用二分區(qū)域法對(duì)圖像進(jìn)行預(yù)處理,以縮短特征點(diǎn)提取的時(shí)間,較好改善匹配速度和精度。

以上研究者所提出的方法雖能較好完成特征提取、特征匹配和誤匹配剔除,提高視覺里程計(jì)的定位精度。但在上述方法大多采用固定閾值進(jìn)行特征提取,并未考慮到環(huán)境亮度變化對(duì)特征提取的影響。例如在一些實(shí)際環(huán)境中,由于窗戶和地面反光、陰雨天以及物體遮擋產(chǎn)生陰影等原因,會(huì)使得圖像亮度發(fā)生變化,導(dǎo)致特征提取和匹配的結(jié)果并不準(zhǔn)確,從而使視覺里程計(jì)的定位精度降低。本文針對(duì)灰度變化提出一種自適應(yīng)閾值ORB算法,并引入漸進(jìn)一致性算法剔除誤匹配,旨在提高視覺里程計(jì)的定位精度。

1 本文工作

1.1 視覺里程計(jì)框架介紹

視覺里程計(jì)目標(biāo)是根據(jù)相機(jī)拍攝的圖像信息對(duì)相機(jī)的運(yùn)動(dòng)(包括相機(jī)平移T和旋轉(zhuǎn)R)進(jìn)行估算,獲取實(shí)時(shí)的位姿信息。本文提出一種基于改進(jìn)ORB算法的視覺里程計(jì)定位方法,具體的視覺里程計(jì)框架如圖1所示,首先對(duì)Kinect相機(jī)采集的深度圖和彩色圖并進(jìn)行配準(zhǔn),然后在特征匹配階段根據(jù)圖像的灰度變化設(shè)置ORB特征提取的閾值并使用漸進(jìn)一致性算法(PROSSAC)進(jìn)行誤匹配剔除,提高特征提取和匹配的準(zhǔn)確率,再結(jié)合Kinect相機(jī)的深度圖和彩色圖配準(zhǔn)的結(jié)果采用ICP算法來求解相機(jī)位姿,最后用光束法平差(bundle adjustment,BA)對(duì)位姿圖進(jìn)行優(yōu)化,獲取Kinect相機(jī)的實(shí)時(shí)位姿信息以及軌跡。

圖1 視覺里程計(jì)框架

1.2 三維點(diǎn)云生成

為了配合ICP求解位姿,需要將二維像素點(diǎn)轉(zhuǎn)化為三維空間點(diǎn),生成三維點(diǎn)云。首先采用張正友標(biāo)定方法[10]對(duì)相機(jī)進(jìn)行標(biāo)定和配準(zhǔn),獲取相機(jī)的內(nèi)參矩陣K,如式(1)所示

(1)

其中,fx,fy分別是x,y軸上的焦距;cx,cy為像素坐標(biāo)系和成像平面的平移量。

結(jié)合相機(jī)內(nèi)參矩陣,利用針孔模型將二維像素點(diǎn)轉(zhuǎn)化為對(duì)應(yīng)的三維坐標(biāo)點(diǎn),設(shè)一個(gè)圖像特征點(diǎn)的像素坐標(biāo) (u,v) 和相機(jī)的測量深度d,可以求得特征點(diǎn)在三維空間的位置坐標(biāo) (x,y,z), 計(jì)算如式(2)~式(4)所示

x=(u-cx)·z/fx

(2)

y=(v-cx)·z/fy

(3)

z=d/s

(4)

其中,s為Kinect相機(jī)的縮放因子。

1.3 ORB特征提取和匹配

ORB算子是一種定向二進(jìn)制描述符,由FAST關(guān)鍵子和BRIEF描述子組成,該算子與SURF算子、SIFT算子相比,具有更快的特征提取速度,因此采用速度更快的ORB算子更符合里程計(jì)定位實(shí)時(shí)性要求。

1.3.1 ORB特征提取及其改進(jìn)

ORB算法的特征提取部分由FAST算法來完成,該方法主要檢測局部像素灰度變化明顯的位置,考慮中心像素點(diǎn)p,設(shè)中心像素點(diǎn)的灰度為Ip,如圖2所示。

圖2 FAST特征點(diǎn)

假設(shè)中心點(diǎn)附近的圓形區(qū)域上的16個(gè)像素,有12個(gè)連續(xù)點(diǎn)的灰度滿足條件如式(5),若滿足,則為特征點(diǎn),反正,不是特征點(diǎn)。其中T為閾值,Ix代表圓形區(qū)域上的16個(gè)點(diǎn)的像素

∑x∈circle(p)|Ix-Ip|>T

(5)

但是在特征提取時(shí),傳統(tǒng)ORB提取算法所使用的閾值T是人為設(shè)定的固定值,當(dāng)環(huán)境亮度發(fā)生變化時(shí),相機(jī)采集的圖片亮度也會(huì)變化,特征提取的數(shù)量會(huì)劇烈減少或者增加,這會(huì)導(dǎo)致特征提取錯(cuò)誤和特征匹配錯(cuò)誤,故本文采用一種自適應(yīng)閾值的方法,利用每個(gè)候選點(diǎn)周圍矩形區(qū)域的亮度來求取閾值,使得算法能在環(huán)境亮度變化的情況能提取到穩(wěn)定的特征點(diǎn)。

具體的自適應(yīng)閾值計(jì)算方法如下:設(shè)圖像上的p點(diǎn)(x0,y0)為候選特征點(diǎn),取以(x0,y0)為中心且邊長為L方形區(qū)域,如圖2中矩形方框所示,定義特征閾值為T,計(jì)算公式如下

(6)

其中,Imax和Imin分別代表方形區(qū)域中最大的n個(gè)灰度值和最小的n個(gè)灰度值,Iarer為方形區(qū)域灰度的平均值,a為比例系數(shù)。文中a=3。

改進(jìn)后的ORB特征提取流程如下:

(1)首先計(jì)算圓形區(qū)域中心點(diǎn)p的像素灰度Ip,再根據(jù)式(6)計(jì)算特征提取的閾值T。

(2)對(duì)p像素點(diǎn)附近的圓形區(qū)域上的16個(gè)像素進(jìn)行采樣,每間隔3個(gè)像素點(diǎn)采樣一次,總共選取4個(gè)點(diǎn),本文選取像素點(diǎn)分別為1,5,9,13(也可以取像素點(diǎn)2,6,10,14),設(shè)這些點(diǎn)的像素灰度分別是I1、I5、I9、I13,判斷這些點(diǎn)的灰度是否滿足式(5),若滿足,則p點(diǎn)為候選特征點(diǎn),反之舍去。

(3)計(jì)算圓形區(qū)域上剩下的12個(gè)像素,設(shè)它們的像素灰度為Ix,判斷是否有9個(gè)點(diǎn)像素滿足式(5),若存在,則p點(diǎn)為特征點(diǎn),否則不是特征點(diǎn)。

為了實(shí)現(xiàn)特征點(diǎn)的旋轉(zhuǎn)不變性,通過灰度質(zhì)心法來確定特征點(diǎn)的方向。在以p點(diǎn)為圓心,半徑為3的圓形圖像塊內(nèi),定義(x,y)為圖像塊內(nèi)的點(diǎn)相對(duì)于圓心的坐標(biāo),質(zhì)心矩mab、質(zhì)心C和特征方向θ如式(7)~式(9)所示

(7)

C=(m10/m00,m01/m00)

(8)

θ=arctan(m01/m10)

(9)

其中,m00為0階質(zhì)心矩;m10和m01分別代表x軸和y軸方向的1階質(zhì)心矩。

1.3.2 ORB特征匹配與誤匹配剔除

特征匹配的作用主要是通過兩張圖片的空間位置關(guān)系求解,以獲取相機(jī)的位姿。通常采用FLANN方法來進(jìn)行粗匹配,然后繼續(xù)使用RANSAC(random sample consensus)對(duì)錯(cuò)誤匹配進(jìn)行剔除,提高匹配的準(zhǔn)確率。傳統(tǒng)RANSAC算法雖然能剔除誤匹配,但是該剔除誤匹配的過程具有隨機(jī)性,這會(huì)導(dǎo)致計(jì)算的迭代次數(shù)不穩(wěn)定,因此本文采用PROSAC(progressive sampling consensus)算法對(duì)誤匹配進(jìn)行剔除,相比RANSAC方法均勻地從整個(gè)集合中采樣,PROSAC則是先將數(shù)據(jù)排序,再按照質(zhì)量和的高低來選取數(shù)據(jù),所以這種方法具有更高的效率和準(zhǔn)確性。該方法通常是將兩幅圖片的匹配結(jié)果作為一個(gè)采樣集合un,再根據(jù)匹配對(duì)的質(zhì)量方程進(jìn)行降序排序[11],最后從質(zhì)量較高的匹配對(duì)中隨機(jī)抽取一部分匹配對(duì)計(jì)算參數(shù)模型和內(nèi)點(diǎn)數(shù)目,匹配質(zhì)量的判斷如式(10)

(10)

其中,βi和βj分別代表ui和uj樣本點(diǎn)的最小歐式距離和次小歐氏距離的比值,γ為質(zhì)量方程。

具體的PROSAC剔除誤匹配的流程如下:

(1)首先設(shè)置初始迭代次數(shù)為0,同時(shí)根據(jù)需求設(shè)置最大迭代次數(shù)和內(nèi)點(diǎn)數(shù)目閾值。

(2)將當(dāng)前的迭代次數(shù)和最大迭代次數(shù)進(jìn)行比較,若當(dāng)前迭代次數(shù)大于最大迭代次數(shù),找不到對(duì)應(yīng)的模型參數(shù),反之則繼續(xù)執(zhí)行步驟(3)。

(3)按照式(10)依次比較匹配對(duì)的質(zhì)量大小并進(jìn)行質(zhì)量降序排序,同時(shí)選取質(zhì)量最高的m個(gè)數(shù)據(jù)。

(4)從m個(gè)數(shù)據(jù)中隨機(jī)選取K個(gè)采樣點(diǎn)計(jì)算單應(yīng)矩陣H和內(nèi)點(diǎn)數(shù)目。同時(shí)判斷內(nèi)點(diǎn)數(shù)目是否大于設(shè)定的內(nèi)點(diǎn)數(shù)目閾值,若大于,則返回單應(yīng)矩陣以及內(nèi)點(diǎn)數(shù)目,反之,重復(fù)步驟(2)、步驟(3)更新內(nèi)點(diǎn)數(shù)目并且重新計(jì)算單應(yīng)矩陣H。

1.4 ICP位姿求解

剔除誤匹配之后得到較準(zhǔn)確的匹配對(duì),需要對(duì)相機(jī)的位姿進(jìn)行求解。常用的位姿求解方法有PNP、ICP和對(duì)極幾何方法,由于使用的深度相機(jī)采集圖片信息深度是已知的,選擇ICP方法進(jìn)行位姿求解效率會(huì)更高。ICP方法是一種3D-3D的位姿估算方法,已知兩幀圖片分別為F1和F2,其中P={p1,…,p2}∈F1和Q={q1,…,q2}∈F2為一組匹配好的3D點(diǎn),主要利用SVD[12]分解對(duì)相機(jī)位姿進(jìn)行求解,即求取旋轉(zhuǎn)矩陣R和平移矩陣T,使其滿足式(11)

?i,pi=Rqi+T

(11)

1.5 基于光速法平差的位姿圖優(yōu)化

因?yàn)橄鄼C(jī)初始估算的位姿存在未知噪聲和誤差,會(huì)導(dǎo)致定位不準(zhǔn)確。通常采用光速法平差將相機(jī)位姿最優(yōu)化處理,將路標(biāo)點(diǎn)和位姿作為代優(yōu)化的變量,運(yùn)動(dòng)模型和觀測模型作為約束條件。基于光速法平差的圖優(yōu)化模型可以表示為一個(gè)最小二乘問題,模型主要對(duì)位姿xk進(jìn)行優(yōu)化,那么目標(biāo)函數(shù)F(X)可以表示為

F(X)=∑(i,j)∈ce(xi,xj,zij)TΩije(xi,xj,zij)

(12)

X*=argminF(X)

(13)

其中,F(xiàn)(X) 為目標(biāo)函數(shù),X是全部位姿變量的集合,xi,xj是i、j時(shí)刻估計(jì)出的機(jī)器人位姿,zij表示i、j時(shí)刻的觀測約束條件,e為實(shí)際的觀測值和計(jì)算出來的觀測值的誤差。Ωij代表約束信息矩陣,是對(duì)ei、ej誤差項(xiàng)相關(guān)性的預(yù)估。

由于文中的觀測方程是非線性函數(shù),因此需要使用g2o[13]工具求解上述代價(jià)函數(shù),該方法采用列文伯格-馬夸爾特方法作為非線性優(yōu)化的求解器,向求解器中添加當(dāng)前位姿和圖像特征點(diǎn)(路標(biāo)點(diǎn)),并將位姿和路標(biāo)點(diǎn)作為g2o圖的頂點(diǎn),以位姿和路標(biāo)點(diǎn)的連線作為g2o圖的邊,對(duì)g2o圖的兩個(gè)頂點(diǎn)和一條邊進(jìn)行優(yōu)化,得到最優(yōu)位姿的集合和路標(biāo)點(diǎn)的空間位置集合。

2 實(shí)驗(yàn)結(jié)果與分析

為了驗(yàn)證本文算法的可行性和準(zhǔn)確性,使用德國慕尼黑工業(yè)大學(xué)公開的TUM標(biāo)準(zhǔn)數(shù)據(jù)集的3個(gè)不同場景進(jìn)行測試。筆記本電腦的配置:內(nèi)存4 G、CPU為intel i5-4210U,2.5 GHZ,電腦操作系統(tǒng)為Ubuntu16.04。軟件平臺(tái)采用OpenCV3.2.0、PCL1.8.0和Eigen庫。本文首先測試改進(jìn)ORB特征提取和特征匹配算法的適應(yīng)性和精度,最后使用改進(jìn)后的ORB算法進(jìn)行跟蹤定位,并且與RGB-D SLAMv2算法和ORB-SLAM2算法的實(shí)驗(yàn)結(jié)果進(jìn)行對(duì)比,最后使用JS-R移動(dòng)機(jī)器人驗(yàn)證改進(jìn)方法的可行性。

2.1 改進(jìn)ORB算法實(shí)驗(yàn)驗(yàn)證

2.1.1 特征提取和匹配實(shí)驗(yàn)

為了驗(yàn)證改進(jìn)ORB提取算法的對(duì)圖像整體亮度變化的適應(yīng)性,實(shí)驗(yàn)分為A、B、C(亮度50%、亮度100%和亮度150%)3組進(jìn)行特征提取,并將傳統(tǒng)ORB算法與改進(jìn)的ORB算法進(jìn)行對(duì)比,特征提取結(jié)果如圖3所示。由于圖像在亮度增強(qiáng)時(shí)提取到的特征點(diǎn)會(huì)變多而亮度減弱時(shí)提取到的特征點(diǎn)會(huì)變少,傳統(tǒng)ORB算法在亮度變化時(shí)并不能提取穩(wěn)定的特征點(diǎn)數(shù)量,為了驗(yàn)證改進(jìn)的算法的特征提取效果,采用特征點(diǎn)數(shù)量作為判斷亮度適應(yīng)性好壞的標(biāo)準(zhǔn)。

圖3 不同亮度下特征提取結(jié)果

從表1可以看出改進(jìn)的ORB特征提取算法在光線變暗或者變亮的情況下,檢測到的特征點(diǎn)數(shù)量變化較小。而傳統(tǒng)的ORB特征提取算法在圖像亮度增強(qiáng)時(shí),特征點(diǎn)重疊較為嚴(yán)重;在亮度減弱時(shí),特征點(diǎn)的數(shù)量會(huì)劇烈減少,亮度的變化對(duì)其影響較大。實(shí)驗(yàn)結(jié)果表明,改進(jìn)ORB特征提取算法的在整體亮度的變化時(shí)能提取到更穩(wěn)定的特征點(diǎn),具有更好的適應(yīng)性。

進(jìn)一步測試改進(jìn)的ORB算法在亮度變化時(shí)的匹配情況,并且與傳統(tǒng)ORB特征匹配算法對(duì)比。在強(qiáng)光、弱光以及強(qiáng)弱光變化時(shí),傳統(tǒng)ORB特征匹配會(huì)產(chǎn)生較多的誤匹配,因此實(shí)驗(yàn)主要在強(qiáng)光環(huán)境、弱光環(huán)境和強(qiáng)弱光變化3種環(huán)境中來驗(yàn)證改進(jìn)ORB特征提取的效果。測試結(jié)果如圖4所示。

表1 特征提取結(jié)果

圖4 改進(jìn)的ORB特征匹配結(jié)果對(duì)比

圖4是改進(jìn)的ORB特征匹配算法和傳統(tǒng)ORB特征匹配算法的實(shí)驗(yàn)結(jié)果,從圖4中可以看出傳統(tǒng)ORB算法匹配時(shí),會(huì)出現(xiàn)明顯的交叉錯(cuò)誤匹配對(duì),特別的在強(qiáng)弱光變化的情況下交叉誤匹配對(duì)更多,而改進(jìn)后的ORB算法在3種光照環(huán)境中均未出現(xiàn)明顯錯(cuò)誤的匹配對(duì),說明改進(jìn)后ORB算法的特征匹配結(jié)果更為精確。

2.1.2 PROSAC誤匹配剔除實(shí)驗(yàn)

為了驗(yàn)證PROSAC算法剔除誤匹配的高效性,將ORB+PROSAC方法、傳統(tǒng)ORB+RANSAC方法以及未進(jìn)行誤匹配剔除的ORB進(jìn)行對(duì)比,測試結(jié)果如圖5,圖5中RANSAC算法和PROSAC算法都成功剔除了誤差,沒有出現(xiàn)圖5(a)中明顯的交叉匹配情況。為了更好評(píng)估PROSAC算法剔除誤匹配的性能,進(jìn)一步比較PROSAC算法和RANSAC算法的剔除情況,本文使用匹配總時(shí)間、剔除誤匹配時(shí)間以及內(nèi)點(diǎn)數(shù)作為評(píng)估指標(biāo),實(shí)驗(yàn)結(jié)果見表2。

圖5 匹配效果對(duì)比

表2 RANSAC和PROSAC算法比較

從表2中可以看出來,PROSAC算法剔除誤匹配與RANSAC算法剔除誤匹配相比獲得的內(nèi)點(diǎn)數(shù)要更多,說明PROSAC算法獲得正確模型的成功率也較高,因此匹配的正確率也會(huì)更高,另一方面該算法剔除誤匹配時(shí)間和匹配總時(shí)間都較RANSAC算法要少,表明利用PROSAC算法剔除誤匹配會(huì)更加高效和準(zhǔn)確,進(jìn)一步提高了相機(jī)定位的實(shí)時(shí)性和精度。

2.2 定位實(shí)驗(yàn)結(jié)果和誤差分析

由于室內(nèi)環(huán)境中容易出現(xiàn)陰影、桌子遮擋和地面反光等情況,導(dǎo)致相機(jī)采集的圖片亮度發(fā)生變化,因此選擇TUM標(biāo)準(zhǔn)數(shù)據(jù)集中室內(nèi)場景fr1/desk、fr1/floor和fr1/room這3個(gè)序列來測試,并且與RGB-D SLAMv2算法和ORB_SLAM2算法進(jìn)行對(duì)比,最后使用evo工具畫出3種算法的軌跡圖,并且對(duì)3種算法進(jìn)行評(píng)估和分析。

為了對(duì)測試結(jié)果進(jìn)行量化評(píng)估,通常會(huì)采用絕對(duì)軌跡誤差(ATE)的均方根(root mean square error,RMSE)誤差作為相機(jī)定位效果的量化指標(biāo)。假設(shè)相機(jī)估算軌跡序列是X={X1,…,Xn}, 相機(jī)的實(shí)際運(yùn)動(dòng)軌跡序列Y={Y1,…,Yn}, 那么相機(jī)的絕對(duì)軌跡誤差的均方根誤差可表示為

(14)

圖6是在3種算法在不同場景下相機(jī)運(yùn)動(dòng)軌跡和真實(shí)軌跡對(duì)比結(jié)果,從圖6中可以看出改進(jìn)后的算法軌跡圖沒有明顯的偏離真實(shí)軌跡,與真實(shí)軌跡基本一致。通過絕對(duì)軌跡誤差的均方根誤差對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行量化評(píng)估,結(jié)果見表3,其中RMSE值越小,說明相機(jī)偏離真實(shí)軌跡的距離越大,相應(yīng)相機(jī)的定位精度越低,反之說明相機(jī)偏離真實(shí)軌跡距離越小,相機(jī)的定位精度越高。

表3 不同場景下的RMSE對(duì)比

從表3中可以看出,在fr1/desk和fr1/floor場景下,改進(jìn)算法的絕對(duì)軌跡均方根誤差僅為0.0161 m和0.0154 m,且均低于ORB_SLAM2和RGB-D SLAMva。特別的在fr1/floor場景其絕對(duì)軌跡誤差的均方根誤差較其它兩種算法分別降低了26.6%和15.2%。而在fr1/room場景下其絕對(duì)軌跡的均方根誤差為0.0583 m,雖略大于ORB_SLAM2算法絕對(duì)軌跡均方根誤差,但是誤差小于RGB-D SLAMva算法的絕對(duì)軌跡均方根誤差。實(shí)驗(yàn)結(jié)果表明,在大部分情況下本文提出的方法的絕對(duì)軌跡均方根誤差都要小于另外兩種方法,說明改進(jìn)后的視覺里程計(jì)的定位精度更高。

2.3 實(shí)際場景測試

為驗(yàn)證改進(jìn)后的算法在實(shí)際場景中的可行性,實(shí)驗(yàn)借助JS-R移動(dòng)機(jī)器人來測試算法性能,JS-R移動(dòng)機(jī)器人搭載Kinectv1相機(jī),如圖7(b)所示。圖7(a)是實(shí)驗(yàn)室測試場地,控制機(jī)器人沿著標(biāo)記線方向運(yùn)動(dòng),用evo工具畫出JS-R移動(dòng)機(jī)器人的運(yùn)動(dòng)軌跡,測試的結(jié)果如圖8所示,軌跡圖的兩端點(diǎn)分別是JS-R移動(dòng)機(jī)器人的起點(diǎn)和終點(diǎn),用START和END來表示。

圖6 不同場景下各種算法軌跡

圖7 實(shí)驗(yàn)場景和實(shí)驗(yàn)平臺(tái)

圖8 相機(jī)軌跡

由于實(shí)際groundtruth數(shù)據(jù)需要專業(yè)設(shè)備獲取,本文無法獲取移動(dòng)機(jī)器人的真實(shí)軌跡,故選擇圖7(a)黑色線作為參考軌跡,圖8的START和END分別對(duì)應(yīng)圖7(a)中的START和END,通過對(duì)比相機(jī)軌跡和紅色參考軌跡發(fā)現(xiàn)相機(jī)運(yùn)動(dòng)較為穩(wěn)定,其軌跡較為平滑并未出現(xiàn)異常的偏離現(xiàn)象,表明改進(jìn)后的視覺里程計(jì)定位較為準(zhǔn)確,滿足實(shí)際工程中的需求。

3 結(jié)束語

本文提出一種基于改進(jìn)ORB算法的視覺里程計(jì)定位方法,主要針對(duì)光照變化對(duì)特征提取和匹配的影響,提出一種基于自適應(yīng)閾值的ORB算法,提高特征提取的穩(wěn)定性和特征匹配的精度,同時(shí)為解決傳統(tǒng)誤匹配剔除方法(RANSAC)迭代次數(shù)不穩(wěn)定的問題,使用PROSAC來剔除誤匹配,實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的ORB算法具有較強(qiáng)的光照魯棒性,并且在誤匹配剔除階段效率得到大幅提升。最后通過改進(jìn)的ORB算法進(jìn)行跟蹤和定位,實(shí)驗(yàn)數(shù)據(jù)表明,在大部分場景本文提出的方法絕對(duì)軌跡誤差的均方根誤差(RMSE)比其它算法更小,最后通過JS-R移動(dòng)機(jī)器人在實(shí)際場景中進(jìn)行測試,實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的算法較為穩(wěn)定滿足實(shí)際需求。綜上所述,本文所提出的方法能夠較準(zhǔn)確的進(jìn)行定位,具有良好的實(shí)際應(yīng)用價(jià)值。另外,本文只對(duì)定位結(jié)果進(jìn)行測試和比較,并未測試基于改進(jìn)ORB算法的地圖構(gòu)建效果,為了進(jìn)一步測試改進(jìn)的視覺里程計(jì)的性能,下一步主要工作將針對(duì)地圖構(gòu)建效果進(jìn)行測試和分析。

猜你喜歡
特征提取特征
抓住特征巧觀察
特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
如何表達(dá)“特征”
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個(gè)特征
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
抓住特征巧觀察
Bagging RCSP腦電特征提取算法
基于MED和循環(huán)域解調(diào)的多故障特征提取
主站蜘蛛池模板: 91久久夜色精品国产网站| 精品在线免费播放| 国产一区二区三区精品久久呦| 国产欧美在线| 曰韩人妻一区二区三区| 色综合成人| 国产成人综合在线视频| 天堂va亚洲va欧美va国产| 亚洲精品va| 日韩精品成人网页视频在线| 992Tv视频国产精品| 麻豆AV网站免费进入| 一区二区偷拍美女撒尿视频| 这里只有精品免费视频| 欧美啪啪网| 国产精品视频白浆免费视频| 国产成人91精品| 国产亚洲精品97在线观看| 久久精品国产亚洲AV忘忧草18| 国产精品男人的天堂| 在线毛片免费| 一级全黄毛片| 亚洲免费黄色网| 国产人人乐人人爱| 色婷婷在线播放| 免费a在线观看播放| 国产美女精品在线| 精品少妇人妻av无码久久| 中文字幕中文字字幕码一二区| 国模粉嫩小泬视频在线观看| 在线观看精品国产入口| 丁香婷婷激情网| 毛片最新网址| 欧美午夜在线播放| 久久久久亚洲Av片无码观看| 亚洲成a人片| 婷婷色婷婷| 亚洲精品波多野结衣| 精品久久久久久中文字幕女| 国产女人水多毛片18| 青青青伊人色综合久久| 香蕉久人久人青草青草| www.国产福利| 91免费观看视频| 亚洲高清中文字幕在线看不卡| 亚洲成人免费在线| 玩两个丰满老熟女久久网| 国产麻豆福利av在线播放| 国产无码性爱一区二区三区| 亚洲日韩精品综合在线一区二区| 亚洲综合亚洲国产尤物| 99久久精品久久久久久婷婷| 久久午夜夜伦鲁鲁片不卡| 日本不卡在线播放| 久久熟女AV| 又粗又硬又大又爽免费视频播放| 亚洲第一网站男人都懂| 成年av福利永久免费观看| 国产精品福利在线观看无码卡| 久久女人网| 久久99国产综合精品女同| 亚洲最大福利视频网| 中文无码精品a∨在线观看| 97视频精品全国免费观看| 午夜视频免费试看| 久久精品国产91久久综合麻豆自制| 亚洲视频a| 欧美高清三区| 亚洲一区精品视频在线| 亚洲av无码久久无遮挡| 国产偷国产偷在线高清| 久久久久人妻一区精品| 国产99在线观看| 亚洲一区二区视频在线观看| 无码一区18禁| 91免费片| 一本大道东京热无码av| 成人无码区免费视频网站蜜臀| 日韩精品专区免费无码aⅴ| 亚洲欧美激情小说另类| 日韩一区二区三免费高清| 亚洲第一成网站|