999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種新的閉環(huán)校正策略研究

2020-08-21 09:09:32吳錦河范涵奇

吳錦河 范涵奇

摘要:視覺(jué)SLAM中閉環(huán)校正能有效減小相機(jī)位姿估計(jì)的累積誤差。針對(duì)此問(wèn)題,本文提出了一種新的閉環(huán)校正策略。為了驗(yàn)證算法的有效性,本文采用公開(kāi)數(shù)據(jù)集KITTI來(lái)測(cè)試本文算法。實(shí)驗(yàn)結(jié)果表明本文算法能有效的減小累積誤差。

關(guān)鍵詞:視覺(jué)SLAM;閉環(huán)校正;閉環(huán)檢測(cè)

中圖分類號(hào):TP212 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1007-9416(2020)07-0111-02

0 引言

近些年來(lái),視覺(jué)SLAM[1](visual Simultaneous localization and mapping,vSLAM)技術(shù)發(fā)展迅速,廣泛應(yīng)用于機(jī)器人、無(wú)人機(jī)、AR/VR 等領(lǐng)域。視覺(jué)SLAM技術(shù)主要采用視覺(jué)傳感器來(lái)解決機(jī)器人等在GPS失效環(huán)境中的定位與周圍環(huán)境地圖重建的問(wèn)題。

解決視覺(jué)SLAM問(wèn)題的方法主要有兩種,即直接法和特征點(diǎn)法。直接法根據(jù)相機(jī)采集圖像的像素信息來(lái)直接計(jì)算相機(jī)的運(yùn)動(dòng)。直接法的基本假設(shè)是同一三維空間點(diǎn)在不同視角下觀測(cè)到的像素灰度不變,通過(guò)最小化光度誤差來(lái)優(yōu)化求解相機(jī)位姿。直接法最具代表性的算法主要有DTAM[2]、LSD-SLAM[3]以及DSO[4]。直接法可以不用提取圖像特征點(diǎn)并且可以在弱紋理環(huán)境中使用,但是直接法的灰度不變是一個(gè)很強(qiáng)的假設(shè),實(shí)際中易受光照變化的影響。特征點(diǎn)法是一種間接求解SLAM問(wèn)題的方法。特征點(diǎn)法[5-7]在求解相機(jī)位姿時(shí)對(duì)光照不敏感,魯棒性更好,因此該方法也是解決SLAM問(wèn)題最常用的一種方法。無(wú)論是直接法還是特征點(diǎn)法在優(yōu)化相機(jī)位姿時(shí)都采用高斯分布分布作為先驗(yàn)假設(shè),在此假設(shè)下來(lái)構(gòu)造優(yōu)化的目標(biāo)函數(shù),但是在此假設(shè)下構(gòu)造的目標(biāo)函數(shù)無(wú)法剔除大噪音數(shù)據(jù)對(duì)優(yōu)化結(jié)果的影響,使得優(yōu)化后的相機(jī)位姿和三維空間點(diǎn)的位置依然不太精確。

以上兩種方法中都面臨的同樣問(wèn)題是閉環(huán)校正方法較為復(fù)雜。為了解決這個(gè)問(wèn)題,本文提出了一種新的閉環(huán)校正策略。

1 本文算法

本章節(jié)主要詳細(xì)闡述本文算法。本文首先通過(guò)詞袋庫(kù)的方式來(lái)檢測(cè)相機(jī)在運(yùn)動(dòng)過(guò)程中的閉環(huán),然后本文在1.2節(jié)詳細(xì)闡述了如何通過(guò)閉環(huán)校正優(yōu)化得到全局最優(yōu)的相機(jī)位姿。

1.1 閉環(huán)檢測(cè)

視覺(jué)SLAM中,閉環(huán)校正能夠有效的減小累積誤差進(jìn)而提升系統(tǒng)的穩(wěn)定性。與ORB-SLAM類似,本文也使用詞袋庫(kù)(Bag of words,BOW)方法來(lái)檢測(cè)閉環(huán)。

1.2 閉環(huán)校正

對(duì)于已經(jīng)檢測(cè)到的回環(huán),假設(shè)第0幀與第n幀構(gòu)成回環(huán),則在理論上有:

其中,代表相機(jī)旋轉(zhuǎn)。實(shí)際中由于誤差的存在等式不是嚴(yán)格成立的。因此,本文通過(guò)固定處的旋轉(zhuǎn)以及各幀之間的相對(duì)旋轉(zhuǎn),通過(guò)引入回環(huán)信息優(yōu)化各幀相對(duì)與世界坐標(biāo)系的旋轉(zhuǎn)來(lái)校正回環(huán)。

如圖1所示,假設(shè)幀第0幀與第6幀之間構(gòu)成回環(huán),則應(yīng)滿足公式(1)的約束。由于構(gòu)成回環(huán),因此可以使用初始幾幀的信息來(lái)增加約束使得位姿估計(jì)更精確。即本文依據(jù)對(duì)極約束首先求得初始各幀相對(duì)世界坐標(biāo)系的旋轉(zhuǎn)以及各幀之間的相對(duì)旋轉(zhuǎn),其次由于與幀之間構(gòu)成回環(huán),可以引入的信息更精確的估計(jì)的旋轉(zhuǎn),由于各個(gè)幀節(jié)點(diǎn)之間的相對(duì)旋轉(zhuǎn)固定且相互影響,因此可以逆向的再次優(yōu)化各節(jié)點(diǎn)的旋轉(zhuǎn)。在此過(guò)程中,可以使得求得的各幀的旋轉(zhuǎn)的誤差攤平,使得誤差的變化更平滑,本文把這個(gè)過(guò)程稱為回環(huán)濾波(Loop Filter)。

2 實(shí)驗(yàn)結(jié)果及分析

本文在KITTI數(shù)據(jù)集[8]上測(cè)試所提出的算法,實(shí)驗(yàn)環(huán)境的操作系統(tǒng)為ubuntu 18.04,配置為i7-4770 CPU,4G RAM。

為了說(shuō)明回環(huán)校正的有效性,本文在表1中給出了閉環(huán)前后相機(jī)旋轉(zhuǎn)誤差的方差、均值、中值以及最大值和最小值的變化。從表中數(shù)據(jù)可知,回環(huán)校正后相機(jī)旋轉(zhuǎn)誤差的方差、均值、中值以及最大值均減小,因此回環(huán)校正可以提升相機(jī)位姿估計(jì)的精度。

圖2所示中描述了回環(huán)校正后相機(jī)旋轉(zhuǎn)誤差分布,從圖中可知,相機(jī)旋轉(zhuǎn)的誤差分布更加集中并且最大值明顯減小,圖中誤差的分布跟旋轉(zhuǎn)誤差統(tǒng)計(jì)量的變化一致,因此本文算法通過(guò)閉環(huán)能有效的減小累積誤差。

3 結(jié)語(yǔ)

本文針對(duì)視覺(jué)SLAM中閉環(huán)校正問(wèn)題提出了一種新的閉環(huán)校正策略。實(shí)驗(yàn)結(jié)果表明,本文算法能有效的減小累積誤差進(jìn)而提升相機(jī)位姿估計(jì)的精確性。

參考文獻(xiàn)

[1] Cadena C,Carlone L,Carrillo H,et al.Past,Present,and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age[J].IEEE Transactions on Robotics,2016,32(6):1309-1332.

[2] Newcombe R,Lovegrove S,Davison A J,et al.DTAM: Dense tracking and mapping in real-time[C].international conference on computer vision,2011:2320-2327.

[3] Engel J,Schops T,Cremers D,et al.LSD-SLAM:Large-Scale Direct Monocular SLAM[C].european conference on computer vision, 2014:834-849.

[4] Engel,Jakob,Vladlen Koltun,and Daniel Cremers.Direct sparse odometry[J].IEEE transactions on pattern analysis and machine intelligence,2018,40(3):611-625.

[5] Badino H,Yamamoto A,Kanade T,et al.Visual Odometry by Multi-frame Feature Integration[C].international conference on computer vision,2013:222-229.

[6] Fanfani M,Bellavia F,Colombo C,et al.Accurate keyframe selection and keypoint tracking for robust visual odometry[J]. machine vision applications,2016,27(6): 833-844.

[7] Mur-Artal R,Tardos J D.ORB-SLAM2:An open-source SLAM system for monocular,stereo,and RGB-D cameras[J].IEEE Transactions on Robotics,2017,33(5):1255-1262.

[8] Newcombe R,Lovegrove S,Davison A J,et al.DTAM:Dense tracking and mapping in real-time[C].international conference on computer vision,2011:2320-2327.

主站蜘蛛池模板: 久久久波多野结衣av一区二区| 日本亚洲最大的色成网站www| 欧美成人日韩| 最新国语自产精品视频在| 国产啪在线91| 国产成人欧美| 婷婷中文在线| 欧美日韩一区二区三区在线视频| 亚洲国产精品国自产拍A| 免费可以看的无遮挡av无码| 精品国产一区91在线| 国产美女免费| 在线观看欧美精品二区| 在线色综合| 国产精品大白天新婚身材| 国产欧美日韩视频一区二区三区| 久久精品人妻中文视频| 色精品视频| 国内精品一区二区在线观看| 久久毛片网| 日本少妇又色又爽又高潮| 午夜欧美理论2019理论| 成年人福利视频| 少妇精品在线| 狼友视频一区二区三区| 国产96在线 | 国产SUV精品一区二区6| 亚洲中文在线看视频一区| 欧美亚洲日韩中文| a在线观看免费| 亚洲国产综合精品一区| 少妇人妻无码首页| 日韩性网站| 国产精品v欧美| 高清色本在线www| 国产日韩欧美黄色片免费观看| 尤物精品视频一区二区三区| 国产在线观看人成激情视频| 亚洲天堂2014| 国产青榴视频在线观看网站| 亚洲精品欧美日韩在线| 先锋资源久久| 成人综合网址| 国产在线91在线电影| 国产成人综合欧美精品久久| 在线观看av永久| 国产人免费人成免费视频| 亚洲欧洲美色一区二区三区| 在线日本国产成人免费的| 午夜人性色福利无码视频在线观看| 精品一区二区无码av| 国产综合色在线视频播放线视| 国产亚洲精品97在线观看| 欧美日韩精品综合在线一区| 97人妻精品专区久久久久| 欧美日韩免费在线视频| 日本在线国产| 97免费在线观看视频| 91久久精品日日躁夜夜躁欧美| 97国产精品视频人人做人人爱| 免费看av在线网站网址| 99视频精品全国免费品| 久久久久亚洲精品无码网站| 色婷婷在线影院| 国产第二十一页| 国产精品区网红主播在线观看| 天天摸夜夜操| 麻豆精品视频在线原创| 亚洲,国产,日韩,综合一区 | 国产欧美在线| 99久久99这里只有免费的精品| 广东一级毛片| 久久青青草原亚洲av无码| 99久久精品视香蕉蕉| 99精品福利视频| 亚洲成年人网| 2021国产精品自产拍在线观看| 日韩精品无码一级毛片免费| 不卡午夜视频| 亚洲黄色网站视频| 日本爱爱精品一区二区| 亚洲视频二|