999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

單目視覺慣性定位的IMU輔助跟蹤模型

2018-11-30 09:17:16潘樹國黃礪梟
測繪通報 2018年11期
關(guān)鍵詞:模型

王 帥,潘樹國,黃礪梟,曾 攀

(東南大學(xué)儀器科學(xué)與工程學(xué)院,江蘇 南京 210096)

定位是機(jī)器人根據(jù)任務(wù)做出正確決策和路徑選擇的基礎(chǔ)[1-2],如何設(shè)計基于多傳感器的高精度和穩(wěn)健性的跟蹤定位模型顯得尤為重要。傳統(tǒng)的室外定位主要是衛(wèi)星導(dǎo)航定位[3-5],室內(nèi)定位算法主要有慣性導(dǎo)航法和視覺定位方法[6]。利用慣性傳感器與圖像傳感器的互補(bǔ)性,可將視覺定位與慣性導(dǎo)航技術(shù)相融合,得到精度更高、穩(wěn)健性更好的緊耦合定位技術(shù)。

單目視覺慣性緊耦合定位技術(shù)近年來發(fā)展迅速,由最初的基于卡爾曼濾波[7]的緊耦合方法逐漸發(fā)展到基于光束平差法(bundle adjustment,BA[8])優(yōu)化和圖優(yōu)化的方法。Anastasios I.Mourikis于2007年提出了一個典型的基于擴(kuò)展卡爾曼濾波的緊耦合模型MSCKF[9],從此開啟了視覺慣性緊耦合的定位方法。MSCKF的跟蹤模型是基本的視覺參考幀模型,在跟蹤情況下沒有使用IMU的先驗數(shù)據(jù),因此系統(tǒng)極易不收斂,導(dǎo)致定位精度較差。國外ORB_SLAM2[10]的作者Raul Mur-Artal于2017年提出了具有地圖重用的視覺慣性單目SLAM技術(shù)[11],提出了一種簡便的視覺慣性聯(lián)合初始化方法,但該方法需要15 s左右的初始化時間,因此在初始化成功之前需要穩(wěn)定的視覺前端基礎(chǔ),而ORB_SLAM在初始化期間采用的是簡單的勻速跟蹤模型,在相機(jī)劇烈運動時無法正確初始化,甚至跟蹤失敗。香港科大機(jī)器人研究所于2017年提出了VINS(visual-inertial system)[13],VINS視覺方面采用的是稀疏光流法進(jìn)行跟蹤定位,文中提出了一種穩(wěn)健性的視覺慣性聯(lián)合初始化過程和恢復(fù)過程,以及基于滑動窗口的緊耦合非線性優(yōu)化方法,但是整個系統(tǒng)采用的是最基本的參考幀跟蹤模型,無法克服復(fù)雜的運動環(huán)境。

綜上所述,由于傳統(tǒng)的單目視覺慣性定位跟蹤模型都采用簡單的參考幀模型和勻速模型,系統(tǒng)的定位結(jié)果易受劇烈運動和復(fù)雜環(huán)境影響,從而降低定位精度;而IMU先驗數(shù)據(jù)可以有效克服劇烈運動等影響,因此設(shè)計一種面向單目視覺慣性緊耦合定位的IMU輔助跟蹤模型具有重要的意義。

1 IMU輔助跟蹤模型設(shè)計

前文提到的勻速跟蹤模型和傳統(tǒng)的參考幀跟蹤模型原理簡單,但無法克服劇烈運動問題,因此本文重點提出一種IMU輔助跟蹤模型。IMU輔助跟蹤模型是結(jié)合單目勻速模型和IMU先驗數(shù)據(jù),為初始化階段及初始化完成后提供一個穩(wěn)健性的視覺前端,從而有效提高視覺慣性系統(tǒng)的整體性能。

1.1 IMU先驗數(shù)據(jù)解算

IMU可以輸出加速度和角速度,對角速度進(jìn)行積分可以獲得IMU單元的相對旋轉(zhuǎn)。

(1)

同時IMU的數(shù)據(jù)幀率一般遠(yuǎn)高于視覺,在視覺的k和k+1幀之間通常會有多組IMU數(shù)據(jù),IMU預(yù)積分模型[14]即是計算視覺k和k+1幀之間的一組IMU積分值。式(2)為IMU運動模型

(2)

t+Δt時刻的運動狀態(tài)可通過積分獲得

(3)

利用中值積分法,聯(lián)立式(1)和式(3)可得

(4)

上式可以看出每次對t+Δt時刻的旋轉(zhuǎn)計算都需要知道t時刻的旋轉(zhuǎn),因此當(dāng)RWB(t)隨時間變化后需要重新計算積分,這將導(dǎo)致計算量的增大。為了避免重復(fù)的狀態(tài)傳播計算,采用預(yù)積分的方式

(5)

(6)

(7)

1.2 系統(tǒng)初始狀態(tài)估計

當(dāng)系統(tǒng)處于初始化階段時,由于系統(tǒng)速度、重力加速度和尺度無法獲取,因此只能使用IMU旋轉(zhuǎn)數(shù)據(jù)。

圖1 勻速跟蹤模型

圖1為一般的勻速跟蹤模型,假設(shè)有3個連續(xù)幀,F(xiàn)1、F2和F3之間的相對旋轉(zhuǎn)分別為ΔR12和ΔR23,勻速跟蹤模型是假設(shè)相鄰幀之間的相對變換不變,即

ΔT12=ΔT23

(8)

F1與F2之間的相對變換

(9)

式中,RW1和RW2分別為F1和F2的旋轉(zhuǎn);pW1和pW2分別為F1和F2的位移;TW1和TW2分別為F1和F2的位姿。

因此F3的變換矩陣

TW3=ΔT23TW3=ΔT12TW3=

(10)

由旋轉(zhuǎn)矩陣間的轉(zhuǎn)換關(guān)系可知

(11)

式中,RBC為相機(jī)和IMU之間的旋轉(zhuǎn)外參;ΔR23為相機(jī)幀F(xiàn)2與相機(jī)幀F(xiàn)3之間的相對旋轉(zhuǎn),是由IMU先驗數(shù)據(jù)提供;RW3為F3的旋轉(zhuǎn)。

將旋轉(zhuǎn)矩陣代入到變換矩陣模型中

(12)

最終將改進(jìn)的TW3作為初始值代入到優(yōu)化模型中。

當(dāng)系統(tǒng)完成初始化后,重力加速度和IMU速度可以準(zhǔn)確地獲得,因此在視覺優(yōu)化前可以通過IMU獲得整個系統(tǒng)的速度信息

(13)

2 試驗驗證與結(jié)果分析

本文中的算法驗證基于視覺慣性O(shè)RB_SLAM2框架,數(shù)據(jù)采用的是EuRoC數(shù)據(jù)集,這些數(shù)據(jù)集都是由迷你飛行器對兩個不同的房間和工業(yè)環(huán)境采集得到。數(shù)據(jù)集分為簡單的、中等的和復(fù)雜的情況,所使用的視覺慣性器件為VI-Sensor雙目慣性相機(jī),其中相機(jī)的采樣頻率為20 Hz,IMU的采樣頻率為200 Hz,真實軌跡可由數(shù)據(jù)提供,試驗只使用其左目相機(jī),處理器使用的是內(nèi)存為8 GB的Intel Core i7-7000筆記本。在整個試驗中,將本方案分別和OKVIS雙目[15]及ORB_SLAM2的雙目作比較,本試驗使用了兩個數(shù)據(jù)集畫圖以驗證試驗效果,分別為V1_01_easy、MH_03_median。

試驗1采用V1_01_easy數(shù)據(jù)集,將本方案與ORB_SLAM2雙目作比較,圖2(a)為ORB_SLAM2的V1_01_easy軌跡平面圖,圖2(b)為VIO_IMU的V1_01_easy軌跡平面圖,VIO_IMU為采用IMU輔助跟蹤模型的定位結(jié)果圖,其中ORB_SLAM2雙目的均方根誤差為0.087 m,VIO_IMU的均方根誤差為0.065 m。由圖2(a)可以看出,VIO_IMU的定位軌跡與真實軌跡更為符合。圖3(a)給出了與ORB_SLAM2雙目比較的V1_01_easy軌跡誤差,圖中可以明顯看出VIO_IMU的定位誤差在整體上要優(yōu)于ORB_SLAM2雙目的定位誤差;表1列出了定位誤差的狀態(tài)對比,可以看出,VIO_IMU定位誤差的中誤差、均方根誤差、最小值、中位數(shù)、均小于ORB_SLAM2雙目定位誤差的相應(yīng)結(jié)果。圖3右是定位誤差的小提琴圖,主要用來統(tǒng)計和分析數(shù)據(jù)的離散程度和分布密度,圖中可以看出VIO_IMU誤差的分布主要集中在0.025 m左右,而ORB_SLAM2雙目主要集中在0.095 m附近,VIO_IMU誤差的中位數(shù)和四分位數(shù)都優(yōu)于ORB_SLAM2雙目,上側(cè)的離散情況二者基本相同,VIO_IMU誤差的下側(cè)離散值要優(yōu)于ORB_SLAM2雙目的誤差。

表1輔助模型與ORB_SLAM2雙目在V1_01_easy數(shù)據(jù)集下誤差狀態(tài)對比m

模型stdrmsemaxminORB_SLAM2雙目0.0250.0920.1520.022VIO_IMU0.0230.0490.1380.006

試驗2采用MH_03_media數(shù)據(jù)集,將本方案與OKVIS雙目作比較。由于本文的定位方案及OKVIS是由慣性器件來恢復(fù)整個系統(tǒng)的尺度信息,存在一定的尺度誤差,而ORB_SLAM2可以直接由雙目獲得,對于中等尺度的MAV-MH數(shù)據(jù)集,ORB_SLAM2占絕對優(yōu)勢,因此MH_03_media數(shù)據(jù)集不考慮與ORB_SLAM2雙目的比較。圖4(a)為OKVIS雙目的MH_03_media軌跡平面圖,圖4(b)為VIO_IMU的MH_03_media軌跡平面圖,由圖4可知VIO_IMU和真實軌跡更為接近。表2為視覺慣性輔助模型與OKVIS在EuRoC數(shù)據(jù)集下的定位均方根誤差,由表1可以看到本文提出的定位方案優(yōu)于OKVIS的定位結(jié)果。

圖2

圖3

圖4

表2輔助模型與OKVIS在EuRoC數(shù)據(jù)集下的均方根誤差m

模型V1_01V1_02V1_03MH_03OKVIS0.0880.1730.1970.269VIO_IMU0.0650.1210.1560.099

3 結(jié) 語

本文針對快速運動下單目視覺慣性定位跟蹤失效的問題,提出了一種面向單目視覺慣性緊耦合定位的IMU輔助跟蹤模型,主要利用IMU獲得先驗的運動狀態(tài)作為整個系統(tǒng)的定位初值,代入到優(yōu)化算法中,提升單目視覺慣性緊耦合定位下的穩(wěn)健性。由于整個視覺慣性系統(tǒng)分為初始化狀態(tài)和初始化完成狀態(tài),因此分別對不同階段實現(xiàn)相應(yīng)的跟蹤方法,建立一個整體的IMU輔助跟蹤模型。

通過對不同SLAM公開數(shù)據(jù)集進(jìn)行試驗驗證,IMU輔助跟蹤模型優(yōu)于OKVIS雙目定位模型,相比ORB_SLAM2雙目的定位精度在小尺度范圍內(nèi)有較大的改善,說明本文的模型在單目視覺慣性定位中具有一定的研究意義。但本文的研究模型仍然存在不足之處,在初始位姿估計上只利用了IMU預(yù)積分提供的先驗旋轉(zhuǎn)和速度信息,當(dāng)同時使用IMU預(yù)積分解算的位置數(shù)據(jù)時,定位結(jié)果出現(xiàn)較大誤差。下一步將重點研究如何有效地將位置數(shù)據(jù)融合到初始位姿估計中,以提升單目視覺慣性緊耦合定位的精度和穩(wěn)健性。

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機(jī)模型
提煉模型 突破難點
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 欧美高清三区| 色综合a怡红院怡红院首页| 拍国产真实乱人偷精品| 国产成人午夜福利免费无码r| 亚洲人成网7777777国产| 久热99这里只有精品视频6| 国产无码高清视频不卡| 精品福利国产| 亚洲天堂首页| 另类重口100页在线播放| 国产成人精品高清在线| 久久精品中文字幕免费| 国产成人精品一区二区三区| 国产成人久久777777| 色天天综合| 99成人在线观看| 亚洲精品麻豆| 亚洲天堂久久| 亚洲精品无码专区在线观看| 亚洲综合久久一本伊一区| 曰韩人妻一区二区三区| 欧美精品成人| 国产成人精品18| 欧美第九页| 精品福利网| 亚洲性日韩精品一区二区| 国产精品真实对白精彩久久 | 色窝窝免费一区二区三区 | 久久精品亚洲热综合一区二区| 久久精品国产91久久综合麻豆自制| 国产真实乱子伦视频播放| 欧美第二区| 无码国产伊人| 黄色三级网站免费| 欧美国产日韩在线观看| 亚洲中文精品人人永久免费| 日韩无码视频专区| 欧美曰批视频免费播放免费| 91在线高清视频| 蜜臀av性久久久久蜜臀aⅴ麻豆 | 91精品国产自产在线老师啪l| 亚洲熟女偷拍| 中文字幕资源站| 理论片一区| 青青草国产免费国产| 91黄视频在线观看| 91精品国产情侣高潮露脸| 精品免费在线视频| 久久人搡人人玩人妻精品| 在线观看国产黄色| 亚洲成人精品在线| 成人第一页| 精品久久久久久久久久久| 高清不卡毛片| 2048国产精品原创综合在线| 一级一级一片免费| 天堂在线www网亚洲| 夜色爽爽影院18禁妓女影院| 无码国内精品人妻少妇蜜桃视频| 午夜国产精品视频黄 | 久久6免费视频| 真实国产乱子伦高清| 99人体免费视频| a级毛片视频免费观看| 日本日韩欧美| 九色综合伊人久久富二代| 国产在线视频欧美亚综合| 日韩毛片免费视频| 呦系列视频一区二区三区| 九九久久精品国产av片囯产区| 国产精品色婷婷在线观看| 精品撒尿视频一区二区三区| 夜夜高潮夜夜爽国产伦精品| 亚洲精品第五页| 国产福利大秀91| 亚洲第一天堂无码专区| 亚洲欧美一区二区三区麻豆| 亚洲无码视频图片| 亚洲va在线∨a天堂va欧美va| 日本国产精品| 五月天婷婷网亚洲综合在线| 青青青视频蜜桃一区二区|