999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

單目視覺慣性定位的IMU輔助跟蹤模型

2018-11-30 09:17:16潘樹國黃礪梟
測繪通報 2018年11期
關(guān)鍵詞:模型

王 帥,潘樹國,黃礪梟,曾 攀

(東南大學(xué)儀器科學(xué)與工程學(xué)院,江蘇 南京 210096)

定位是機(jī)器人根據(jù)任務(wù)做出正確決策和路徑選擇的基礎(chǔ)[1-2],如何設(shè)計基于多傳感器的高精度和穩(wěn)健性的跟蹤定位模型顯得尤為重要。傳統(tǒng)的室外定位主要是衛(wèi)星導(dǎo)航定位[3-5],室內(nèi)定位算法主要有慣性導(dǎo)航法和視覺定位方法[6]。利用慣性傳感器與圖像傳感器的互補(bǔ)性,可將視覺定位與慣性導(dǎo)航技術(shù)相融合,得到精度更高、穩(wěn)健性更好的緊耦合定位技術(shù)。

單目視覺慣性緊耦合定位技術(shù)近年來發(fā)展迅速,由最初的基于卡爾曼濾波[7]的緊耦合方法逐漸發(fā)展到基于光束平差法(bundle adjustment,BA[8])優(yōu)化和圖優(yōu)化的方法。Anastasios I.Mourikis于2007年提出了一個典型的基于擴(kuò)展卡爾曼濾波的緊耦合模型MSCKF[9],從此開啟了視覺慣性緊耦合的定位方法。MSCKF的跟蹤模型是基本的視覺參考幀模型,在跟蹤情況下沒有使用IMU的先驗數(shù)據(jù),因此系統(tǒng)極易不收斂,導(dǎo)致定位精度較差。國外ORB_SLAM2[10]的作者Raul Mur-Artal于2017年提出了具有地圖重用的視覺慣性單目SLAM技術(shù)[11],提出了一種簡便的視覺慣性聯(lián)合初始化方法,但該方法需要15 s左右的初始化時間,因此在初始化成功之前需要穩(wěn)定的視覺前端基礎(chǔ),而ORB_SLAM在初始化期間采用的是簡單的勻速跟蹤模型,在相機(jī)劇烈運動時無法正確初始化,甚至跟蹤失敗。香港科大機(jī)器人研究所于2017年提出了VINS(visual-inertial system)[13],VINS視覺方面采用的是稀疏光流法進(jìn)行跟蹤定位,文中提出了一種穩(wěn)健性的視覺慣性聯(lián)合初始化過程和恢復(fù)過程,以及基于滑動窗口的緊耦合非線性優(yōu)化方法,但是整個系統(tǒng)采用的是最基本的參考幀跟蹤模型,無法克服復(fù)雜的運動環(huán)境。

綜上所述,由于傳統(tǒng)的單目視覺慣性定位跟蹤模型都采用簡單的參考幀模型和勻速模型,系統(tǒng)的定位結(jié)果易受劇烈運動和復(fù)雜環(huán)境影響,從而降低定位精度;而IMU先驗數(shù)據(jù)可以有效克服劇烈運動等影響,因此設(shè)計一種面向單目視覺慣性緊耦合定位的IMU輔助跟蹤模型具有重要的意義。

1 IMU輔助跟蹤模型設(shè)計

前文提到的勻速跟蹤模型和傳統(tǒng)的參考幀跟蹤模型原理簡單,但無法克服劇烈運動問題,因此本文重點提出一種IMU輔助跟蹤模型。IMU輔助跟蹤模型是結(jié)合單目勻速模型和IMU先驗數(shù)據(jù),為初始化階段及初始化完成后提供一個穩(wěn)健性的視覺前端,從而有效提高視覺慣性系統(tǒng)的整體性能。

1.1 IMU先驗數(shù)據(jù)解算

IMU可以輸出加速度和角速度,對角速度進(jìn)行積分可以獲得IMU單元的相對旋轉(zhuǎn)。

(1)

同時IMU的數(shù)據(jù)幀率一般遠(yuǎn)高于視覺,在視覺的k和k+1幀之間通常會有多組IMU數(shù)據(jù),IMU預(yù)積分模型[14]即是計算視覺k和k+1幀之間的一組IMU積分值。式(2)為IMU運動模型

(2)

t+Δt時刻的運動狀態(tài)可通過積分獲得

(3)

利用中值積分法,聯(lián)立式(1)和式(3)可得

(4)

上式可以看出每次對t+Δt時刻的旋轉(zhuǎn)計算都需要知道t時刻的旋轉(zhuǎn),因此當(dāng)RWB(t)隨時間變化后需要重新計算積分,這將導(dǎo)致計算量的增大。為了避免重復(fù)的狀態(tài)傳播計算,采用預(yù)積分的方式

(5)

(6)

(7)

1.2 系統(tǒng)初始狀態(tài)估計

當(dāng)系統(tǒng)處于初始化階段時,由于系統(tǒng)速度、重力加速度和尺度無法獲取,因此只能使用IMU旋轉(zhuǎn)數(shù)據(jù)。

圖1 勻速跟蹤模型

圖1為一般的勻速跟蹤模型,假設(shè)有3個連續(xù)幀,F(xiàn)1、F2和F3之間的相對旋轉(zhuǎn)分別為ΔR12和ΔR23,勻速跟蹤模型是假設(shè)相鄰幀之間的相對變換不變,即

ΔT12=ΔT23

(8)

F1與F2之間的相對變換

(9)

式中,RW1和RW2分別為F1和F2的旋轉(zhuǎn);pW1和pW2分別為F1和F2的位移;TW1和TW2分別為F1和F2的位姿。

因此F3的變換矩陣

TW3=ΔT23TW3=ΔT12TW3=

(10)

由旋轉(zhuǎn)矩陣間的轉(zhuǎn)換關(guān)系可知

(11)

式中,RBC為相機(jī)和IMU之間的旋轉(zhuǎn)外參;ΔR23為相機(jī)幀F(xiàn)2與相機(jī)幀F(xiàn)3之間的相對旋轉(zhuǎn),是由IMU先驗數(shù)據(jù)提供;RW3為F3的旋轉(zhuǎn)。

將旋轉(zhuǎn)矩陣代入到變換矩陣模型中

(12)

最終將改進(jìn)的TW3作為初始值代入到優(yōu)化模型中。

當(dāng)系統(tǒng)完成初始化后,重力加速度和IMU速度可以準(zhǔn)確地獲得,因此在視覺優(yōu)化前可以通過IMU獲得整個系統(tǒng)的速度信息

(13)

2 試驗驗證與結(jié)果分析

本文中的算法驗證基于視覺慣性O(shè)RB_SLAM2框架,數(shù)據(jù)采用的是EuRoC數(shù)據(jù)集,這些數(shù)據(jù)集都是由迷你飛行器對兩個不同的房間和工業(yè)環(huán)境采集得到。數(shù)據(jù)集分為簡單的、中等的和復(fù)雜的情況,所使用的視覺慣性器件為VI-Sensor雙目慣性相機(jī),其中相機(jī)的采樣頻率為20 Hz,IMU的采樣頻率為200 Hz,真實軌跡可由數(shù)據(jù)提供,試驗只使用其左目相機(jī),處理器使用的是內(nèi)存為8 GB的Intel Core i7-7000筆記本。在整個試驗中,將本方案分別和OKVIS雙目[15]及ORB_SLAM2的雙目作比較,本試驗使用了兩個數(shù)據(jù)集畫圖以驗證試驗效果,分別為V1_01_easy、MH_03_median。

試驗1采用V1_01_easy數(shù)據(jù)集,將本方案與ORB_SLAM2雙目作比較,圖2(a)為ORB_SLAM2的V1_01_easy軌跡平面圖,圖2(b)為VIO_IMU的V1_01_easy軌跡平面圖,VIO_IMU為采用IMU輔助跟蹤模型的定位結(jié)果圖,其中ORB_SLAM2雙目的均方根誤差為0.087 m,VIO_IMU的均方根誤差為0.065 m。由圖2(a)可以看出,VIO_IMU的定位軌跡與真實軌跡更為符合。圖3(a)給出了與ORB_SLAM2雙目比較的V1_01_easy軌跡誤差,圖中可以明顯看出VIO_IMU的定位誤差在整體上要優(yōu)于ORB_SLAM2雙目的定位誤差;表1列出了定位誤差的狀態(tài)對比,可以看出,VIO_IMU定位誤差的中誤差、均方根誤差、最小值、中位數(shù)、均小于ORB_SLAM2雙目定位誤差的相應(yīng)結(jié)果。圖3右是定位誤差的小提琴圖,主要用來統(tǒng)計和分析數(shù)據(jù)的離散程度和分布密度,圖中可以看出VIO_IMU誤差的分布主要集中在0.025 m左右,而ORB_SLAM2雙目主要集中在0.095 m附近,VIO_IMU誤差的中位數(shù)和四分位數(shù)都優(yōu)于ORB_SLAM2雙目,上側(cè)的離散情況二者基本相同,VIO_IMU誤差的下側(cè)離散值要優(yōu)于ORB_SLAM2雙目的誤差。

表1輔助模型與ORB_SLAM2雙目在V1_01_easy數(shù)據(jù)集下誤差狀態(tài)對比m

模型stdrmsemaxminORB_SLAM2雙目0.0250.0920.1520.022VIO_IMU0.0230.0490.1380.006

試驗2采用MH_03_media數(shù)據(jù)集,將本方案與OKVIS雙目作比較。由于本文的定位方案及OKVIS是由慣性器件來恢復(fù)整個系統(tǒng)的尺度信息,存在一定的尺度誤差,而ORB_SLAM2可以直接由雙目獲得,對于中等尺度的MAV-MH數(shù)據(jù)集,ORB_SLAM2占絕對優(yōu)勢,因此MH_03_media數(shù)據(jù)集不考慮與ORB_SLAM2雙目的比較。圖4(a)為OKVIS雙目的MH_03_media軌跡平面圖,圖4(b)為VIO_IMU的MH_03_media軌跡平面圖,由圖4可知VIO_IMU和真實軌跡更為接近。表2為視覺慣性輔助模型與OKVIS在EuRoC數(shù)據(jù)集下的定位均方根誤差,由表1可以看到本文提出的定位方案優(yōu)于OKVIS的定位結(jié)果。

圖2

圖3

圖4

表2輔助模型與OKVIS在EuRoC數(shù)據(jù)集下的均方根誤差m

模型V1_01V1_02V1_03MH_03OKVIS0.0880.1730.1970.269VIO_IMU0.0650.1210.1560.099

3 結(jié) 語

本文針對快速運動下單目視覺慣性定位跟蹤失效的問題,提出了一種面向單目視覺慣性緊耦合定位的IMU輔助跟蹤模型,主要利用IMU獲得先驗的運動狀態(tài)作為整個系統(tǒng)的定位初值,代入到優(yōu)化算法中,提升單目視覺慣性緊耦合定位下的穩(wěn)健性。由于整個視覺慣性系統(tǒng)分為初始化狀態(tài)和初始化完成狀態(tài),因此分別對不同階段實現(xiàn)相應(yīng)的跟蹤方法,建立一個整體的IMU輔助跟蹤模型。

通過對不同SLAM公開數(shù)據(jù)集進(jìn)行試驗驗證,IMU輔助跟蹤模型優(yōu)于OKVIS雙目定位模型,相比ORB_SLAM2雙目的定位精度在小尺度范圍內(nèi)有較大的改善,說明本文的模型在單目視覺慣性定位中具有一定的研究意義。但本文的研究模型仍然存在不足之處,在初始位姿估計上只利用了IMU預(yù)積分提供的先驗旋轉(zhuǎn)和速度信息,當(dāng)同時使用IMU預(yù)積分解算的位置數(shù)據(jù)時,定位結(jié)果出現(xiàn)較大誤差。下一步將重點研究如何有效地將位置數(shù)據(jù)融合到初始位姿估計中,以提升單目視覺慣性緊耦合定位的精度和穩(wěn)健性。

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機(jī)模型
提煉模型 突破難點
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: a欧美在线| 亚洲va欧美va国产综合下载| 天天综合色天天综合网| 国产福利免费观看| 日本国产精品一区久久久| 美臀人妻中出中文字幕在线| 99久久精品国产精品亚洲| 国产黄色片在线看| 久久精品波多野结衣| 四虎成人精品在永久免费| 色成人亚洲| 偷拍久久网| 国产精品成人一区二区| 中文字幕在线免费看| 亚洲天堂首页| 亚洲无线视频| 人妻精品全国免费视频| 爽爽影院十八禁在线观看| 亚洲精品无码日韩国产不卡| 欧美性久久久久| 日本一本正道综合久久dvd | 中日无码在线观看| 国产白浆视频| 性视频一区| 国产精品视频第一专区| 国产91特黄特色A级毛片| 亚洲精品国产综合99| 不卡午夜视频| 91po国产在线精品免费观看| 在线精品视频成人网| 一级一级特黄女人精品毛片| 在线观看精品自拍视频| 精品人妻AV区| 最新亚洲人成网站在线观看| 中日韩一区二区三区中文免费视频 | 亚洲国产精品一区二区高清无码久久| 国产91av在线| 激情無極限的亚洲一区免费| 久久久久久久97| 亚洲码在线中文在线观看| 亚洲一区波多野结衣二区三区| 亚洲人成网站在线观看播放不卡| 国产成人综合久久| 黄色网站在线观看无码| 97se亚洲综合| 九九热精品视频在线| 国产精品久久久久久久伊一| 欧洲日本亚洲中文字幕| 国产精品手机在线播放| 免费三A级毛片视频| 亚洲狼网站狼狼鲁亚洲下载| 最新精品国偷自产在线| 国产精品尤物在线| 国产91丝袜在线播放动漫| 亚洲国内精品自在自线官| 国产精品尤物铁牛tv | 日韩欧美国产精品| 色综合久久综合网| 亚洲国产成熟视频在线多多| 国产又爽又黄无遮挡免费观看 | 亚洲色图另类| 九色综合视频网| 久久美女精品国产精品亚洲| 国产SUV精品一区二区| 亚洲视频在线网| 曰AV在线无码| 国产高清在线观看91精品| 全部免费毛片免费播放| 亚洲AV无码久久精品色欲| 欧美五月婷婷| 亚洲国产成人精品无码区性色| 久久国产高清视频| 久青草国产高清在线视频| 亚洲福利一区二区三区| 久久久久免费精品国产| 国产精品亚洲日韩AⅤ在线观看| 日本午夜三级| 中文字幕首页系列人妻| 2021天堂在线亚洲精品专区| 国产午夜一级淫片| 很黄的网站在线观看| 亚洲高清无在码在线无弹窗|