霍智豪,苗艷松
(1.山東大學 信息科學與工程學院,山東青島,266237;2. 魯東大學 教育科學學院,山東煙臺,264025)
視覺SLAM在實現過程中,目前公認的經典框架包含三個主體部分,分別是前端的視覺里程計,后端的非線性優化和回環檢測,如圖1所示 。

圖1 經典SLAM框架
在視覺SLAM技術框架中,傳感器信息是由運動相機采集到的有效幀經過預處理后的可用數據;視覺里程計利用這些數據估計相機的運動與局部地圖的大致輪廓;后端優化對視覺里程計估計的相機位姿進行優化,并且接受回環檢測的重復信息;本文將會對視覺里程計環節進行具體實驗與優化。
我們在此次設計中使用RGB-D 相機,在基本彩色圖像素獲取之外,還可以通過結構光(如Kinect相機)或飛行時間法(Tine-of-Flight,ToF)主動獲取深度信息,彩色圖像素的獲取與深度信息的獲取方式是不同的,我們先來闡述基本的針孔相機模型。
我們得到了相機模型的基本幾何約束:

設像素坐標系下N′點的坐標為,在齊次坐標系下表示式(1)(2)的約束條件:

我們定義上式中的運算矩陣為K,定義為相機的內參矩陣,完整的相機模型[2]敘述為:

引入與中心距離有關的高次多項式函數進行糾正,得到三維空間點最終映射到像素平面的完整模型:

r表示與中心坐標的距離。

我們通過結構光(如Kinect相機)或飛行時間法(Tine-of-Flight,ToF)主動獲取深度信息。

圖3 結構光
結構光法基于光學三角測量原理,根據攝像頭采集到的光信號變化來計算物體的位置與深度。……