李 卓, 劉潔瑜, 周 偉
(火箭軍工程大學導彈學院,西安 710025)
視覺里程計(Visual Odometer,VO)僅利用攝像機的輸入圖像對載體的位姿進行估計[1],近十幾年來已廣泛應用于各類機器人自主導航[2-3]。VO一般將局部運動估計級聯(lián)得出攝像機的全局導航信息,從而使得誤差不斷積累繁殖,在長時間大范圍情況下導航精度不高。
為實現(xiàn)大規(guī)模復雜環(huán)境下的準確導航,消除載體位姿估計的累計誤差,閉環(huán)檢測成為了視覺導航領域的基礎問題和研究熱點。所謂閉環(huán)檢測就是為了使相機識別出曾經到達過的場景,進而校正累積誤差。
由于閉環(huán)檢測應用場景越來越復雜,環(huán)境規(guī)模越來越龐大,其對圖像信息的壓縮要求也越來越高,因此滿足此要求的基于圖像特征相似性的閉環(huán)檢測在實際應用中占據了主導地位[4],且大多采用視覺詞袋(BoVW)[5-9]技術。其中:ANGELI等[5]研究了增量式視覺詞典構建問題;CUMMINS等[6-7]采用Chow-Liu樹繼承關系的閉環(huán)概率方法;LABBE等[8-9]設計了內存管理機制,提高了實時性。由于采用不同的特征提取和描述算子,基于SURF算子的FAB-MAP算法[10]無法保證實時性;GALVEZ-LOPEZ提出了基于FAST檢測算子和BRIEF特征算子的二進制視覺詞袋技術,計算效率得到了顯著提升[11];MUR-ARTAL等[12]采用具有旋轉不變性的ORB特征構建詞袋,保證實時性的同時提高了穩(wěn)定性;2016年LEVI[13]提出了LATCH二進制描述子,將以往二進制描述子的像素點對的比對轉變?yōu)槿M圖像塊的F范數比對,在保證二進制描述子實時性的同時提高了魯棒性。另外在閉環(huán)驗證方面,基于文獻[11]的DBoW2庫只考慮圖像中的特征描述,缺乏特征的幾何約束。……