楊楠

摘 要:移動機器人在人們日常生活中扮演著越來越重要的角色,高精度定位技術作為移動機器人關鍵技術之一而得到廣泛關注與研究。研究分析了目前已有的定位技術,并且提出一種改進的基于圖像信息的移動機器人自主定位技術,從圖像中獲取特征點,然后采用改進的匹配算法匹配連續幀之間的特征點,在已知相機參數的條件下計算出相機投影矩陣,解算出移動機器人姿態矩陣。基于圖像信息的定位算法,克服了其他定位方法信號漂移、定位精度差的缺點,并且該定位裝置具有價格低、易于安裝操作的特點。
關鍵詞:移動機器人;高精度定位;視覺定位;特征匹配;相機投影矩陣
中圖分類號:TP391.4 文獻標識碼:A 文章編號:2095-1302(2015)04-00-02
0 引 言
目前被廣泛使用的GPS定位技術,存在定位精度低、信號盲區、輸出頻率低等缺陷[1],因此新的定位技術[2]在不斷被探索。近幾年來,由于圖像處理技術快速發展,運用圖像方法輔助定位技術成為研究熱點[3,5-8],SHI Hang提出一種有效的景象匹配輔助GPS/SINS(GPS/SINS/SM)組合導航算法[3],主要目的在于修正GPS、SINS 以及GPS/ SINS 組合導航系統的估計誤差,提高系統的可靠性。美國NAVSYS公司開發了一種CPS/慣性/圖像組合系統GI-Eye,研發出一種視頻校正技術并應用在CPS /慣性/圖像傳感器中,使其在CPS信息連續丟失的情形下也可維持高精度的位置與姿態信息[4]。由于圖像匹配定位的精度很高,Sim利用這種精確的位置信息消除慣性導航系統長時間工作的累計誤差,以便提高慣性導航系統的定位精度[5]。那么,對于無信號情況下的機器人自主定位問題,也可以根據基于圖像匹配[6]獲取的機器人軌跡與初始位置信息來解決。Lowe提出的SIFT算法在視點變化、仿射變換和噪聲下具有良好的匹配性能[7];Ke提出PCA-SIFT算法將描述子從128維降到36維,提高了特征向量的匹配速度[8];Bay提出了SURF算法[9],主要根據Fast-Hessian矩陣的行列式檢測特征點,利用Haar小波的局部響應來描述特征。本文采用一種SURF匹配算法自適應切換的移動機器人運行軌跡提取方法,可以實現無信號情況下的移動機器人定位問題,并且其精度滿足機器人行為安全分析要求。
1 算法總體設計
機器人運行軌跡提取是利用高速率相機實時提取當前路面圖像,根據圖像匹配算法計算當前圖像與前一幀圖像的變化距離及變化角度,計算相機運動姿態反應機器人運動狀態。利用路面圖像的變化反映機器人行駛變化,然后根據圖像坐標系和機器人坐標系之間的關系推算出其實際運行軌跡。
此過程中,關鍵在于路面圖像的精確匹配。路面圖像紋理豐富、特征點多,所以本文首選采取了SURF特征匹配算法[9]。利用SURF算法檢測當前圖像和前一幀圖像的特征點,采用特征點特征向量的歐氏距離來作為兩幅圖像特征點的相似性判斷度量。找出當前圖像與前一幀圖像中歐氏距離最近的前兩個特征點,在這兩個特征點中,如果最近的距離除以次近的距離少于某個比例閾值,則接受這一對匹配點。因此選擇合適的閾值極其重要,本文選取的閾值為0.6,其在保證匹配穩定性的前提下,提高匹配的準確率,減少錯誤匹配點數。
2 視覺定位技術
本文采用如圖1所示的算法對機器人姿態進行解算。為了得到高精度的定位結果,需要預先知道相機參數,因此首先對相機進行標定。本實驗中所用相機為廣角鏡頭,故對圖像進行桶形矯正處理,IPM變換的作用是將圖像變換成俯視圖便于圖像處理。針對雙目相機圖像的匹配,本文擬采用SURF算法。
SURF算法是一種基于快速魯棒特征的匹配算法,是目前效率較高的圖像局部特征提取及描述算法,主要應用于圖像配準與拼接方面。該算法主要包括特征點檢測、特征點描述以及特征點匹配3個部分。
2.1 特征點檢測
2.2 特征點描述
在以特征點為圓心,半徑為6σ(σ為尺度)的圓內,計算Harr小波響應值dx,dy,對之進行高斯加權,記為Wdx,Wdy。然后對加權后的響應值進行直方圖統計,將一個圓的360°分成72組(每組5°)的60°大小扇形區域,分別對每個區域內的哈爾小波響應值相加計算得到一個新的矢量,最后選擇最長的矢量方向作為該特征點的主方向。
確定主方向后,以特征點為中心,選取中心點鄰域范圍內20σ*20σ大小的區域,然后將區域的主方向旋轉到特征點的主方向。將此區域劃分為4*4共16個子區域。對每個子區域,計算每個像素點經過加權的Harr小波在X方向和Y方向的響應值dx,dy,然后建立一個四維的特征向量如下:
對于前一幀圖像上的特征點,計算它到后一幀圖像上所有特征點的絕對值距離,得到一個距離集合。通過對距離集合進行比較運算得到最小絕對值距離和次最小絕對值距離。設定一個閾值T,當最小絕對值距離和次最小絕對值距離的比值小于T時,認為具有最小絕對值距離的特征點是匹配的,否則沒有點與該特征點相匹配。閾值設定越小,配準點對越少,但配準更穩定。
3 實驗結果及總結
采用機器人上安裝的相機采集路面圖像,對圖像處理從而得到運行軌跡。拍攝路面長度為6 m,可以轉化成279幀圖像,圖像大小為640*480,采用SURF算法對圖像進行特征點檢測和特征點匹配。圖2為該視頻中采用SURF算法匹配結果。其中,前兩幀圖像分別為前一幀和當前幀圖像,然后是兩幀圖像的匹配結果。
計算每幅圖像所有正確匹配點的偏移量和角度,然后使用其均值繪制軌跡。運行距離單位以像素點計,圖像移動長度與機器人實際運行長度的轉換比例依賴于實際拍攝時相機的位置。在本文實驗壞境下,可粗略獲得換算比例為1 m:580pixels,計算軌跡誤差,明顯可知誤差范圍<1 m,由于人為拍攝,存在輕微抖動,但不影響整體運行趨勢。
本文提出了一種基于SURF點匹配的機器人移動軌跡提取方法。該方法首先通過SURF算法與基于SURF獲取匹配點。計算匹配點之間的偏移量和角度,采用分類法消除錯誤的匹配點,最后根據正確匹配點之間的偏移量和角度,繪制運行軌跡。該方法保證了機器人軌跡提取的連續性,精確度滿足機器人行為安全分析的誤差要求。
參考文獻
[1] Yuan Xin, Yu Jixiang, Chen Zhe. Navigation System[M]. Beijing: Publishing House of Aeronautics Industry,1993.
[2] Gezici S. A survey on wireless position estimation[J]. Wireless Personal Communications, 2008, 44(3): 263-282.
[3] SHI H, YAN L, LIU B, et al. GPS/SINS integrated navigation algorithm aided by scene matching[J]. Journal of Tsinghua University (Science and Technology), 2008,48(7): 1182-1185,1189.
[4] Conte G, Doherty P. An integrated UAV navigation system based on aerial image matching[C]//Aerospace Conference, 2008 IEEE. IEEE, 2008: 1-10.
[5] Sim D G, Park R H, Kim R C, et al. Integrated position estimation using aerial image sequences[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2002, 24(1): 1-18.
[6] 趙玲.基于視覺和超聲傳感器融合的移動機器人導航系統研究[D].武漢:武漢理工大學,2007.
[7] Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International journal of computer vision, 2004, 60(2): 91-110.
[8] Ke Y, Sukthankar R. PCA-SIFT: A more distinctive representation for local image descriptors[C]//Computer Vision and Pattern Recognition, 2004. CVPR 2004. Proceedings of the 2004 IEEE Computer Society Conference on. IEEE, 2004(2):506-513.
[9] Bay H, Tuytelaars T, Van Gool L. Surf: Speeded up robust features[C]. Computer Vision–ECCV 2006, 2006: 404-417.