999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進SIFT特征提取的單目SLAM方法研究

2020-06-30 10:07:21胡衡任甜甜王玉巍竟靜靜
科技創(chuàng)新導報 2020年8期

胡衡 任甜甜  王玉巍 竟靜靜

摘? ?要:目前視覺傳感器廣泛用于解決移動機器人同步定位與地圖構建問題,而精確、穩(wěn)定的圖像特征點提取技術是其中一個關鍵技術。針對傳統(tǒng)SIFT特征點出現數目大、分布廣的現象,可利用局部區(qū)域顯著參數指標值來優(yōu)化場景SIFT特征點的提取,并用于單目EKF-SLM算法中完成系統(tǒng)的SLAM過程。仿真實驗結果表明,在未知室內結構化場景中,改進后特征點的收斂速度更快,信息的不確定性更小,定位精度更高。

關鍵詞:SIFT? 單目視覺? EKF? 同步定位與地圖構建

中圖分類號:TP24? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? 文獻標識碼:A? ? ? ? ? ? ? ? ? ? ? ?文章編號:1674-098X(2020)03(b)-0103-04

基于單目視覺的未知場景中移動機器人同步定位與地圖創(chuàng)建(Simultaneous Localization and Mapping,SLAM)方法是實現機器人自主導航的重要研究方向之一,而如何確保從單目圖像中所提取環(huán)境特征的準確性和魯棒性是該方法的難點所在[1-4]。由于SIFT(Scale Invariant Feature Transform)特征點[5]的穩(wěn)定性較好且對噪聲的敏感度較低,故常采用SIFT特征點作為視覺SLAM問題中描述場景地圖的路標,但SIFT算法存在計算量大、復雜度高的不足,高實時性不易實現[6-8]。對此,本文嘗試改進已有SIFT特征提取算法以滿足場景特征點數量和空間分布及重復觀測性上的要求,實現快速構建高精度場景地圖的目的。

1? 改進SIFT特征提取算法

SIFT提取算法的基本過程包括:先從高斯差分尺度空間中獲取極值點,然后精準定位關鍵點并確定主方向,最終形成對應的特征描述子[9-10]。為了更好地描述場景周圍的狀況,需要在已有SIFT算法基礎上對所提取的路標特征的總數和空間分布進行適當優(yōu)化。基于此,本文從統(tǒng)計特性角度提出了一種改進SIFT特征提取方法,它根據區(qū)域的顯著參數指標值來獲取數目穩(wěn)定且分布合理的場景特征,不僅能夠達到EKF收斂要求而且滿足描述場景所需的精度,其具體步驟如下。

(1)提取當前幀中的SIFT特征。

其中,是場景圖像中特征點的實際觀測值,是單位陣。

只要確定了和的狀態(tài)結果,場景地圖就能夠直觀地描述。若檢測出新特征,則按照2.1節(jié)和2.2節(jié)中的方式得到其狀態(tài)與方差,并增廣到系統(tǒng)全狀態(tài)估計向量中即可。

3? ?SLAM系統(tǒng)仿真結果與分析

選取對象為實驗室內某處場景,手持單目相機在小范圍內緩慢平滑移動,采用改進SIFT特征提取算法獲取多幀圖像序列中的特征開展EKF-SLAM離線仿真過程。如圖2(c)結果所示,在24幀時場景特征的位置估計誤差已收斂到一定范圍里。伴隨著EKF迭代總數的增加,特征信息的不確定性將不斷縮小,最終趨于估計值附近,如圖2(d)第109幀時結果所示。

場景特征的距離估計誤差值對SLAM過程中地圖創(chuàng)建精度的影響非常明顯。圖3顯示了第24幀和第109幀時對應SLAM過程中場景特征在、方向上估計誤差的變化情況。結果顯示,基于改進SIFT特征提取的單目SLAM系統(tǒng)在第109幀時所有場景特征在、方向上的估計誤差值由第24幀時的6.21cm下降至1.72cm以內。該誤差值相對于所選用的實驗場景空間尺度而言是可以忽略的,而造成該誤差的主要原因是實驗設備測量精度有限且實驗場景較為復雜。

4? 結語

本文提出了一種基于改進SIFT特征的單目EKF-SLAM方法并進行了仿真實現。可以看出,采用基于區(qū)域顯著參數指標值的SIFT特征提取算法能夠使所獲取的場景特征既滿足數目有限的要求同時又表現出很好的空間分布特性。這些改進不但有助于加快單目SLAM系統(tǒng)的收斂速度,同時也便于更精準地構建出場景地圖。實驗仿真效果較為理想,表明了此方法能夠在單目視覺條件下較好地實現室內靜態(tài)結構化場景的地圖構建目的,既節(jié)約了成本又滿足了精度。

參考文獻

[1] 楊雪夢,姚敏茹,曹凱.移動機器人SLAM關鍵問題和解決方法綜述[J].計算機系統(tǒng)應用,2018(7):1-10.

[2] 邸凱昌,萬文輝,趙紅穎,等.視覺SLAM技術的進展與應用[J].測繪學報,2018(6):770-779.

[3] 朱凱,劉華峰,夏青元.基于單目視覺的同時定位與建圖算法研究綜述[J].計算機應用研究,2018(1):1-6.

[4] 劉浩敏,章國鋒,鮑虎軍.基于單目視覺的同時定位與地圖構建方法綜述[J].計算機輔助設計與圖形學學報,2016(6):855-868.

[5] Lowe D. Distinctive image features from scale-invariant key points[J].International Journal of Computer Vision,2004,60(2):91-110.

[6] 胡為,劉興雨.基于改進SIFT算法的單目SLAM圖像匹配方法[J].光電與控制,2019,26(5):7-13.

[7] 翟雨微.基于改進的SIFT圖像匹配算法研究[D].吉林大學,2017.

[8] 梁超,王亮,劉云紅.基于擴展卡爾曼濾波的實時視覺SLAM算法[J].計算機工程,2013,39(8):231-234.

[9] 屈有佳.基于SIFT特征的關鍵幀提取算法研究[D].北京交通大學,2015.

[10]滕日.基于SIFT的局部不變特征研究[D].中國科學院研究生院,2016.

[11]王丹.室內移動機器人單目視覺定位與建圖算法研究及實現[D].中國科學技術大學,2019.

[12]李月華,朱世強,于亦奇.工廠環(huán)境下改進的視覺SLAM算法[J].機器人,2019(1):95-103.

[13]Montiel A.D.J,Civera J. Unified Inverse Depth Parametrization for Monocular Slam[C].In Robotics Science and Systems Conference,2006.

[14]李帥鑫,李廣云,周陽林,等.改進的單目視覺實時定位與測圖方法[J].儀器儀表學報,2017,38(11):2849-2857.

[15]李策,魏豪左,盧冰,等.基于深度視覺的SLAM算法研究與實現[J].計算機工程與設計,2017(4):1062-1066.

[16]薛永勝,王姮,張華,等.EKF-SLAM算法的改進及其在Turtlebot的實現[J].西南科技大學學報,2015(1):54-59.

主站蜘蛛池模板: 中文字幕天无码久久精品视频免费| 无码不卡的中文字幕视频| 久久精品国产国语对白| 久久精品女人天堂aaa| 久久久久亚洲AV成人人电影软件| julia中文字幕久久亚洲| 99re精彩视频| 狠狠色噜噜狠狠狠狠奇米777| 国产制服丝袜91在线| 激情亚洲天堂| 日韩国产黄色网站| 国产91视频免费| 丁香亚洲综合五月天婷婷| 亚洲欧洲AV一区二区三区| 久久九九热视频| 天堂亚洲网| 国产精品视频久| 久久精品娱乐亚洲领先| 老司机午夜精品网站在线观看 | 在线观看国产精品日本不卡网| 福利视频一区| 国产福利拍拍拍| 熟女成人国产精品视频| 亚洲精品天堂在线观看| 免费在线看黄网址| 在线视频亚洲色图| 亚洲人成网7777777国产| 嫩草国产在线| 国产手机在线小视频免费观看| a毛片基地免费大全| 99久视频| 国产成人福利在线视老湿机| 亚洲AⅤ永久无码精品毛片| 91久久精品日日躁夜夜躁欧美| 97超碰精品成人国产| 人妻无码AⅤ中文字| 亚洲精品人成网线在线 | 制服丝袜 91视频| 亚洲视频欧美不卡| 国产全黄a一级毛片| 亚洲IV视频免费在线光看| 国产日韩精品欧美一区灰| 老司国产精品视频| 国产一区二区三区视频| 一级成人a毛片免费播放| 国产成人艳妇AA视频在线| 日韩在线1| 日韩国产亚洲一区二区在线观看| 日韩高清欧美| 久久亚洲欧美综合| 这里只有精品在线播放| 亚洲伊人久久精品影院| 在线视频精品一区| 日本日韩欧美| 国产精品成人免费视频99| 日韩最新中文字幕| 婷婷色丁香综合激情| 黄色a一级视频| 久久综合九色综合97网| 亚洲久悠悠色悠在线播放| www精品久久| 欧美在线伊人| 国产尹人香蕉综合在线电影| 中文字幕啪啪| 国产无码网站在线观看| 欧美69视频在线| 福利在线不卡| 亚洲成人高清无码| 日本三区视频| 国产自在自线午夜精品视频| 国产日本欧美亚洲精品视| 国产第一页屁屁影院| 狠狠躁天天躁夜夜躁婷婷| 中文精品久久久久国产网址| 成年午夜精品久久精品| 动漫精品中文字幕无码| 2024av在线无码中文最新| 在线播放真实国产乱子伦| 91av国产在线| 国产浮力第一页永久地址 | 亚洲综合色区在线播放2019| 国产区成人精品视频|