999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經(jīng)網(wǎng)絡(luò)的視覺里程計(jì)

2019-08-13 09:06:30吳凡
山東工業(yè)技術(shù) 2019年21期
關(guān)鍵詞:深度學(xué)習(xí)

摘 要:經(jīng)典的視覺里程計(jì)系統(tǒng)提取稀疏或密集的特征并匹配以執(zhí)行幀到幀的運(yùn)動估計(jì),但是都需要針對它們所處的特定環(huán)境進(jìn)行仔細(xì)的參數(shù)調(diào)整。受深度網(wǎng)絡(luò)的最新進(jìn)展和以前關(guān)于應(yīng)用于 VO 的學(xué)習(xí)方法的啟發(fā),探索了使用卷積神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)視覺位姿估計(jì)任務(wù)。通過對公開數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),驗(yàn)證方法性能。最后,對算法進(jìn)行總結(jié)分析并對展望其發(fā)展趨勢。

關(guān)鍵詞:視覺里程計(jì);位姿估計(jì);深度學(xué)習(xí); 卷積神經(jīng)網(wǎng)絡(luò)

DOI:10.16640/j.cnki.37-1222/t.2019.21.083

0 引言

視覺里程計(jì)[1],也稱為幀間估計(jì),是視覺SLAM[2](simultaneous localization and mapping)中的核心內(nèi)容。經(jīng)典的基于幾何的視覺里程計(jì)方法分為特征點(diǎn)法與直接法。但是其依據(jù)于大量的計(jì)算,并且估計(jì)結(jié)果對相機(jī)參數(shù)極為敏感。近年來,人工智能、深度學(xué)習(xí)再次掀起了熱潮,基于深度學(xué)習(xí)的視覺任務(wù)豐富多樣,在分類、跟蹤等問題上都取得了很好的效果。但是多學(xué)習(xí)外觀特征,而視覺里程計(jì)需要學(xué)習(xí)圖片的幾何特征。

本文提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的視覺里程計(jì)方法,將數(shù)據(jù)集進(jìn)行預(yù)處理,將圖片序列中相鄰的兩張RGB圖片進(jìn)行串聯(lián),每張圖片的通道數(shù)為3,得到一個通道數(shù)為6的張量,輸入到神經(jīng)網(wǎng)絡(luò)中。參考Vgg網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行特征提取工作。將提取的特征輸入到全鏈接層將張量壓縮為位姿特征向量。通過KITTI數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),輸出圖片之間的相對位姿,并轉(zhuǎn)化為絕對位姿和地面真實(shí)軌跡進(jìn)行對比。

1 相關(guān)內(nèi)容

1.1 經(jīng)典的幾何方法

經(jīng)典的幾何幀間估計(jì)方法有著悠久的解決方案設(shè)計(jì)的歷史。最開始是基于稀疏的特征跟蹤,研究者們設(shè)計(jì)了很多具有魯棒性的角點(diǎn)、邊緣點(diǎn)、區(qū)塊等比較有代表性的點(diǎn)的特征提取與匹配的算法,在這些特征的基礎(chǔ)上估計(jì)相機(jī)的運(yùn)動,如SIFT,SURF,ORB等。Eigel[3]等人開發(fā)了最經(jīng)典的直接方法之一LSD-SLAM。直接方法在過去幾年中得到了最多的關(guān)注,Mur-Artal等人的ORB-SLAM[4]算法進(jìn)行稀疏特征的跟蹤也達(dá)到了令人印象深刻的魯棒性和準(zhǔn)確性。

1.2 深度學(xué)習(xí)法

深度學(xué)習(xí)采用端到端的方式進(jìn)行大量的自動學(xué)習(xí),并嘗試從數(shù)據(jù)中推斷它們。從學(xué)習(xí)方式分為有著明確標(biāo)簽的有監(jiān)督學(xué)習(xí)(supervised learning)與沒有明確標(biāo)簽采用聚類的思想的無監(jiān)督學(xué)習(xí)(unsupervised learning)。Posenet[5]利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)實(shí)現(xiàn)相機(jī)姿態(tài)估計(jì),訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)從一個單一的RGB圖像回歸相機(jī)的姿態(tài),并在大型室外場景與室內(nèi)場景進(jìn)行實(shí)驗(yàn)。Walch[6]在其去掉全連接層2048維的輸出向量基礎(chǔ)上加入循環(huán)神經(jīng)網(wǎng)絡(luò)架構(gòu)實(shí)現(xiàn)相機(jī)姿態(tài)回歸,捕捉像素關(guān)系。DeepVO[7]由兩個并行AlexNet的級聯(lián)卷積層組成并在末端串聯(lián),提取圖片的低級特征到高級特征。

2 算法結(jié)構(gòu)

2.1 基于CNN的特征提取部分

將連續(xù)的兩張圖片串聯(lián)為6個通道進(jìn)行特征提取,卷積層卷積核全部使用3×3的卷積核和2×2的池化核,其中兩個3×3卷積層的串聯(lián)相當(dāng)于1個5×5的卷積層,3個3×3的卷積層串聯(lián)相當(dāng)于1個7×7的卷積層。其中3個3×3的卷積層參數(shù)量只有7×7的一半左右,有效的減少了參數(shù)量。由捕捉大的特征逐漸到捕捉小的特征進(jìn)行過渡。

通過多個小的卷積核堆疊來替代大的卷積核,增加了非線性激活函數(shù),這有效的增加了特征學(xué)習(xí)的能力。

2.2 全連接層

在卷積層后面加入全連接層,將特征張量的維度降下來。以輸出6維度的相機(jī)位姿。隱藏單元數(shù)為4096,1024,512,128,最后壓縮為6維的表示圖片之間相對位姿的特征向量。全連接層后面也連接著非線性激活函數(shù)。整體的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

2.3 損失函數(shù)

3 實(shí)驗(yàn)

3.1 實(shí)驗(yàn)平臺與特征提取過程

實(shí)驗(yàn)平臺為顯卡RTX2080ti一塊,ubuntu16.04操作系統(tǒng)。在開源框架pytorch上實(shí)現(xiàn)。

選擇KITTI數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),采用有監(jiān)督的學(xué)習(xí)方法。將數(shù)據(jù)集中g(shù)ps等采集的變換矩陣表示的位姿轉(zhuǎn)化為3維的平移與3維的歐拉角表示,更利于反向梯度傳輸。首先將數(shù)據(jù)集計(jì)算圖片的均值與標(biāo)準(zhǔn)差,對其進(jìn)行歸一化處理。

3.2 訓(xùn)練過程

網(wǎng)絡(luò)在00,01,02,08上進(jìn)行訓(xùn)練,驗(yàn)證數(shù)據(jù)集按照0.2的比例分割來源于訓(xùn)練集的。采用Adam優(yōu)化算法,設(shè)置初始學(xué)習(xí)率為0.0005。batch梯度下降方法,Batchsize為16。網(wǎng)絡(luò)訓(xùn)練一個epoch大概需要5分鐘,模型的驗(yàn)證誤差與訓(xùn)練誤差整體收斂到一個較小的范圍大概需要130epoch,約26小時。訓(xùn)練與驗(yàn)證的損失曲線如圖2所示,其中紅色代表隨著迭代次數(shù)增加的訓(xùn)練損失,藍(lán)色代表隨著迭代次數(shù)增加的驗(yàn)證損失,可以從損失函數(shù)曲線看出,兩個損失都可以收斂到較好的范圍并且相差不多。

3.3 測試過程

按照場景由訓(xùn)練得到的模型進(jìn)行測試,在每個文件夾所處的序列圖像中,將圖片堆疊輸入到網(wǎng)絡(luò)中,得到預(yù)測的相對姿態(tài),有姿態(tài)解算將得出的相對姿態(tài)轉(zhuǎn)化為絕對姿態(tài),并計(jì)算平移損失、旋轉(zhuǎn)損失以及總損失。

如圖3所示。綠色的為KITTI上GPS等得出的位姿作為真實(shí)地面軌跡。紅色的為KITTI數(shù)據(jù)集通過深度神經(jīng)網(wǎng)絡(luò)測試得到相對姿態(tài)并進(jìn)行姿態(tài)解算得到的相對于第一幀的絕對姿態(tài)。

隨著訓(xùn)練epoch的增加,測試模型的誤差一直在減少,畫出的軌跡收斂性也有明顯的提升,圖3中的軌跡是訓(xùn)練到130epoch時,得到的均勻較好的軌跡曲線。從幾個測試的序列看出,基于卷積神經(jīng)網(wǎng)絡(luò)的位姿估計(jì)方法都獲得了準(zhǔn)確的軌跡形狀,但都存在軌跡漂移的現(xiàn)象,和經(jīng)典的位姿估計(jì)方法如ORB得到的軌跡準(zhǔn)確度還有差距。基于深度神經(jīng)網(wǎng)絡(luò)的視覺位姿估計(jì)精度仍需提升。

4 結(jié)論與發(fā)展趨勢

本文提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的視覺位姿估計(jì)方法。將兩張?jiān)嫉腞GB圖片以串聯(lián)的方式輸入到神經(jīng)網(wǎng)絡(luò)中。經(jīng)過實(shí)驗(yàn)發(fā)現(xiàn)在訓(xùn)練過程的參數(shù)設(shè)置很重要,合適的參數(shù)會使得網(wǎng)絡(luò)得到好的收斂,并測試出好的結(jié)果。在訓(xùn)練保存出較好的模型及優(yōu)化器下性能較優(yōu),位姿估計(jì)較為準(zhǔn)確。但是其和經(jīng)典的幾何方法算法性能還有待提高,但是可以作為其有效的補(bǔ)充。

實(shí)驗(yàn)可以將數(shù)據(jù)集進(jìn)行擴(kuò)充,使得在相機(jī)面臨豐富運(yùn)動時更加準(zhǔn)確。可以采用新的視覺傳感器,如對光線或天氣變化十分敏感,探索新的傳感器融合。將后端優(yōu)化,閉環(huán)檢測或整體過程基于深度學(xué)習(xí)實(shí)現(xiàn)的研究還相對更少,但是其是提高基于深度學(xué)習(xí)的相機(jī)位姿估計(jì)性能的有效途徑。

參考文獻(xiàn):

[1]NISTER D,NARODITSKY O,BERGEN J R.Visual odometry[C].Computer Vision and Pattern Recognition,2004.CVPR 2004.Proceedings of the 2004 IEEE Computer Society Conference on.IEEE,2004.

[2]BIRK A,PFINGSTHORN M.Simultaneous Localization and Mapping (SLAM)[M].Wiley Encyclopedia of Electrical and Electronics Engineering.John Wiley & Sons,Inc.2016.

[3]ENGEL J,THOMAS Sch?ps,CREMERS D.LSD-SLAM:Large-Scale Direct Monocular SLAM[C].European Conference on Computer Vision.Springer,Cham,2014:834-849.

[4]MUR-ARTAL R,MONTIEL J M M,Tardos J D.ORB-SLAM: a versatile and accurate monocular SLAM system[J].IEEE Transactions on Robotics,2015,31(05):1147-1163.

[5]KENDALL A,GRIMES M,CIPOLLA R.PoseNet:A Convolutional Network for Real-Time 6-DOF Camera Relocalization[C].IEEE International Conference on Computer Vision.2015.

[6]WALCH F,HAZIRBAS C,Leal-Taixé,Laura,et al.Image-based Localization with Spatial LSTMs[C].2016.

[7]MOHANTY V,AGRAWAL S,DATTA S,et al.DeepVO: A Deep Learning approach for Monocular Visual Odometry[C].2016.

基金項(xiàng)目:武器裝備軍內(nèi)重點(diǎn)科研項(xiàng)目資助

作者簡介:吳凡(1995-),女,河北保定人,碩士研究生,主要從事機(jī)器視覺與深度學(xué)習(xí)方面的研究。

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺構(gòu)建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學(xué)習(xí)的三級階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 欧美激情福利| 亚洲Av综合日韩精品久久久| 狠狠躁天天躁夜夜躁婷婷| 久久亚洲高清国产| 免费国产小视频在线观看| 国产一区二区免费播放| 欧美区一区| 国产无码制服丝袜| 毛片大全免费观看| 一级爱做片免费观看久久 | 中文字幕精品一区二区三区视频| 国产精品手机视频| 国产区在线观看视频| 69国产精品视频免费| 波多野结衣爽到高潮漏水大喷| 人妻少妇久久久久久97人妻| 免费一级无码在线网站| 亚洲国产精品无码久久一线| 免费看av在线网站网址| 伊人久综合| 99草精品视频| 欧美福利在线观看| 亚洲伊人天堂| 亚洲国产精品日韩欧美一区| 国模私拍一区二区| 欧洲高清无码在线| 在线观看精品国产入口| 国产精品无码久久久久久| 少妇高潮惨叫久久久久久| 欧美亚洲第一页| 国产亚洲精| 狠狠色狠狠色综合久久第一次| 伊人久久青草青青综合| 婷婷成人综合| 亚洲大学生视频在线播放 | 久久人搡人人玩人妻精品| 亚洲一区精品视频在线| 亚洲第七页| 亚洲最大福利网站| 亚洲乱码在线视频| 日韩麻豆小视频| 色哟哟国产精品| 午夜视频免费一区二区在线看| 色综合手机在线| 米奇精品一区二区三区| 九色视频最新网址| 一本大道无码高清| 国产成年女人特黄特色大片免费| 中文字幕久久精品波多野结| 久久天天躁狠狠躁夜夜2020一| 色婷婷狠狠干| 日本道综合一本久久久88| 色婷婷视频在线| 69免费在线视频| 亚洲精品成人片在线播放| 久久国产精品电影| 亚洲色成人www在线观看| 亚洲色图欧美视频| 久久大香伊蕉在人线观看热2| 国产精品久线在线观看| 亚洲一区免费看| 国产精品美女网站| 亚洲国产系列| 国产精品成人AⅤ在线一二三四 | 国产浮力第一页永久地址| 久久精品无码专区免费| 色哟哟国产精品一区二区| 婷婷中文在线| 亚洲中文字幕无码爆乳| 亚洲h视频在线| a天堂视频| 国产欧美在线视频免费| 先锋资源久久| 久久久精品无码一区二区三区| 四虎亚洲精品| 中文字幕在线日韩91| 国产a v无码专区亚洲av| 国产欧美视频在线观看| 99久久精品国产麻豆婷婷| 亚洲综合经典在线一区二区| 青青草原偷拍视频| 激情在线网|