999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于LSTM與孿生網(wǎng)絡(luò)的序列圖像視覺定位技術(shù)

2019-10-25 06:29:50梁欣凱宋闖郝明瑞趙佳佳鄭多
現(xiàn)代防御技術(shù) 2019年5期
關(guān)鍵詞:數(shù)據(jù)庫信息

梁欣凱,宋闖,郝明瑞,趙佳佳,鄭多

(復(fù)雜系統(tǒng)控制與智能協(xié)同技術(shù)重點實驗室,北京 100074)

0 引言

隨著時代的發(fā)展,軍事領(lǐng)域?qū)_定位的需求越來越迫切。一般而言,明確自身和敵方位置,是完成路徑規(guī)劃、避障、精確打擊、群體協(xié)同等任務(wù)的基礎(chǔ)。因此,定位技術(shù)是一項基本技術(shù),關(guān)系著軍事領(lǐng)域多方面的應(yīng)用與發(fā)展。

過去以及現(xiàn)在,全球定位系統(tǒng)(GPS)、北斗系統(tǒng)、伽利略系統(tǒng)憑借其能夠提供高精度的定位與授時信息,已經(jīng)在越來越多的領(lǐng)域發(fā)揮著重要的作用。然而在復(fù)雜的野外環(huán)境或室內(nèi)環(huán)境,由于建筑物或障礙物等遮擋影響,GPS等定位系統(tǒng)[1]無法有效工作,因此需要尋求其他的定位方式,但是最近提出的射頻定位技術(shù),如基于WiFi或藍牙,卻存在需要前期部署的局限。

為了克服上述困難,研究人員借助圖像這種信息量豐富的載體,提出了視覺定位技術(shù)。傳統(tǒng)的視覺定位技術(shù)從給定的圖像中提取線索或特征如SIFT[2]匹配尋找地理參考系圖像庫中具有相近特征的圖像,來輸出對應(yīng)的位置和姿態(tài)信息。其進一步延伸出視覺同時定位與地圖構(gòu)建技術(shù)(visual simultaneous localization and mapping,vSLAM[3])和運動恢復(fù)結(jié)構(gòu)技術(shù)(SFM[4]),這些技術(shù)廣泛應(yīng)用于室內(nèi)機器人如掃地機器人等。但是該類技術(shù)存在兩方面問題:一方面,并不是所有的線索或特征都對定位有效,尤其當(dāng)光照、天氣環(huán)境等發(fā)生重大變化,或出現(xiàn)大范圍遮擋、小范圍高動態(tài)變化、重疊或運動模糊等,以上方法提取的特征隨之發(fā)生嚴重畸變,造成圖像間特征匹配錯誤,最終導(dǎo)致定位失敗;另一方面,傳統(tǒng)視覺定位技術(shù)往往需要構(gòu)建場景地圖,而地圖的大小與場景范圍相關(guān),所以包含數(shù)以百萬計的特征元素大場景地圖下的特征匹配的實時性遭遇嚴重考驗。因此需要提取跟定位更密切相關(guān)的局部特征與全局特征,增強對非位置信息參數(shù)變化的魯棒性。

近些年,借助卷積神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)高級抽象特征提取的優(yōu)勢和循環(huán)神經(jīng)網(wǎng)絡(luò)對序列數(shù)據(jù)間關(guān)系的理解,深度學(xué)習(xí)技術(shù)在目標(biāo)檢測、語音識別等領(lǐng)域取得巨大成功。基于此,部分研究人員將深度學(xué)習(xí)技術(shù)與視覺定位相結(jié)合,提出了基于位姿回歸的PoseNet[5]及其基于貝葉斯網(wǎng)絡(luò)的改進[6];為了解決PoseNet中全連接層計算效率低下的問題[7],利用LSTM處理卷積網(wǎng)絡(luò)輸出1 024維向量間的關(guān)系信息,進而預(yù)測位姿;為了將視覺定位技術(shù)應(yīng)用于序列圖像[8],將雙向long short-term memory(LSTM)應(yīng)用于PoseNet改進。盡管以上的深度學(xué)習(xí)定位算法對環(huán)境變化和大場景表現(xiàn)出良好的適應(yīng)性,并且能夠利用序列圖像位姿關(guān)系進行位姿約束,但是其缺乏圖像間運動視差信息、圖像間位姿信息、圖像間像素關(guān)系信息相互的耦合,進而缺乏場景三維結(jié)構(gòu)特征的約束,其定位精度提高存在天然瓶頸。

為了解決以上所提到序列圖像視覺定位面臨的問題,本文研究了基于LSTM與孿生網(wǎng)絡(luò)的序列圖像視覺定位技術(shù),利用CNN對目標(biāo)特征識別的優(yōu)勢與LSTM能良好提取時序信息的優(yōu)勢,通過孿生網(wǎng)絡(luò)獲得圖像間運動視差信息與LSTM獲得圖像間位姿關(guān)系信息的耦合,依靠端對端方式,學(xué)習(xí)圖像像素特征、圖像對應(yīng)場景三維結(jié)構(gòu)特征與圖像對應(yīng)的位姿信息的映射關(guān)系。最終,通過開源數(shù)據(jù)庫Microsoft 7-Scenes和仿真生成的協(xié)同跟蹤樣本與衛(wèi)星圖像樣本,驗證了所提出算法的準(zhǔn)確性與有效性。

1 視覺定位基本原理

視覺定位的任務(wù)就是確定任意坐標(biāo)系下一張圖像所對應(yīng)的位姿信息。視覺定位技術(shù)[5-10]首先建立帶有未知參數(shù)θ的模型f(x,θ),然后通過最小化代價函數(shù)獲得參數(shù)θ值,最后通過參數(shù)已知的模型預(yù)測目標(biāo)圖像位姿信息。

(1)

式中:dp和dq分別是預(yù)測位置值、姿態(tài)值與真實值之間的距離函數(shù),通常為L1或L2范數(shù);β是一個平衡位置與姿態(tài)誤差的手工權(quán)值。

2 基于LSTM的序列圖像視覺定位技術(shù)

LSTM是一類特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),其適合于處理與預(yù)測時間序列中間隔和延遲相對較長的重要事件;孿生網(wǎng)絡(luò)能夠解析2張圖像間的對應(yīng)關(guān)系,廣泛地應(yīng)用于雙目立體匹配[11],運動視差[12]、光流[13]等方面。基于此,本文所構(gòu)建深度神經(jīng)網(wǎng)絡(luò)的主要目的是通過運動視差信息與位姿時序信息的相互耦合,進而利用圖像間位姿關(guān)系信息的一致性縮小圖像回歸六自由度位姿的誤差,進而實現(xiàn)精確的視覺定位。

2.1 網(wǎng)絡(luò)結(jié)構(gòu)

2.2 損失函數(shù)

PoseNet[5]指出分別訓(xùn)練位置與姿態(tài)的效果遠遠不如位姿耦合訓(xùn)練,因此本文將位姿耦合起來作為損失函數(shù)(參考式(1))。由式(1)可知,存在起平衡位置損失與姿態(tài)損失作用的超參數(shù)β。由于不同應(yīng)用場景β的選擇不同,因此為了避免費時遍歷選擇合適的β數(shù)值[5],針對如何人工選擇β值進行了經(jīng)驗歸納,但是該基于專家知識的方案難以直接應(yīng)用于實際場景,因此需要一類β值的自動學(xué)習(xí)策略。

圖1 基于LSTM的六自由度位姿回歸網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Six-degree-of-freedom pose regression network structure based on LSTM

圖2 基于孿生網(wǎng)絡(luò)的圖像間位姿變換回歸網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Image reconstruction regression network structure based on siamese network

(2)

式中:D為連續(xù)圖像的幀數(shù);

(3)

(4)

雖然式(2)解決了β自動尋優(yōu)的問題,但是該損失函數(shù)依然沒有包含關(guān)于圖像間關(guān)系信息,因此借助基于孿生網(wǎng)絡(luò)的圖像間位姿變換回歸網(wǎng)絡(luò)輸出量,建立如下的損失函數(shù):

(5)

式中:

loss_var(t)=var_pos(t)+var_att(t);

3 仿真實驗

本節(jié)分別在開源數(shù)據(jù)庫Microsoft 7-Scenes和仿真數(shù)據(jù)庫驗證所提出的基于LSTM與孿生網(wǎng)絡(luò)的序列圖像視覺定位方案的有效性和準(zhǔn)確性,并與其他主流的深度學(xué)習(xí)視覺定位算法進行了比較,表現(xiàn)了本文所提出算法的優(yōu)勢。

3.1 數(shù)據(jù)庫樣本

Microsoft 7-Scenes:該數(shù)據(jù)庫包含了7類典型室內(nèi)辦公室場景的RGBD圖像數(shù)據(jù),該數(shù)據(jù)庫由手持Kinect采集,像素分辨率為640×480。由于手持采集再累加室內(nèi)因素,因此該數(shù)據(jù)庫包含大量運動模糊、重疊、紋理缺失的圖像數(shù)據(jù),所以該數(shù)據(jù)庫是進行視覺定位與跟蹤性能評價的常用數(shù)據(jù)庫之一。

仿真數(shù)據(jù)庫:包含紅外SE-Workbench-IR仿真軟件生成的協(xié)同跟蹤圖像與基于衛(wèi)星圖像的機場數(shù)據(jù)如圖3、圖4,像素分辨率為640×480。以不依賴通信的協(xié)同編隊定位為出發(fā)點,通過前視攝像頭以相距目標(biāo)150~650 m(采樣間隔10 m),相對俯仰角、滾轉(zhuǎn)角、偏航角在-20°~20°(采樣間隔為3°)進行采樣,預(yù)測目標(biāo)與自身的位姿關(guān)系;以無人機自主降落為出發(fā)點,依靠距機場直線距離9 km左右的衛(wèi)星圖變化得到不同距離不同角度機場圖像。圖3、圖4分別為以上2種數(shù)據(jù)庫的典型樣本。

圖3 紅外SE-Workbench-IR生成的協(xié)同跟蹤圖像Fig.3 Collaborative tracking image generated by SE-Workbench-IR

3.2 網(wǎng)絡(luò)訓(xùn)練

為了強算法的魯棒性,對原始圖像進行如下增廣處理:如增加高斯與椒鹽噪聲,左右上下翻轉(zhuǎn),亮度對比度變換等操作,最終為了適應(yīng)于網(wǎng)絡(luò)結(jié)構(gòu)輸入的像素條件,將圖像裁剪成224×224,作為輸入量。

圖4 基于衛(wèi)星圖像的機場數(shù)據(jù)Fig.4 Airport data based on satellite imagery

本文利用ADAM求解器進行優(yōu)化處理,其中ADAM的權(quán)值β1=0.9,β2=0.999,ε=10-10。將初始學(xué)習(xí)率設(shè)置為0.000 2,并根據(jù)訓(xùn)練迭代次數(shù)分階段將學(xué)習(xí)率進行指數(shù)下降。此外,本文基于tensorflow框架實現(xiàn)所提出的算法,在NVIDIA Titan X GPU訓(xùn)練120 000次,批處理量為32。

3.3 性能分析

本文所提出算法在以上提到的數(shù)據(jù)庫進行定位驗證,其實驗結(jié)果如表1、表2與圖5所示。

表1 本文算法與其他基于深度學(xué)習(xí)視覺定位算法在Microsoft 7-Scenes的定位誤差均值的對比Table 1 Comparison of the median value of the algorithm in this paper with other depth-based learning visual positioning algorithms in Microsoft 7-Scenes

表2 本文算法在仿真數(shù)據(jù)庫的定位性能Table 2 Positioning performance of the algorithm in the simulation database

圖5 基于LSTM與孿生網(wǎng)絡(luò)的視覺定位算法在 7-Scenes的定位效果(紅圓點為真實位置、藍×為預(yù)測位置、綠方塊為定位誤差)Fig.5 Positioning effect of visual positioning algorithm based on LSTM and siamese network in 7-Scenes (Red dot is the real position,the blue × is the predicted position,and the green square is the positioning error)

通過表1可以看出,本文提出的基于LSTM與孿生網(wǎng)絡(luò)的視覺定位技術(shù)無論在位置回歸方面還是姿態(tài)回歸方面均超過了之前的基于深度學(xué)習(xí)的視覺定位性能。

通過圖5可以看出,左圖分別為預(yù)測的位姿信息和真實的位姿信息,坐標(biāo)分別為x,y,z,單位為m,右圖為位姿誤差坐標(biāo)系與單位與左圖一致。雖然7-Scenes數(shù)據(jù)庫自身具有運動模糊,光照劇烈變化等對于視覺定位精度產(chǎn)生影響的特性,但是該方案體現(xiàn)的定位效果已經(jīng)可以滿足室內(nèi)應(yīng)用需要,進一步驗證了本文方案的有效性與可靠性。

通過表2可知,在大范圍場景下,本文提出的視覺定位依然具有良好的定位性能,同時其運算時間并沒有隨著場景范圍的擴大而增加,其運算時間在百毫秒量級,遠遠優(yōu)于傳統(tǒng)視覺定位方案。(因為機場數(shù)據(jù)沒有真實的姿態(tài)角度信息,因此沒有進行評判。)

由于協(xié)同跟蹤圖像背景始終發(fā)生變化,在沒有經(jīng)過嚴格前后景分割的基礎(chǔ)下,SIFT算法始終無法準(zhǔn)確估計目標(biāo)對象相對于自身的位姿關(guān)系,該試驗進一步證明基于LSTM與孿生網(wǎng)絡(luò)的視覺定位技術(shù)不僅僅能夠克服場景變化的影響而且能夠在捕獲圖像中的感興趣顯著區(qū)域具有優(yōu)勢。

4 結(jié)束語

針對軍事領(lǐng)域迫切需求的視覺定位技術(shù),基于LSTM與孿生網(wǎng)絡(luò)的序列圖像視覺定位技術(shù),繼承了深度學(xué)習(xí)提取高級特征的優(yōu)勢,突破了遮擋,紋理不清晰,重疊等傳統(tǒng)視覺定位技術(shù)的桎梏,達到良好的定位精度,滿足實際應(yīng)用基本要求。此外,該算法在仿真數(shù)據(jù)庫的應(yīng)用,也為飛行器編隊協(xié)同飛行、精確制導(dǎo)打擊等方向應(yīng)用奠定了基礎(chǔ)。

猜你喜歡
數(shù)據(jù)庫信息
數(shù)據(jù)庫
財經(jīng)(2017年15期)2017-07-03 22:40:49
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
數(shù)據(jù)庫
財經(jīng)(2017年2期)2017-03-10 14:35:35
數(shù)據(jù)庫
財經(jīng)(2016年15期)2016-06-03 07:38:02
數(shù)據(jù)庫
財經(jīng)(2016年3期)2016-03-07 07:44:46
數(shù)據(jù)庫
財經(jīng)(2016年6期)2016-02-24 07:41:51
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
數(shù)據(jù)庫
財經(jīng)(2010年20期)2010-10-19 01:48:32
信息
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 无码AV日韩一二三区| 亚洲自拍另类| 亚洲欧美一区二区三区图片| 日韩av电影一区二区三区四区| 亚洲三级影院| 亚洲妓女综合网995久久| 制服无码网站| 国产成人久久综合777777麻豆| 在线另类稀缺国产呦| 国语少妇高潮| 在线免费不卡视频| 国产成人欧美| 亚洲一区精品视频在线| 亚洲欧洲美色一区二区三区| 国产欧美日韩免费| 欧美三级自拍| a色毛片免费视频| 91麻豆久久久| 久久夜色精品国产嚕嚕亚洲av| 男人的天堂久久精品激情| 亚洲一区国色天香| 正在播放久久| 欧美日韩第三页| 欧美精品亚洲精品日韩专区| 青青网在线国产| 国产欧美亚洲精品第3页在线| 中文字幕第4页| 欧美日本在线| 欧美国产在线一区| 无码精品福利一区二区三区| 人妻少妇久久久久久97人妻| 久久精品国产亚洲麻豆| 无码啪啪精品天堂浪潮av| 18禁色诱爆乳网站| 国产h视频免费观看| 中文字幕人成人乱码亚洲电影| 国产成人免费| 久草热视频在线| 国产产在线精品亚洲aavv| 日韩无码黄色| 国产日韩精品欧美一区灰| a毛片免费在线观看| 一级在线毛片| 夜夜爽免费视频| 亚洲一区第一页| 亚洲视频二| 色哟哟国产精品一区二区| 少妇极品熟妇人妻专区视频| 亚洲欧美日韩久久精品| 久久亚洲高清国产| 亚洲日韩精品无码专区97| 亚洲中文字幕在线观看| 制服丝袜国产精品| 久久综合结合久久狠狠狠97色| 亚洲午夜福利在线| 91在线激情在线观看| 国产午夜无码专区喷水| 欧美19综合中文字幕| 成年女人a毛片免费视频| 国产成人综合久久| 亚洲V日韩V无码一区二区 | 亚欧乱色视频网站大全| 综合色区亚洲熟妇在线| 亚洲日本一本dvd高清| 国产网友愉拍精品| 精品综合久久久久久97| 久久综合久久鬼| 国产精品美女自慰喷水| 久久久无码人妻精品无码| 无码高潮喷水在线观看| 青草精品视频| 四虎国产永久在线观看| 国产成人一区免费观看| 网友自拍视频精品区| 无码一区二区波多野结衣播放搜索| 亚洲综合婷婷激情| 国产区福利小视频在线观看尤物| 国产欧美专区在线观看| 欧美午夜在线播放| 91丨九色丨首页在线播放| 97一区二区在线播放| 精品视频一区在线观看|