999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

動(dòng)態(tài)場(chǎng)景下基于語(yǔ)義分割與運(yùn)動(dòng)一致性約束的車(chē)輛視覺(jué)SLAM*

2022-11-17 05:47:04黃圣杰胡滿江周云水殷周平秦曉輝邊有鋼賈倩倩
汽車(chē)工程 2022年10期
關(guān)鍵詞:語(yǔ)義特征

黃圣杰,胡滿江,2,周云水,2,殷周平,秦曉輝,2,邊有鋼,2,賈倩倩

(1.汽車(chē)車(chē)身先進(jìn)設(shè)計(jì)制造國(guó)家重點(diǎn)實(shí)驗(yàn)室,湖南大學(xué)機(jī)械與運(yùn)載工程學(xué)院,長(zhǎng)沙 410082;2.湖南大學(xué)無(wú)錫智能控制研究院,無(wú)錫 214115;3.中國(guó)汽車(chē)工程學(xué)會(huì),北京 100000)

前言

同時(shí)定位與建圖(simultaneous localization and mapping,SLAM)是指在沒(méi)有周?chē)h(huán)境先驗(yàn)信息的前提下,智能車(chē)輛僅依賴攜帶傳感器的信息,完成自身位姿估計(jì)與環(huán)境地圖構(gòu)建的過(guò)程,它是保障無(wú)人駕駛車(chē)輛決策、規(guī)劃等模塊正常運(yùn)行的重要前提[1]。其中,視覺(jué)SLAM以相機(jī)作為主要傳感器,因具備價(jià)格低廉、色彩紋理信息豐富、功耗小等優(yōu)勢(shì),近年來(lái)受到了廣泛關(guān)注。

傳統(tǒng)視覺(jué)SLAM多基于靜態(tài)環(huán)境假設(shè)展開(kāi),并借助多視圖幾何原理建立幀間數(shù)據(jù)的關(guān)聯(lián)模型,進(jìn)而計(jì)算相鄰幀間相機(jī)的位姿以及構(gòu)建環(huán)境地圖。然而,真實(shí)場(chǎng)景中的動(dòng)態(tài)對(duì)象難以避免,如車(chē)輛和行人,動(dòng)態(tài)對(duì)象的運(yùn)動(dòng)過(guò)程將對(duì)相機(jī)位姿和地圖點(diǎn)的解算結(jié)果造成干擾,易導(dǎo)致SLAM系統(tǒng)的位姿漂移和地圖重影問(wèn)題。為解決上述問(wèn)題,學(xué)者通常在前端視覺(jué)里程計(jì)之前將圖像中的動(dòng)態(tài)特征濾除,依賴靜態(tài)點(diǎn)完成SLAM系統(tǒng)的后續(xù)任務(wù),從而提高SLAM在動(dòng)態(tài)環(huán)境下的魯棒性與精度。因此,如何精準(zhǔn)檢測(cè)出圖像中的動(dòng)態(tài)特征成為動(dòng)態(tài)環(huán)境下SLAM的關(guān)鍵問(wèn)題。

依據(jù)動(dòng)態(tài)特征檢測(cè)方法的不同,可將現(xiàn)有視覺(jué)SLAM算法分為3大類(lèi):基于幾何約束的動(dòng)態(tài)特征檢測(cè)方法、基于光流的動(dòng)態(tài)特征檢測(cè)方法和基于語(yǔ)義的動(dòng)態(tài)特征檢測(cè)方法。在基于幾何約束的檢測(cè)方法中,ORB-SLAM系列[2-4]采用了隨機(jī)采樣一致性方法(random sample consensus,RANSAC)來(lái)剔除離群點(diǎn)(離群點(diǎn)中包含動(dòng)態(tài)特征點(diǎn)),即通過(guò)循環(huán)隨機(jī)抽取特征點(diǎn)子集計(jì)算得到單應(yīng)性矩陣,基于單應(yīng)性矩陣校驗(yàn)剩余特征點(diǎn),超出閾值范圍的特征點(diǎn)則被視為離群點(diǎn)。魏彤等[5]通過(guò)相鄰兩幀相機(jī)之間的基礎(chǔ)矩陣與極線約束估計(jì)出動(dòng)態(tài)特征點(diǎn),并基于深度與顏色信息進(jìn)一步確定動(dòng)態(tài)區(qū)域的輪廓。Zou等[6]基于三角測(cè)量一致性,計(jì)算前后幀圖像特征點(diǎn)的重投影誤差,并將誤差超出閾值范圍的特征點(diǎn)判定為動(dòng)態(tài)點(diǎn)。Dai等[7]利用Delaunay三角剖分法建立前后幀特征點(diǎn)的圖模型,隨后移除圖模型中多個(gè)關(guān)鍵幀之間觀察不一致的約束邊,進(jìn)而降低動(dòng)態(tài)特征點(diǎn)對(duì)地圖點(diǎn)與相機(jī)位姿優(yōu)化過(guò)程的影響。基于光流的動(dòng)態(tài)特征檢測(cè)方法中,F(xiàn)lowfusion[8]將PWC-Net網(wǎng)絡(luò)估計(jì)的光流進(jìn)一步劃分成由相機(jī)運(yùn)動(dòng)產(chǎn)生的自我流和由動(dòng)態(tài)對(duì)象運(yùn)動(dòng)產(chǎn)生的3D場(chǎng)景流,從而進(jìn)行動(dòng)態(tài)分割,經(jīng)過(guò)若干迭代完成場(chǎng)景重建。Derome等[9]首先基于5點(diǎn)法[10]獲取本質(zhì)矩陣,進(jìn)而由本質(zhì)矩陣與上一幀圖像獲取估計(jì)圖像,最后借助估計(jì)圖像與當(dāng)前幀圖像完成特征點(diǎn)的光流計(jì)算,光流值超出L2距離約束的特征點(diǎn)被判定為動(dòng)態(tài)特征點(diǎn)。近年來(lái)受益于深度學(xué)習(xí)在語(yǔ)義分割和目標(biāo)檢測(cè)領(lǐng)域的快速發(fā)展,諸多學(xué)者嘗試?yán)孟嚓P(guān)算法解決動(dòng)態(tài)場(chǎng)景的定位問(wèn)題。Runz等[11]借助Mask-RCNN[12]和幾何分割算法獲取場(chǎng)景中的動(dòng)態(tài)對(duì)象的掩碼。DS-SLAM[13]結(jié)合SegNet[14]語(yǔ)義分割網(wǎng)絡(luò)與運(yùn)動(dòng)一致性算法,濾除動(dòng)態(tài)特征點(diǎn),從而得到可靠的相機(jī)位姿并構(gòu)建靜態(tài)目標(biāo)地圖。程騰等[15]融合多層次多模態(tài)的特征進(jìn)行目標(biāo)檢測(cè)。Bescos等[16]結(jié)合Mask-RCNN網(wǎng)絡(luò)、區(qū)域生長(zhǎng)算法對(duì)動(dòng)態(tài)特征進(jìn)行識(shí)別并濾除。

視覺(jué)SLAM目前已在智能車(chē)輛領(lǐng)域得到應(yīng)用,但現(xiàn)有方法仍存在如下問(wèn)題:(1)基于幾何約束、光流法的動(dòng)態(tài)特征檢測(cè)方法大多受限于靜態(tài)點(diǎn)占比更大的隱含假設(shè),當(dāng)圖像中動(dòng)態(tài)點(diǎn)占比更大時(shí),依賴幀間數(shù)據(jù)建立的幾何約束、光流向量難以有效區(qū)分動(dòng)靜態(tài)點(diǎn);(2)大多基于語(yǔ)義的動(dòng)態(tài)特征檢測(cè)方法實(shí)時(shí)性較低,為了保證分割精度,大多研究者采用了諸如Mask-RCNN的大型分割網(wǎng)絡(luò),加上其他諸如背景修復(fù)的任務(wù),系統(tǒng)每幀處理時(shí)長(zhǎng)常高達(dá)幾百ms,難以保證實(shí)時(shí)性要求;(3)基于語(yǔ)義的動(dòng)態(tài)檢測(cè)方法大多還存在過(guò)度去除特征點(diǎn)的風(fēng)險(xiǎn),此類(lèi)方法在獲得所有潛在動(dòng)態(tài)對(duì)象后(如,人、車(chē)),往往將位于潛在對(duì)象輪廓區(qū)域內(nèi)的特征點(diǎn)全部刪除,這樣導(dǎo)致剔除的特征點(diǎn)過(guò)多,在紋理信息較少的場(chǎng)景,系統(tǒng)易跟蹤失敗。

為解決上述問(wèn)題,本文提出一種動(dòng)態(tài)場(chǎng)景下結(jié)合語(yǔ)義分割與幾何約束的SLAM方法,該方法不基于靜態(tài)點(diǎn)數(shù)量占優(yōu)的假設(shè),可在動(dòng)態(tài)環(huán)境下準(zhǔn)確分割出實(shí)際運(yùn)動(dòng)目標(biāo),且具備實(shí)時(shí)性與魯棒性。本文主要?jiǎng)?chuàng)新點(diǎn)在于:(1)提出一種融合輕量級(jí)語(yǔ)義分割網(wǎng)絡(luò)Fast-SCNN[17]和ORB-SLAM3結(jié)合的SLAM算法架構(gòu),實(shí)現(xiàn)了動(dòng)態(tài)定位場(chǎng)景下的潛在動(dòng)態(tài)對(duì)象的實(shí)時(shí)分割;(2)利用運(yùn)動(dòng)約束和卡方檢驗(yàn)進(jìn)一步篩選實(shí)際動(dòng)態(tài)特征,避免了分割網(wǎng)絡(luò)對(duì)特征點(diǎn)的過(guò)度分割,提高系統(tǒng)在欠紋理環(huán)境下SLAM系統(tǒng)的魯棒性;(3)通過(guò)慕尼黑工業(yè)大學(xué)公開(kāi)數(shù)據(jù)集與實(shí)車(chē)試驗(yàn)對(duì)該方法進(jìn)行驗(yàn)證,證明該類(lèi)方法的有效性。

1 系統(tǒng)架構(gòu)

系統(tǒng)在ORB-SLAM3原有框架的基礎(chǔ)上,增加語(yǔ)義分割模塊與運(yùn)動(dòng)一致性約束模塊,總系統(tǒng)架構(gòu)見(jiàn)圖1。

圖像數(shù)據(jù)進(jìn)入系統(tǒng)后,分別沿藍(lán)色箭頭進(jìn)入Fast-SCNN網(wǎng)絡(luò)的語(yǔ)義分割線程以及沿黑色箭頭進(jìn)入前端里程計(jì)的跟蹤線程。分割線程中,F(xiàn)ast-SCNN網(wǎng)絡(luò)對(duì)圖像進(jìn)行分割以獲得潛在動(dòng)態(tài)區(qū)域掩碼,同時(shí)跟蹤線程基于ORB特征提取圖像幀中的特征點(diǎn),隨后借助動(dòng)態(tài)區(qū)域掩碼去除所有潛在動(dòng)態(tài)特征點(diǎn),將剩余特征點(diǎn)輸入位姿估計(jì)模塊,獲取相機(jī)位姿的初步估計(jì)。然后,結(jié)合初步估計(jì)的相機(jī)位姿、運(yùn)動(dòng)一致性約束與卡方檢驗(yàn)篩選出真實(shí)動(dòng)態(tài)特征點(diǎn),將潛在動(dòng)態(tài)特征點(diǎn)中的剩余靜態(tài)特征點(diǎn)輸入位姿估計(jì)模塊,以完成相機(jī)位姿的進(jìn)一步優(yōu)化,提高SLAM精度并降低圖像中特征點(diǎn)較少時(shí)系統(tǒng)的跟蹤失敗率。最后,依次執(zhí)行圖中剩余模塊中的步驟,構(gòu)建完整的SLAM系統(tǒng)。

2 語(yǔ)義分割與運(yùn)動(dòng)一致性約束

通過(guò)語(yǔ)義分割剔除所有潛在動(dòng)態(tài)特征點(diǎn)以獲取相機(jī)位姿的初步估計(jì),再結(jié)合運(yùn)動(dòng)約束完成對(duì)靜態(tài)特征點(diǎn)的重添加,以進(jìn)一步優(yōu)化相機(jī)位姿估計(jì)。該部分從原理上避免了對(duì)靜態(tài)點(diǎn)數(shù)目占優(yōu)這一假設(shè)的依賴,同時(shí)降低了因動(dòng)態(tài)點(diǎn)誤判而造成的前端里程計(jì)跟蹤失敗的風(fēng)險(xiǎn)。

2.1 基于Fast-SCNN的語(yǔ)義分割

Fast-SCNN網(wǎng)絡(luò)參考了文獻(xiàn)[18]和文獻(xiàn)[19]中提出的分支結(jié)構(gòu),以及文獻(xiàn)[20]和文獻(xiàn)[21]中提出的跨越連接層(skip connections)。如圖1所示,該網(wǎng)絡(luò)主要由下采樣、全局特征提取、特征融合和分類(lèi)器4個(gè)模塊組成,其中,下采樣模塊在提取圖像初級(jí)特征的同時(shí)降低圖像分辨率以提高網(wǎng)絡(luò)運(yùn)行速度;全局特征提取模塊用于提取圖像全局語(yǔ)義信息;特征融合模塊用于融合圖像初高級(jí)特征以保證網(wǎng)絡(luò)更為魯棒的特征提取能力;分類(lèi)器則輸出最后的像素預(yù)測(cè)類(lèi)別。Fast-SCNN網(wǎng)絡(luò)的輸入為m×n×3維度的彩色圖像,輸出為m×n×c維度的概率矩陣,其中c為分割的類(lèi)別數(shù)量,在c維度上尋找概率最大值,即可獲得表征每個(gè)像素類(lèi)別的m×n維矩陣,本文中,按照潛在動(dòng)態(tài)目標(biāo)與非潛在動(dòng)態(tài)目標(biāo),將像素分為兩類(lèi)標(biāo)簽。

為衡量語(yǔ)義分割網(wǎng)絡(luò)的預(yù)測(cè)值與真值之間的差異程度以正確優(yōu)化網(wǎng)絡(luò)參數(shù),本文采用交叉熵?fù)p失函數(shù)(cross entropy loss function)作為Fast-SCNN的優(yōu)化目標(biāo)函數(shù),其數(shù)學(xué)表達(dá)如下:

式中:x為分割網(wǎng)絡(luò)的輸出;class為對(duì)應(yīng)真值;c為像素類(lèi)別數(shù)。

2.2 運(yùn)動(dòng)一致性約束與卡方檢驗(yàn)

如圖2所示,C1、C2為相機(jī)運(yùn)動(dòng)過(guò)程中t1、t2兩個(gè)時(shí)刻的光心位置。p點(diǎn)為潛在動(dòng)態(tài)對(duì)象上的一個(gè)特征點(diǎn),若p為靜態(tài)點(diǎn),設(shè)其在兩個(gè)成像平面上的像素坐標(biāo)分別為xp1、xp2,且xp1、xp2分別位于極線l1、l2上;若p為動(dòng)態(tài)點(diǎn),且在t2時(shí)刻運(yùn)動(dòng)到了q位置,則其在C2圖像幀中的像素坐標(biāo)為xq2。

極線l2可表示為

令K為相機(jī)內(nèi)參矩陣,F(xiàn)為C1圖像幀到C2圖像幀的基礎(chǔ)矩陣,則極線l2滿足:

xp2到極線l2的距離平方為

式中d2服從自由度為1的卡方分布,取95%置信度,其拒絕域?yàn)?.84。由于ORB-SLAM3中為了實(shí)現(xiàn)尺度不變性,采用了縮放因子為1.2的圖像金字塔,故位于第n層圖像金字塔的特征點(diǎn)像素坐標(biāo)方差為1.22n,則動(dòng)態(tài)點(diǎn)xp2到極線l2的距離平方d2應(yīng)滿足式(5),由此進(jìn)一步確定所有潛在動(dòng)態(tài)特征的動(dòng)靜態(tài)特性。

點(diǎn)p在C1、C2相機(jī)坐標(biāo)系下的坐標(biāo)為Pc1、Pc2,其滿足:

式中:T c1_w、T c2_w分別為世界坐標(biāo)系到C1、C2相機(jī)坐標(biāo)系的轉(zhuǎn)換矩陣。

點(diǎn)q在C2相機(jī)坐標(biāo)系下坐標(biāo)為Q c2。P c2、Q c2滿足自由度為3的卡方分布,取95%置信度,其拒絕域?yàn)?.81,則動(dòng)態(tài)點(diǎn)P c2滿足:

3 試驗(yàn)與結(jié)果分析

本文中采用MHP-v2[22]數(shù)據(jù)集對(duì)Fast-SCNN語(yǔ)義分割網(wǎng)絡(luò)進(jìn)行訓(xùn)練,MHP-v2采集了真實(shí)世界場(chǎng)景中不同視角、不同位姿、不同遮擋情況和不同場(chǎng)景下的行人數(shù)據(jù),其共包含25 403張圖片,訓(xùn)練時(shí)訓(xùn)練集、驗(yàn)證集、測(cè)試集分別包含15 403張、5 000張、5 000張圖片。Fast-SCNN訓(xùn)練過(guò)程在服務(wù)器上進(jìn)行,其CPU為英特爾至強(qiáng)E5-2683,內(nèi)存為64GB,同時(shí)搭載4張顯存為12G的TITANX Pascal顯卡。

SLAM效果利用標(biāo)準(zhǔn)數(shù)據(jù)集與實(shí)車(chē)采集數(shù)據(jù)進(jìn)行評(píng)估。標(biāo)準(zhǔn)數(shù)據(jù)集采用慕尼黑大學(xué)提供的Tum數(shù)據(jù)集,具體使用其中的walking_static、walking_xyz、sitting_xyz、walking_halfsphere序列。序列中,sitting、walking分別代表數(shù)據(jù)集中的人坐和行走的不同狀態(tài),static、xyz、halfsphere分別表示相機(jī)靜止、沿XYZ軸運(yùn)動(dòng)、沿半球運(yùn)動(dòng)的狀態(tài)。

實(shí)車(chē)數(shù)據(jù)集利用圖3(a)所示的試驗(yàn)小車(chē)采集,其上搭載了ZED-2i雙目攝像頭以及華測(cè)-410組合慣導(dǎo)。數(shù)據(jù)集中包含一段長(zhǎng)度為402.3 m、頻率為15 Hz、分辨率為720×1280的雙目數(shù)據(jù),以及組合慣導(dǎo)在RTK信號(hào)下輸出的厘米級(jí)真實(shí)軌跡。數(shù)據(jù)集拍攝場(chǎng)景見(jiàn)圖3(b),場(chǎng)景中各目標(biāo)在相機(jī)視野內(nèi)時(shí)而靜止時(shí)而運(yùn)動(dòng)且隨機(jī)占據(jù)不同比例的相機(jī)視野,以評(píng)估算法在實(shí)際動(dòng)態(tài)場(chǎng)景下的運(yùn)行效果。

分割網(wǎng)絡(luò)和SLAM試驗(yàn)的運(yùn)行均在本地筆記本上,其CPU為英特爾i5-8300H,內(nèi)存為8GB,顯卡為GTX 1050ti,顯存為4GB。

3.1 Fast-SCNN網(wǎng)絡(luò)訓(xùn)練及性能評(píng)估

Fast-SCNN網(wǎng)絡(luò)使用pytorch-1.7深度學(xué)習(xí)平臺(tái)搭建,訓(xùn)練時(shí),采用Adam[23]優(yōu)化器,學(xué)習(xí)率依據(jù)式(8)poly函數(shù)進(jìn)行變換。

式中:lr為新的學(xué)習(xí)率;base_lr為基準(zhǔn)學(xué)習(xí)率,設(shè)置為0.045;epoch為當(dāng)前整個(gè)數(shù)據(jù)集的訓(xùn)練輪次;num_epoch為整個(gè)數(shù)據(jù)集總訓(xùn)練輪次,設(shè)置為200;power為指數(shù)衰減因子,設(shè)置為0.9。

數(shù)據(jù)增強(qiáng)部分,對(duì)輸入圖像進(jìn)行比例為0.5~2的隨機(jī)縮放、50%概率的水平翻轉(zhuǎn)、50%概率的高斯模糊以及隨機(jī)裁剪,每張顯卡上每個(gè)訓(xùn)練批次輸入80張圖片。

試驗(yàn)采用像素精度(pixel accuracy,PA)、平均交并比(mean intersection over union,MIOU)和運(yùn)行時(shí)間3個(gè)評(píng)價(jià)指標(biāo)在MHP-v2驗(yàn)證集上對(duì)分割網(wǎng)絡(luò)的訓(xùn)練結(jié)果進(jìn)行評(píng)估。像素精度與平均交并比的計(jì)算公式分別如式(9)和式(10)所示。

式中:pij為類(lèi)別為i、預(yù)測(cè)為j的像素;pji為類(lèi)別為j、預(yù)測(cè)為i的像素;k為總類(lèi)別數(shù)。

Fast-SCNN網(wǎng)絡(luò)訓(xùn)練結(jié)果如表1所示,其像素精度與平均交并比均超過(guò)90%,每張圖片的處理時(shí)間約14.5 ms,滿足動(dòng)態(tài)對(duì)象分割的精度和時(shí)延要求,其部分分割測(cè)試結(jié)果如圖4所示。

表1 Fast-SCNN訓(xùn)練結(jié)果

3.2 在Tum與實(shí)車(chē)數(shù)據(jù)集上的試驗(yàn)

本文利用絕對(duì)位姿誤差(absolute pose error,APE)計(jì)算每一時(shí)刻算法輸出的相機(jī)位姿與真值之間的絕對(duì)誤差,同時(shí),提供了誤差平均值(mean)、中值(median)、均方根誤差(root mean squared error,RMSE)、標(biāo)準(zhǔn)偏差(standard deviation,STD),以全面客觀地反映算法性能。

圖5展示了在walking_halfsphere序列上分別使用ORB-SLAM3算法和本文算法的運(yùn)行結(jié)果。對(duì)比圖5(a)和圖5(b)可以看出,ORB-SLAM3在該動(dòng)態(tài)環(huán)境下難以準(zhǔn)確恢復(fù)相機(jī)位姿,其估計(jì)的相機(jī)軌跡與真實(shí)軌跡偏離較大,而基于本文算法剔除動(dòng)態(tài)特點(diǎn)后,SLAM得到的相機(jī)軌跡和真實(shí)軌跡基本重合。觀察圖5(c)和圖5(f)可以看出,本文算法在各坐標(biāo)軸與各方向上均有效減少了動(dòng)態(tài)特征點(diǎn)對(duì)原有SLAM系統(tǒng)的干擾,保證SLAM在動(dòng)態(tài)環(huán)境的穩(wěn)定運(yùn)行。同時(shí)由圖5(d)和圖5(e)可以看出,對(duì)比ORBSLAM3,本文算法的絕對(duì)位姿誤差峰值小、波動(dòng)平穩(wěn),且在各類(lèi)統(tǒng)計(jì)量上均有一個(gè)數(shù)量級(jí)上的減小。

表2提供了在各個(gè)數(shù)據(jù)集上本文算法與ORBSLAM3關(guān)于絕對(duì)位姿誤差的具體數(shù)值對(duì)比,表中的提升率采用式(11)計(jì)算。可以看出,在Tum數(shù)據(jù)的walking動(dòng)態(tài)序列和實(shí)車(chē)混合場(chǎng)景數(shù)據(jù)中,本文算法在平均值(mean)、中值(median)、均方根誤差(RMSE)、標(biāo)準(zhǔn)偏差(STD)這些統(tǒng)計(jì)量上的平均提升率均在80%以上;在Tum sitting_xyz序列中,由于人坐在椅子上交談并未隨意行走,整個(gè)場(chǎng)景處于低動(dòng)態(tài)狀態(tài),因此兩種算法的精度都較高,但本文算法能在保留人身上靜止部分特征點(diǎn)(如不動(dòng)的軀干)的同時(shí)剔除其運(yùn)動(dòng)部分的特征點(diǎn)(如手),因而也提升了相應(yīng)的試驗(yàn)精度;在實(shí)車(chē)復(fù)雜場(chǎng)景中,本文算法在各項(xiàng)指標(biāo)上也均有大幅提升。試驗(yàn)結(jié)果充分說(shuō)明了本文算法在動(dòng)態(tài)場(chǎng)景下對(duì)于SLAM算法精度與魯棒性的顯著提升作用。

式中:ur為提升率;Δ1為ORB-SLAM3上的相關(guān)誤差項(xiàng);Δ2為本文算法的相關(guān)誤差項(xiàng)。

4 結(jié)論

針對(duì)動(dòng)態(tài)場(chǎng)景,本文中提出了一種結(jié)合輕量級(jí)Fast-SCNN語(yǔ)義分割網(wǎng)絡(luò)與運(yùn)動(dòng)一致性約束的SLAM方法,該方法首先通過(guò)分割網(wǎng)絡(luò)獲取潛在動(dòng)態(tài)區(qū)域掩碼并進(jìn)行特征點(diǎn)去除,從而獲取相機(jī)的初步位姿估計(jì)結(jié)果,隨后基于運(yùn)動(dòng)一致性約束與卡方檢驗(yàn),完成動(dòng)態(tài)特征點(diǎn)的進(jìn)一步篩選,以進(jìn)一步優(yōu)化相機(jī)位姿估計(jì)結(jié)果。本文中訓(xùn)練的語(yǔ)義分割網(wǎng)絡(luò)像素精度與平均交并比均在90%以上,分割耗時(shí)約14.5 ms,滿足SLAM系統(tǒng)的實(shí)時(shí)分割要求。同時(shí),通過(guò)將本文算法與ORB-SLAM3系統(tǒng)融合,并在Tum動(dòng)態(tài)場(chǎng)景公共數(shù)據(jù)集和實(shí)車(chē)動(dòng)態(tài)場(chǎng)景數(shù)據(jù)集上試驗(yàn),本文提出的算法在各項(xiàng)指標(biāo)的平均提升均超過(guò)了80%,顯著提升了ORB-SLAM3在動(dòng)態(tài)場(chǎng)景的運(yùn)行精度與魯棒性,有效拓寬了現(xiàn)有視覺(jué)SLAM的應(yīng)用領(lǐng)域,有助于保證智能車(chē)輛運(yùn)行安全。

未來(lái)將結(jié)合TensorRT工具與模型剪枝,進(jìn)一步提高算法的運(yùn)行效率。

猜你喜歡
語(yǔ)義特征
抓住特征巧觀察
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
語(yǔ)言與語(yǔ)義
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
“上”與“下”語(yǔ)義的不對(duì)稱(chēng)性及其認(rèn)知闡釋
認(rèn)知范疇模糊與語(yǔ)義模糊
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
“深+N季”組配的認(rèn)知語(yǔ)義分析
主站蜘蛛池模板: 情侣午夜国产在线一区无码| 久草国产在线观看| 欧美高清国产| 欧美特级AAAAAA视频免费观看| 日韩精品毛片| AV在线麻免费观看网站| 国产性爱网站| 无码中文字幕加勒比高清| 麻豆精品久久久久久久99蜜桃| 无码精油按摩潮喷在线播放| 欧美激情视频二区| 亚洲福利一区二区三区| 2020国产精品视频| 中国国语毛片免费观看视频| 精品成人免费自拍视频| 亚洲Va中文字幕久久一区 | 玩两个丰满老熟女久久网| 免费看a级毛片| 91精品专区国产盗摄| 日韩精品免费一线在线观看| 国产精品香蕉| 国产精品99一区不卡| 国产国产人免费视频成18 | 久久国产精品电影| 亚洲精品无码日韩国产不卡| 久久精品国产999大香线焦| 国产永久免费视频m3u8| 日韩色图区| 人妻一区二区三区无码精品一区| 免费在线观看av| 久久中文字幕不卡一二区| 国产久操视频| 美女视频黄频a免费高清不卡| 国产自在自线午夜精品视频| 三区在线视频| 精品人妻一区无码视频| 人妻21p大胆| 国产理论一区| 国产成人精品一区二区三在线观看| 亚洲欧美另类色图| 国产成人精品高清不卡在线 | 国产欧美一区二区三区视频在线观看| 精品国产www| 手机永久AV在线播放| 国模极品一区二区三区| 精品一区二区三区无码视频无码| 色综合手机在线| 91在线激情在线观看| 亚洲欧美综合在线观看| 尤物亚洲最大AV无码网站| 99精品国产高清一区二区| jizz国产视频| 亚洲va欧美ⅴa国产va影院| 欧美特黄一级大黄录像| 亚洲日韩精品无码专区| 天天色天天操综合网| 色婷婷狠狠干| 91网址在线播放| 精品视频一区二区三区在线播| 狠狠色狠狠综合久久| 女人毛片a级大学毛片免费| 在线看免费无码av天堂的| 黄色网站不卡无码| 欧美一区国产| 狠狠综合久久久久综| 免费在线色| 亚洲第一极品精品无码| 专干老肥熟女视频网站| 免费观看亚洲人成网站| 19国产精品麻豆免费观看| 国产精品欧美日本韩免费一区二区三区不卡 | 亚洲无码高清视频在线观看| 亚洲精品国产日韩无码AV永久免费网| 国产亚洲欧美在线中文bt天堂| 成年A级毛片| 无码中文字幕精品推荐| 又爽又大又黄a级毛片在线视频| 免费看a级毛片| 国产日本视频91| 国产精品手机在线观看你懂的| 国产又粗又猛又爽视频| 国产女人18毛片水真多1|