999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于點線面特征的無漂移旋轉視覺里程計

2023-02-21 00:11:32李用杰秦廣健武利明熊軍林
計算機應用研究 2023年12期

李用杰 秦廣健 武利明 熊軍林

摘 要:現有基于點特征的視覺SLAM(simultaneous localization and mapping)算法在弱紋理環境中表現不佳,為此提出了一種基于點線面特征融合的視覺里程計算法,能夠在弱紋理環境中實現精準定位。首先基于曼哈頓世界假設下,使用線特征與面特征提取曼哈頓世界坐標系,并將線特征與面特征與坐標系聯合;其次為了提升系統定位的準確性,使用了一種無漂移旋轉的位姿估計算法,將位姿的旋轉與平移分開求解;最后利用結構化的線特征與面特征對位姿與曼哈頓軸進行優化,綜合考慮圖像中的點線面特征,使得位姿估計的結果更加精確。實驗表明,該算法在TUM與ICLNUIM數據集中的表現優于目前的其他方法。

關鍵詞:點線面特征融合;無漂移旋轉;視覺里程計

中圖分類號:TP391?? 文獻標志碼:A??? 文章編號:1001-3695(2023)12-045-3805-05

doi: 10.19734/j.issn.1001-3695.2023.02.0172

Driftfree rotation visual odometry based on pointlineplane feature fusion

Abstract:The existing visual SLAM algorithm based on point feature performs poorly in weak texture environments. Therefore, this paper proposed a visual odometry based on pointlineplane feature fusion, which could accurately locate in weak texture environment. Firstly, based on the assumption of Manhattan world, it extracted the Manhattan world coordinate system by using line features and plane features, and combined line features and plane features with the coordinate system. Secondly, in order to improve the positioning accuracy, this paper used a driftfree rotation position estimation algorithm, which solved the rotation and translation of pose separately. Finally, it optimized the pose and Manhattan axis by using structured line and plane features. The point, line and plane features in the image are comprehensively considered to make the result of pose estimation more accurate. Experiments show that the proposed algorithm outperforms the state of art on common SLAM benchmarks such as ICLNUIM and TUM.

Key words:pointlineplane fusion; driftfree rotation; visual odometry

0 引言

視覺同步定位與建圖(VSLAM)算法是機器人領域中的關鍵技術,主要通過估計相機的運動軌跡與姿態,給移動機器人提供全方位的自主定位、感知周圍環境等功能[1]。它有著十分廣泛的應用,比如虛擬增強現實(AR)、自動駕駛汽車、服務機器人等[2]。視覺里程計(VO)被稱為VSLAM的前端,是VSLAM的重要組成部分。它可通過分析所捕獲的圖像序列來估計攝像機在環境中的運動軌跡。VSLAM通過引入回環檢測方法可以減少里程計產生的累積漂移。然而,回環檢測策略并不能完全消除攝像機位姿誤差,任何SLAM系統的整體性能還是由VO的精度決定[3]。

現有成熟的視覺里程計大多使用點特征,因為點特征在一般情況下具有廣泛的適用性,并且點特征的描述較為簡單,且計算代價較小,如ORBSLAM2[4]等。但點特征對光照變化的魯棒性較弱,而且點特征是稀疏的,會使得在三維地圖中很難看到周圍的環境。在弱紋理場景中,由于檢測到的點數量少而且質量較差,所以在跟蹤階段很容易失敗。線特征與面特征相比點特征擁有更多的結構信息,為了處理結構化場景,點線面特征的融合可以增加系統在弱紋理環境下的魯棒性[5]。

目前已經有很多學者著眼于研究基于點線面特征的視覺里程計。GomezOjeda 等人[6]提出 STVOPL 算法,該算法將點線特征融合的方法應用到雙目視覺里程計中,并用點、線特征的重投影誤差對位姿進行優化;后來GomezOjeda 等人[7]又將前文的算法融合到ORB_SLAM2 系統中,提出了 PLSLAM 雙目算法。黃寧生等人[8]在關鍵幀中提取平面特征,通過構建平面特征之間的約束關系來優化相機位姿。Coughlan等人[9]使用曼哈頓世界(MW)假設來減少人造環境中的旋轉漂移。 為了充分利用線特征的結構信息,Zhou等人[10]基于曼哈頓世界假設,將空間直線的平行性與正交性約束引入到 SLAM系統中。Zhou等人[11]首次提出將位姿的旋轉與平移分開求解,提出了一種 MeanShift 算法來跟蹤主導曼哈頓軸(MF)在場景中的旋轉,同時使用一維密度對齊來進行平移估計。Kim等人[12]在OPVO中通過最小化去旋轉重投影誤差來進行平移估計,并在OPVO中將線融合到系統中,使結構線與主導 MF 軸對齊,并集成到均值漂移算法中,提高了系統魯棒性,為了解決幀與幀跟蹤過程中平移估計產生的漂移,又在LPVO[13]架構上增加了正交平面檢測和跟蹤。Li等人[14]使用卷積神經網絡估計平面法向量,并將均值漂移算法用于單目場景,通過增加跟蹤平面特征約束提升了平移估計的精度,并且引入平面的平移與垂直約束。CompanyCorcoles等人[15]則將結構線與曼哈頓軸匹配, 用于精確曼哈頓軸,并通過引入新的結構線約束來提升定位精度。

現有基于點線面特征結合的視覺里程計往往不能充分使用線特征與面特征的結構信息。對此本文提出一種新的基于點線面特征的視覺里程計,該系統將采用無漂移旋轉的位姿估計算法,相比于傳統的聯合估計方法將大大減少累積漂移。為了充分利用環境中的線特征與面特征,本文在曼哈頓假設下,將結構線與結構面與曼哈頓軸進行匹配,再利用匹配結果進一步優化曼哈頓軸的位姿,最后加入結構線與結構面約束來優化系統位姿,進一步提升系統的精確性與魯棒性。本文的主要貢獻如下:

a)提出了一個直線融合與刪除算法。對二維圖像上的直線進行聚合與刪除操作;并對提取的3D直線進行端點的精細化操作,提升三維空間線特征的提取精度。

b)提出了一個基于點線面特征無漂移旋轉的位姿估計算法,使用無漂移旋轉的方法將相機位姿的旋轉分量和平移分量分開求解,從而減少相機在跟蹤過程中出現的累計漂移現象。

c)研究了一個基于點線面特征無漂移旋轉的視覺里程計。在傳統的基于點線面特征重投影誤差約束的基礎上使用線特征、面特征的結構約束進一步優化相機和主導曼哈頓軸的位姿,以及空間點、線、面特征的位置。

1 系統結構

本文系統主要分為前端和后端兩個部分, 前端估計當前相機的位姿,后端利用關鍵幀中點線面特征的結構約束對相機位姿進行優化, 同時增量式地構建場景中的結構,系統總體結構如圖1所示,其中標注顏色的區域分別是本文的具體研究內容。

1.1 跟蹤

跟蹤線程主要用于估計連續幀之間的位姿變化,并估計捕獲每一幀的相機姿態。此外,該模塊還決定是否需要創建一個新的關鍵幀,如果可能的話,它還會將每條新建立的地圖線的方向法向量與地圖面的平面法向量分別與其中一條主導曼哈頓軸(MA)聯系起來。

1.1.1 特征提取與3D特征位姿恢復

RGBD相機在每時刻t會向系統傳送兩張圖片,分別為彩色圖片Ict與深度圖片Idt。本文首先在彩色圖片上分別提取ORB[16]點特征與LSD[17]線特征,因為LSD算法利用梯度信息和行列線來檢測圖像中梯度變化較大的像素點,該算法在提取線段的過程中容易出現斷裂、端點不準確等問題。首先對所有的直線進行聚合與刪除操作。具體過程如圖2所示。

該操作是將有用的短線與長線連接,并將冗余的短線去除。其中直線刪除與聚合具體步驟如下:

a)線段初篩選。先將提取的直線按長度從長到短進行排序,剔除長度小于l的直線,這里l=min(WI,HI)×η。其中WI與HI分別為圖像Ict的長度與寬度,η為線段長度系數,一般取0.05。刪除短線后的線段集合為L。

b)候選線段尋找。為了簡化計算,本文使用垂直及水平距離篩選,因為該方法只包含絕對值的增減運算。從線段集合最長的直線開始篩選,假設經過水平距離篩選的候選線段組為La,式(1)為篩選公式。

其中:μ為角度融合系數;Li為線段集合L中的線段,其長度為li,與水平方向的夾角為θi;這里θmin設置為π/90,可以推出這里μ越大,線段可聚合的概率就越大。

c)候選線段篩選。Lj若是Li的候選線段,其首尾坐標分別為Si(xSi,ySi),Ei(xEi,yEi)和Sj(xSj,ySj),Ej(xEj,yEj),這里得到候選刪除組Lb與聚合組Lc,如式(2)所示。

其中:fmin為距離篩選閾值,本文設置為2。

d)候選線段刪除與聚合。對于Lb中的候選線段,只保留最長的線段。對于Lc中的候選線段,本文選擇偏離最遠的首尾端點作為新線段。

e)循環檢測。重復以上過程,直到所有冗余的短線都被刪除,且所有的短線被聚合。

已知圖像平面上點與直線的二維坐標,可以通過將點與直線投影到深度圖像Idt來獲得點的三維坐標Pci與直線的端點坐標(Scj,Ecj)。因為直線的端點常常會因斷裂與遮擋導致位置不準確,所以采用了文獻[15]中的方法,通過將直線等間隔取點,然后反投影符合圖像的子集,最后使用直線擬合精確空間直線的位置,獲得更準確的直線端點坐標。

其中3D直線Lj可單位化表示為

接下來引入空間直線的結構性約束,對于任意兩條空間直線Lcm與Lcn,可以計算它們之間的夾角差為d(Lcm,Lcn)=|cos(Lcm,Lcn)|,通過夾角差可以得到所有空間直線的正交性與平行性。

其中空間直線正交性E⊥m,n與平行性E‖m,n約束如式(4)所示。

對于面特征,使用深度學習的方法訓練一個二維卷積結構(CNN)來分割平面區域和提取圖像內平面的方向法向量,然后根據兩個面特征之間的方向法向量的夾角來計算面與面特征之間的正交性與平行性約束。室內場景中平面區域和非平面區域是不平衡的,平面采用平衡交叉熵損失函數來訓練,式(5)為訓練的損失函數。其中P和Pneg分別代表平面區域和非平面區域,pi表示第i個像素位于平面區域的概率,ω是平衡平面像素和非平面像素的權值系數。

平面法向量損失函數ξp的估計是通過平面掩膜濾波得到的,如式(6)所示,其中ni與n*i分別表示第i個像素的預測法向量與真實法向量。

其中:qn(π)=(,ψ),和ψ分別是法線的方位角和仰角,對于垂直的平面,將它們的平面法線旋轉90°(R⊥)來構造誤差函數。

1.1.2 基于點線面特征無漂移旋轉的位姿估計

室內環境基本滿足曼哈頓假設,將所有線特征的方向向量與面特征的法向量投影到曼哈頓球中。這里使用MeanShift算法提取主導曼哈頓軸MF,與傳統位姿六自由度聯合估計方法不同的是,使用無漂移旋轉的方法來計算幀與幀間的旋轉分量;再利用幀與幀間、幀與地圖間點線面的匹配關系,使用點線面的重投影誤差模型估計平移分量。系統的結構如圖3所示。

a)旋轉分量計算。與傳統尋找幀與幀間的運動分量不同的是,無漂移旋轉的方法是估計每一幀與主導曼哈頓軸之間的旋轉分量Rcm。將第一幀作為世界坐標系,且R1,m=RTm,w,然后就可以得到當前幀在世界坐標系中的旋轉分量Rk+1,w,如式(8)所示。

Rk+1,w=Rk+1,mRm,w(8)

其中:Rm,w為MA在世界中的坐標系;Rk+1,m為當前幀與MA之間的旋轉分量。

b)平移分量估計。使用算出的旋轉分量Rk+1,w與點誤差模型、線誤差模型、面特征的誤差模型來估計當前幀的平移分量,如式(9)所示。

這里假設Ψ包含被優化的變量,包括當前幀的平移分量t∈Euclid ExtraaBp3;、和分別代表參考幀與當前幀所有匹配點、地圖線與地圖面的集合,其中ρ為魯棒核函數。

其中:Pwi∈Euclid ExtraaBp3為與當前幀上點pi∈Euclid ExtraaBp2相匹配的世界坐標點;π是投影函數,其主要作用是利用攝像機標定參數將相機坐標中的三維點Pwi轉換為圖像平面中的點;(Swj,Ewj)是世界坐標中匹配當前幀線段lj的地圖線,其中nj是直線lj的法向量。為了對匹配的面特征π1構造誤差項,本文使用q(π1)=(,ψ,d)來代表該平面,這里q(π1)的具體表示如式(10)所示。

其中:nx、ny、nz分別為該平面的垂直法向量的三個分量;與ψ分別為該平面的方位角與俯仰角;d為點到平面的距離。從式(11)可以分別得到點、線、面特征匹配的三個具體誤差函數。

1.2 系統后端

當有新的關鍵幀插入到局部建圖線程中,系統會找到插入關鍵幀與其他關鍵幀的聯系,并在空間中建立新的地圖點、地圖線和地圖面;最后通過多重圖優化來進一步優化插入關鍵幀的姿態和關鍵幀中所有特征的空間位置。

1.2.1 后端局部BA優化

為了充分利用線特征與面特征的結構信息,將提取結構線約束與結構面約束,找到線與線、面與面之間的正交約束與平行約束。為了提升系統的準確性,插入關鍵幀時會將所有的線特征與面特征與曼哈頓軸進行匹配,接下來的位姿優化過程中會在原有的點線面重投影誤差約束的基礎上引入結構線、結構面約束和曼哈頓軸約束。一旦有新的關鍵幀k被插入到局部建圖線程,首先找到關鍵幀k的所有共視關鍵幀κc與這些關鍵幀所包含的地圖點瘙綃k、地圖線瘙綄k和地圖面瘙綅k,為了將結構約束引入到優化中,瘙綄⊥k與瘙綄⊥k分別為共視關鍵幀κc中的垂直線與平行線,瘙綅⊥k與瘙綅‖k分別為共視關鍵幀κc中的垂直面與平行面。本文用瘙綆表示在κc中任何關鍵幀都能看到且與MA相關聯的映射線集,用瘙綇表示在κc中任何關鍵幀都能看到且與MA相關聯的映射面集。本文將誤差函數分為四類,其中E1為點線面特征的重投影誤差項,E2為結構線誤差項,E3為結構面之間的誤差項,E4為結構線、結構面與匹配曼哈頓軸之間的誤差項,如式(13)所示。定義Φ為待優化的變量集合,其中Φ為式(12),式(14)為后端局部BA優化的誤差函數。

1.2.2 主導曼哈頓軸優化

當插入足夠關鍵幀數量時,將利用之前的匹配結果對曼哈頓軸進行軸優化,進一步優化主導曼哈頓軸的位姿。其中結構線、結構面與主導曼哈頓軸的誤差項分別為El和Ep,如式(15)所示。

其中:Μ為曼哈頓軸;Km為足夠多的關鍵幀(本文設置為4),定義瘙綄MAik為關鍵幀中觀察到的與曼哈頓軸MAi相匹配的地圖

2 實驗分析

為了證明系統的性能,本文分別在真實與合成的圖像數據集中進行了實驗。此外,還使用以下數據集將本文算法與其他VO和視覺SLAM系統的定位精度進行了比較:

a)ICLNUIM Dataset[18]。這是一個合成數據集,擁有臥室與辦公室兩個場景。此數據集包含地板、墻面和天花板等一些具有挑戰性的低紋理元素,總的來說,這是一個具有大結構區域的室內數據集。

b)TUM RGBD Benchmark[19]。這是一個真實圖像的室內數據集,包含不同結構、光照和紋理的圖像序列,因為它使用真正的RGBD相機拍攝,所以圖像序列會有噪聲。

本文系統參考了ORBSLAM2的基礎框架,公共部分使用了ORBSLAM2提供的默認值,而其余的參數從單個數據集實驗中設置,并且對其余序列保持不變。首先測試了直線聚合與刪除的效果,其次借助EVO庫給出了系統的運行軌跡圖與誤差評估,最后對幾個算法的定位精度進行了比較。所有的實驗都是在Intel Core i59750H @ 2.60 GHz CPU/8 GB RAM上進行的,沒有GPU并行化。

1)直線聚合與刪除實驗

本文在TUM RGBD Benchmark的fr3strutex序列測試了直線聚合與刪除的效果,如圖4所示。直線聚合之前由于LSD線檢測器的局限性,使得許多直線被截斷變成了短線,如圖4(a)所示。本文算法將原本是一條直線的多條短線準確地聚合成一條長直線,如圖4(b)所示。圖4(c)是直線聚合后兩張圖片的直線匹配結果,可以看出,直線聚合后依然可以準確地匹配。

2)系統定位精度實驗

為了證明本文系統的準確性與優勢,將一些成熟的算法與本文算法進行了對比實驗。本文使用絕對位置誤差(APE)的均方根誤差(RMSE)來評估各個系統的定位精度,單位為m。表1為本文算法在ICLNUIM與部分TUM數據集中的絕對軌跡誤差,將視覺里程計算法(PLPVO)分別與ORBVO、MSCVO、PLSLAM、ORBSLAM2、PlanarSLAM和本文算法不加后端優化的部分(PLPVO1)進行了對比實驗。其中ORBVO是ORBSLAM2的前端部分,MSCVO是一個曼哈頓假設下基于點線特征的視覺里程計,PLSLAM是經典的基于點線的視覺SLAM算法,PlanarSLAM是一個具有前沿性的基于點線面特征的視覺SLAM算法。表中加粗的數據是下列算法在不同數據集序列中絕對軌跡誤差的最小值;“×”表示該算法無法穩定跟蹤數據集。可以看出,本文系統在每個數據集中都有良好的表現,定位精度在所有的里程計與SLAM中優勢明顯,除了在fr3longoffice序列中因為環境點特征數量充足,而且具有較多的非結構面,使得該算法不如ORBSLAM2;有的數據集中由于環境中的結構線與結構面較少,在優化的過程中,結構約束起到的作用也相對較少,所以與PlanarSLAM的定位精度相近。在絕大多數的數據集中,由于結構約束與軸約束的存在,可以大大提升系統的定位精度。

為了驗證本文算法后端優化對整體定位精度的影響,將不加后端優化部分的算法(PLPVO1)和本文整體算法(PLPVO)進行消融實驗。因為后端優化增加了曼哈頓軸優化和基于線特征和面特征的結構約束,從表1可以看出,相比于前端的跟蹤部分,加了后端優化的整體算法在所有的13個數據集上都有更佳的表現。

無漂移旋轉的算法可以提升視覺里程計的定位精度,從表1可以看出,本文算法在某些數據集序列中甚至好過具有回環的ORBSLAM。其中圖5(a)(b)分別為序列lrkt3與ofkt1在三個系統中運行的軌跡圖,可以看出,本文系統有著很好的定位精度。ORBSLAM因為具有回環檢測,所以在序列lrkt3擁有較好的定位精度,但在ofkt1中因為檢測不到回環而表現不好,本文算法在沒有回環的情況下依然有著很好的定位精度,可以看出,本文算法能夠減少跟蹤過程中出現的累計漂移現象。

3)系統建圖實驗

為了驗證本文系統的建圖性能,圖6為本系統分別在fr3strutex、snotfar和lrkt3三個不同數據集的建圖效果。在fr3strutex數據集中有豐富的紋理,點特征可以恢復局部區域的大致形狀;面特征可以幫助系統快速識別局部面區域,幫助建圖;線特征的加入可以清楚地識別墻上的線條與字母。在snotfar數據集中,主要考驗系統在弱紋理環境下的魯棒性,該環境中可識別的點特征與線特征較少,導致很多系統無法跟蹤。本文算法可以提取平面,并尋找平面之間的垂直、平行關系,這樣相機在弱紋理甚至無紋理的情況下,通過平面約束也能精確定位,從而實現弱紋理環境下的魯棒性。lrkt3主要考驗系統在室內相對弱紋理環境下的建圖能力,可以看出,點線面特征的結合可以豐富系統建圖效果。在局部弱紋理環境下,通過平面約束可以看到大致環境中的結構,點特征與線特征的加入可以更好地呈現環境中的細節。

3 結束語

本文提出了一種基于點線面特征無漂移旋轉的視覺里程計,使用點線面特征融合的方法,解決了系統在弱紋理環境下的魯棒性。在曼哈頓世界假設下,使用無漂移旋轉的算法將旋轉與平移分量分開求解提升系統的定位精度。采用結構線與結構面約束來精確曼哈頓軸的提取,進一步優化系統整體性能。在公開數據集TUM與ICLNUIM的實驗表明,本文算法具有較好的定位精度與魯棒性,能夠在弱紋理環境下穩定運行。

目前系統使用的平面提取算法容易受到噪聲的影響,導致平面特征的提取達不到理想的精度,而且本算法適用于結構化的場景中,未來可進一步拓寬適用場景,提升系統的泛用性。

參考文獻:

[1]Cadena C,Carlone L,Carrillo H,et al. Past,present,and future of simultaneous localization and mapping: toward the robustperception age [J]. IEEE Trans on Robotics,2016,32(6): 1309-1332.

[2]高翔,張濤,劉毅,等. 視覺 SLAM 十四講: 從理論到實踐 [M]. 北京: 電子工業出版社,2017: 132-204. (Gao Xiang,Zhang Tao,Liu Yi,et al. Visual SLAM 14 lectures: from theory to practice [M]. Beijing: Publishing House of Electronics Industry,2017: 132-204.)

[3]Kim P,Coltin B,Kim H J. Visual odometry with driftfree rotation estimation using indoor scene regularities [C]//Proc of British Machine Vision Conference. [S.l.]: BMVA Press,2017: 7.

[4]MurArtal R,Tardos J D. ORBSLAM2: an opensource SLAM system for monocular,stereo,and RGBD cameras [J]. IEEE Trans on Robotics,2017,33(5): 1255-1262.

[5]趙偉博,田軍委,王沁,等. 基于點線特征融合的視覺慣性SLAM算法 [J]. 計算機應用研究,2022,40(2):445-449. (Zhao Weibo,Tian Junwei,Wang Qin,et al. Visual inertial SLAM algorithm based on pointline feature fusion [J]. Application Research of Computers,2022,40(2):445-449.)

[6]GomezOjeda R,GonzalezJimenez J. Robust stereo visual odometry through a probabilistic combination of points and line segments [C]// Proc of IEEE International Conference on Robotics and Automation. Piscataway,NJ: IEEE Press,2016: 2521-2526.

[7]GomezOjeda R,ZuigaNol D,Moreno F A,et al. PLSLAM: a stereo SLAM system through the combination of points and line segments [J]. IEEE Trans on Robotics,2019,35(3): 734-746.

[8]黃寧生,陳靖,繆遠東. 基于平面約束的RGBD SLAM系統 [J]. 計算機應用研究,2020,37(8): 2526-2530. (Huang Ningsheng,Chen Jing,Miao Yuandong. RGBD SLAM system based on plane constraint [J]. Application Research of Computers,2020,37(8): 2526-2530.)

[9]Coughlan J M,Yuille A L. Manhattan world: compass direction from a single image by Bayesian inference [C]// Proc of the 7th IEEE International Conference on Computer Vision. Piscataway,NJ: IEEE Press,1999: 941-947.

[10]Zhou Huizhong,Zou Danping,Pei Ling,et al. StructSLAM: visual SLAM with building structure lines [J]. IEEE Trans on Vehicular Technology,2015,64(4): 1364-1375.

[11]Zhou Y,Kneip L,Rodriguez C,et al. Divide and conquer: efficient densitybased tracking of 3D sensors in Manhattan worlds [C]//Proc of Asian Conference on Computer Vision. Berlin: Springer,2016: 3-19.

[12]Kim P,Coltin B,Kim H J. Lowdrift visual odometry in structured environments by decoupling rotational and translational motion [C]// Proc of IEEE International Conference on Robotics and Automation. Piscataway,NJ: IEEE Press,2018: 7247-7253.

[13]Kim P,Coltin B,Kim H J. Linear RGBD SLAM for planar environments[C]// Proc of European Conference on Computer Vision. Berlin:Springer,2018:350-366.

[14]Li Yanyan,Yunus R,Brasch N,et al. RGBD SLAM with structural regularities [C]// Proc of IEEE International Conference on Robotics and Automation. Piscataway,NJ: IEEE Press,2021: 11581-11587.

[15]CompanyCorcoles J P,GarciaFidalgo E,Ortiz A. MSCVO: exploiting Manhattan and structural constraints for visual odometry [J]. IEEE Robotics and Automation Letters,2022,7(2): 2803-2810.

[16]Rublee E,Rabaud V,Konolige K,et al. ORB: an efficient alternative to SIFT or SURF [C]// Proc of International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2011: 2564-2571.

[17]Gioi R,Jakubowicz J,Morel J M,et al. LSD: a fast line segment detector with a false detection control [J]. IEEE Trans on Pattern Analysis and Machine Intelligence,2010,32(4): 722-732.

[18]Handa A,Whelan T,McDonald T,et al. A benchmark for RGBD visual odometry,3D reconstruction and SLAM [C]// Proc of IEEE International Conference on Robotics and Automation. Piscataway,NJ: IEEE Press,2014: 1524-1531.

[19]Sturm J,Engelhard N,Endres F,et al. A benchmark for the evaluation of RGBD SLAM systems [C]// Proc of IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway,NJ: IEEE Press,2012: 573-580.

主站蜘蛛池模板: 久久先锋资源| 久久中文电影| 欧美精品H在线播放| 色悠久久久久久久综合网伊人| 一区二区三区成人| 成年人国产视频| 亚洲IV视频免费在线光看| 中文字幕无码av专区久久| 久久国产精品无码hdav| 亚洲国产成熟视频在线多多 | 中文字幕亚洲乱码熟女1区2区| 99视频精品在线观看| 国产小视频a在线观看| 欧美在线三级| 亚洲人成网址| 中国美女**毛片录像在线| 国产乱子伦一区二区=| 国产精品精品视频| 亚洲品质国产精品无码| 91黄色在线观看| 熟妇无码人妻| 在线无码九区| 在线观看亚洲成人| 亚洲中文字幕国产av| 国产免费黄| 久久夜色精品| 久久精品国产电影| A级毛片无码久久精品免费| 丝袜无码一区二区三区| 国国产a国产片免费麻豆| 91久久夜色精品国产网站| 国产精品久久久久久久伊一| 中文字幕人妻无码系列第三区| 精品久久久久成人码免费动漫 | 久久国产高潮流白浆免费观看| 91精品国产综合久久香蕉922 | 欧美不卡视频在线| 伊人无码视屏| 欧美日本视频在线观看| 97视频免费看| 日本亚洲欧美在线| 精品色综合| 亚洲中文字幕av无码区| 国产欧美又粗又猛又爽老| 成人无码一区二区三区视频在线观看 | 日韩在线1| 麻豆国产精品视频| 欧美成人午夜视频| 69视频国产| 亚洲天堂日韩av电影| 九九九国产| 欧美无专区| 国产大全韩国亚洲一区二区三区| 日本爱爱精品一区二区| 亚洲 欧美 偷自乱 图片| 亚洲欧美精品一中文字幕| 国产精品手机在线观看你懂的| 日本人真淫视频一区二区三区| 四虎在线高清无码| a免费毛片在线播放| 九九久久99精品| 亚洲三级电影在线播放| 国产簧片免费在线播放| 2020极品精品国产| 五月婷婷导航| 国产在线观看91精品亚瑟| 88国产经典欧美一区二区三区| 欧美不卡在线视频| 男女男精品视频| …亚洲 欧洲 另类 春色| 国产成人区在线观看视频| P尤物久久99国产综合精品| 超清无码一区二区三区| 国产新AV天堂| 亚洲成肉网| h网址在线观看| 国产99欧美精品久久精品久久| 亚洲综合国产一区二区三区| 永久在线精品免费视频观看| 9啪在线视频| 国产H片无码不卡在线视频| 亚洲三级成人|