999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

深空探測車環境感知與導航定位技術進展與展望

2021-12-08 13:23:36邸凱昌劉召芹萬文輝王曄昕于天一李立春劉傳凱
測繪學報 2021年11期
關鍵詞:規劃方法

邸凱昌,王 鎵,邢 琰,劉召芹,萬文輝,彭 嫚,王曄昕,劉 斌,于天一,李立春,劉傳凱

1. 中國科學院空天信息創新研究院遙感科學國家重點實驗室,北京 100101; 2. 北京航天飛行控制中心,北京 100094; 3. 北京控制工程研究所,北京 100094

20世紀末至今,世界上主要的航天大國出于航天科技發展和國家戰略的考慮,紛紛提出月球、火星、小行星和其他類地行星的探測計劃并積極實施,掀起新一輪深空探測熱潮[1-2]。相比于軌道器探測,著陸巡視探測能夠對行星表面和次表層開展更高分辨率的原位探測,是開展類地行星表面探測和科學研究的重要手段。表1中列出了迄今為止國際國內成功執行的無人駕駛巡視器(探測車)的相關信息,巡視探測任務集中在月球和火星,目前正在工作的探測車包括我國的玉兔二號月球車、美國好奇號和毅力號火星車。我國的天問一號火星探測器已于2021年5月15日安全著陸。

在安全著陸以后,探測車巡視探測和科學研究的前提條件是安全移動,以及有效獲取科學載荷數據,因此環境感知與導航定位是深空探測車自動駕駛的核心技術。歷史上及目前的探測車行駛尚不能實現全自動的駕駛[2]。蘇聯的月球車1號和2號依靠地面遙操作方式實現巡視器的探測,具體方式為組建5人駕駛員團隊,依靠巡視器攜帶不同攝像機拍攝并下傳的影像完成估算和判斷,通過飛控中心的遠程控制系統直接“駕駛”月球車實現月面巡視探測(存在地月通訊延時),并無自主導航能力[3]。美國的Mars Exploration Rovers(MER)勇氣號和機遇號采用遙操作及半自主的控制方式[4],長距離的行駛一般由盲行駛和自主行駛兩種模式混合實現,即首先采用地面遙操作方式確定安全行駛路徑進行盲行駛,然后開啟自主行駛模式,利用導航和避障軟件選擇路徑自主行駛較短的距離[5-6]。與MER類似,美國的好奇號火星車也采用遙操作及半自主的控制方式,提供3種行駛模式:盲行駛,避障加車輪打滑檢查模式,避障加全程視覺測程模式[7]。我國嫦娥三號和嫦娥四號月面巡視探測任務中,月球車采用了遙操作及半自主的控制方式,地面飛控人員可以通過回傳圖像進行大范圍地形重建、定位和探測目標選?。辉虑蜍嚳赏ㄟ^盲行駛、自主避障規劃移動、激光探測避障移動和地面直接驅動等多種移動模式實現不同地形下的自主安全巡視,其中自主避障規劃移動和激光探測避障移動模式能夠自主進行環境感知和避障[8-9]。

深空探測車的自動駕駛與地球上汽車自動駕駛相比,在環境感知與導航定位中的導航基礎設施及數據支持、傳感器配置、計算機性能等多方面有明顯的不同。汽車自動駕駛的環境(即路網)有高精度道路地圖的支持和高精度GNSS定位的支持,環境感知普遍使用大量的傳感器包括激光雷達、毫米波雷達、超聲波雷達、相機等,車載計算機的性能很高。而深空探測車的行駛探測過程中,并沒有現成的道路和高精度道路地圖,更沒有GNSS定位設施,受限于重量和功耗,所使用的環境感知傳感器主要為相機,探測車的計算機性能較低。所有這些差異使得深空探測車環境感知與導航定位有其獨特的挑戰[2]。目前已成功運行的深空探測車有月球車和火星車(表1),其環境感知和導航定位核心技術和應用總體上相同,由于月球日與火星日時長的差別,以及月球和火星與地球通訊的時延不同,其具體應用模式略有不同;另外,火星表面形貌類型比月球表面豐富,環境感知中的地形分類研究針對火星較多、針對月球較少。

表1 成功執行的無人巡視器探測任務

1 深空探測車環境感知技術進展

深空探測車要安全有效地執行科學與工程任務,首先需要用其攜帶的傳感器感知所在環境。探測車的環境感知主要包括三維地形重建和障礙識別。在火星巡視探測中,地形分類對于障礙識別和路徑規劃有很好的支撐作用,也是環境感知的重要組成部分。下面針對三維地形重建、障礙識別、地形分類分別展開論述,其中包括工程任務中應用的成熟技術以及一些近期的研究進展。

1.1 三維地形重建

利用探測車獲得的影像對著陸區和巡視區進行高精度的三維地形重建,可以獲取著陸探測區域精細的形貌特征,為探測車的安全行駛提供最基礎的地形三維信息。在MER火星車探測任務中,火星車所攜帶的導航、全景和避障立體相機提供了對火星表面環境及科學目標精細制圖的能力。文獻[10]對火星車立體相機的三維測圖能力進行了理論分析,在MER任務執行過程中,自動生成了多種類型和規格的地形制圖產品,如數字高程模型(DEM)、數字正射影像圖(DOM)、坡度圖、深度圖、表面法向量圖、表面粗糙度圖等,這些圖與火星車定位數據一起直接用于火星車的路徑規劃,也用于對探測區域和探測目標的科學研究[11-15]。文獻[16]研究了面向地形測圖的長基線立體視覺方法;文獻[17]研究了火星車長基線測圖的理論精度,并開發了長基線三維測圖的方法。在嫦娥三號任務中,利用著陸器降落相機序列影像生成了著陸區高精度三維制圖產品,分辨率高達0.05 m,為玉兔號月球車導航定位提供了比嫦娥二號DOM更精細的底圖[18-19];在每一個停泊點,利用月球車導航相機獲取的影像自動生成了DEM、DOM、坡度圖等地形制圖產品,用于支持月球車行駛路徑規劃[18]。在嫦娥四號任務中,利用玉兔二號月球車的導航相機和全景相機生成了標準化的厘米級分辨率的DEM、DOM和坡度圖等產品,支持障礙識別和路徑規劃[20-21]。

三維地形重建的主要流程包括影像模型的構建和定向、立體匹配、點云生成和DEM內插。其中立體匹配是影響地形產品質量的關鍵。目前深空探測車地形重建中的立體匹配方法可分為基于特征的匹配和全局匹配。基于特征的匹配首先使用F?rstner算子、SIFT算子、SURF算子等提取特征點,然后采用核線約束、從粗到精策略和三角網約束等匹配策略實現密集點匹配。MER任務中的MIPL(multimission image processing laboratory)負責MER圖像數據的地面處理,其流水線中使用匹配的特征點作為種子點,結合金字塔影像使用雙線性變換在種子點8鄰域內擴散獲得稠密匹配點,在此基礎上生成了一系列地形產品[14,22]。文獻[23]研究了不同特征的匹配算子在探測車制圖和定位的性能。全局匹配方法是使用不同相似度函數(SSD、SAD、相關系數)計算區域的相似性,建立對應的能量函數,選擇能量函數值最小時對應的匹配結果實現像素級的匹配。文獻[24]提出了基于平面約束和自適應懲罰參數的半全局立體匹配方法,降低了傳統方法的計算復雜度。針對深空探測影像紋理貧乏導致的匹配不確定性,文獻[25]提出自適應馬爾可夫隨機場模型,在實現全局匹配的同時保留了視差不連續的區域特征,匹配精度優于SAD區域匹配法和傳統的馬爾可夫匹配法。

1.2 障礙識別

障礙識別是保證探測車安全行駛和完成任務的關鍵技術,深空探測車多使用立體相機影像及其派生產品進行障礙識別,主要包括基于三維信息的方法、基于單張影像的方法和結合二維三維信息的方法。

最基本的基于三維信息的方法是通過探測車立體影像生成的深度圖或高程圖進行障礙檢測,在工程任務中廣泛應用。文獻[26]使用立體影像獲得子像素的距離圖,然后使用最小二乘擬合平面計算出坡度圖,通過擬合平面中的離群點進行分組確定石塊障礙。“玉兔二號”行駛過程中,導航相機在每個站點生成了0.02 m的DEM和DOM,在這些地形產品基礎上生成了0.3 m的坡度圖,綜合考慮地形坡度、高程差和探測車的越障能力生成障礙圖[20-21]。圖1展示了玉兔二號導航相機在D′站點生成的DEM、DOM、坡度圖和障礙圖。

基于單張影像的方法主要通過基于邊緣、區域或機器學習的方法進行障礙檢測,其中石塊檢測得到了較多的研究。文獻[27]對比了7種提取石塊的方法,主要包含基于邊緣檢測、陰影和灰度信息、雙目幾何信息、基于窗口的Adaboost以及基于像素的SVM等方法。基于邊緣的檢測方法主要基于紋理和梯度等特征檢測障礙,通過不同的邊緣檢測算子獲得圖像邊緣,然后連接各邊緣點獲取輪廓線[28]?;趨^域的方法主要通過K均值、二維類間方差、超像素分割、水平集等算法將障礙和背景進行區分。文獻[29]利用K均值法將灰度影像進行分割,然后通過紋理和灰度進行分類,最終獲取障礙圖。文獻[30]改進了傳統二維最大類間方差法實現月面的障礙物識別,優化了搜索最大閾值的時間。超像素分割進行石塊檢測的方法首先結合影像分割得到的超像元區域,然后比較各個區域的特征值,最終通過閾值算法分割出石塊[31-34]。文獻[35]將區域信息和梯度信息引入到水平集中,通過能量函數的最小化求解提取石塊。機器學習方面,文獻[36]建立石塊在不同光照條件下的級聯模板,通過Adaboost對其進行訓練構建級聯分類器來快速識別石塊[36]。近年的研究中,深度學習方法也被用來提取障礙,例如文獻[37]使用卷積神經網絡對類似火星車影像進行石塊提取,通過對U-net卷積網絡進行結構改進,提高了分割影像的速度并取得了較高的精度。

結合二維和三維的方法主要利用影像的灰度信息和三維的高程信息提取障礙。文獻[38]首先使用從立體圖像的三維點云來擬合可以提取坡度的平面,并使用單張圖像根據熵信息提取巖石,然后從擬合的平面殘差中得到石塊的高度。文獻[39]結合勇氣號火星車導航相機獲取的影像數據mean-shift分割結果和對應的深度點云數據對石塊進行了提取。文獻[21]提出一種結合單張影像和局部三維點云的障礙提取方法,結合三維點云反投得到的種子點和影像mean-shift分割結果,通過閾值比較得到障礙結果。

圖1 玉兔二號導航相機在D′站點生成的地形產品[20]Fig.1 Map generated from Yutu-2 navcam images at waypoint D′[20]

1.3 地形分類

早期的深空探測車在制定行駛路徑時,主要基于立體影像重建的三維地形進行可通行性及障礙分析形成代價圖,并在此基礎上進行路徑規劃,并未直接定量地考慮地形地貌類別對探測車行駛的影響。由于在探測過程中發現不同的地形對車輪滑移程度的影響不同,且有的地形地貌易造成車體沉陷,這些均會顯著增加探測車的安全風險。近年來,面向路徑規劃的巡視器影像的地形分類開始引起重視并開展了不少研究。

初期主要采用聚類和傳統機器學習的方法[40],例如采用DEM數據進行無監督聚類的方法[41],自適應模糊粗糙特征結合SVM的方法[42],結合圖像梯度和統計特征和隨機森林的方法等[43-44]。深度學習方法則在近年的研究中被采用,如文獻[45]利用全卷積網絡對地形地貌進行分類,將分類結果用于決策路徑規劃,其中對于軌道器影像進行17類地形分類,對于火星車導航相機影像進行6種地形分類,其試驗結果軌道器影像地形分類精度高,平均精度達90.2%,而導航相機影像地形分類精度差,平均精度不足55%?;鹦擒囉跋竦匦畏诸惤Y果如圖2所示。該項技術中軌道器影像地形地貌分類參與可通過性分析的成果已應用于NASA的Mars2020的預選著陸區分析中[46]。文獻[47]在之前研究基礎上,又提出利用多個深度學習網絡分別對火星車圖像進行解譯和可通過性分析,實現科學目標探測需求牽引的巡視器路徑規劃,目前這些技術處于研究測試階段。

不同的地形地貌類型對于探測車行駛的潛在危險有所不同,車輪打滑和沉陷是兩類研究較多的危險情況,另外,在行駛安全的情況下不同的地形對車輪的磨損也是不同的。車輪打滑和沉陷的研究分別通過傳感器參數狀態監測以及視覺方法來建立相應模型。文獻[48]通過感知不同傳感器的運行狀態來檢測車輪打滑,并提出基于邊緣檢測的車輪下陷估計算法。文獻[49]對影像中輪腿混合移動系統區域進行顏色空間分割和形態學方法來計算巡視器的下陷程度。文獻[50]通過動態非線性方法將圖像轉換至HSI空間提取車輪土壤邊界,并通過離散數學模型計算不同地形條件下的車輪沉陷量。文獻[51]將俯仰角、翻滾角以及上一步的滑移量作為輸入,結合經典幾何模型來計算巡視器的滑移量。文獻[52]通過分析勇氣號從Sol 154到Sol 737的滑移發現,滑移與坡度方向和幅度高度相關,并對4種不同地形滑移分析后發現基巖滑移量最小。文獻[53]根據地層和其侵蝕形式利用HiRISE圖像生成地貌圖,并利用好奇號影像更新結果,遍歷了其通行的整個路徑來分析不同地貌對車輪的損害影響程度。上述研究是在地球上通過模型探測車研究和測試或工程數據后處理分析,尚未在深空探測車工程上實時化應用。

2 深空探測車視覺定位技術進展

深空探測任務中,探測車定位為導航避障規劃提供位置信息,是開展表面巡視探測任務的基礎,對任務的安全執行有著重要意義。深空環境沒有GNSS等直接定位信號,因此需要依靠慣導、里程計及視覺相機等車載傳感器通過自主定位為探測任務提供定位結果。隨著行駛距離的增長,自主定位的誤差累積不可避免,為降低定位累積誤差對任務規劃的影響,還需考慮引入軌道器影像或降落相機影像等其他視覺數據,通過集成處理修正探測車定位累積誤差。

探測車定位分為絕對定位和相對定位,絕對定位是確定探測車在全局坐標系(星固坐標系)的位置,相對定位指確定探測車當前站點相對于上一個站點的位置。2.5節中探測車影像同軌道器影像集成的定位是絕對定位,其他方法從原理上講都是相對定位。相對定位在局部坐標系中持續進行,一般將著陸點位置作為局部坐標系的坐標原點,也是相對定位的起點。根據著陸點定位的絕對位置,可以把相對定位結果轉換成絕對定位結果[20,54]。

下面對站點視覺定位、在線視覺測程定位、探測車影像同軌道器影像集成的定位等工程任務中常用的視覺定位技術展開論述。航跡推算不屬于視覺定位,但作為基礎性的定位方法在工程任務常用;視覺與多傳感器組合導航定位開展了較多研究,有很好的應用潛力,因此這兩種方法也一并介紹。

2.1 航跡推算

航跡推算方法通過融合探測車車載慣性測量單元(IMU)和里程計數據,不斷推估出探測車的位置姿態結果,具有不受外界環境影響、定位輸出穩健性強的優點。定位過程中,慣導感知探測車姿態與速度的變化,輸出平臺角速度與加速度值,里程計則記錄探測車行駛路徑的長度數據。兩類數據一般采用卡爾曼濾波進行融合,通過里程計的觀測約束慣導陀螺和加速度長時間運行產生的位置漂移,輸出穩健的定位結果。航跡推算方法是探測車巡視探測中的常規定位方法。但在松軟土壤和崎嶇地面區域行駛時,探測車車輪打滑嚴重,使用航跡推算方法定位誤差顯著增大。美國MER任務中,勇氣號與機遇號探測車航跡推算精度為10%[55]。我國嫦娥任務玉兔號與玉兔二號航跡推算精度為行駛距離的15%[20,54]。為滿足探測任務需要,還需采用視覺等其他定位手段獲取探測車高精度位置姿態信息。

2.2 站點視覺定位

探測任務中,探測車一般在導航站點及探測站點利用車載立體相機獲取多對立體影像?;谇昂笳军c的立體影像,通過尋找站點圖像間的同名點作為連接點,應用視覺定位方法解算當前站點影像相對上一站點影像的相對位置姿態參數,結合前一站點的位置信息即可計算輸出當前站點的定位結果。該方法的定位結果不隨時間而發生漂移,也不受地形條件影響,具有較好的自主性和較高的精度,已業務化應用于我國玉兔號和玉兔二號月球車定位,修正GNC航跡推算定位結果[20,54,56]。圖3為玉兔二號月球車站點視覺定位結果(截至日期:2021-03-20)。

圖2 好奇號火星車導航相機影像的地形分類結果[45]Fig.2 Examples of terrain classification results of two Curiosity navcam images[45]

圖3 玉兔二號月球車前28月晝行駛路線Fig.3 Traverse map of Yutu-2 rover up to the 28th lunar days

站點視覺定位方法的核心是尋找相鄰站點影像間的同名點。由于相鄰站點間距離一般在10 m左右,相鄰站點成像時間間隔大,站點圖像在尺度、視角、光照條件等方面存在較大不同,需采用能較好克服圖像尺度、形變及亮度變化的匹配方法。在嫦娥三號與四號巡視探測中,月球車在每個站點采用前向立體影像及回望立體影像進行視覺定位[57]。定位時,依據由航跡推算得到的探測車初始定位結果,大致提取前后站點影像的同名區域,通過圖像縮放、變形等處理,使得相鄰影像上同名區域盡可能在尺度、視角上一致。隨后,采用Affine-SIFT[58]匹配方法尋找相鄰站點影像的同名點。依據同名點結果,以前一站點影像位姿參數為真值,用光束法平差方法計算當前站點探測車的位置。

通過地面操作人員的評估,嫦娥任務中的站點視覺定位精度優于4%[20,54],相比航跡推算方法,可有效提升月球車的定位精度。然而,月球表面環境十分復雜,受光照影響部分相鄰站點圖像難以自動獲取足夠數量的同名點匹配結果,需通過少量人機交互操作完成定位。

在MER火星車任務中,文獻[12]將探測車在停泊點獲取的導航相機、全景相機影像通過特征點構建全局的影像區域網,采用光束法平差方法解求影像的最佳位置與姿態,實現探測車的高精度定位;考慮到探測車影像隨時間而增多,開發了遞增式光束法平差方法用于定位解算,使得對新加入影像的平差處理能夠基于之前的平差結果,而不需要重新進行全局解算,大大減少了平差計算的復雜度與計算量[15]。

2.3 在線視覺測程定位

探測車在地形復雜區域的行駛時,通過獲取探測車序列立體影像(相鄰立體像對間距0.5 m或更短),經過車載計算機的在線視覺測程定位計算,可為探測車實時提供高精度的連續定位結果。美國MER、好奇號等任務中采用此方法用于探測車在部分有挑戰性的路段(如上下坡時)的安全連續行駛。在MER任務中,約每3 min輸出一幀立體影像定位結果用于探測車在線定位,速度和效率有待提高[59-61]。我國的天問一號火星車也采用了視覺測程定位技術,提高自主導航定位精度。

視覺測程定位方法首先對前后幀立體影像采用F?rstner或Harris特征算子提取像對上的特征點,獲取影像上的立體匹配點;然后,通過圖像匹配方法尋找前后幀立體影像間的同名點;最后,根據同名點分布位置計算當前幀影像相對前一幀影像的相對位姿參數,輸出當前幀立體影像的位姿結果。視覺測程定位原理上類似站點視覺定位,然而同相鄰站點影像相比,序列立體影像間紋理特征變化不明顯,一般采用模板匹配等常規方法實現相鄰幀圖像特征追蹤,通過優化的快速定位解算方法實現探測車的在線連續定位。

與站點視覺定位方法類似,視覺測程方法也是一種連續推估的定位方法,同樣存在定位誤差的累積??紤]到序列立體影像間距通常不大,同名地物可能在連續數幀影像上均有成像,文獻[62]提出了一種基于序列立體影像光束法平差的視覺定位方法,通過同名特征在多幀影像上的追蹤,選取其中的幾何關鍵幀,構建局部的影像區域網,采用光束法平差優化計算得到當前幀影像位姿參數,提升了傳統視覺測程定位方法的精度。近年來,以ORB-SLAM[63]、LSD-SLAM[64]為代表的視覺SLAM方法,優化了特征提取與匹配方法,提升了定位效率與精度,有望為探測車的在線視覺定位提供借鑒與參考。

2.4 視覺與多傳感器組合導航定位

盡管視覺定位方法精度較高,但易受環境紋理、光照條件影響,在星球表面貧紋理區域定位精度降低甚至可能無法定位。因此,原理上可以將探測車慣導與里程計的數據同視覺數據進行融合,通過多傳感器的融合提升探測車定位的穩健性與精度,解決貧紋理條件下單獨使用視覺數據無法定位的問題。文獻[65]提出了一種基于立體相機、慣導和里程計的松耦合組合導航方法,通過擴展卡爾曼濾波融合輸出比視覺定位精度更高的結果。文獻[66]提出了一種基于聯邦濾波的組合導航方法,確保了立體影像定位處理失敗時仍能穩健輸出連續的高精度定位結果。為進一步提高組合導航的精度,文獻[67]提出了基于濾波的緊耦合算法,采用類似滑動窗口的方式對窗口內所有狀態建立約束,同時對窗口外變量狀態進行邊緣化,有效減少狀態參數,提高了系統穩健性與收斂性。文獻[68]提出了基于慣導與視覺的緊耦合定位算法,通過建立統一的視覺與慣性測量代價函數實現整體優化。文獻[69]提出了基于緊耦合的滑動窗口非線性優化單目視覺慣性里程計定位方法,通過慣導預積分處理及4自由度參數的圖優化輸出實現了單目相機與慣導的集成定位。

相比單個傳感器,視覺相機與慣導及里程計等多傳感器進行松耦合或緊耦合融合均能有效提升定位的穩健性與精度[70]。視覺與多傳感器組合導航定位的尚未在工程中應用,經過更多的研發和測試,組合導航定位有良好的應用潛力。

2.5 探測車影像同軌道器影像集成的定位

長距離行駛的探測車自主定位結果的誤差累積,可通過探測車地面影像同軌道器影像底圖的集成而消除。MER中,文獻[12]在地面影像鑲嵌生成的全景影像上人工尋找遠處地標點,如山峰等,通過建立全景影像上地標點同軌道器影像上對應地標的相互幾何位置關系,實現探測車的定位。文獻[71]分別開發了針對石塊密集區和裸露基巖區的軌道器影像同地面影像集成的自動定位方法。在石塊密集區域,利用立體相機獲取的三維點云數據高程信息在地面影像上獲得石塊分布形狀,同時在高分辨率軌道器影像底圖中利用影像梯度信息提取石塊分布信息;通過計算兩種分布狀態的相似變換模型參數,得到探測車在軌道器影像底圖上位置。在裸露基巖較多的區域,通過探測車影像生成同軌道器影像分辨率相似的DOM,改變地面影像成像視角,進而通過特征匹配確定地面DOM同軌道器影像的關系,實現探測車站點的絕對定位,達到了優于軌道器圖像一個像素的精度。該方法應用于我國嫦娥系列任務中,通過月球車地面圖像制作的DOM同降落相機影像或軌道器影像的DOM間的匹配,完成月球車在著陸區的全局定位[20,54]。

3 深空探測車路徑規劃技術進展

深空探測車路徑規劃指綜合考慮各種環境因素及車本身能力的情況下,規劃從起點到目標點行駛路徑的過程。探測路徑規劃是其安全行駛、高效探測的重要保障,是探測車導航的重要步驟。

根據規劃路徑的范圍,深空探測車路徑規劃可分為兩類:一類是基于先驗地圖等信息的全局路徑規劃,該規劃一般針對較遠目標,主要考慮科學目標的可達性及整體路徑的最優化[72-73]。另一類是基于探測車周圍環境感知的局部路徑規劃,以探索局部科學目標及規避障礙,主要考慮車的安全性及行駛代價最小[74]。

不同類型的路徑規劃方法都涉及兩個關鍵的技術:行駛代價的計算及最優路徑規劃算法。探測車的行駛代價一般考慮地形可達、光照情況、通信可達及車的能源平衡等多種因素[75],在行駛代價構建及定量化的基礎上形成代價圖,然后利用路徑規劃技術計算最優路徑。如我國月球車導航單元規劃中考慮地形行走代價、移動里程代價、操作控制代價等因素,構建環境立方模型,然后利用A*算法規劃路徑[76]。

行駛代價一般考慮環境因素及車自身的因素。獲取這些環境信息一般利用已有環境信息和車上的傳感器(如立體導航相機)[77],毅力號上為了更大范圍的環境感知還配備無人機進行協同探測[78]。車自身因素包含車的越障能力、操作性能、能源的平衡等[79]。各領域都提出了大量的路徑規劃算法[80-81]。在深空探測車任務中考慮對行駛代價處理方式不同,應用得較多得是針對靜態場景的A*算法或Dijkstra算法,算法內存占用小,計算速度快[82-83]。而針對動態場景,采用較多的D*算法[84],該算法具備更高效的重規劃性能。諸如神經網絡算法[85]等算法也在探測車路徑規劃中得到應用。此外,也有學者研究多種算法之間的結合實現探測車的路徑規劃[43]。

目前路徑規劃的方式主要分為人機交互的路徑規劃與自主路徑規劃。人機交互的路徑規劃目前應用較多,如我國的玉兔號、玉兔二號月球車[75]、美國的勇氣號、機遇號等火星車都采取這種方式[73,86-88]。探測車進入導航點后,利用傳感器進行環境感知,遙操作人員根據環境感知結果,結合科學目標及路徑規劃算法定制行駛路徑,指揮探測車移動。該方法能有效保障探測車行駛安全及可靠性,但受限于數據傳輸帶寬及遙操作時延,效率較低。深空探測車自主路徑規劃指車在行駛的過程中自主避障、路徑選擇及目標接近。該方法對車的環境感知能力及計算性能都提出了很高的要求,有望提高行駛效率,但其在深空環境中的可靠性還有待進一步驗證。

4 深空探測車智能化行駛與探測展望

為了提高探測能力并獲得更多的科學發現,未來的深空探測車需要著陸在更具有挑戰性的區域,行駛更長的距離,針對更多的科學目標獲取原位探測數據,提高其環境感知的智能化水平、提高探測車長距離自主導航定位的能力,是支撐巡視探測任務朝著智能化、高效率、大范圍探測發展的必由之路。

(1) 深空探測車智能感知。目前探測車每個規劃單元的行駛距離短、探測效率低的主要原因是探測車環境感知的智能化程度不夠。未來探測車環境感知將主要朝著智能化方向發展,將在多方面提高智能化水平,大幅提升探測車的行駛和探測效率。環境感知不僅感知地形的幾何信息,而且要感知其語義信息,即通過自動地形分類得到所行駛前方的地形類別,還要自動識別撞擊坑、石塊等表面目標,實現實時的全面的環境感知。探測車智能感知的實現,需要充分吸收以深度學習為代表的人工智能技術,充分挖掘視覺傳感器的潛力,適時配置和利用激光雷達等多種傳感器,以及提高車載計算機的算力。

目前,月球車和火星車巡視探測任務中的科學探測目標,如石塊、巖層、土壤、撞擊坑等均是科學家們研究指定的,探測車沒有自主發現科學目標的要求及能力。未來的探測任務中,隨著探測車行駛和探測能力的提高,對科學目標的確定應采取科學家指定和探測車自主發現相結合的方式。在行駛過程中,探測車在保證安全及能按時到達指定目標的前提下,自主發現一些科學目標獲取科學數據。擁有了自主發現科學目標的能力,深空探測車的探測方式將得到質的飛躍。

(2) 長距離自主導航定位。受限于感知和定位能力以及安全性的考慮,以前月球車和火星車每個單元規劃的行駛距離平均為數米至數十米,使得探測車機械行駛能力遠沒有發揮出來。長距離自主導航定位,如每個單元規劃數百米乃至更長距離下的自主導航定位,是深空探測車發展的重大需求和必然選擇。這就需要把目前工程中常用的站點間的視覺定位,改進成連續的實時視覺定位,或者稱為實時視覺SLAM[70],并且與上文中論述的實時障礙識別、地形分類、目標識別相結合,實時地自主規劃到達遠處目標點的路徑。長距離自主導航對定位精度的要求也會相應提高,否則定位誤差的累計會給探測車行駛帶來安全隱患。為了提高定位精度,更有效地集成雙目視覺、慣導和里程計很有必要。

探測車的周期規劃和單元規劃主要依賴于其視覺傳感器數據,而科學家對著陸區的宏觀研究科學探測規劃(即整體規劃)主要依賴于軌道器影像底圖。因此,需要把探測車定位到軌道器影像底圖,這一巡視器與軌道器的一體化定位還能夠消除僅依賴于探測車視覺定位在長距離上的累計誤差。探測車在軌道器影像底圖的定位已有研究并在遙操作過程中使用,如何將其前置到計算和存儲受限的探測車上實現自主定位是值得進一步研究的問題。

實現了長距離自主導航定位和軌道器與巡視器的一體化定位的自動化,將大大提高深空探測車行駛與探測的效率,同時減輕地面遙操作工程人員的工作強度和密度。長距離自主導航定位技術與智能感知的結合,將真正實現深空探測車的智能化、高效率、大范圍探測,給巡視探測任務帶來更多的科學回報。

5 結 語

作為深空探測車行駛和探測的核心技術,環境感知與導航定位技術已經在月球和火星巡視探測任務發揮了關鍵作用。之前的環境感知與導航定位重點解決了安全性和精度的問題,目前研究和應用正朝著智能化、長距離自主導航定位等方向發展,其中仍有很多難題尚待解決,需要深空探測技術人員和相關科研工作者努力攻關解決,其中測繪遙感、計算機視覺、人工智能等學科專業的技術發展將起到有力的推動作用。

猜你喜歡
規劃方法
發揮人大在五年規劃編制中的積極作用
學習方法
規劃引領把握未來
快遞業十三五規劃發布
商周刊(2017年5期)2017-08-22 03:35:26
可能是方法不對
多管齊下落實規劃
中國衛生(2016年2期)2016-11-12 13:22:16
十三五規劃
華東科技(2016年10期)2016-11-11 06:17:41
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
迎接“十三五”規劃
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
主站蜘蛛池模板: 在线日韩一区二区| 天天色综网| 久久亚洲精少妇毛片午夜无码| 国产成人亚洲无吗淙合青草| 免费在线a视频| 亚洲第一中文字幕| 激情视频综合网| 国产主播一区二区三区| 综1合AV在线播放| 久久91精品牛牛| 人妻精品久久无码区| 天堂成人av| 国产99在线| 亚洲欧美自拍一区| 午夜精品影院| 久久一色本道亚洲| 免费xxxxx在线观看网站| 久久国产成人精品国产成人亚洲| 一区二区午夜| 久久久久九九精品影院| 亚洲不卡影院| 国产精品私拍99pans大尺度| 色综合久久无码网| 福利片91| 国产麻豆精品在线观看| 人人爽人人爽人人片| 国产va在线| 色综合热无码热国产| 久久综合AV免费观看| 国产在线观看成人91| 尤物视频一区| 亚洲精品在线91| 亚洲欧美日韩成人在线| 91网址在线播放| 亚洲一级色| 亚欧美国产综合| 久久久91人妻无码精品蜜桃HD| 五月天福利视频| 91久久国产热精品免费| 欧美日本在线播放| 亚洲成人黄色网址| 亚洲系列中文字幕一区二区| 精品少妇人妻一区二区| 亚洲三级色| 午夜福利亚洲精品| 久久人妻xunleige无码| 日韩无码黄色| 精品夜恋影院亚洲欧洲| aⅴ免费在线观看| 国内精品免费| 天天综合天天综合| 中文字幕欧美日韩| 成人毛片免费在线观看| 国产在线精品香蕉麻豆| 欧美中出一区二区| 无码精油按摩潮喷在线播放| 中文字幕在线观| 欧美精品一二三区| 国产91丝袜| 国产精品自在自线免费观看| 综合社区亚洲熟妇p| 91极品美女高潮叫床在线观看| 97视频免费在线观看| 欧美全免费aaaaaa特黄在线| 日韩高清中文字幕| 日韩东京热无码人妻| 超级碰免费视频91| 国产91熟女高潮一区二区| 免费人欧美成又黄又爽的视频| 91精品国产一区| 日韩美毛片| 亚洲天堂免费在线视频| 国产成人精品优优av| 欧美视频在线观看第一页| 伊人久久大香线蕉成人综合网| 美女啪啪无遮挡| 欧美成人精品高清在线下载| 99视频精品全国免费品| 思思热精品在线8| 欧美a√在线| 国内嫩模私拍精品视频| 国产精品美女自慰喷水|