張春曉 林招榮 姚毅剛
(北京空間機電研究所,北京 100190)
視覺信息輔助無人機偵察目標定位技術(shù)研究進展
張春曉 林招榮 姚毅剛
(北京空間機電研究所,北京 100190)
傳統(tǒng)無人機偵察目標定位受限于平臺、位姿量測設(shè)備性能的影響,定位精度提升有限。隨著光學傳感器性能的完善、先進視覺信息處理技術(shù)的發(fā)展,在無人機偵察目標定位領(lǐng)域引入視覺信息分析對提升地面目標定位精度,降低系統(tǒng)復雜度和成本有積極意義。文章分別介紹了基于先驗知識的視覺輔助目標定位方法和無先驗知識的視覺輔助目標定位方法的研究進展,闡述了視覺處理的關(guān)鍵環(huán)節(jié),并從定位精度、影響因素、系統(tǒng)復雜度、使用要求等方面對比分析了兩類方法的優(yōu)缺點。最后,結(jié)合當前國際上無人機產(chǎn)業(yè)發(fā)展趨勢,針對中國無人機偵察目標定位的現(xiàn)狀,給出了視覺信息在助力目標定位領(lǐng)域的技術(shù)發(fā)展策略和應(yīng)用前景,為國內(nèi)無人機光電偵察目標定位系統(tǒng)研制提供了新思路、新方法。
無人機 目標定位 視覺導航 地理配準
隨著無人機在軍用領(lǐng)域的廣泛應(yīng)用,無人機光電偵察與衛(wèi)星偵察相比,具有低成本、高效費比、高分辨率、偵察區(qū)域靈活的特點;與有人機相比,有危險小、適應(yīng)性強等特點,已成為衛(wèi)星偵察、有人機偵察的重要補充與增強手段。無人機偵察任務(wù)系統(tǒng)包括機載任務(wù)系統(tǒng)和地面控制站兩部分。無人機傳輸過來的偵察信息、導航遙測數(shù)據(jù)以及部分控制指令均在地面控制站接收和發(fā)送。機載任務(wù)系統(tǒng)通常由機載信息處理器、偵察傳感器、導航系統(tǒng)、無線數(shù)傳系統(tǒng)等部分組成,以實現(xiàn)超視距環(huán)境目標信息的獲取、處理及收發(fā)。由于無人機的尺寸和功耗限制了其有效載荷能力,光電載荷相較激光、聲納等主動探測傳感器更為輕便,而且提供了完成環(huán)境精確感知所需的豐富視覺信息。隨著先進視覺處理技術(shù)的發(fā)展,光電載荷已在無人機自主定位、偵察目標精確定位方面發(fā)揮日益重要的作用,從多個層面突破傳統(tǒng)目標定位系統(tǒng)對定位性能的諸多限制。
作為無人機偵察的一項重要任務(wù),傳統(tǒng)地面目標定位方法通常是在大地坐標系下,經(jīng)歷無人機平臺、穩(wěn)定平臺、載荷平臺等一系列坐標轉(zhuǎn)換,得到像點對應(yīng)目標的空間地理位置[1]。定位精度依賴平臺和任務(wù)載荷的量測精度,受光學系統(tǒng)、機械框架、控制系統(tǒng)、安裝對準、減震器、無人機導航系統(tǒng)等裝置性能的影響,定位誤差較大。引入視覺信息分析對提升地面目標定位精度,降低系統(tǒng)復雜度和成本有積極意義。綜合利用先進的傳感器技術(shù)、圖像處理技術(shù)、模式識別技術(shù)、機器學習技術(shù),不僅可執(zhí)行地面目標判定、位置測算、運動監(jiān)測等目標識別與跟蹤任務(wù),還可輔助導航系統(tǒng)定位飛行狀態(tài)、指導飛行路徑規(guī)劃、感知環(huán)境、測定目標方位。與傳統(tǒng)定位方法比較,除了具有功耗低、體積小等優(yōu)勢外,它更有可能在低成本低精度的測姿定位裝置下,抗衡由于采用低成本微機械器件而存在的較大漂移誤差,實現(xiàn)可靠地(近)實時定位解算,代表了目前光電偵察定位領(lǐng)域的研究趨勢。
根據(jù)視覺信息分析過程中是否以先驗信息為參考,可以分成基于先驗知識的視覺輔助目標定位方法和無先驗知識的視覺輔助目標定位方法。先驗知識通常表征為多種形式的地圖,前者通過與其配準實現(xiàn)絕對定位,理想情況下定位精度可達地圖級;后者依賴對運動過程視覺信息變化的捕捉,執(zhí)行相對定位,可與具有絕對定位能力的系統(tǒng)融合處理,提升絕對定位精度。本文將立足視覺信息在提升無人機目標定位性能方面的應(yīng)用,就上述兩類方法展開論述,重點闡述了涉及的關(guān)鍵技術(shù)及研究現(xiàn)狀,并給出了兩類方法的比較分析,最后結(jié)合無人機產(chǎn)業(yè)發(fā)展趨勢給出了視覺信息在助力目標定位領(lǐng)域的技術(shù)發(fā)展策略和應(yīng)用前景。
先驗知識是在執(zhí)行目標偵察定位之前,所獲得的目標區(qū)域環(huán)境信息的統(tǒng)稱,它可以是具有準確度量信息的高精度數(shù)字地圖(衛(wèi)星、航空影像圖)等反映環(huán)境輻射特性的2D地圖,也可以是具有準確度量信息的地形圖等反映環(huán)境幾何特性的3D地圖,以及這兩者的結(jié)合;還可以是由視覺特征(原始圖像、圖像特征)按一定拓撲結(jié)構(gòu)的圖形化表示。
基于先驗知識的視覺輔助目標定位就是要通過當前的視覺信息與帶空間位置信息的先驗知識兩者間的匹配,獲得對當前無論是載荷位置還是地面目標的空間方位信息。因此,目標定位的精度受先驗知識的空間位置精度及匹配精度的影響。由于當前視覺信息的采集平臺大多情況下不同于先驗知識的獲取手段,采用的傳感器不同、拍攝的地點角度不同,而不同時刻環(huán)境變化也會帶來成像差異,均增加匹配難度。提升多時相、多源數(shù)據(jù)配準精度是改善此類方法目標定位精度的關(guān)鍵,在下面具體方法的描述中會進一步介紹。
1.1 基于2D/3D度量地圖的視覺輔助目標定位
常規(guī)思路是先尋找航拍圖片和2D/3D衛(wèi)星影像地圖的同名點,然后解算航拍圖片到衛(wèi)星影像的映射關(guān)系,最后得到航拍圖片上目標的地理坐標。在無人機航拍領(lǐng)域,單應(yīng)陣模型描述平面到平面的投影關(guān)系,它忽略地表起伏,將其視為一平面成像,利用不少于3個的同名點求解3×3的單應(yīng)陣,完成從航拍圖片到衛(wèi)星影像的映射,即獲得所有像元對應(yīng)的地理坐標。而投影變換模型能夠真實反映成像關(guān)系,需要至少4個已知高程的同名點解算3×4投影矩陣完成映射,在數(shù)字高程模型(Digital Elevation Model,DEM)下能準確完成航拍圖片的正射化,應(yīng)對地表起伏變換。
由于航拍圖片畫幅小,包含的特征很有限,而無人機低空攝影時地面景物側(cè)面信息也會對匹配產(chǎn)生干擾,增加了同名點確定的難度,因此,具有某類不變性的特征檢測方法得到廣泛使用,包括SIFT(Scale-Invariant Feature Transform)特征點[2-4]、SURF(Speed-Up Robust Features)特征點[5]、基于邊界的霍夫變換、傅立葉形狀描述符、基于幾何的形狀度量、基于統(tǒng)計的不變矩、基于形態(tài)學的骨架描述等。SIFT對尺度、旋轉(zhuǎn)、部分光照、視角變化有魯棒性,成為特征檢測領(lǐng)域的焦點之一,涌現(xiàn)了許多改進版本。文獻[6]提出了仿射不變SIFT,利用KD-tree的數(shù)據(jù)結(jié)構(gòu)加速匹配過程的鄰域搜索;文獻[7-8]分別從不同的角度闡述了投影不變SIFT,對于存在嚴重投影變換的情況表現(xiàn)更好。例如,在低空寬基線航拍,場景的深度變化相比較航高不能忽略時,投影不變SIFT顯示了更優(yōu)越的性能。
只要同名點正確,這類基于2D/3D影像地圖的定位將接近地圖同級的精度水平。文獻[9]借鑒測繪中通用的光束平差法思想,在初始指定了若干地面控制點后,采用區(qū)域光束平差自動獲得后續(xù)同名點時進行了自標定,并引入DEM模型對高度進行了插值,完成對航拍視頻的近實時正射化,誤差在1~2像元。文獻[10]采用類似的想法,利用GPS(Global Positioning System)/INS(Inertial Navigation System)的數(shù)據(jù)進行初始地理配準,實現(xiàn)了動態(tài)目標的運動軌跡的地理標注。
對于特征點提取困難的紋理區(qū)域,基于區(qū)域統(tǒng)計特性的互信息是一種對噪聲不敏感的多模配準的有效方法,文獻[11]利用互信息解算航拍圖片到衛(wèi)星影像的映射關(guān)系,為了減少陷入局部極值的可能性,文中將迭代初值選為Hi,i-1Hi-1,map,其中Hi-1,map是前一幀i-1到衛(wèi)星影像的單應(yīng)陣,Hi,i-1是后一幀i到前一幀的單應(yīng)陣,這樣利用互信息去糾正不斷累積的誤差,完成遞推式的地理配準。
對于僅利用DEM模型進行匹配的定位方法,它不受植被四季變化、光照變化的影響,定位穩(wěn)定,但因忽略紋理信息,且DEM精度較低,定位精度受限,更適宜大場景的粗定位。文獻[12]在紅外全景圖中利用動態(tài)規(guī)劃分割提取天際線和DEM模型進行匹配,以此估計相機的姿態(tài)和位置,實現(xiàn)在地圖的映射。文獻[13]針對山區(qū)地形,提出了基于DEM的大場景定位方法,提取山區(qū)天際線并在DEM數(shù)據(jù)庫中查找與之對應(yīng)的變換,可在4×104km2內(nèi)單幀定位誤差在1km以內(nèi),平均計算時間低于10s。
1.2 基于拓撲地圖的視覺輔助目標定位
拓撲地圖是環(huán)境的基于圖形的表示。每個節(jié)點對應(yīng)一個特征或環(huán)境區(qū)域(表征為圖片或是3D點云等),如果加入具有全局參考位置的地標、節(jié)點間關(guān)聯(lián)方位信息,則可用于絕對地理定位,如果沒有引用任何坐標系測量空間、節(jié)點間關(guān)聯(lián)運動等鄰里關(guān)系,則可用于長途定性導航、路徑規(guī)劃。拓撲地圖簡單、緊湊,占用計算機內(nèi)存少,一般分成兩個過程:在訓練階段,環(huán)境的圖像或特征被記錄和存儲為模型模板。模型被標以一定的定位信息,甚至關(guān)聯(lián)一個運動狀態(tài);在定位階段,通過當前在線圖像和存儲模板的匹配,識別環(huán)境和自定位。因此,創(chuàng)建環(huán)境表示的合適算法,定義在線匹配準則是其中的關(guān)鍵。
文獻[14]使用一個全方位攝像機,在訓練階段創(chuàng)建了一個拓撲地圖,由特征地點的圖像構(gòu)成拓撲地圖的節(jié)點,兩個節(jié)點之間的連續(xù)圖像序列組成拓撲地圖的邊。定位時,將在線圖像投射到由圖像訓練集的協(xié)方差矩陣定義的特征空間,以匹配在線圖像與先前記錄的圖像來確定位置。文獻[15]構(gòu)建的拓撲地圖,其邊表達了從一個場景到另一個場景運動可能性,偵察時,跟蹤地標并始終將其保持在視野內(nèi)。文獻[16]設(shè)計了一種支持向量機定位架構(gòu),使用全景圖像,定位過程包括兩個階段:特征或物體學習、識別和分類階段,基于前面特征分類的場景定位學習階段;全景圖像顯著改善了學習、匹配和定位過程。將定位視為場景分類問題也是一種粗定位策略,先構(gòu)造視覺詞匯表征訓練圖像中頻繁出現(xiàn)的局部紋理,計算每幅圖包含詞匯的特征描述(如直方圖),并用空間金字塔表示(也有用詞匯樹表示的),然后建立學習機制,設(shè)計分類器,利用圖匹配或圖聚類的方式確定在線圖像所在的場景位置[17]。上述定位方法是定性的,因為它僅確定觀測區(qū)域附近的一個節(jié)點,而不是給出確切的世界坐標。對于視覺特征豐富的城市區(qū)域,通過上述方法找到最佳匹配來實現(xiàn)粗略定位后,可進一步通過若干匹配特征點的準確空間位置推算當前觀測點與目標的精確位置。
由上面的分析可知,基于拓撲地圖的方法在實現(xiàn)快速粗定位上更具優(yōu)勢,特別適用于執(zhí)行明確航線路徑(已記錄沿線豐富地標)的偵察任務(wù);而基于DEM模型的定位方法則適于宏觀上具有明顯地形起伏區(qū)域的粗定位;對于精確定位,基于衛(wèi)星影像地圖的方法由于執(zhí)行更加細致紋理信息的匹配,更易達到好的效果,但匹配速度是制約實時性的關(guān)鍵因素。
在現(xiàn)代語文課程教學期間,利用現(xiàn)代化的技術(shù)手段是極為常見的。一般的教學策略研究的實踐作用不佳,閱讀與寫作教學期間需要加強實踐引導,根據(jù)不同的閱讀資料讓學生開展寫作實踐練習,是將閱讀水平與寫作水平共同提升的方法。為了將學生的學習視野拓展,教師可以利用多媒體技術(shù)進行課程教學引導,對計算機技術(shù)、互聯(lián)網(wǎng)技術(shù)掌握之后,建立高質(zhì)量的網(wǎng)絡(luò)貨多功能平臺,能夠?qū)①Y源的整合效果與學生學習質(zhì)量有效提升。尤其是對一些深層次的、抽象化的閱讀知識內(nèi)容,教師利用多媒體能夠給學生提供一個具象學習的機會,在課堂中經(jīng)過拓展性的閱讀與寫作訓練,能夠更好的完成學習目標。
無先驗知識的視覺輔助目標定位主要是通過追蹤視覺特征的變化推算相機、目標的空間相對位置變化。相鄰幀間特征的穩(wěn)定性、匹配的唯一性、運動模型的真實性直接影響了相對定位的精度。因此,特征提取要對相鄰幀間光照變化、視角變化引起的成像差異具有魯棒性,可以考慮提高幀頻,也可以選取先進特征提取方法,而反映運動變化的特征可以是特征點(例如建立在相關(guān)運算上的光流),也可以是特征區(qū)域(例如各種運動模型下的物體幾何輪廓變化)。而運動模型要盡可能反映實際運動狀態(tài),可以利用先進濾波算法融合位姿傳感器的量測值,從而獲得精確的運動狀態(tài)估計,推算得到目標的真實方位。
2.1 基于光流的視覺輔助目標定位
光流(Optical Flow)可大致反映圖像序列特征的運動特性,表征相鄰幀特征的平移或旋轉(zhuǎn)方向和運動量,通常對每一個像元都有一個向量表示,其范數(shù)取決于運動速度,其方向代表了相鄰幀中對應(yīng)像元的運動方向。因為光流可以展示場景的定性特征,這些特征很難從單幀低品質(zhì)圖像提取,它已廣泛應(yīng)用于無人機的智能避障、視覺導航、目標運動識別,以及運動估計、視頻壓縮、視角插值等方面。
光流計算基于以下假設(shè):亮度/紋理為常數(shù),只有物體運動引起的亮度和紋理變化;空間平滑過渡,運動在像元鄰域是均勻的;小范圍運動,視頻較運動足夠快,圖像運動可視為連續(xù)過程。常用的Lucas-Kanade光流法是基于局部能量最優(yōu)的微分方法,對噪聲不敏感,但不能產(chǎn)生稠密光流。而Horn-Schunck光流法,基于全局能量最小的微分方法,能產(chǎn)生稠密光流,但對噪聲敏感,也有文獻結(jié)合慣性導航(INS)數(shù)據(jù)的塊匹配法用于小型UAV光流計算[18]。文獻[19]中使用170度視場角的Gopro相機,圖像尺寸1 920像元×1 080像元,幀頻30Hz,比較了光流和GPS/INS的結(jié)果,當有足夠特征時,兩者定位精度基本相當,證明了光流定位的有效性。
由于實際情況往往和上述假設(shè)不符,從光流解算旋轉(zhuǎn)/平移速度和距離信息存在視覺誤差,特別是在不知道場景深度信息下,從多運動混迭的光流中分解出旋轉(zhuǎn)和平移運動難度很大。文獻[20]用標準環(huán)境測試了不同運動(三個不同方向)下光流的表征,用其作為模板可較好分解平移和旋轉(zhuǎn)運動,同時為了簡化光流計算,文中還給出了獨特的反射鏡面設(shè)計。用場景先驗知識輔助去混迭也是一種有效手段。對于航拍圖片,考慮到場景主要由地面和與地面垂直的平面組成,而且地面通常所占區(qū)域更多,光流表征呈現(xiàn)特殊性。文獻[21]用光流向量任意三點確定主平面,一旦在某幀時測出主平面,其它后續(xù)幀只需要繼承就行,由主平面可進行自運動分析。文獻[22]通過光流計算出各小區(qū)域的法向量,生長融合更新平面法向量,然后進行垂直地面和地面的兩分類,獲得地面區(qū)域。
融合其它位姿數(shù)據(jù)也可有效消除混迭。通過系統(tǒng)標定后,光流與INS、激光測距融合后可用于速度、方向、距離估計,甚至是短距離的無GPS導航。文獻[23]用擴展卡爾曼濾波(Extended Kalman Filter,EKF)把立體OF(Agilent adns-2051,1500幀頻)和IMU(3DM-GX1)融合,有效抑制了慣性測量裝置漂移,姿態(tài)角、速度和位置輸出精度更高。文獻[24]提出一種自動在線標定INS和相機的方法,將兩者安裝誤差、非同步誤差近似為小的糾偏角輸入到角度估計中,經(jīng)試驗證明融合后計算稠密光流比單純的光流和塊匹配方法要好,精度可達亞像元;文獻[25]利用EKF結(jié)合圖像熵直接計算三個方向運動位移。文獻[26]通過識別跟蹤環(huán)境的視覺特征進行自運動分析,然后卡爾曼濾波(Kalman Filter ,KF)融合光流和慣性量測,以確定距離,估計位置和速度;文獻[27]提出了一個系統(tǒng)包括:自駕儀(GPS、IMU、壓力計、磁力計)、掃描式激光測距(水平深度測量)、聲納高度計、兩個相機(其中一個下視測光流速度),光流是用Shi-Tomas檢測特征后用OpenCV(Open Source Computer Vision)的光流計算LK(Lucas-Kanade)方法得到。針對IMU經(jīng)過5~30s誤差累積導致漂移嚴重的問題,使用ARDrone 2.0硬件支持的下視光流相機作為視覺里程儀,利用EKF融合里程儀度量和環(huán)境地圖(由激光測距數(shù)據(jù)經(jīng)粒子濾波得到)進行定位,精度可達米級。
此外,增加幀頻有利于滿足光流假設(shè)條件,由于降低了運動模糊、幀間運動量、亮度差異,更符合連續(xù)時間模型,減少對其它位姿數(shù)據(jù)的依賴。文獻[28]在無相機標定下,利用高幀頻BF(Basis Flow)計算出空時圖像梯度,在KF框架下分離出了獨立于場景的旋轉(zhuǎn)光流以及與場景相關(guān)的平移光流(由此推知深度圖),從而準確預估相機的位姿。
2.2 基于特征跟蹤的視覺輔助目標定位
基于特征跟蹤的目標定位主要包括兩個子問題:1)運動檢測(運動模型估計),給定被跟蹤的特征,在下一幀中識別出特征可能出現(xiàn)的區(qū)域;2)特征匹配,在區(qū)域中找到匹配的特征。當無人機高速飛行時,必須減少處理時間,同時增強跟蹤的準確度,這就要求快速獲得準確的運動模型,并可對后續(xù)幀的特征位置準確預估。
單應(yīng)陣模型是常用的無人機航拍運動模型。文獻[29]提出一種新的圖像跟蹤策略,計算和使用單應(yīng)性矩陣補償無人機運動,并檢測對象;文獻[30]采用KLT(Kanade-Lucas-Tomasi)特征,并用TLS(Total Least Squares)估計兩幀間單應(yīng)陣,用多視角約束降低累積誤差;文獻[31]則由匹配點集估計了一組單應(yīng)陣,并采用概率模型對每個單應(yīng)陣打分,選擇得分最高的單應(yīng)陣,保證在容許誤差a下,至少b%的匹配點滿足該變換;文獻[32]求解出視差圖(深度圖),進行分層式的單應(yīng)陣估計,盡量避免不同深度同名點對單應(yīng)陣模型求解精度的影響;文獻[33]相比較傳統(tǒng)幀幀匹配的誤差累積,采用了拉普拉斯特征映射連接特征點,并引入相似性和空間幾何約束,獲得最優(yōu)超平面的同時,解算出多幀間的單應(yīng)陣關(guān)系,但由于是一個迭代求解過程,計算復雜。
引入濾波算法的運動預測可以更準確地反映實際運動狀態(tài)。文獻[34]將特征跟蹤與GPS定位算法融合,使用了圖像分割、二值化操作識別預定義的特征,如房子窗戶,并采用基于KF算法匹配和跟蹤這些窗戶,完成直升機AVATAR的自動導航定位;文獻[35]融合GPS/IMU及同名點信息,聯(lián)合EKF和無跡濾波(Unscented Kalman Filter,UKF)去更新單應(yīng)陣模型;為了降低累積誤差,文獻[36]安排航線重訪點,采用EKF進行閉環(huán)控制;文獻[37]對目標環(huán)繞觀測,并采用了RLS濾波(Recursive Least Squares Filtering),吊艙標定后的有偏估計、環(huán)繞路徑選擇、測風等措施降低估計誤差,地理定位誤差小于5m;文獻[38]提出了一種KF融合了INS、視覺里程儀,并實現(xiàn)了機載視頻與衛(wèi)星影像配準的視覺導航系統(tǒng),能有效應(yīng)對GPS失效、IMU漂移。表1列出了幾種主要濾波模型的各自特點。

表1 幾種主要濾波模型的特點Tab.1 Features of common filters
由上面的分析可知,這類無先驗知識的定位方法通常要采用先進的濾波方法實現(xiàn)對位姿變化狀態(tài)的跟蹤預測,因其良好的實時性,均可以融入自主導航、自主定位系統(tǒng)。光流作為一類特殊的稠密采樣特征,相比較基于特征跟蹤的方法,能更細致地捕捉瞬間運動變化,對于大機動小型無人機表現(xiàn)出良好性能。
上述兩類視覺輔助目標定位方法對比分析如表2。

表2 兩類視覺輔助目標定位方法對比分析Tab.2 Comparison of two categories of visual aided target localization
基于先驗知識的視覺輔助定位方法可實現(xiàn)高精度絕對定位,而且精度不受平臺及位姿傳感器精度的影響,但需要事先存儲大量先驗知識,采用魯棒性匹配方法,通常匹配實時性較差,適合在地面景物特征豐富區(qū)域進行下視偵察作業(yè)。無先驗知識的視覺輔助定位方法可快速計算出相鄰幀的運動量,實現(xiàn)短時高精度相對定位,為控制隨時間誤差累積常與其它量測值進行融合濾波處理,無需環(huán)境全局性表達,存儲量小、實時性好,但不太適用執(zhí)行快速運動窄視場偵察。組合這兩類方法,可以實現(xiàn)優(yōu)勢互補,在降低誤差累積的同時,降低與數(shù)據(jù)庫的配準難度,如采用地圖配準與視覺里程儀相配合的策略,可提供快速高精度航拍定位。
目前,國內(nèi)無人機偵察基本上分成了基于飛行數(shù)據(jù)的定位方法和基于衛(wèi)星影像數(shù)據(jù)的定位方法。常規(guī)的單點定位、多點定位(包括無人機群協(xié)同定位)、誤差模型校正及補償?shù)确椒ň鶎儆谇罢撸@類方法多依賴平臺和任務(wù)載荷的量測精度,定位精度難以提高,但實時性好,主要用于視頻電視偵察,航拍影像中很少使用[39-40]。在消除誤差源方面,文獻[41]發(fā)現(xiàn)安裝了阻尼減震器后引入的載機與平臺相對角位移不能簡單等效為簡諧振動或直接忽略,應(yīng)為影響定位精度的主要因素之一,為此,提出將慣導設(shè)備與平臺坐標系固聯(lián),以徹底消除減震器帶來的誤差,使得平面定位精度提高了一倍,并節(jié)省了復雜的系統(tǒng)標校過程。在構(gòu)建誤差模型方面,武漢大學孫開敏等人提出了一種動態(tài)檢校與在線修訂方法,在原設(shè)定航線周圍找到一塊平坦且特征豐富的區(qū)域進行兩條航線的檢校飛行,以有效消除系統(tǒng)誤差。文獻[42]提出將各誤差因素等效為成像高度H和光軸與Z軸夾角的簡單模型,采用監(jiān)督學習方法對定位誤差預測模型進行訓練,確定模型參數(shù),用于幾何校正的誤差補償,從而獲得精確的地理位置。
基于衛(wèi)星影像的定位方法作為一類特殊的視覺輔助定位方法已引起了高校學者的研究興趣。文獻[43]提出了基于地球剖分網(wǎng)格的數(shù)據(jù)組織模型用于解決無人機偵察數(shù)據(jù)存在的組織標識多樣性、內(nèi)部信息索引困難、分塊規(guī)則不統(tǒng)一等問題。北京航空航天大學、國防科技大學、武漢大學、陸軍軍官學院等高校在無人機偵察元數(shù)據(jù)設(shè)計、偵察圖片與數(shù)據(jù)庫數(shù)據(jù)匹配、序列圖像跟蹤等方面均有一些成果。這類方法涉及到數(shù)據(jù)組織與處理的智能算法,代表了新的發(fā)展方向,更少地依賴硬件性能,可以達到更高的定位精度,但實時性限制了其實際應(yīng)用。總體上,國內(nèi)在視覺輔助目標定位技術(shù)研究剛剛起步,多限于實驗室研究,與實際應(yīng)用還有相當?shù)木嚯x。
近年來,無人機偵察任務(wù)需求日益廣泛,對無人機的小型化、智能化的要求越來越高。輕小型設(shè)計使得無人機較少使用高精度的穩(wěn)定平臺和導航設(shè)備,用傳統(tǒng)方法進行目標偵察難以獲得滿意的定位精度,而當前光學傳感器的集成度、性能(如高分辨率、大視場等)都大幅提升,采集的視覺信息經(jīng)先進圖像處理以提升目標定位精度已取得了顯著成績,特別是無先驗知識的視覺信息輔助目標定位方法已涌現(xiàn)了大量應(yīng)用實例。隨著數(shù)據(jù)產(chǎn)業(yè)的發(fā)展,在地理信息數(shù)據(jù)庫組織、快速檢索方面的新成果也會推動基于先驗知識的方法在實時性方面的新突破。而兩類方法的大融合將發(fā)揮雙方的優(yōu)勢,促成在低精度導航設(shè)備條件下實時高精度目標定位的最終實現(xiàn)。
因此,在無人機光電偵察目標定位領(lǐng)域采用視覺信息智能處理已成為一種輔助傳統(tǒng)定位方法的有效手段,可在低成本低精度的測姿定位裝置下,通過現(xiàn)有貨架式產(chǎn)品及成熟技術(shù)的創(chuàng)新組合,實現(xiàn)可靠地(近)實時定位解算,代表了目前的研究趨勢。借鑒國外研究進展,我們可以從以下方面開展新技術(shù)研究:
1)傳統(tǒng)定位方法結(jié)合基于學習機制的誤差控制。精確目標定位就是要與各種誤差抗爭的過程,除了傳統(tǒng)的誤差源控制、在線檢校和多次測量平差外,機器學習也為誤差控制注入了新的活力。例如,采用機器學習的方法進行訓練完成在線檢校。通過機器學習提升整個定位系統(tǒng)的自主性、智能性,實現(xiàn)對誤差的校正及補償。
2)偵察數(shù)據(jù)與異源多時相遙感數(shù)據(jù)融合定位。不同傳感器的特性差異帶來了異源數(shù)據(jù),而不同時間對同一目標的觀測構(gòu)成了多時相數(shù)據(jù),這些數(shù)據(jù)間存在信息量的差異和冗余,異源配準依然是研究焦點之一,而合理的融合策略可以保障定位精度的提升,如非平等D-S證據(jù)融合理論可以幫助主從攝像機檢測器實現(xiàn)長時跟蹤定位,基于KF的視覺導航與其它量測信息組合定位,利用深度學習方法在基準地圖中進行相關(guān)數(shù)據(jù)的挖掘等等。
3)需求驅(qū)動機載任務(wù)與地面控制合理布局。因為目標實體的表征差異,帶來了不同的應(yīng)用需求,數(shù)據(jù)超載和處理實時性的矛盾是亟需解決的,合理的無人機偵察數(shù)據(jù)組織形式,搭配多核CPU、GPU協(xié)同處理構(gòu)架,實現(xiàn)以需求為驅(qū)動的無人機偵察數(shù)據(jù)的目標定位,從而達到機載和地面軟硬件處理能力的最優(yōu)組合,完成精確快速目標定位。例如,機載處理器完成基于光流的相對定位計算,地面工作站完成對下傳航拍圖片的地理配準,協(xié)同作業(yè)實現(xiàn)實時精確定位。
總之,無人機目標定位性能的提升(實時性和精確性)離不開先進的信息處理技術(shù),視覺信息處理伴隨著機器學習、人工智能、大數(shù)據(jù)等領(lǐng)域不斷涌現(xiàn)的新技術(shù)、新思路,為目標定位諸多關(guān)鍵問題的解決提供了新方案,并最終推動了我國空中偵察監(jiān)視水平的提高。
References)
[1] 樊邦奎, 段連飛, 趙炳愛, 等. 無人機偵察目標定位技術(shù)[M]. 北京: 國防工業(yè)出版社, 2014: 19-29. FAN Bangkui, DUAN Lianfei, ZHAO Bingai, et al. UAV Reconnaissance Target Location Technology [M]. Beijing: National Defense Industry Press, 2014: 19-29. (in Chinese)
[2] WAHED M, ELTAWELGS, ELKARIM A G. Automatic Image Registration Technique of Remote Sensing Images [J]. International Journal of Advanced Computer Science and Applications, 2013, 4(2): 177-187.
[3] NASIR H, STANKOVIC V, MARSHALL S. Image Registration for Super Resolution Using Scale Invariant Feature Transform, Belief Propagation, and Random Sampling Consensus[C]//18thEuropean Signal Processing Conference: Aalborg: EURASIP, 2010: 299-303.
[4] LIU Xiangzeng, TIAN Zheng, CHAI Chunyan, et al. Multiscale Registrations of Remote Sensing Image Using Robust SIFT Features in Steerable-domain[J]. The Egyptian Journal of Remote Sensing and Space Sciences, 2011, 14: 63-72.
[5] BAY H, ESS A, TUYTELAARS T, et al. Speeded-up Robust Features[J]. Computer Vision and Image Understanding, 2008, 110(3): 346-359.
[6] CAO B, MA C, LIU Z. Affine-invariant SIFT Descriptor with Global Context[C]//International Conference on Image and Signal Processing, IEEE, 2010, 1: 68-71. DOI:10.1109/CISP.2010.5647071.
[7] CAI Guorong, JODOIN P M, LI Shaozi, et al. Perspective-SIFT: An Efficient Tool for Low-altitude Remote Sensing Image Registration[J]. Signal Processing, 2013, 93(11): 3088-3110.
[8] LIU Wei, WANG Yongtian, CHEN Jing, et al. A Completely Affine Invariant Image-matching Method based on Perspective Projection[J]. Machine Vision & Applications, 2012, 23(2): 231-242.
[9] ZHOU Guoqing. Near Real-time Orthorectification and Mosaic of Small UAV Video Flow for Time-critical Event Response[J]. IEEE Transactions on Geoscience & Remote Sensing, 2009, 47(3): 739-747.
[10] SOLBRIG P, BULATOV D, MEIDOW J, et al. Online Annotation of Airborne Surveillance and Reconnaissance Videos[C]//IEEE 11th International Conference on Information Fusion, Cologne, Germany, 2008: 1-8.
[11] LIN Yuping, MEDIONI G. Map-enhanced UAV Image Sequence Registration and Synchronization of Multiple Image Sequences[C]//IEEE Conference on Computer Vision and Pattern Recognition, Minnesota, USA, 2007: 1-7.
[12] BAZIN J C, KWEON I, DEMONCEAUX C, et al. Dynamic Programming and Skyline Extraction in Catadioptric Infrared Images[C]//IEEE International Conference on Robotics and Automation, Kobe, Japan, 2009: 409-416. DOI:10.1109/ ROBOT.2009.5152262.
[13] BAATZ G, SAURER O, KOSER K, et al. Large Scale Visual Geo-localization of Images in Mountainous Terrain[C]//Proc. of European Conference on Computer Vision, Part II, LNCS 7573, 2012: 517-530.
[14] WINTERS N, SANTOS-VICTOR J. Omnidirectional Visual Navigation[C]//In Proc. of IEEE Int’l Symposium on IntelligentRobotic Systems (SIRS), 1999: 109-118.
[15] REMAZEILLES A, CHAUMETTE F, GROS P. 3D Navigation Based on a Visual Memory[C]//IEEE International Conference on Robotics & Automation (ICRA), 2006: 2719-2725. DOI:10.1109/ROBOT.2006.1642112.
[16] MORITA H, HILD M, MIURA J, et al. Panoramic View-based Navigation in Outdoor Environments Based on Support Vector Learning[C]//Intelligent Robots and Systems (IROS), IEEE, 2006: 2302-2307. DOI:10.1109/IROS.2006.282636.
[17] LAZEBNIK S, SCHMID C, PONCE J. Beyond Bags of Features: Spatial Pyramid Matching for Recognizing Natural Scene Categories[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR'06), IEEE, 2006, 2169-2178. DOI:10.1109/CVPR.2006.68.
[18] CHAO Haiyang, GU Yu, NAPOLITANO M. A Survey of Optical Flow Techniques for Robotics Navigation Applications[J]. Journal of Intelligent & Robotic Systems, 2014, 73(1/4): 361-372.
[19] PAN Chao, DENG He, YIN Xiaofang, et al. An Optical Flow-based Integrated Navigation System Inspired by Insect vision[J]. Biological Cybernetics, 2011, 105(3/4): 239-252.
[20] SOCCOL D, THURROWGOOD S, SRINIVASAN Y. A Vision System for Optic-flow-based Guidance of UAVs[C]// Proceedings of the Australasian Conference on Robotics & Automation Acra, Sydney, Australian Robotics and Automation Association (ARAA), 2007: 1-7.
[21] OHNISHIA N, IMIYAB A. Featureless Robot Navigation Using Optical Flow[J]. Connection Science, 2005, 17(1/2): 23-46.
[22] CUI Xuenan, KIM Y G, KIM H. Floor Segmentation by Computing Plane Normals from Image Motion Fields for Visual Navigation[J]. International Journal of Control, Automation and Systems, 2009, 7(5): 788-798.
[23] KIM J, BRAMBLEY G. Dual Optic-flow Integrated Navigation for Small-scale Flying Robots[C]//Proceedings of the Australasian Conference on Robotics & Automation Acra, 2007: 1-7.
[24] WOODS M, KATSAGGELOS A. Efficient Method for the Determination of Image Correspondence in Airborne Applications Using Inertial Sensors[J]. Journal of the Optical Society of America A Optics Image Science & Vision, 2013, 30(1): 102-110.
[25] WANG Zhonghua, DENG Chengzhi, PAN Chao, et al. A Visual Integrated Navigation for Precise Position Estimation[J]. Computers & Electrical Engineering, 2014, 40(3): 897-906.
[26] KENDOUL F, NONAMI K, FANTONI I, et al. An Adaptive Vision-based Autopilot for Mini Flying Machines Guidance, Navigation and Control[J]. Autonomous Robots, 2009, 27(3): 165-188.
[27] PESTANA J, MELLADO-BATALLER I, SANCHEZ-LOPEZ J L, et al. A General Purpose Configurable Controller for Indoors and Outdoors GPS-denied Navigation for Multirotor Unmanned Aerial Vehicles[J]. Journal of Intelligent & Robotic Systems, 2013, 73(1/4): 387-400. DOI: 10.1007/s10846-013-9953-0.
[28] SRINIVASAN N, ROBERTS R, DELLAERT F. High Frame Rate Egomotion Estimation[C]//Proceedings of the 9th International Conference on Computer Vision Systems, Springer, Berlin Heidelberg, 2013, 7963: 183-192.
[29] OLLERO A, FERRUZ J, CABALLERO F, et al. Motion Compensation and Object Detection for Autonomous Helicopter Visual Navigation in the COMETS System[C]//Proc. of IEEE Int’l Conf. on Robotics and Automation (ICRA), IEEE, 2014, 1(5): 19-24.
[30] FAN Baojie, DU Yingkui, TANG Yandong. Efficient Registration Algorithm for UAV Image Sequence[C]//Proceeding of the IEEE International Conference on Information and Automation, Shenzhen, IEEE, 2011: 111-116. DOI:10.1109/ ICINFA.2011.5948972.
[31] NIRANJAN S, GUPTA G, MUKERJEE A, et al. Efficient Registration of Aerial Image Sequences Without Camera Priors[C]//Asian Conference on Computer Vision-accv, Springer, Berlin Heidelberg, 2007, 4844: 394-403.
[32] YAHYANEJAD S, QUARITSCH M, RINNER B. Incremental, Orthorectified and Loop-independent Mosaicking of Aerial Images Taken by Micro UAVs[C]//IEEE International Symposium on Robotic & Sensor Environment. IEEE, 2011: 137-142. DOI:10.1109/ROSE.2011.6058531.
[33] LI Aixia, GUAN Zequn, GUAN Haiyan. Multi-overlapped Based Global Registration of UAV Images[C]//International Conference on Computer Vision in Remote Sensing (CVRS), IEEE, 2012: 105-109. DOI:10.1109/CVRS.2012.6421242.
[34] SARIPALLI S, SUKHATME G S, MEJIAS L O, et al. Detection and Tracking of External Features in an Urban Environment Using an Autonomous Helicopter[C]//Proc. of IEEE Int’l Conf. on Robotics and Automation (ICRA). IEEE, 2005: 3972-3977. DOI:10.1109/ROBOT.2005.1570728.
[35] WANG Yi, SCHULTZ R R, FEVIG R A. Sensor Fusion Method Using GPS/IMU Data for Fast UAV Surveillance Video Frame Registration[C]//IEEE International Conference on Acoustics, Speech, and Signal Processing. Washington DC, IEEE, 2009: 985-988. DOI:10.1109/ICASSP.2009.4959751.
[36] CABALLERO F, MERINOT L, FERRUZ J, et al. Homography Based Kalman Filter for Mosaic Building Applications to UAV Position Estimation[C]//2007 IEEE International Conference on Robotics and Automation Roma. Italy, IEEE, 2007: 2004-2009. DOI:10.1109/ROBOT.2007.363616.
[37] BARBER B D, REDDING J D, MCLAIN T W, et al. Vision-based Target Geo-location Using a Fixed-wing Miniature Air Vehicle[J]. Journal of Intelligent and Robotic Systems, 2006, 47(4): 361-382.
[38] CONTE G, DOHERTY P. An Integrated UAV Navigation System Based on Aerial Image Matching[C]//2008 IEEE Aerospace Conference, MT, IEEE, 2008: 1-10. DOI:10.1109/AERO.2008.4526556.
[39] 孫超, 都基焱, 段連飛. 一種空間兩點交會無人機定位方法[J]. 兵工自動化, 2011, 30(6): 35-42. SUN Chao, DU Jiyan, DUAN Lianfei. A Technology of UAV Positioning to Target by Two-point Space Rendezvous[J]. Ordnance Industry Automation, 2011, 30(6): 35-42. (in Chinese)
[40] 王家騏, 金光, 顏昌翔. 機載光電跟蹤測量設(shè)備的目標定位誤差分析[J]. 光學精密工程, 2005, 13(2): 105-116. WANG Jiaqi, JIN Guang, YAN Changxiang. Orientation Error Analysis of Airborne Opto-electric Tracking and Measuring Device[J]. Optics and Precision Engineering, 2005, 13(2): 105-116. (in Chinese)
[41] 王子辰, 戴明, 李剛, 等. 機載光電平臺相對角位移測量系統(tǒng)設(shè)計[J]. 中國激光, 2013(9): 202-208. WANG Zichen, DAI Ming, LI Gang, et al. Apparatus Design for Surveying Relative Angular Translation of Airborne Optoelectronic Platform[J]. Chinese Journal of Lasers, 2013(9): 202-208. (in Chinese)
[42] 劉春輝, 丁文銳, 李紅光. 基于相位差測量的無人機單站無源定位系統(tǒng)[J]. 計算機測量與控制, 2011, 19(9): 2105-2108. LIU Chunhui, DING Wenyue, LI Hongguang. Research on UAV Airborne Passive Location System Based on Phase Different Measurement[J]. Computer Measurement & Control, 2011, 19(9): 2105-2108. (in Chinese)
[43] 呂雪鋒, 程承旗. 基于地球剖分的空間信息區(qū)位標識[J]. 高技術(shù)通訊, 2014, 24(4): 333-346. LYU Xuefeng, CHENG Chengqi. Spatial Information Location Identification Based on Global Subdivision[J]. Chinese High Technology Letters, 2014, 24(4): 333-346. (in Chinese)
Advances in Target Location Based on Visual Information for UAV Photoelectric Reconnaissance
ZHANG Chunxiao LIN Zhaorong YAO Yigang
(Beijing Institute of Space Mechanics & Electricity, Beijing 100190, China)
Due to the performance limitation of the UAV platform and measurement equipments, the target positioning precision of traditional UAV reconnaissance is hard to improve. With the enhancement of the performance of optical sensors and the development of advanced visual information processing technology, it is promising to introduce visual information analysis for improving the ground target location accuracy, which could reduce the system complexity and cost as well. In order to illustrate the advantages of employing the visual information, this paper presents the features and state-of-the-art of key issues of two categories: the geo-reference methods relying on the priori knowledge (such as map database) and the methods without any prior knowledge. The comparison of both categories is carried out, and the advantages and disadvantages are analyzed from the positioning accuracy, influence factors, system complexity and operating requirements. In light of the tendency of UAV industry development and the current status of domestic UAV reconnaissance, the prospect that the visual information promotes the performance of UAV target location is given. This paper could provide inspirations and solutions for the development of domestic UAV reconnaissance.
unmanned aerial vehicle (UAV); target location; visual navigation; geo-reference
V355.1
A
1009-8518(2016)06-0001-10
10.3969/j.issn.1009-8518.2016.06.001
張春曉,女,1984年生,2012年獲北京航空航天大學精密儀器及機械專業(yè)博士學位,工程師。主要從事遙感圖像處理及應(yīng)用方面的研究工作。E-mail:chunxiaozhang@163.com。
(編輯:毛建杰)
2015-07-29
國家自然科學基金(41401522)