999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

無人機軟管式自主空中加油視覺導(dǎo)航技術(shù)

2020-02-18 05:21:28許悅雷加爾肯別克
導(dǎo)航定位與授時 2020年1期
關(guān)鍵詞:特征檢測

周 清,許悅雷,加爾肯別克

(西北工業(yè)大學(xué)無人系統(tǒng)技術(shù)研究院,西安 710072)

0 引言

無人機自主空中加油(Aerial Refueling, AR)導(dǎo)航主要包括對加油錐套的檢測、跟蹤、位姿計算三個方面。在加油過程中,加油機和受油機由遠(yuǎn)及近。在處于遠(yuǎn)端階段時,加油錐套所占成像像素比重較小,錐套信息的獲取更容易受到視野中干擾源的影響。由于此階段還未涉及對接任務(wù),主要工作在于檢測和跟蹤到加油錐套,從而進(jìn)行靠近。當(dāng)加油機和受油機距離較近時,在檢測和跟蹤的同時進(jìn)行錐套的位姿計算,準(zhǔn)確獲取錐套與受油錐頭的相對位姿,并反饋給飛控系統(tǒng),引導(dǎo)受油機自主對接錐套。

目前,在航空航天領(lǐng)域的對接任務(wù)中,根據(jù)任務(wù)目標(biāo)的不同,可分為合作目標(biāo)對接任務(wù)和非合作目標(biāo)對接任務(wù)。合作目標(biāo)對接任務(wù)具有計算量相對較小、精度較高等優(yōu)勢。合作目標(biāo)的相對導(dǎo)航技術(shù)發(fā)展已較為成熟, 目前包括美國的自主交會技術(shù)驗證( Demonstration of Autonomous Rendezvous Technology, DART)試驗和我國的空間站計劃等均已實現(xiàn)了合作目標(biāo)的自主相對導(dǎo)航。而對于非合作目標(biāo)捕獲技術(shù),目前還沒有找到公開報道的在軌演示驗證[1-2]。而對于無人機空中加油任務(wù),完全可以采取加油機和受油機合作的方式。通常事先對加油錐套進(jìn)行光學(xué)特征點的標(biāo)記(在加油錐套坐標(biāo)系下的坐標(biāo)已知),如LED燈、紅外、人工特殊顏色等。

德州農(nóng)工大學(xué)的Valasek等研究了VisNav系統(tǒng),將紅外LED安裝在錐套上,采集紅外LED的數(shù)據(jù)后,利用高斯最小二乘微分校正算法得到六自由度導(dǎo)航信息。圖像處理簡便,提高了測量精度及處理速度[3]。比薩大學(xué)的Pollini等研究了基于被動視覺傳感器的相對導(dǎo)航系統(tǒng)[4]。該系統(tǒng)采用多個紅外LED作為標(biāo)志。他們建立了偽實時閉環(huán)仿真系統(tǒng),經(jīng)過特征點提取及正交迭代算法[5]處理后得到虛擬相機與錐套之間的相對位姿信息。在國內(nèi),西北工業(yè)大學(xué)的宋春華等將安裝在錐套內(nèi)環(huán)的4個近紅外LED作為特征標(biāo)志,通過近紅外成像的方式提取錐套的特征紅外LED標(biāo)記圓,以其圓心作為特征點,利用4個特征點進(jìn)行橢圓擬合,將擬合的圓心作為錐套的中心[6]。北京航空航天大學(xué)的解洪文及西北工業(yè)大學(xué)的紀(jì)超等為解決傳統(tǒng)單目視覺導(dǎo)航算法更新速度慢、易受干擾等問題,分別提出了基于雙目視覺的空中加油導(dǎo)航方法[7-8]。將布置在錐套端面上的多個光學(xué)標(biāo)志作為目標(biāo)特征,利用雙目視覺系統(tǒng)計算出光學(xué)標(biāo)志的空間位置,通過空間圓的圓心及法線方向可以計算出錐套的位置和姿態(tài)。仿真結(jié)果表明,該方法在距離較近時位置和姿態(tài)測量精度非常高。國內(nèi)空軍工程大學(xué)的王旭峰等建立了自主空中加油的一個視覺相對導(dǎo)航半物理地面試驗平臺,并在加油錐套斷面區(qū)域加裝了紅色標(biāo)識環(huán)帶,利用顏色及錐套環(huán)帶對錐套進(jìn)行目標(biāo)識別,通過Kalman濾波估計得到相對位姿[9]。

通過對加油技術(shù)發(fā)展現(xiàn)狀的總結(jié)分析可知,無人機空中加油需要解決魯棒性和精度問題。上文介紹的文獻(xiàn)中均獲得較好的精度,但這些傳統(tǒng)的加油對接導(dǎo)航方法很難突破魯棒性瓶頸。而近年來,深度學(xué)習(xí)在目標(biāo)檢測方面展現(xiàn)出很高的魯棒性,且當(dāng)前基于回歸的目標(biāo)檢測方法(一步法)已展現(xiàn)出良好的實時性[10]。但位姿計算采用成熟的傳統(tǒng)算法比神經(jīng)網(wǎng)絡(luò)算法可靠得多。所以本研究的思路為,采用深度學(xué)習(xí)方法進(jìn)行錐套目標(biāo)檢測和跟蹤,輔助傳統(tǒng)方法進(jìn)行位姿計算;神經(jīng)網(wǎng)絡(luò)可以很好地彌補傳統(tǒng)方案中魯棒性不高的缺點,因此先采用神經(jīng)網(wǎng)絡(luò)尋找到目標(biāo),再在目標(biāo)的小范圍內(nèi)進(jìn)行特征點的提取,發(fā)揮深度學(xué)習(xí)和傳統(tǒng)方案的優(yōu)勢。

采用深度學(xué)習(xí)進(jìn)行錐套目標(biāo)的檢測和跟蹤,神經(jīng)網(wǎng)絡(luò)由于具有高魯棒性特點可以很好地完成這一步驟。當(dāng)檢測到加油錐套后,對檢測框內(nèi)的目標(biāo)采用傳統(tǒng)算法進(jìn)行特征點檢測、提取和匹配以計算加油錐套的準(zhǔn)確位姿。

檢測跟蹤算法的原型選擇技術(shù)上較為成熟的yolov3算法。yolov3算法為單步檢測算法,速度上比Fater R-CNN快10倍左右。鑒于本任務(wù)的特點,對此算法進(jìn)行了一定的改進(jìn),適當(dāng)減小通道和層數(shù)。為了節(jié)省資源,在檢測到錐套目標(biāo)后,切換為更加輕量和快速的跟蹤算法。本方案跟蹤算法為檢測算法輕量化,同時其檢測范圍比檢測算法小,能夠在不失準(zhǔn)確性的同時獲得更高的速度。

雙目視覺算法主要包括3個過程:特征點提取、三維重建、相對位姿計算。首先提取到紅色人工標(biāo)記點的像素坐標(biāo);然后利用左右圖像標(biāo)記點坐標(biāo)的關(guān)系進(jìn)行坐標(biāo)點的特征點三維重建;進(jìn)而求得錐套目標(biāo)坐標(biāo)系和受油機坐標(biāo)系的轉(zhuǎn)換關(guān)系,即為加油錐套的位姿。

1 錐套檢測和跟蹤

采用檢測算法檢測到加油錐套后,檢測算法停止運算,將結(jié)果傳遞給跟蹤算法,跟蹤算法為檢測算法輕量化,通道減半,檢測范圍縮小,速度為檢測算法的2.5倍,以進(jìn)一步提高程序的時效性。

網(wǎng)絡(luò)為邊界框預(yù)測4個坐標(biāo)tx,ty,tw,th。如果方格從圖像左上角偏移(cx,cy),并且先驗邊界框?qū)挾群透叨确謩e為pw和ph,則相應(yīng)的預(yù)測如下

bx=σ(tx)+cx

(1)

by=σ(ty)+cy

(2)

bw=pwetw

(3)

bh=pheth

(4)

使用邏輯回歸為每一個邊界框預(yù)測目標(biāo)分?jǐn)?shù)。如果某個先驗邊界框與真實邊界框重疊的部分比其他先驗邊界框大,則這個邊界框的目標(biāo)分?jǐn)?shù)就設(shè)置為1。如果某個邊界框不是最好的邊界框,但是和真實邊界框的重疊部分超過預(yù)設(shè)閾值(在該算法中這個預(yù)設(shè)閾值設(shè)置為0.5),則這個預(yù)測將會被忽略。為每個真實標(biāo)記目標(biāo)分配一個邊界框,如果邊界框沒有被分配到一個真實標(biāo)記目標(biāo)上,則不會產(chǎn)生坐標(biāo)或預(yù)測損失,只是說明有物體。

在3個不同的尺度上預(yù)測目標(biāo),用一個與特征金字塔網(wǎng)絡(luò)類似的概念從這些尺度上提取出特征。在基礎(chǔ)特征提取器上添加了幾個卷積層,用最后幾層預(yù)測一個三維張量來編碼邊界框,并進(jìn)行目標(biāo)識別。對從前兩層中提取的特征圖進(jìn)行上采樣至2倍,然后取一個網(wǎng)絡(luò)早期的特征圖,并用連接將它和上采樣特征合并。這可以從上采樣的特征中獲取更豐富的語義信息,從早期的特征圖中獲取更多細(xì)粒度的信息。最后增加幾層卷積網(wǎng)絡(luò)來處理這個合成的特征圖,并最終預(yù)測一個相似的張量。然后把同樣的設(shè)計在最終尺寸預(yù)測框上重新執(zhí)行一遍。因此,對第三尺度的預(yù)測受益于所有先前的計算和網(wǎng)絡(luò)早期的細(xì)粒度特征。

網(wǎng)絡(luò)連續(xù)地使用3×3和1×1的卷積層,同時也有一些跨層連接,總共有42層。如表1所示。

表1 特征提取網(wǎng)絡(luò)Tab.1 Feature extraction network

2 特征點提取

在完成對錐套的檢測跟蹤后,進(jìn)行標(biāo)記點的提取工作。標(biāo)記點采用紅色貼片,如圖3和圖4所示。從圖中可見,攝像頭左右照片曝光程度不同,左攝像頭曝光低,右攝像頭曝光高。為更加突出特征點的細(xì)節(jié)信息,可對照片進(jìn)行修正。首先,采用伽馬變換對左攝像頭進(jìn)行圖像增強處理。由于左攝像頭照片偏暗,需對灰度級較低的區(qū)域進(jìn)行拉伸,因此將gamma值設(shè)置為小于1的數(shù),此處設(shè)置為0.8,效果圖如圖6所示。另外,由于左右攝像頭照片曝光程度不同,這可能造成后續(xù)左右特征點提取不對稱。所以,以左攝像頭伽馬變換后的照片為基準(zhǔn),對這2張照片進(jìn)行直方圖規(guī)定化。加油錐套左圖直方圖如圖7所示。圖8為錐套右圖以左圖為基準(zhǔn)的直方圖規(guī)定化前后效果。

對于目標(biāo)的顏色特征,采用HSV空間比RGB空間更易提取[11]。為了分割出有紅色標(biāo)記的圖像區(qū)域,需要對HSV圖片的色調(diào)、飽和度及亮度的上下限進(jìn)行選擇以進(jìn)行閾值分割。從圖9可以看出,分割效果十分理想。接著,需要進(jìn)行輪廓檢測,找到標(biāo)記區(qū)域并以每個標(biāo)記點的質(zhì)心坐標(biāo)作為特征點。這里,為了消除噪聲干擾,需要對圖片進(jìn)行中值濾波和開操作、閉操作的形態(tài)學(xué)處理方法。另外,攝像頭鏡頭并非理想的小孔成像模型,其本身帶有一定的畸變。為了消除畸變,需要對特征點像素坐標(biāo)進(jìn)行校正,將提取的特征點按一定順序以矩陣的形式保存。

3 特征點三維重建

由于左右特征點皆是按相同的順序保存,這給特征點匹配工作帶來了很大的便利。雙目視覺三維重建原理如圖1所示,用C1和C2這2臺攝像機同時拍攝空間中一點P,通過圖像匹配可以確定左、右成像平面上的投影點P1和P2為P的成像點。利用立體幾何關(guān)系,有如下公式

圖1 雙目視覺三維重建原理Fig.1 Binocular vision three-dimensional reconstruction principle

(5)

(6)

式(5)和式(6)中分別消去Zcl和Zcr,得到關(guān)于[XbYbZb]的方程組

(7)

寫成矩陣的形式為

AX=b

(8)

X代表P點在受油機坐標(biāo)系下的坐標(biāo),理論上,式(8)有唯一解,但在實際應(yīng)用中由于噪聲的影響導(dǎo)致式(8)不一定有解,此時可以用最小二乘法求解,即

X=(ATA)-1ATb

(9)

4 相對位姿計算

位姿估計算法所要解決的根本問題是獲取受油機和加油錐套之間的相對位置和相對姿態(tài),即加油錐套和受油機相對位姿問題,實際上即是求解2個三維坐標(biāo)系之間的平移和旋轉(zhuǎn)問題。首先通過三維重建算法獲得特征點的空間坐標(biāo)。另外特征點在目標(biāo)體坐標(biāo)系下的坐標(biāo)為已知量。于是可以根據(jù)特征點在2個坐標(biāo)系下的坐標(biāo)求得受油機和加油錐套的相對位姿。

設(shè)加油錐套開始的相對位姿為位姿Ⅰ,表示為(R,t);經(jīng)過一段時間的相對運動之后,相對位姿變?yōu)槲蛔刷颍硎緸?R′,t′),如圖2所示。

圖2 加油錐套相對位姿示意圖Fig.2 Drogue relative posture

旋轉(zhuǎn)矩陣R是一個三維矩陣,它表示了2個坐標(biāo)系各坐標(biāo)軸之間的旋轉(zhuǎn)關(guān)系。假設(shè)空間中的某點P在加油錐套坐標(biāo)系和攝像機坐標(biāo)系中的坐標(biāo)分別為Pt=(Xt,Yt,Zt)T和Pc=(Xc,Yc,Zc)T,則有如下變換公式

Pc=RPt+t

(10)

常用的旋轉(zhuǎn)矩陣的表示方法有歐拉角表示法和四元數(shù)表示法兩種[12]。由于歐拉角在±90°位置存在奇異的問題,而且四元素具有4個自由度,任意旋轉(zhuǎn)與單位四元數(shù)之間的關(guān)系都是一一對應(yīng)的[13]。旋轉(zhuǎn)矩陣與單位四元數(shù)的轉(zhuǎn)換關(guān)系可以表示為

(11)

對于每個特征點其測量誤差為

ei=Pci-(RPti+t)

(12)

解決位姿估計問題的方法之一就是通過各點誤差平方之和的最小化來估計位姿參數(shù)(R,t),即將以下關(guān)于(R,t)的目標(biāo)函數(shù)最小化

(13)

采用解析法對式(13)進(jìn)行求解,即直接將特征點在2個坐標(biāo)系下的坐標(biāo)值代入式(13),建立關(guān)于(R,t)的方程組,然后解出位姿參數(shù)(R,t)[14]。從具體算法角度,采用單位四元數(shù)法對式(13)進(jìn)行最小化問題的求解[15-16]。

由于坐標(biāo)重心化轉(zhuǎn)換模型可有效地解決法方程的病態(tài)問題。首先,將特征點在攝像機坐標(biāo)系和目標(biāo)坐標(biāo)系下的坐標(biāo)轉(zhuǎn)換為重心化坐標(biāo),代入式(10)進(jìn)行計算。通過化簡,得到目標(biāo)函數(shù)為

(14)

最小化式(12)相當(dāng)于最大化式(13)。構(gòu)造M矩陣后,對其進(jìn)行特征值分解,求出最大的特征值及其對應(yīng)的特征向量。

假設(shè)矩陣M的4個特征值為λi(i=1,2,3,4),與之對應(yīng)的4個特征向量為ei(i=1,2,3,4),則有

定義2 端到端的時延:是指一個數(shù)據(jù)包從源節(jié)點到達(dá)目的節(jié)點所花費的時間,它是一個重要的衡量指標(biāo),因為它的大小能夠直接反應(yīng)出路由協(xié)議的性能,這里取平均值.

Mei=λiei,(i=1,2,3,4)

(15)

考慮是一個四維向量,任意的單位四元數(shù)q可以由線性表示出來。即

q=a1e1+a2e2+a3e3+a4e4

(16)

因為q是單位四元數(shù),所以

(17)

假設(shè)最大的特征值為λi,則

(18)

故當(dāng)a1=1,a2=a3=a4=0時,D可取得最大值。此時的單位四元數(shù)為q=e1,即為矩陣M最大的特征值所對應(yīng)的特征向量。

求得了單位四元數(shù)q之后,將其代入式(11)即可求得旋轉(zhuǎn)矩陣R,然后利用R和t的約束關(guān)系即可求出平移向量t。

5 實驗結(jié)果

試驗指標(biāo)要求如下:穩(wěn)定跟蹤鎖定目標(biāo)距離范圍應(yīng)不小于40m;位置精度應(yīng)滿足與目標(biāo)距離≤10m時,距離誤差優(yōu)于±10cm。

帶標(biāo)記的加油錐套原圖如圖3和圖4所示。雙目位姿計算僅需4個特征點即可,此處采用7個,通過最小二乘法擬合,還對遮擋情況具有一定的抗干擾性。圖5所示為左攝像頭圖片的檢測跟蹤效果圖,可見有比較好的檢測跟蹤效果,而且由于采用深度學(xué)習(xí)算法,魯棒性也較好。

圖3 加油錐套左攝像頭照片F(xiàn)ig.3 Drogue left photo

圖4 加油錐套右攝像頭照片F(xiàn)ig.4 Drogue photo by right camera

圖5 加油錐套左圖跟蹤效果圖Fig.5 The tracking effect of drogue in left photo

圖6 加油錐套左圖增亮處理Fig.6 Image enhancement of drogue in left photo

圖7 加油錐套左圖直方圖Fig.7 Histogram of drogue in left photo

圖8 加油錐套右圖直方圖規(guī)范化Fig.8 Histogram specification of drogue in right photo

提取檢測框內(nèi)的圖片內(nèi)容進(jìn)行圖像分割處理,繼而進(jìn)行圖片處理和特征點計算,并結(jié)合檢測跟蹤程序傳遞來的坐標(biāo),計算出左右圖像特征點的坐標(biāo)值。圖9和圖10所示分別為左攝像頭照片特征分割和特征點提取效果圖。由圖可見,提取效果良好。

圖9 左攝像頭照片特征分割Fig.9 Feature segmentation in left photo

圖10 左攝像頭照片特征提取Fig.10 Feature extraction in left photo

最后,通過左右照片特征匹配即可得到特征點的空間坐標(biāo)。并通過四元數(shù)計算加油錐套位姿。表2所示為計算得出7個特征點的空間坐標(biāo),表中數(shù)據(jù)為四舍五入后結(jié)果。

表2 特征點空間坐標(biāo)Tab.2 Spatial coordinates of feature points

從表2可求得加油錐套和無人機相對位姿為:R=([0.92, -0.13, -0.38], [-0.21, -0.96, 0], [-0.34, 0.23, -0.91]),轉(zhuǎn)化為歐拉角為:俯仰角θ=20.18°;偏航角ψ=-14.20°;滾轉(zhuǎn)角Φ=-12.63°。t=([-0.40], [-0.10], [6.51])。

當(dāng)捕獲目標(biāo)距離為40m時,垂直視場高46m。攝像機垂直分辨率為1080,故加油錐套在垂直方向占1080×0.6/46≈14個像素。同理,推理得水平方向亦占14個像素。經(jīng)過實驗表明,本文跟蹤算法通過調(diào)整padding框的大小可以實現(xiàn)9×9個像素穩(wěn)定跟蹤,滿足設(shè)計要求。

對第一個和第二個特征點真實距離采用激光測量,和本文算法得出的試驗結(jié)果進(jìn)行比較,距離精度如下。

表3 特征點距離精度Tab.3 Distance error of feature points

統(tǒng)計結(jié)果表明,在10m內(nèi),錐套位姿計算精度可達(dá)厘米級。

6 結(jié)論

本文針對無人機空中加油實際工程問題,提出了一種切實可行的技術(shù)思路。算法分析和實驗結(jié)果表明:

1)加油錐套檢測跟蹤算法具有良好的魯棒性和精度,為后續(xù)位姿計算帶來了很大的方便。

2)采用標(biāo)記點進(jìn)行基于雙目視覺的位姿計算方案計算簡潔,精確度高。

3)為了提高識別效果,本方案特征點亦可采用LED燈或紅外形式。

猜你喜歡
特征檢測
抓住特征巧觀察
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
新型冠狀病毒及其流行病學(xué)特征認(rèn)識
如何表達(dá)“特征”
不忠誠的四個特征
抓住特征巧觀察
主站蜘蛛池模板: 波多野结衣中文字幕久久| 国产真实乱子伦视频播放| 在线人成精品免费视频| 欧美成人午夜在线全部免费| 欧美中日韩在线| 国产精品久久久久久影院| 日本人又色又爽的视频| 国产呦视频免费视频在线观看| 玩两个丰满老熟女久久网| 3344在线观看无码| 亚洲娇小与黑人巨大交| 日本在线亚洲| 91福利在线看| 55夜色66夜色国产精品视频| 国产亚洲欧美另类一区二区| 国产精品永久在线| 欧美97欧美综合色伦图| 午夜免费视频网站| jizz在线观看| 999精品色在线观看| 狠狠v日韩v欧美v| 97在线视频免费观看| 天天综合天天综合| 好吊妞欧美视频免费| 精品夜恋影院亚洲欧洲| a毛片免费在线观看| 亚洲a级毛片| 亚洲高清资源| 亚洲国产天堂久久综合| 四虎国产精品永久在线网址| 2021国产v亚洲v天堂无码| 一级毛片免费不卡在线| 亚洲欧美日韩另类| 日韩欧美国产另类| 一区二区三区精品视频在线观看| 国产成人综合亚洲欧美在| 国产精品免费p区| 高清无码一本到东京热| 亚洲伦理一区二区| 亚洲精品在线影院| 99999久久久久久亚洲| 午夜精品一区二区蜜桃| 国产成人午夜福利免费无码r| 亚洲精品在线91| 五月天天天色| 欧美午夜小视频| 老司机午夜精品视频你懂的| 国产精品无码AV片在线观看播放| 波多野结衣一区二区三区四区视频| 亚洲VA中文字幕| 亚洲无线一二三四区男男| 欧美视频在线播放观看免费福利资源| 国内精品自在欧美一区| 国产白浆在线| 尤物成AV人片在线观看| 亚洲区视频在线观看| 91网址在线播放| 亚洲人成网站日本片| 日韩欧美91| igao国产精品| 国产真实二区一区在线亚洲| 在线观看免费黄色网址| 午夜性爽视频男人的天堂| 呦女亚洲一区精品| 在线观看欧美国产| 日本免费福利视频| 国产原创演绎剧情有字幕的| 国产乱子伦精品视频| 免费一级毛片完整版在线看| 99视频免费观看| 欧美亚洲国产日韩电影在线| 狠狠色丁香婷婷| 欧美成人综合在线| 日韩精品一区二区三区免费| 少妇极品熟妇人妻专区视频| 夜夜拍夜夜爽| www.精品视频| 欧美亚洲欧美| 欧洲欧美人成免费全部视频| 成人午夜精品一级毛片| 婷婷丁香在线观看| 在线无码九区|