999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

彈載線陣掃描激光雷達的目標識別算法

2019-03-19 11:36:58鄒子強張雪峰
探測與控制學報 2019年1期
關鍵詞:特征模型

鄒子強,劉 星,張雪峰

(1.西安工業大學電子信息工程學院,陜西 西安 710021;2.北京宇航系統工程研究所,北京 100076)

0 引言

在線陣激光雷達中,探測器可選擇旋轉掃描方式或平推掃描方式。旋轉掃描方式可獲得360°的探測視場,但對于非旋轉彈載激光雷達一般采用平推掃描方式。在這種工作模式下,線陣探測器在搭載平臺的前向運動過程中,對目標區域向下進行高速平行推掃,得到地面目標頂部及其周圍區域的距離像和強度像,信息處理模塊可通過分析距離像與強度像來提取目標頂部輪廓相關特征,以實現目標識別[1]。

針對激光雷達目標識別問題,目前國內主要形成以下幾種算法。文獻[2]通過判斷探測圖像矩陣各元素與目標標準模板矩陣之間的豪斯道夫距離來實現目標的識別。文獻[3]提出一種數據挖掘的激光雷達圖像識別方法。通過采用小波變換對激光雷達圖像進行去噪處理,并提取特征向量,然后采用數據挖掘技術——深度層次網絡根據特征建立激光雷達圖像識別模型,最終實現目標分類識別。文獻[4]提出了基于多路窄波束激光測距的目標識別方法,建立了以測距值的突變來識別目標高度和寬度的數學模型。文獻[5]通過提取目標距離像特征,采用網格搜索算法對支持向量機參數進行優化后實現目標分類識別。文獻[6]通過從不同的方位獲取目標的幾何尺寸信息,經神經網絡學習分類后實現目標識別。由于體積、成本等因素限制,應用于彈載的線陣掃描激光雷達成像單元數較少,平推掃描方式下激光雷達掃描獲得的是目標區域稀疏圖像,難以得到足夠的目標參數和質量較高的目標區域圖像[7-8]。上述算法在處理稀疏圖像時目標識別率較低,容易形成誤判。針對這個問題,本文提出了基于目標頂部特征的BP神經網絡目標識別算法。

1 基于頂部輪廓信息的目標識別模型

如圖1所示,平推式線陣掃描激光雷達通過線陣APD(Avalanche Photo Diode)探測器實現Y方向掃描,通過搭載平臺的飛行形成X方向的掃描,經發射和接收高頻脈沖激光來探測目標區域的信息,得到目標區域的回波強度像與距離像[9-10]。

圖1 線陣掃描激光雷達工作示意圖Fig.1 Schematic diagram for line array scanning laser radar

(1)

在距離信息矩陣T中,取在X方向前后兩相鄰點的距離信息差值為:

ΔSx=(S(m-1)λ-Smλ)

(2)

取Y方向上下相鄰點的距離信息差值為:

ΔSy=(Sm(λ-1)-Smλ)

(3)

給定閾值范圍θ=[α,β] ,判斷ΔSx、ΔSy是否超過設定的閾值范圍,把ΔSx、ΔSy分別歸為三類,即:

(4)

Ck={(Xi,Yi,Si)|i=1,…,nk}

(5)

對子集Ck,應用公式:

(6)

2 目標識別算法的實現

2.1 特征提取

1)目標頂部輪廓統計特征提取

(7)

得到目標距離矩陣的方差D為:

(8)

2)目標頂部輪廓空間分布特征提取

對同一個典型目標,用式(4)將目標頂部輪廓分割成不同的部分,再用式(5)計算得出每個部分的中心點。此時目標頂部特征可用在空間散布的中心點之間的距離關系表示,將這些點連接起來可以得到目標的圖模型,再由圖模型得到頂部輪廓的空間分布特征[8,11]。

①目標圖模型的建立

計算中心點vk到中心點vj的距離dkj:

(9)

給定一個值ε:當dkj≤ε時,中心點k與中心點j之間有連接關系;當dkj>ε時,中心點k與中心點j之間無連接關系。若兩個中心點之間有連接關系,就把這兩點之間的連線kj稱為有效的邊,將點集V中所有中心點按照上述規則連接起來,能夠得到一個邊集合R={kj}。此時邊集合R和中心點點集可構成一個圖模型,即目標可以用ε圖:Graph=(V,R)表示。在ε圖Graph=(V,R)中,共有K個結點,并且每個結點都與距離它不大于ε的結點相連,每兩個結點之間的連線kj為ε圖的邊。其中,kj表示中心點k與中心點j之間的連線,(j,k)=(1,2,…,K)且k≠j。

②基于最小生成樹Prim算法結點遍歷的目標圖特征提取目標圖模型上結點出現的位置是相對固定的,對典型目標圖模型,采用最小生成樹Prim算法。在節點集V=(v0,v1,…,vK)中,以結點v0為起點,確定一個遍歷所有結點的最小生成樹,從而得到最短路徑Q。

在最小生成樹Prim算法中,定義p(v0,vk)=(v0…vk…vK)為ε圖中起點為v0終點為vK的最小生成樹路徑。按照最小生成樹路徑p中結點的順序,可以得到與其對應ε圖的鄰接矩陣E。鄰接矩陣E表達了在目標圖模型中每個結點之間的距離關系和位置關系,計算得到矩陣E的跡:

(10)

目標圖模型的最短路徑Q與鄰接矩陣的跡tr(E),表達了目標頂部輪廓不同部分之間的位置關系與距離關系,通過這兩個特征能比較好地描述目標頂部輪廓空間分布特征。

2.2 BP神經網絡識別

BP神經網絡通過前向三層網絡可以實現任意從輸入到輸出的連續映射,該網絡采用分層梯度下降的方式對神經網絡的權值進行調整,使得神經網絡的輸出在訓練時誤差最小[12]。訓練過程中,令輸入為xi=x,神經網絡節點k的實際輸出為Zk=Z,期望輸出為tk=t。

1)神經網絡的設計

根據目標統計學特征和頂部輪廓空間分布特征的不同特點,設計人工神經網絡進行分類,分別構建統計學特征神經元、頂部輪廓空間分布特征神經元。

①統計特征神經元

②頂部輪廓空間分布特征神經元

應用圖模型最小生成樹的最短路徑Q與鄰接矩陣的跡tr(E)來進一步確認待識別物體是否為目標。將這兩個特征作為神經網圖神經元的輸入x3、x4,則有:

x3=Q,x4=tr(E)。

③神經網絡相關參數設定

3 仿真及結果分析

3.1 仿真條件說明

為了驗證本文算法的有效性,選取了一個典型的目標。根據實際測量所得的目標參數,模擬一個32元的線陣掃描激光雷達對目標掃描,該激光雷達的脈沖頻率f=4 kHz,搭載平臺速度v=200 m/s,平臺距地面高度為15 m。

計算得出激光雷達每掃描一次,平臺飛過的距離為5 cm。實際測得目標1的長寬高分別為:4 550 mm×1 780 mm×1 440 mm,因此目標1對應的矩陣T1的大小為(32×91)。對目標距離矩陣T1進行數據可視化,如圖3所示。

仿真測試所用軟件為Matlab 2014(b),硬件配置為2.8 GHz Intel Core i7處理器、8 GB內存PC機。在訓練神經網絡時,其訓練參數設置如表1所示。

表1 神經網絡訓練參數

3.2 仿真實驗

在仿真實驗中,由于目標統計特征可通過計算目標距離矩陣直接得出,而目標圖特征需要建立目標的圖模型后得出。因此分析仿真實驗時直接給出計算得到的目標統計特征,簡要描述目標圖特征提取過程。

1)特征提取

①統計特征提取

②圖特征提取

目標距離矩陣分割:根據距離值在X方向、Y方向變化將目標1的距離矩陣T1分割,分割完成后的結果如圖3所示。

根據分割完成后的平面效果顯示,目標距離矩陣被分割為8個子矩陣。

圖模型的建立:分別計算8個子矩陣的中心點v1…vK和各個中心點之間的距離dkj,構建目標的圖模型。運用圖的最小生成樹Prim算法,得到目標的最小生成樹與目標圖模型結點遍歷最短路徑x3=Q=1 204.194 2,結果如圖4所示。

由圖4目標圖模型最小生成樹得到目標圖模型的最短結點遍歷路徑P=(v0,v4,v3,v7,v8,v2,v1,v5,v6),再根據最短路徑P得到目標圖模型的鄰接矩陣E,計算矩陣E的跡x4=tr(E)=1 646.4。

圖2 目標1三維可視化Fig.2 Target 1 3D visualization

圖3 目標1分割可視化Fig.3 Target 1 segmentation visualization

圖4 目標1圖模型最小生成樹Fig.4 Target 1 graph model minimum spanning tree

2)神經網絡訓練

按照設定好的神經網絡參數對BP神經網絡進行訓練,神經網絡訓練誤差變化曲線顯示在第147步時,系統誤差就達到了要求。

該網絡的訓練的實際輸出與期望輸出如圖5(a)所示,BP神經網絡訓練時的實際輸出大部分在期望輸出tk=1附近;其訓練誤差曲線如圖5(b)所示,曲線顯示訓練誤差小于0.03,大部分小于0.01。

3)神經網絡預測

對已經訓練好的BP神經網絡,用另外80組樣本對該網絡進行預測。網絡的預測輸出與實際輸出差異如圖6(a),其預測誤差如圖6(b);統計在誤差|error| ≤0.015時,神經網絡的正確識別率為93.75%。

圖5 神經網絡訓練結果分析Fig.5 Analysis of neural network training results

圖6 神經網絡預測結果分析Fig.6 Analysis of neural network prediction results

針對隱含層節點數過多容易收斂到局部極小值與節點數過少達不到訓練精度的問題,用相同的樣本集分別對隱含層結點數為5~10的BP神經網絡進行訓練和測試,并統計預測誤差在|error|≤0.015時的正確識別率,仿真結果如表2所示。

表2 具有不同隱層節點數的BP神經網絡的識別率

根據本文情況,當BP神經網絡的隱含層節點數為8個時,其識別效果最佳。

4 結論

本文提出了基于目標頂部信息特征的BP神經網絡目標識別算法,通過分析模擬目標的線陣掃描數據,應用統計算法提取目標輪廓數據特征,然后建立目標三維特征圖模型,采用最小生成樹Prim算法得到目標頂部輪廓空間分布特征。仿真實驗結果表明該算法簡單易于實現,在預測誤差|error|≤0.015時,該算法對目標稀疏圖像有較好的識別效果。

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線三等角』
新型冠狀病毒及其流行病學特征認識
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 成人午夜天| 欧美日韩综合网| 亚洲 日韩 激情 无码 中出| 日韩精品一区二区三区免费| 国产午夜福利片在线观看| 在线国产欧美| 欧美乱妇高清无乱码免费| 色亚洲成人| 中文字幕在线视频免费| 欧美亚洲一区二区三区在线| 伊在人亚洲香蕉精品播放| 久久久久久久久亚洲精品| 日本尹人综合香蕉在线观看| 欧美成人免费午夜全| 国产精品护士| 欧美亚洲激情| 9999在线视频| 久久国产拍爱| 国产精品 欧美激情 在线播放| 亚洲专区一区二区在线观看| 五月天福利视频| 国产成人精品2021欧美日韩| 亚洲综合中文字幕国产精品欧美 | 国产精品成人AⅤ在线一二三四| 国产成人精品无码一区二| 一级香蕉视频在线观看| 国产美女91呻吟求| 国产农村妇女精品一二区| 成人午夜视频在线| 超碰精品无码一区二区| 亚洲日韩精品伊甸| 热这里只有精品国产热门精品| 国产精品自在自线免费观看| 福利片91| 四虎永久在线精品影院| 九九久久精品免费观看| 欧美日韩国产在线观看一区二区三区| 亚洲国产一区在线观看| 538国产在线| 欧美中文字幕一区二区三区| 亚洲日韩高清在线亚洲专区| 热久久综合这里只有精品电影| 国产人人乐人人爱| 亚洲无线一二三四区男男| 亚洲精品欧美日本中文字幕| 三上悠亚精品二区在线观看| 亚洲日韩Av中文字幕无码| 久久精品日日躁夜夜躁欧美| jizz在线观看| 伊人中文网| 国产乱人激情H在线观看| 97在线国产视频| 午夜视频在线观看区二区| 国产无码在线调教| 老色鬼欧美精品| 亚洲中文字幕在线一区播放| 亚洲Av综合日韩精品久久久| 成人无码一区二区三区视频在线观看| 91精品人妻互换| 国产91视频免费观看| 久久久国产精品免费视频| 91福利片| 99在线视频免费| 国产精品片在线观看手机版 | 色综合国产| 国产精品yjizz视频网一二区| 中国国产一级毛片| 国产精品三级av及在线观看| 免费高清a毛片| 天堂网亚洲综合在线| 亚洲国产一区在线观看| 精品国产香蕉在线播出| 美女被操91视频| av手机版在线播放| 精品国产三级在线观看| 久久天天躁狠狠躁夜夜2020一| 亚洲高清日韩heyzo| 久久黄色一级片| 97精品久久久大香线焦| 久久久噜噜噜| 在线不卡免费视频| 国产SUV精品一区二区6|