999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于高斯原型網絡的小樣本逆合成孔徑雷達目標識別

2022-10-29 03:35:54楊敏佳白雪茹劉士豪
電子與信息學報 2022年10期
關鍵詞:特征實驗模型

楊敏佳 白雪茹* 劉士豪 曾 磊 周 峰

①(西安電子科技大學雷達信號處理國家重點實驗室 西安 710071)

②(西安電子科技大學電子信息攻防對抗與仿真技術教育部重點實驗室 西安 710071)

1 引言

由于逆合成孔徑雷達(Inverse Synthetic Aperture Radar,ISAR)具有全天時、全天候、遠作用距離、高分辨率等獨特優勢,因此在太空態勢感知和防空反導中發揮著重要作用[1–4]。相較于1維高分辨距離像,目標的高分辨ISAR像為其散射中心向未知成像平面的2維投影,并且蘊含著重要的尺寸、結構等形狀信息和姿態、朝向等運動信息,從而為雷達自動目標識別提供了豐富特征[5,6]。

傳統的ISAR目標識別方法主要依據圖像特性進行人工特征(如區域特征、邊緣輪廓特征、散射點特征等)提取及分類器設計。但是,該過程需要大量的先驗知識或專家經驗,耗時較長且難以推廣[7,8]。近年來,深度學習廣泛應用于ISAR目標識別領域并獲得了優良的性能[1,9,10]。該類方法可實現基于數據驅動的自動特征提取,具有較強的泛化能力。另外,由于ISAR目標非合作,其姿態及轉臺參數未知。受觀測及成像條件限制,可獲取的高質量ISAR像通常較少(1幅或幾幅),即存在小樣本問題。在這種情況下,深度網絡會出現特征可分性不強、識別性能迅速下降等問題,從而為穩健的特征提取與識別帶來了極大挑戰[11,12]。

小樣本學習(small-data learning)為解決樣本匱乏時的ISAR目標識別問題提供了有效途徑[13]。該方法通過借助具有充足樣本的常見目標類別對模型進行訓練,進而將獲得的識別能力泛化到全新的小樣本目標類別中。在給定訓練集(包含具有充足樣本的常見目標類別)和測試集(包含全新的小樣本目標類別)后,嵌入學習(embedding learning)[14–16]等基于任務驅動的小樣本學習方法首先通過重復隨機采樣來分別構建訓練任務集和測試任務集。具體而言,任務集中的每個任務均包含支撐集(由有標簽樣本構成)和查詢集(由無標簽樣本構成),任務目標是依據支撐集對查詢集中的樣本類別進行判定。此后,該類方法采用訓練任務集進行模型訓練,使其在測試任務集中同樣獲得良好的識別效果。特別地,若每個任務包含C個不同目標類別,每個目標類別包含K個支撐樣本,則稱該任務為 C-way K-shot任務。作為嵌入學習的經典結構,原型網絡[16](Prototypical Network, PN)首先將樣本從原始空間映射到更低維的嵌入空間;進而通過計算嵌入空間中各類別的中心(即嵌入向量的均值)綜合同類信息并獲得各類別原型;最終通過比對查詢集樣本對應嵌入向量和各類原型之間的歐氏距離實現類別預測。但是,該模型未考慮到支撐集樣本對識別貢獻度的差異。

研究[14–16]表明,支撐樣本的質量(代表性)會對小樣本目標識別的精度產生極大影響。由于不同雷達參數下目標的ISAR像通常會產生較大形變,同時實測數據中存在遮擋效應和強點閃爍現象,因此圖像質量變化較大。在這種情況下,如何合理地為每個任務中不同的支撐樣本分配對應的權重,并且有效地將其對識別貢獻度的差異引入模型已經成為小樣本ISAR目標識別領域的重點和難點。針對該問題,本文提出基于高斯原型網絡(Gaussian Prototypical Network, GPN)的小樣本ISAR目標識別方法。根據實際中多數目標的特征呈高斯分布這一特性,GPN對嵌入空間特征進行統計建模,將輸入樣本映射為嵌入空間中的高斯分布(由均值向量和精度矩陣描述),從而有效刻畫樣本特征的統計特性,并且能夠通過精度矩陣的學習引入不同樣本質量對識別貢獻的差異,避免離群特征對識別的不利影響。在此基礎上,通過計算各查詢集樣本對應嵌入向量與各類高斯原型的馬氏距離實現類別預測。實驗結果表明,本方法在飛機目標實測數據集上可以獲得良好的小樣本識別結果。

2 網絡結構

基于GPN的小樣本ISAR目標識別流程如圖1所示,其主要包括數據產生、模型訓練和模型測試3個部分。在數據產生階段,隨機生成器通過對訓練集和測試集進行隨機采樣不斷生成支撐集和查詢集。對于C-wayK-shot任務,首先從相應數據集中隨機挑選出C個類別,每個類別再隨機挑選K個樣本作為支撐集,同時將C個類別中的剩余樣本作為查詢集。在模型訓練的前向傳播階段,GPN通過嵌入網絡將支撐集樣本映射為嵌入向量及其精度矩陣,進而計算各類別的高斯原型。之后,通過計算查詢集樣本對應嵌入向量到各類別高斯原型的馬氏距離獲得預測標簽。在反向傳播階段,根據預測標簽與真實標簽計算損失,從而指導模型參數的更新。在模型測試階段,模型參數固定,直接將支撐集和查詢集輸入模型并執行與訓練過程中相同的高斯原型計算與距離度量操作來獲得對未知類別目標ISAR像的預測標簽。接下來,對網絡各模塊結構及其功能進行詳細介紹。

2.1 嵌入網絡

2.2 精度矩陣

2.3 高斯原型

2.4 距離度量

2.5 損失函數

GPN通過softmax函數計算xi屬 于各類別的概率。特別地,xi屬于第k類的概率為

3 實驗結果與分析

在訓練過程中,本節采用5類飛機(F15C, F16,F18, F117和MiG29)的電磁仿真數據對網絡參數進行迭代更新優化。在測試過程中,采用與訓練過程類別不同的3類飛機(安26、雅克42、獎狀飛機)的實測數據ISAR像進行小樣本識別性能分析與對比。

3.1 數據集

電磁仿真數據所采用的5類飛機模型如圖3所示。在本地坐標系中,雷達俯仰角為145°,方位角為0°~360°,載頻為17 GHz,成像帶寬為1 GHz,采用物理光學法進行電磁計算[1],所得各目標回波數均為10920。接著,將積累角設為3°, 4°, 5°并采用距離-多普勒方法進行高分辨成像,可獲得3種不同分辨率的ISAR像。本節圖像縱向均表示距離單元、橫向均表示方位單元。同時,每隔1°方位角成像1次,因此每種分辨率得到360幅ISAR像。在此基礎上,將每張圖像中的目標居中并裁剪為128×128,并從中剔除特征描述性不強的圖像(如部分結構反射太強導致輪廓特征丟失等),挑選其中200張作為實驗所用數據集。最終,電磁仿真數據集共得到3000張圖像。在成像積累角4°時,5類飛機的典型成像結果如圖3所示。同時,圖4給出了F16飛機不同積累角下的成像結果對比??梢钥闯?,積累角變化會使ISAR像產生方位維的拉伸或壓縮。

實測數據對應的3類飛機光學圖像和ISAR像如圖5所示。此時雷達工作于C波段,帶寬為400 MHz。每類飛機包含90張結構清晰、聚焦良好的圖像,尺寸均為128×128。

圖6給出訓練集中5類不同型號飛機(F15C, F16,F18, F117和MiG29)電磁仿真數據典型ISAR像的特征分布可視化結果與分布檢驗結果。為便于高維特征可視化,本文使用t分布隨機領域嵌入[19](tdistributed Stochastic Neighbor Embedding, t-SNE)將嵌入空間中的高維特征降至2維,并分別繪制所有類別目標特征分布的3維可視化及2維可視化結果,分別如圖6(a)和圖6(b)所示。其中,F16特征分布的2維可視化結果如圖6(c)所示。以分位數-分位數圖[20]的形式對F16特征在兩個維度上分別進行分布檢驗,結果如圖6(d)所示,其中2種顏色表示2個維度的特征。若該圖中散點分布越接近線性,則輸入數據分布越接近高斯分布。其他4類目標特征分布的2維可視化及分位數-分位數圖與F16類似。從可視化及分布檢驗結果可以看出,每類目標樣本特征的統計特性均近似于高斯分布,該結論與GPN的假設相同。

3.2 實驗結果及分析

實驗選擇成像積累角分別為3°, 4°和5°的電磁仿真數據ISAR像作為訓練集,從而分析GPN對訓練樣本形變的適應性。同時,分別進行3-way 1-shot和3-way 5-shot兩組實驗,從而分析支撐集樣本數對識別性能的影響。在模型訓練過程中,將學習率設置為10–3、迭代次數設置為1000,并采用Adam優化方法[21]來搜索并更新模型參數。在測試過程中,由于1次實驗具有隨機性和偶然性,不能準確反映模型性能,因此用隨機生成器反復迭代生成1000組實驗數據并進行1000次獨立重復實驗。最終,將實驗結果繪制表格并列出識別準確率的平均值、最大值、最小值和標準差。PN與GPN識別結果對比如表1所示??梢钥闯?,在3種成像積累角下,GPN較PN在1-shot和5-shot兩種任務下的平均識別正確率都有明顯提升。但是,測試準確率的最小值也反映出依然存在部分低質量帶標簽樣本,從而使得對應識別精度降低。

同時,GPN所得嵌入向量的t-SNE可視化結果如圖7所示,統計直方圖如圖8所示。結合表1可以看出,3-way 5-shot的平均識別正確率均高于3-way 1-shot,并且各類目標對應嵌入向量的聚集性及識別穩定性更好。因此,少量增加支撐樣本數量可以顯著改善小樣本ISAR目標識別效果。

表1 PN與GPN識別結果對比

整體上,無論是3-way 1-shot還是3-way 5-shot任務,當訓練集數據成像積累角為4°時識別性能達到最優,因此,訓練集與測試集之間的不同差異會在一定程度上決定模型學習的效果,從而影響模型的泛化性能。針對目標的實測ISAR圖像小樣本識別問題,合理地構建電磁仿真數據會對識別結果起到較好的促進作用。

3.3 傳統深度網絡與GPN的對比實驗

為了進一步驗證所提GPN在小樣本ISAR目標識別問題中的有效性,本節將其與傳統深度網絡進行了對比實驗。具體而言,選取包含6個卷積層的經典DCNN模型,并分別構建1-shot和5-shot實驗場景。由于傳統ISAR目標識別方法在訓練過程中不納入其他類別樣本的信息,因此僅選擇實測數據作為實驗數據。當實驗場景為K-shot時,從實測數據的每個類別中隨機選取K個樣本作為訓練集,其余的樣本作為測試集。最后,將DCNN模型的實驗結果與GPN的實驗結果進行了對比,如表2所示。

表2 小樣本條件下傳統DCNN與GPN識別結果對比(%)

由對比結果可以看出,在每類有標簽樣本僅有1幅的情況下(1-shot),現有深度神經網絡DCNN幾乎失效,而GPN平均識別準確率比DCNN高出約28%;在每類有標簽樣本僅有5幅的情況下(5-shot),DCNN的識別準確率僅有68.24%,而GPN的平均識別率為92.44%,比DCNN高出約24%。因此,GPN能夠解決現有深度神經網絡在處理小樣本ISAR目標識別問題時識別性能下降甚至失效等問題,同時能夠實現穩健特征提取與識別。

4 結束語

針對現有基于深度卷積神經網絡的ISAR目標識別方法在訓練樣本不足時性能下降甚至失效等問題,研究了基于GPN的ISAR小樣本目標識別方法。該方法首先通過嵌入網絡獲得輸入樣本的嵌入向量及精度矩陣,進而通過支撐集構建了各類別的高斯原型,最終通過計算查詢集樣本對應的嵌入向量與各類別高斯原型的馬氏距離來實現類別預測。相比于PN,所提模型將嵌入向量建模為高斯分布,并且充分考慮了支撐集樣本對識別貢獻度的差異。實驗結果表明,本方法在飛機目標實測數據集上可以獲得更優的識別結果。未來將研究基于樣本多特征融合及形變穩健的ISAR小樣本識別方法。

猜你喜歡
特征實驗模型
一半模型
記一次有趣的實驗
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
NO與NO2相互轉化實驗的改進
主站蜘蛛池模板: 高清无码手机在线观看| 91精品情国产情侣高潮对白蜜| 婷婷六月综合| 午夜日本永久乱码免费播放片| 亚洲婷婷丁香| 蜜桃视频一区二区| 欧洲高清无码在线| 精品三级在线| 国产成人综合亚洲欧美在| 国产三级成人| 国产精品成人不卡在线观看 | 亚洲精品老司机| 无码国产偷倩在线播放老年人| 99re精彩视频| 99久视频| 日本a∨在线观看| 97国产精品视频人人做人人爱| 国产精品无码AV中文| 蜜臀av性久久久久蜜臀aⅴ麻豆| 爽爽影院十八禁在线观看| 国产精品99久久久久久董美香| 国产亚洲高清视频| 在线一级毛片| 免费在线国产一区二区三区精品 | 91在线播放国产| 国产精品xxx| 免费看美女自慰的网站| 免费黄色国产视频| 72种姿势欧美久久久大黄蕉| 99无码中文字幕视频| 日韩精品无码不卡无码| 国产成人综合网在线观看| 国产麻豆aⅴ精品无码| 欧美午夜视频在线| 亚洲国产中文精品va在线播放| 亚洲AV无码一区二区三区牲色| 一区二区三区毛片无码| 日韩在线网址| 成人看片欧美一区二区| 成人国产精品一级毛片天堂 | 国产极品嫩模在线观看91| av午夜福利一片免费看| 久久a级片| 亚洲欧洲日韩久久狠狠爱 | 色精品视频| 欧美日韩激情在线| 色呦呦手机在线精品| 人妻无码AⅤ中文字| 国产精品99久久久久久董美香| 67194在线午夜亚洲| 国产91丝袜在线播放动漫| 久久99热这里只有精品免费看| 天堂亚洲网| 福利在线免费视频| 情侣午夜国产在线一区无码| 伊人久综合| 亚洲欧美自拍中文| 国产丝袜精品| 被公侵犯人妻少妇一区二区三区 | 国产男人天堂| 又爽又大又光又色的午夜视频| 日本国产精品| 伊人网址在线| 少妇人妻无码首页| 国产一级毛片高清完整视频版| 国产人人干| 亚洲无码A视频在线| 中文字幕无码中文字幕有码在线| 亚洲视频二| 欧美啪啪网| 亚洲精品国产首次亮相| 天天做天天爱夜夜爽毛片毛片| 91国内视频在线观看| 国产精品不卡片视频免费观看| 中文字幕亚洲第一| 丰满的熟女一区二区三区l| 在线观看视频一区二区| 久草视频一区| 日本日韩欧美| 国产极品嫩模在线观看91| 免费一级成人毛片| 青青青国产免费线在|