999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

深度學習在雷達中的研究綜述

2018-09-14 10:44:56魏少明
雷達學報 2018年4期
關鍵詞:分類深度方法

王 俊 鄭 彤 雷 鵬 魏少明

(北京航空航天大學電子信息工程學院 北京 100191)

1 引言

雷達是一種通過電磁波探測物體的電子設備。其主要包括:發射機、發射天線、接收機、接收天線以及信號處理部分。發射機通過發射天線,將電磁波向外發射,在某方向上與物體發生碰撞,電磁波發生反射,反射回波則被接收天線和接收設備接收,傳至信號處理部分進行分析。該過程能夠有效提取物體距雷達的距離、物體徑向運動速度等信息。并且這些信息能夠滿足許多應用場景的需求。例如,在軍事方面,其根據雷達所實現的功能不同,可分為預警雷達[1–3]、搜索警戒雷達[4–6]、導航雷達[7–9]以及防撞和敵我識別雷達等等。在社會科學發展方面,雷達可應用于氣象預報[10–12]、資源探測[13–15]、環境監測[16–18]等。鑒于雷達的廣泛應用場景,對雷達信號處理的研究就顯得至關重要。

近些年,深度學習成為各個領域的研究熱點,且在雷達領域同樣如此。本文主要介紹通過深度學習方法對不同形式雷達數據進行處理的研究情況,整體框架如圖1所示。經過調研發現,針對不同雷達成像原理以及信號處理方法,可獲得不同形式的雷達數據。例如,合成孔徑雷達(Synthetic Aperture Radar, SAR)圖像[19–24]、高分辨距離像(High Range Resolution Profiles, HRRP)[25–28]、微多普勒(Micro-Doppler)譜圖[29–32]以及距離多普勒(Range-Doppler, R-D)[33–36]譜圖等。本文則主要針對上述可獲取的雷達數據進行深度學習方法處理。其中,深度學習在SAR圖像處理領域已得到廣泛應用,典型應用的網絡包括卷積神經網絡(Convolutional Neural Network, CNN)[37]、稀疏自編碼器(Sparse AutoEncoder, SAE)[38]以及深度置信網絡(Deep Belief Network, DBN)[39]等等。其中,由于CNN在圖像處理中具有明顯優勢,因此,基于CNN的SAR圖像處理應用最為廣泛。本文同時介紹了通過上述3類網絡以及其他深度學習方法對HRRP, Micro-Doppler特征, R-D譜圖等雷達數據進行處理的研究近況。

圖1 本文介紹流程Fig.1 Flow chart of this paper

2 典型深度學習網絡基本原理

2.1 CNN基本原理

20世紀60年代,Hubel和Wiese研究貓腦皮層發現用于局部敏感和方向選擇的神經元具有獨特的網絡結構,該結構可以降低反饋神經網絡的復雜性,針對此研究提出了CNN。近些年,針對CNN具有避免圖像的復雜前期預處理的優勢,該網絡被廣泛應用于圖像的模式分類領域。其基本架構如圖2所示,經典的CNN一般包括卷積層、池化層、全連接層和分類器。

圖2 CNN結構示意圖Fig.2 Typical CNN structure

在卷積層中,其目的是對圖像進行特征提取。即通過對上一層輸出的特征圖進行卷積,并在加入偏置后通過一個激活函數激活,得到當前層的輸出特征圖,即得到當前層對應特征情況,如式(1)所示:

其中,x表示特征圖,Mj表示輸入特征圖的集合,k為卷積核,b為偏置,l是層序號,i是卷積核序號,j是特征圖通道序號。對于池化層而言,該層設置的目的是對圖像進行下采樣處理,而經典的池化方法包括:最大池化、均值池化等。在全連接層中可將上一層得到的特征圖進行按順序排列,得到1維向量,對其進行典型神經網絡連接。最后,對于不同神經元的輸出進行分類器分類,一般采用softmax或支持向量機(Support Vector Machine,SVM)分類器,得到分類標簽。

在學習過程中,其主要針對網絡中的卷積核、偏置情況進行學習,即需要通過反向迭代更新網絡參數,進而使網絡獲得穩定的識別效果,網絡訓練結束。其中,反向迭代更新過程是通過對訓練誤差進行隨機梯度下降處理。在典型的CNN中,訓練誤差由式(2)表示:

2.2 SAE基本原理

自編碼器(AutoEncoder, AE)是一種盡可能復現輸入信號的神經網絡,可以代表輸入數據的最重要的因素,并且其類似主成分分析方法,能夠代表原信息的主要成分。其結構如圖3所示。在AE的基礎上加上L1正則化限制,就可以得到一個SAE。該限制使每次的編碼表達盡量稀疏,更為有效。

AE嘗試學習一個盡量滿足hw,b(x)≈x條件的網絡。即當網絡輸出接近于輸入時,說明隱層神經元可以表示為輸入元素的特征。在討論SAE的代價函數表示時,首先需要引入激活度的概念。用表示給定輸入為x的情況下,AE的隱層神經元j的激活度,則將隱層神經元j的平均激活度記為:

圖3 AE結構示意圖Fig.3 Typical AE structure

其中,m為 神經元個數。SAE是在AE的基礎上加入稀疏性限制,而該限制的目的是使隱藏神經元的平均激活度特別小。為了滿足該條件,需要在原始神經網絡約束條件下加入稀疏性限制這一項,作為額外的懲罰因子,也稱為相對熵,如式(4)所示:

其中,s2是 隱層神經元數量,ρ是稀疏性參數。可以發現,當滿足條件時相對熵獲得最小值。

SAE的總體代價函數可表示為:

其中,J(w,b)為對應自編碼器代價函數,為控制系數性懲罰因子權重。

2.3 DBN基本原理

DBN是一個概率生成模型,其建立一個觀測數據與標簽之間的聯合分布。并且DBN由多個受限玻爾茲曼機(Restricted Boltzmann Machine,RBM)組成,典型的DBN結構如圖4所示。該網絡由隱層和可視層組成,且層間存在連接,層內單元不存在連接。

在典型的RBM中,其能量可表示為:

其中,b,c,w分別為對應可視層、隱層和可視層與隱層之間連接的權重,Nv為 可視層節點數,為隱層節點數,v為可視層輸出,h為隱層輸出。則進一步表示出隱層神經元hj被激活的概率為:

圖4 DBN結構示意圖Fig.4 Typical DBN structure

在訓練過程中,當一條數據賦給可視層時,計算出每個隱層的開啟概率,P(hj|x),j=1,2,···,Nh,進而比較其與閾值關系,大于閾值則激活,否則不激活。實現通過隱層計算出了可視層,之后通過對比散度算法對網絡參數進行學習。具體地,首先,將x賦給可視v1, 得到隱層的激活概率為P(h1|v1),在該概率密度函數中采取Gibbs抽樣抽取一個樣本h1~P(h1|v1);之后,通過h1重 構可視層,計算可視層中每個神經元被激活的概率P(v2|h1),同樣,從計算得到的概率分布中采取Gibbs抽樣抽取一個樣本v2~P(v2|h1);最后,通過v2計 算隱層中每個神經元被激活的概率h2~P(h2|v2),以此類推。權值更新為:

若干次訓練后,隱層不僅能準確地表示可視層特征,而且還能還原可視層。

3 基于深度學習的SAR圖像處理研究

通過上一節的介紹,可對典型的CNN, SAE,DBN算法基本處理過程具備一定了解。在此基礎上,對雷達數據進行相應的處理成為該領域的研究熱點。通過上述深度學習算法完成相應的雷達數據處理任務,并與傳統方法進行對比。進一步驗證了深度學習方法在進行自適應特征提取中存在的顯著優勢。

在雷達領域中,SAR是一種兼具距離向和方位向高分辨能力的成像雷達。其一方面作勻速直線運行,一面以一定的脈沖重復頻率發射并接收信號。在距離向方面,它利用發射大時間帶寬積的線性調頻信號,采用脈沖壓縮技術來獲取高分辨率;在方位向,它利用目標和雷達相對運動形成的軌跡構成一個合成孔徑,以取代龐大的陣列實孔徑,獲得方位向高分辨率。此外,SAR成像技術相對于光學遙感技術,主要具有以下優點:SAR利用地表反射的主動式電磁波成像,不需要傳統光學成像的發光源,能夠實現全天時、全天候的對地觀測;當雷達波長選擇恰當時,SAR能夠穿透云霧、植被等覆蓋物,觀測到被隱藏的地物;SAR可以是多極化、多頻段的,使圖像具有豐富的相位等極化信息,有助于SAR圖像的地物分類。鑒于SAR的眾多優點,其在軍事和民用領域得到廣泛應用。

近些年,隨著深度學習的研究熱度逐漸增加,將深度學習方法運用到SAR圖像處理成為新的研究熱點。本節主要介紹深度學習算法在SAR圖像處理中的研究情況。在該領域中,上一節主要介紹的CNN, DBN及SAE均在該領域均取得一定的研究成果。

3.1 基于CNN的SAR圖像處理研究

基于CNN的SAR圖像處理最廣泛的應用主要集中在目標識別中,且典型的算法驗證數據庫為MSTAR數據,通過對該數據進行識別處理,從而對比不同方法的識別效果。該數據庫包含10類目標,其示意圖如圖5所示。通過調研發現,基于CNN對SAR圖像進行目標類型識別基本保證獲得相比于傳統目標識別方法更高的識別率。例如,南京理工大學的袁秋壯等人將CNN應用于SAR目標識別[40],該CNN網絡包括2層卷積層,2層下采樣層,3層dropout,2層全連接層。最終對MSTAR數據進行分類,平均識別率達到96.29%。此外,文獻[41]選擇對艦船數據進行訓練及測試,其對4個場景下的SAR數據進行包含2層卷積層、2層全連接層的CNN訓練,保證該網絡對4個場景艦船SAR圖像均具有穩定的識別能力,進而對一個場景下艦船進行識別測試。結果顯示,該網絡能從非貨船目標和海雜波中提取貨船目標。在上述文獻中,由于缺少在不同艦船姿態情況下的艦船數據,因此訓練得到的CNN對不同艦船姿態SAR圖像適應性較差,導致對于不同姿態的艦船識別率還有待提高。為了解決該問題,需要通過對訓練數據進行完善,增加不同艦船姿態SAR圖像情況。

圖5 MSTAR數據示意圖Fig.5 Illustration of MSTAR data

為了解決訓練數據量不足的問題,有學者提出通過一系列處理提升用于測試和訓練的SAR質量,使訓練圖像能夠盡量完備地代表實際待分類的圖像情況。例如,西安電子科技大學的陳波團隊[42]對MSATAR圖像分別進行了目標位置的平移,加入隨機斑點噪聲的操作,之后再進行識別測試。在原始數據、目標位置平移、加入斑點噪聲3種情況下,通過CNN得到的識別率與傳統SVM等方法進行比較。CNN方法識別率分別為93.16%,82.40%以及91.89%。而傳統SVM方法下,識別率僅為75.68%,17.05%以及70.58%。其中,由于對目標位置進行了平移變換,傳統SVM方法識別率下降劇烈,而CNN方法識別率相對于原始數據,識別率僅下降10%左右,即說明CNN方法相對傳統方法具有更優的魯棒性。哈爾濱工業大學的朱同宇[43]在經典CNN模型基礎上引入ReLU激活函數、L2正則化、批量歸一化以及Dropout等現代深度學習技術,并使用目標鏡像、目標位移、目標旋轉以及加入噪聲這4種SAR圖像的數據增強方法,有效地抑制了過擬合問題。此外,其分別通過MSTAR實測數據集和OKTAL仿真數據集數據進行網絡性能測試。其中,在運用MSTAR數據,且在原始測試集識別率達到98.22%的情況下,經過4種擴充測試集,保證準確率仍在90%以上。同樣在對OKTAL仿真數據集進行測試時,平均識別率達到94.51%。可見,對于CNN方法而言,在一定程度下魯棒性優于傳統識別方法,且當訓練樣本與測試樣本更加接近時,所訓練網絡特征提取越準確,識別率優勢明顯。此外,文獻[44]提出通過兩級CNN識別虛假目標。第1級CNN輸入數據為原始SAR圖像,且包含4類目標,每類分別由真實和虛假目標組成;第2級CNN輸入數據為對陰影進行增強的處理后圖像,每類目標的真實和虛假目標分別為兩類,即完成8類目標的識別。文獻[45,46]均對包含光學圖像和SAR圖像兩模態數據進行CNN目標識別。其中,文獻[45]通過對云的光學圖像、SAR圖像進行CNN分類,獲得天氣情況。文獻[46]對兩模態數據分別進行不同通道的CNN特征提取,之后將獲取的兩通道特征圖進行全連接處理,進行分類器分類,即實現多模態數據分類識別。文獻[47]通過CNN對TerraSAR-X高分辨圖像進行分類,實現貨船、游輪、直升機、平臺以及港口的分類。在分類前,對感興趣區域需進行檢測預處理。

另外,極化SAR數據相比于單通道SAR,更能體現雷達的入射角、SAR圖像噪聲等信息,因此,應用場景更加廣泛。文獻[48–52]則對于極化SAR數據進行CNN處理,實現識別效果。其中,文獻[48]通過對雙極化SAR數據進行3D-CNN處理,實現對海水濃度進行判斷,從而對由于冰川造成航船行駛的危害進行預警。文獻[49]通過對多通道SAR數據進行6維實向量提取,然后對該6維實向量進行CNN分類。其中,對于極化SAR而言,其可表示為3×3的相干復矩陣:

其中,對應的6維實向量分別為:

其中,A為 所有極化通道的總散射功率,SPAN=T11+T22+T33,B和C分別為T22和T33的歸一化功率比,D,E和F分別為相關系數。對于該6維實向量進行包含2層卷積層,2層最大池化層,1層全連接層和softmax分類器的CNN架構建立。并且分別對典型的San Francisco和Flevoland多極化SAR數據庫中的數據進行分類處理,San Francisco數據在訓練和識別部分分別獲得的識別率為99.43%和90.23%,Flevoland數據的訓練和識別準確率分別為99.20%和97.66%。此外,復旦大學的徐豐、王海鵬、金亞秋提出對極化SAR數據進行復數CNN(Complex Value-CNN, CV-CNN)識別,文獻[50]對同樣的Flevoland數據進行包含2層卷積層,1層池化層以及1層全連接層的CV-CNN進行地物目標分類,平均識別率達到95.97%。文獻[51]則分別將實數CNN (Real Value-CNN, RV-CNN)與CV-CNN進行識別性能上的對比。兩模型均包含2層卷積層,1層池化層,1層全連接層,且均對Flevoland數據進行分類,準確率分別為97.3%和99.0%。可見,針對極化SAR數據直接在復數域進行CNN處理效果稍優于實數域情況。

此外,由于傳統CNN模型針對SAR目標識別處理問題仍存在提升空間,尤其是網絡訓練存在一定的資源浪費,訓練效率較低。其中,文獻[52]提出一種全卷積神經網絡(All-Convolutional Neural Network, ACNN),即在傳統CNN模型下,將全連接層替換為稀疏連接層,從而針對MSTAR數據進行10類目標分類,識別率達到99.13%。該文獻方法主要用于應對網絡資源浪費的問題。在實際訓練結果中可能存在部分權值、偏置參數接近0的情況,該部分對目標識別未起到任何作用,造成資源一定程度的浪費。此外,SAR圖像質量本身受相干斑噪聲、幾何畸變和結構缺失等因素的嚴重影響,該因素導致人工標注困難,這使CNN的泛化能力急劇下降。針對這個問題,上海交通大學的趙娟萍等人[53]提出基于概率轉移模型的CNN (Probability Transition CNN, PTCNN)方法,建立對帶噪聲的圖像標記與無噪聲情況之間的概率轉移模型,建立噪聲標記轉移層,該網絡能夠增強帶噪聲標記情況下分類的魯棒性。文獻[54,55]通過CNN對SAR圖像進行去斑點噪聲處理,經過該處理后,圖像質量明顯提升,減小噪聲對SAR圖像的干擾,便于后續分類識別問題研究。其中,文獻[54]將原始帶噪聲的SAR圖像轉換到log域,并由于斑點噪聲屬于乘性噪聲,在log域減去通過深度網路學習到的噪聲,并最終通過exp處理獲得去斑后SAR圖像。其中,斑點噪聲為網絡的學習目標,通過對去噪后圖像的圖像質量進行視覺觀察和參數評價,可以發現圖像質量提升明顯。但是,該文獻方法進行的對數-指數轉換處于網絡外的處理,為了進一步減少網絡學習外的處理過程,文獻[55]直接進行端對端的斑點噪聲學習。其借鑒殘差網絡建立方法,將帶噪聲SAR圖像與學習噪聲相除,得到去噪后圖像,且通過去噪后圖像與無噪聲圖像之間差距作為網絡損失函數,迭代更新網絡參數。通過該方法進行的SAR圖像去噪效果更優。

在基于CNN的類型識別方面,仍存在大量衍生網絡的研究。文獻[56]實現基于SAR圖像的災后地質損失情況快速評估網絡結構。其分為區域選擇和損失類型識別兩部分。在區域選擇部分,其通過CNN衍生得到的SqueezeNet方法[57]提取受災區域。該網絡的創新點為將網絡分為squeeze層與expand層。其中squeeze層通過一個1×1卷積核進行卷積,expand層是通過1×1和3×3卷積核進行卷積,expand層中,把1×1和3×3得到的feature map進行連接。其整體思想是圖像的分辨率是不變的,僅改變特征圖的維數,即通道數。對于區域篩選結果進行基于WRN (Wide Residual Network,WRN)[58]的損失類型識別。該網絡是以CNN為基礎,衍生出的ResNet的改進網絡。針對在訓練過程中,僅很少的殘差模塊能學到有用的表達,而大部分殘差模塊并不對最終網絡分類構成影響,對網絡進行寬度提升,深度減小的處理。

此外,在SAR圖像目標分割領域,雖然其研究不如目標識別那樣廣泛,但仍有學者借鑒CNN方法實現目標分割。其中,西安電子科技大學的于文倩[59]對CNN算法的結構進行粒子群優化(Particle Swarm Optimization, PSO)改進,調整網絡結構,形成一種基于超像素和正交PSO修正深度學習的圖像分割方法。實驗表明,該方法不僅能夠實現SAR圖像的目標分割,同時能夠加快網絡學習速度。

3.2 基于SAE的SAR圖像處理研究

SAE的特點是可自動從無標記數據中學習特征,并且給出比原始數據更好的特征描述,進一步通過該學習到的特征得到更好的分類效果。有學者將其應用于地物目標分類、艦船分類以及城市變化檢測等場景。并且通過SAE對SAR圖像進行分析,其與傳統方法相比,展現SAE具有自動學習高層特征的特性。

首先,在地物目標分類中,文獻[60–64]分別通過SAE對極化SAR數據進行了目標類型的識別。例如,西安電子科技大學的高蓉[60]針對極化SAR數據具有斑點噪聲以及數據量龐大等問題,對其進行SAE處理,同時結合了極化SAR原始特征與鄰域極化特征實現了對地物數據的有效分類。在實驗測試過程中,針對Flevoland數據的識別獲得了85.1%的準確率,對Germany數據獲得了85.3%的準確率。文獻[61,62]分別將SAE對極化SAR的識別效果與傳統方法進行比較。其中,文獻[61]同樣對Flevoland數據進行測試,運用其中10%的數據進行訓練,90%的數據進行測試,識別率達到93.58%,而運用傳統的SVM方法所獲得的識別率僅為89.86%。此外,文獻[62]對Flevoland數據進行測試,SAE方法識別率達到98.61%,而傳統的隨機森林方法對應識別率僅為97.67%,基于SVM的識別方法為97.50%。并且多層自編碼器方法僅為94.27%,可以看出對網絡加入稀疏編碼過程的必要性。在此基礎上,西安電子科技大學的石俊飛等人[62]還提出,雖然SAE方法能夠學習高層特征,有效地表示城市、森林等復雜的地物結構,卻難以保留圖像的邊界和細節信息。因此,可將SAE與極化層次語義模型相結合。實驗表明,針對San Francisco數據,相比于單獨運用SAE方法進行識別,該方法將準確率提升了0.87%[63,64]。

此外,國防科學技術大學的涂松[65]提出通過SAE深度網絡對SAR圖像進行目標提取。在大尺寸SAR圖像中,首先進行多尺寸顯著區域檢測,之后對顯著圖進行SAE深度網絡分類,實現大尺寸SAR圖像目標快速提取。其中,分別選擇600個目標樣本和600個背景雜波樣本用于訓練SAE網絡。并且為了提高效率,將所有的訓練樣本降采樣為64×64,然后將所有像素排成一個列向量,進行SAE訓練。在該SAE網絡中,輸入為4096維,隱層數量為3層,每個隱層神經元個數為20,輸出為2維。該網絡能實現車輛目標和雜波背景兩類樣本的分類。文獻[66]在進行目標分類時首先進行特征提取,進而通過歸一化和白化的預處理。針對提取到的相互獨立的特征進行SAE網絡提取編碼結果,最終獲得分類標簽。該方法充分體現了SAE方法的無監督性,且針對不同特征進行分類的能力。

SAE應用廣泛,可對城市變化情況進行檢測。由于該領域下帶標簽的已有數據量較小,因此很難通過傳統的監督學習方法實現分類。文獻[67]通過SAE進行檢測,在數據量較小的情況下,檢測概率達到92.34%,并且相比于傳統方法虛警率減小了2.64%。此外,考慮到SAR圖像具有斑點噪聲的特點,且去噪自編碼器對該噪聲具有一定程度的魯棒性。因此,中國科學技術大學的阮懷玉[68]考慮將多尺度稀疏表示與去噪自編碼器網絡相結合形成新的學習架構,實現了艦船的分類。分別對MSTAR地面目標數據集與TerraSAR-X艦船數據集進行分類,并且得到了98.83%和92.67%的識別率。

3.3 基于DBN的SAR圖像處理研究

DBN應用靈活、廣泛。其即可作為一種非監督學習模型,類似于AE,可盡可能保留原始特征,同時降低特征維數;又可以用于監督學習,類似于分類器,可盡可能減小分類錯誤率。因此,DBN可對不同SAR圖像進行識別及其他操作處理。

在極化SAR目標識別領域,前文已經介紹了CNN以及SAE方法的研究成果。而本部分主要介紹基于DBN的極化SAR目標識別處理。其中,西安電子科技大學的羅小歡[69]結合極化SAR圖像散射特征和數字圖像特征以及顏色直方圖特征訓練一個有多個RBM組成的DBN模型。具體地,首先,將極化SAR數據的相干矩陣轉化成一個9維極化SAR數據;之后,在每個維度上抽取大量模塊,并對列向量進行RBM訓練,從而獲得每個維度的結構特征;最后,將該特征與原始相干矩陣元素相結合,訓練DBN,實現極化SAR數據的分類。文獻[70]則將DBN識別結果與傳統方法識別結果進行對比,其中,DBN的識別準確率為87%,而基于SVM方法的識別率僅為44%。此外,西安電子科技大學的趙昌峰[71]將Wishart分布引入RBM,使極化SAR特征表達更加明顯,提出了Wishart RBM (WRBM)。在對Flevoland和San Francisco數據進行測試時,識別率分別達到90.06%和91.49%。

此外,文獻[72]提出由于DBN能夠充分發掘主輔強度圖和相干圖在空間域和時間域上的相關性,因此可運用該方法進行干涉SAR圖像分類處理。并且在對San Francisco進行實驗分析時,分別討論DBN層數、隱層節點數、學習率對網絡識別率的影響。最終,在4層DBN、50個隱層節點以及0.1的學習率情況下,將DBN方法與傳統方法進行對比。其中,K近鄰(K-Nearest Neighbor, KNN)、SVM、SAE與DBN識別結果分別為:89.13%,90.92%,90.89%以及91.03%,可見DBN方法識別優勢較為明顯。此外,該文獻將DBN用于SAR圖像配準,且其能獲得魯棒性特征以及實現準確地配準。具體地,分別將兩幅待匹配的SAR圖像輸入,并提取圖像塊,將其輸入DBN,輸出即為匹配標簽。

4 基于深度學習的多種雷達數據處理研究

在上一節重點總結了基于深度學習的SAR圖像處理研究,而在實際情況下,有學者分別對HRRP、Micro-Doppler譜圖以及R-D譜圖進行研究,并對其進行深度學習方法處理。同樣能獲得較優的結果,并與傳統方法相比,深度學習算法能夠有效地提取對應圖像的深度特征,便于后續處理。

4.1 基于深度學習的HRRP處理研究

HRRP能反映目標散射點沿距離方向的分布信息,且獲取方法更為簡單。其特點是通過發出某一波長的高頻信號,通過反射成像,從而獲得HRRP。圖6為4種目標的HRRP示意圖。在此基礎上,有學者選擇通過不同的深度學習方法對HRRP進行目標的識別,其主要包括CNN, SAE, DBN以及RNN等。

文獻[73]提出,對HRRP進行基于CNN的目標種類識別。具體地,該網絡包含2層5×1大小的卷積層,以及2層3×1的最大池化層,1層包含1000節點的全連接層,最后運用softmax進行分類。通過對8類仿真HRRP數據進行網絡訓練及測試發現,深度CNN識別準確率大于深度感知機,約10%左右。在此基礎上,對該數據加入高斯白噪聲,使得處理后數據信噪比范圍為–20~40 dB。并且每類數據進行1000次蒙特卡洛實驗,對3類目標進行識別,平均準確率達到91.4%。說明CNN對HRRP進行識別時魯棒性較強。

南京航空大學的張歡[74]對Su27, J6, M2K 3種仿真戰斗機的HRRP數據分別采用SVM、深度神經網絡(Neural Network, NN)、SAE方法進行分類。在固定輸入數據為128維情況下,分別討論了深度學習方法中層數、隱層節點數、數據信噪比以及目標姿態對識別效果的影響。其中,當對25 dB數據進行2層且隱層節點數為50的網絡進行訓練及識別時,NN和SAE平均識別率分別為79.63%和85.00%,明顯高于傳統SVM的74.26%。文獻[75]運用SAE方法提取HRRP特征,之后對其進行極限學習機的分類。該方法通過SAE獲取有效分類特征,并且極限學習機的結構簡單,網絡訓練速度相對較快。并且經過測試,發現在識別率相近的情況下,該方法訓練時長是經典SAE方法分類的1/6,效率提升明顯。此外,文獻[76]對SAE進行改進,對無標簽數據進行目標相關性學習,提出SCAE (Stacked Corrective AutoEncoder)方法,進一步提升對HRRP的分類效果。

文獻[77,78]均采用DBN對HRRP數據進行目標類型識別。其中,文獻[77]提出對于RBM部分進行可視層和隱層之間的模糊(fuzzy)連接,即FRBM。通過實驗發現,該模型能夠有效削減取值為0的參數的個數,從而防止過擬合。同時,針對含噪數據,其魯棒性更強。在該文章中,首先對3種飛機模型的HRRP仿真數據分別進行KNN、支持向量數據描述(Support Vector Domain Description,SVDD)、RBM和FRBM方法識別,平均識別率分別為82.3%,85.7%,88.9%和94.3%。其次,分別對原始數據加入高斯白噪聲得到的不同信噪比(20 dB,10 dB, 5 dB)數據,以及加入椒鹽噪聲的數據分別進行RBM和FRBM分類處理,發現所有情況下FRBM識別率均高于RBM情況,且超出的識別率在10%以上。此外,文獻[78]考慮了不同類別數據量不平衡的問題,并且實驗證明,當不同類型HRRP數據量差異明顯的情況下,通過DBN進行分類,不同類型的識別率差距明顯。因此,該文獻提出在進行DBN分類前,對樣本進行t分布隨機鄰域插入處理,并對插入后的數據進行隨機采樣,擴充了相應類型的樣本量,從而使不同種類樣本量得到平衡。之后,再進行DBN的訓練與識別。在該情況下,3類數據的平均識別率為92.8%,而在原始數據不平衡的情況下,平均識別率僅為56.3%,識別率提升明顯。

圖6 4種目標HRRP示意圖Fig.6 HRRPs of four targets

文獻[79]考慮到傳統的CNN模型不能提取相鄰時間輸入的樣本之間的相關性,而循環神經網絡(Recurrent Neural Network, RNN)恰能提取該特征,從而提出對HRRP進行RNN處理。該文獻采用RNN中的長短時記憶循環神經網絡(Long-Short Term Memory recurrent neural network, LSTM)對HRRP進行分類。LSTM模型的輸入節點為128,輸出節點數為3,隱層節點數為50。對175幅3類HRRP進行LSTM訓練,并對100幅HRRP進行測試,全部識別正確。

4.2 基于深度學習的Micro-Doppler譜圖處理研究

微多普勒效應是由物體及其構建的微動產生的物理現象。雷達目標的Micro-Doppler譜圖對于目標的檢測識別具有重要意義。一般情況下,通過信號處理方法從雷達回波信號中提取表征目標微動部件情況的時頻譜圖,而對于單一維度的雷達回波無法獲取該信息。圖7為兩個仿真目標的時頻譜圖。對于Micro-Doppler譜圖,已有學者采用深度學習方法對其進行分析,提取深度信息,實現目標識別任務。其中,鑒于CNN方法對處理圖像的優越性,最受人們青睞。此外,SAE方法能夠在無監督情況下提取深層特征,也成為人們研究的重點。并且有學者將兩者結合,或選擇卷積自編碼器(Convolutional Automatic Encoder, CAE)對Micro-Doppler譜圖進行分析,獲得明顯的分類效果。

文獻[80–85]均選擇深層CNN方法對Micro-Doppler譜圖進行類型識別。其中,文獻[80]對7種人為動作進行包含3層卷積層,3層最大池化層、1層全連接層以及softmax的CNN分類處理。該方法與傳統PCA, SVM方法識別率進行比較,分別為95.2%, 84.0%以及89.2%。此外,文獻[81]通過Micro-Doppler譜圖的識別進行手勢識別處理。其中,90%的數據進行5層DCNN訓練,并對10%的數據進行測試,得到的7種手勢在4個場景下的平均識別率為93.1%。文獻[82]則通過包含2層卷積層、2層池化層以及1層全連接層的CNN,先后進行人的檢測與人動作的識別。在檢測部分,通過該網絡對人、狗、馬、車4種目標進行分類,從而檢測人是否存在,其檢測概率達到97.6%;在識別部分,對人的跑、走、臥等7種動作進行分類,平均識別概率為90.9%。在文獻[83]中,研究對人類步態的分類問題,其選用了14層CNN模型,其中包含8層卷積層,3層最大池化層和2層全連接層以及softmax分類器。相比于傳統神經網絡和SVM分類方法的68.3%和60.3%的識別率,運用CNN方法的情況下識別率有明顯提升,達到86.9%。在此基礎上,文獻[84]通過基于CNN的遷移學習對人類水下動作進行識別。

圖7 兩仿真目標時頻譜圖Fig.7 Time-frequency map pf two simulation targets

此外,有學者將SAE架構應用于Micro-Doppler譜圖的分類問題中。例如,文獻[85]運用SAE方法對人的運動情況進行分類,得到87%的平均識別率,同樣數據進行SVM分類器分類,得到識別率僅為58%。文獻[86]運用3層SAE進行微動數據分類,獲得89%的平均識別率,而對127個特征進行SVM分類,識別率僅為72%。在此基礎上,文獻[87,88]將SAE與CNN相結合進行Micro-Doppler譜圖分類處理。其中,西安電子科技大學的張國祥[44]提出,首先運用SAE進行無監督的特征提取,得到特征譜圖,之后對特征譜圖進行CNN的分類,最終得到95.62%的平均識別率。文獻[89]則運用CAE方法進行分類。其中,在編碼器部分,由3層卷積層,3層池化層組成;在譯碼器部分,由3層反卷積層和3層逆池化層組成。最終,將提取到的特征進行分類器分類。在此基礎上,提出運用遷移學習方法對網絡初始化參數進行設置,從而對CAE模型的識別率提升了10%。

4.3 基于深度學習的R-D譜圖處理研究

當對動作進行分類時,除了進行時頻分析,距離向信息同樣至關重要,即R-D譜圖可作為分類研究對象。在線性調制連續波(Linear Frequency Modulated Continuous Wave, LFMCW)雷達中,首先對回波進行去斜處理,之后在快時間域進行快速傅里葉變換(Fast Fourier Transform, FFT),獲得目標的實時徑向距離信息;進而對各個距離單元內的基帶信號的慢時間域FFT處理,獲得回波信號在距離-多普勒域的能量分布情況,即R-D譜圖。由多幀R-D譜圖組成,即R-D譜圖序列描述一個持續一段時間的行為動作。其中,基于雷達的動態手勢識別處理為典型的應用場景。

針對動態手勢的R-D譜圖序列,文獻[90]提出對Google的Soli傳感器采集的10個人的11類手勢動作進行R-D譜圖序列分類。首先,對于每幀R-D譜圖進行卷積及全連接處理,之后針對整個動作的不同時間點特征圖之間進行LSTM連接,最終獲得87.6%的平均識別率。本課題組對基于R-D譜圖的手勢數據進行了CNN的識別,對向前、向后、旋轉、靜止4種手勢進行分類,示意圖如圖8所示。其中,CNN方法的平均識別率達到87.8%,同組數據進行傳統動態規劃方法識別,平均識別率僅為74.0%,即證明通過CNN方法對該手勢進行識別,識別率提升明顯。

此外,文獻[91]進行人體運動檢測,同樣可視為兩類運動的識別問題。首先,針對不同動作的距離-多普勒譜圖序列,分別提取時間-頻率譜圖以及時間-距離譜圖,然后分別進行SAE特征提取,并對兩部分特征進行融合,最后完成分類器分類。該文獻分別提出如圖9的兩個分類架構。圖9(a)為串聯結構,即先對兩譜圖分別進行SAE特征提取;之后進行特征融合,融合后再進行SAE提取特征;最后進行分類器分類。圖9(b)為并聯結構,即先對兩譜圖分別進行兩層SAE特征提取;之后,將兩部分特征進行融合;最后,通過分類器分類。經實驗顯示,該兩網絡對相同數據進行處理時,獲得的檢測概率分別為89.4%和84.1%。

圖8 4種手勢R-D譜圖Fig.8 R-D map of four gestures

圖9 兩種檢測網絡架構Fig.9 Two detection structure

5 深度學習研究面臨的挑戰

由前文所述可知,深度學習在雷達信號處理領域得到了廣泛的應用,同時取得了不俗的成績。雖然如此,但其深度學習研究仍存在諸多不足。其中,過擬合和網絡可解譯性為亟待解決的問題。

首先,對于過擬合問題而言,即當測試數據與訓練數據有一定差異,而測試誤差明顯高于訓練誤差時,即說明網絡泛化能力較差,出現過擬合問題。并且當網路模型是復雜的,包括大量參數,且訓練數據不足的情況下,過擬合問題明顯。針對該問題,文獻[92]提出可通過擴大訓練數據集、減少網絡參數和降低網絡迭代算法復雜度來減小過擬合情況。文獻[93]利用DBN代替淺層神經網絡,對隱層節點數的選取進行迭代設計,并且構建網絡狀態觀測器,解決過擬合問題。文獻[94]則對多層自編碼器進行數據生成預訓練,并進行正則化方法設計,用于防止過擬合。文獻[95]在深度神經網絡的全連接層后加入放棄層,可有效降低過擬合數據對預測的影響。此外,文獻[96]設計一種定量檢測過擬合的變量,即過擬合率。在此基礎上,提出一種新的AdaBELM過擬合降低方法。文獻[97]在CNN中最后一層進行全局平均池化,從而減小網絡參數,有效緩解過擬合問題。

此外,由于網絡設置原理具有“黑箱”特點,且為了避免網絡設置的盲目性,可解譯性成為研究熱點。文獻[98]提出基于小波核學習的深度濾波器組網絡,該網絡具有較強性能,且根據信號處理方法具有理論上的確定性和可重構性,對網絡進行優化。該文獻還對CNN可解譯性的相關研究工作進行了總結。典型方法為2010年由Zeiler提出反卷積網絡方法[99,100],該方法為卷積的反向處理過程。其為通過對學習得到的特征圖進行卷積求和,得到接近輸入圖像的過程。文獻[101]通過反卷積網絡對特征圖進行可視化,通過卷積網絡中層特征可以恢復對應的原圖中的一些信息,利用這樣的關系,了解通過CNN提取到的特征的情況。2017年,文獻[102]提出可解釋CNN。該網絡與經典CNN類似,均為端到端的學習架構。通過對卷積層卷積核的約束,使該卷積核有利于提取物體某些部件的特征。例如,對于動物的分類問題,其主要通過卷積核提取其頭部特征。具體的,其正向學習過程與CNN基本無差異,但在反向迭代過程中,加入新的損失函數項,即經過卷積處理后的特征圖與某部件理想分部之間的互信息量的相反數。

6 總結

本文主要總結了已有的基于深度學習的雷達數據處理研究方法。針對SAR, HRRP, Micro-Doppler譜圖和R-D譜圖均獲得了一定的研究成果。其中,基于深度學習的SAR圖像處理為研究的熱點問題。針對SAR圖像,前人分別使用了CNN, SAE和DBN等深度學習方法進行目標分類。雖然所采用的數據不同,但與傳統識別方法相比,深度學習方法能獲得較高識別率。此外,深度學習在HRRP, Micro-Doppler譜圖和R-D譜圖中的應用雖然不如在SAR圖像中那樣廣泛,但仍有一定研究成果,能夠實現目標分類。其中,基于深度學習的動態手勢識別為典型的研究領域。在RNN中的LSTM能夠有效地學習相鄰時間上數據的聯系,從而獲取更加有效地提取不同手勢的深度特征。

雖然,深度學習方法在雷達領域已有研究成果,但仍存在值得后續研究的典型問題:

(1) 需避免學習網絡的過擬合。過擬合是深度學習的一個典型問題,已有的對CNN加入dropout操作的目的是降低網絡過擬合,但該問題仍然為阻礙深度學習發展的一大難點;

(2) 增強特征提取的解譯性。本文介紹的大量研究是將雷達數據直接輸入設計好的深度學習網絡進行訓練,之后將訓練好的網絡用于同類型數據的測試。長期以來,深度學習部分被視為黑盒操作,每層輸出特征也不具有明確的物理意義,即網絡解譯性較弱,這為改進網絡架構設計形成一定的阻礙。

猜你喜歡
分類深度方法
分類算一算
深度理解一元一次方程
分類討論求坐標
深度觀察
深度觀察
深度觀察
數據分析中的分類討論
教你一招:數的分類
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
主站蜘蛛池模板: 欧美日韩亚洲综合在线观看| 99re免费视频| 青青青视频91在线 | 欧美成人免费午夜全| 日本一区二区不卡视频| 在线综合亚洲欧美网站| 97青草最新免费精品视频| 国产精品久久久久久久久久久久| 国产精品成人观看视频国产 | 日韩国产无码一区| 国产尤物视频在线| 午夜视频在线观看区二区| 欧美综合区自拍亚洲综合天堂| 国产欧美又粗又猛又爽老| 二级特黄绝大片免费视频大片 | 91丨九色丨首页在线播放| 九色在线视频导航91| 亚洲精品自产拍在线观看APP| 亚洲日韩AV无码精品| 午夜三级在线| 国产在线精品99一区不卡| 亚洲黄色片免费看| 中国黄色一级视频| 毛片手机在线看| 久久久久亚洲av成人网人人软件| 日韩在线成年视频人网站观看| 亚洲综合片| 久久久久人妻一区精品| 国产97视频在线观看| 国产精品成人免费视频99| 天堂网国产| 久久精品中文字幕少妇| 性欧美久久| 中文字幕人妻av一区二区| 国产Av无码精品色午夜| 国产成人综合久久精品尤物| 国产中文一区a级毛片视频| 大乳丰满人妻中文字幕日本| 免费a级毛片18以上观看精品| 26uuu国产精品视频| 亚洲视频一区在线| 欧美一级在线播放| 午夜一区二区三区| 永久在线精品免费视频观看| 久久不卡国产精品无码| 国产成人亚洲无吗淙合青草| 亚洲国产成人精品一二区| 亚洲色图综合在线| 一级毛片免费不卡在线视频| 1级黄色毛片| 蜜芽国产尤物av尤物在线看| 青青操国产| 欧美日韩在线亚洲国产人| 欧美另类图片视频无弹跳第一页| 人妻丰满熟妇AV无码区| 国产剧情国内精品原创| 国产一区亚洲一区| 亚洲精品第1页| 亚洲AV人人澡人人双人| 亚洲 日韩 激情 无码 中出| 国产福利免费视频| 久久伊伊香蕉综合精品| 99在线观看精品视频| www.91中文字幕| 99re66精品视频在线观看| 色偷偷一区二区三区| 日韩久草视频| 丰满少妇αⅴ无码区| 亚洲中文字幕手机在线第一页| 色偷偷一区| 制服丝袜亚洲| 国产精品一区二区在线播放| 99在线国产| 日韩美毛片| 无套av在线| 精品国产一二三区| 538精品在线观看| 暴力调教一区二区三区| 国产精品亚欧美一区二区三区| 国产精品女主播| 精品人妻系列无码专区久久| 国产成人高清精品免费软件|