999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

神經(jīng)網(wǎng)絡(luò)在SAR圖像目標(biāo)識別中的研究綜述

2021-11-08 01:58:50馮博迪楊海濤李高源王晉宇張長弓
兵器裝備工程學(xué)報(bào) 2021年10期
關(guān)鍵詞:分類方法模型

馮博迪,楊海濤,李高源,王晉宇,張長弓

(航天工程大學(xué) a.研究生院;b.航天信息學(xué)院,北京 101416)

1 引言

SAR因?yàn)槠洫?dú)特的成像特點(diǎn),在偵察,導(dǎo)航,制導(dǎo),遙感等領(lǐng)域都發(fā)揮著重要的作用[1]。隨著SAR成像技術(shù)的不斷提升,SAR圖像中的目標(biāo)信息也呈指數(shù)型增長,而SAR圖像的圖像特點(diǎn)決定了它不能像光學(xué)圖像一樣通過人眼就可對其進(jìn)行直觀解譯,SAR圖像的判讀往往需要依靠專家的經(jīng)驗(yàn)知識,解譯效率低下。由于傳統(tǒng)的人工判讀方法已經(jīng)無法做到快速且精準(zhǔn)的實(shí)現(xiàn)SAR圖像的目標(biāo)識別與檢測,加快數(shù)據(jù)處理和提高檢測精度已成為新的挑戰(zhàn),因此基于SAR圖像的自動目標(biāo)識別技術(shù)也受到越來越多的重視。

目前如何更好地利用所獲取的信息,加快數(shù)據(jù)處理和提高檢測精度是該技術(shù)研究和發(fā)展的主要方向之一。在傳統(tǒng)的SAR圖像目標(biāo)識別方法中,特征的提取方法通常是由手工設(shè)計(jì),而不同類型的目標(biāo)所依賴的特征不同,該方法缺乏通用性。

因此需要一種方法能夠自動學(xué)習(xí)圖像有效特征進(jìn)而對其進(jìn)行分類識別,基于大數(shù)據(jù)的深度學(xué)習(xí)方法滿足了這一需求。近年來,深度學(xué)習(xí)在眾多領(lǐng)域都有著令人嘆為觀止的應(yīng)用進(jìn)展,其中,在眾多網(wǎng)絡(luò)模型中,卷積神經(jīng)網(wǎng)絡(luò)(convolution neural nNetwork,CNN)[2]已經(jīng)在圖像分類與識別、語音信號識別等眾多領(lǐng)域做出了杰出貢獻(xiàn)[3-9]。

卷積神經(jīng)網(wǎng)絡(luò)具有自動進(jìn)行特征提取的特點(diǎn),省去了人工特征選擇的工序,并且能夠?qū)崿F(xiàn)對目標(biāo)潛在特征信息的挖掘,也由其優(yōu)異的圖像分類識別效果,在雷達(dá)圖像處理領(lǐng)域的應(yīng)用日趨廣泛,已成為了新的研究熱點(diǎn)。人工智能技術(shù)在雷達(dá)目標(biāo)識別領(lǐng)域的應(yīng)用也必將對未來相應(yīng)技術(shù)的發(fā)展開辟一片新的天地,為進(jìn)一步提升雷達(dá)目標(biāo)識別效果提供幫助。

本文對SAR圖像目標(biāo)識別的內(nèi)外研究進(jìn)行了綜述,其中,對于CNN在SAR圖像目標(biāo)識別中的應(yīng)用進(jìn)行了重點(diǎn)介紹,同時探討了該網(wǎng)絡(luò)在SAR圖像目標(biāo)識別中的未來發(fā)展趨勢。

2 SAR目標(biāo)識別技術(shù)及其基本流程

SAR圖像目標(biāo)識別技術(shù)的主要宗旨是利用計(jì)算機(jī)處理技術(shù),無需人工直接干與,短時間內(nèi)從場景里自動完成對目標(biāo)的定位,識別和分類,同時能夠分析出目標(biāo)類型、型號等信息。

傳統(tǒng)的SAR圖像識別過程如圖1所示,首先在高分辨率大場景SAR圖像中,利用目標(biāo)和背景圖像的灰度紋理差異,檢測找到感興趣的目標(biāo)區(qū)域,然后通過一定的預(yù)處理剔除掉非目標(biāo)區(qū)域,以獲得待識別的精準(zhǔn)目標(biāo),最后通過特征提取得到目標(biāo)的有效特征信息并采用合適的分類器對其進(jìn)行分類和判別,以實(shí)現(xiàn)對于目標(biāo)類別和型號等的識別。

圖1 典型SAR圖像目標(biāo)識別基本流程框圖

由于現(xiàn)階段高分辨率大場景的SAR圖像獲取成本較為昂貴,現(xiàn)今SAR圖像目標(biāo)識別的相關(guān)研究大抵都是以國際上通用的數(shù)據(jù)庫來進(jìn)行的,樣本集一般只包含目標(biāo)切片。因此,現(xiàn)階段的研究重心集中在數(shù)據(jù)預(yù)處理,特征提取、分類判別。研究的關(guān)鍵點(diǎn)有:對于SAR圖像相干斑噪聲的抑制,探尋既能有效抑制相干斑噪聲又能保持圖像紋理信息的有效方法、探討研究如何提升提取的圖像特征的有效性以及提高圖像自身信息利用率,和如何提升分類識別精度以及分類模型的泛用性。

3 傳統(tǒng)SAR圖像目標(biāo)識別方法及其優(yōu)缺點(diǎn)

3.1 基于模板匹配的方法

在SAR圖像目標(biāo)識別方法研究的初期,主要采用基于模板匹配的方法。其識別流程分為模板構(gòu)建和分類識別2個階段。先將已標(biāo)注的訓(xùn)練圖像構(gòu)建形成一系列的模板集,然后在分類階段將待測數(shù)據(jù)按照某種相似度配準(zhǔn)規(guī)則與該模板集進(jìn)行配準(zhǔn)得到識別結(jié)果。

最簡單的模板匹配方法是直接模板匹配法,即直接將訓(xùn)練圖像用作模板,通常為了提高識別準(zhǔn)確度,會對其進(jìn)行旋轉(zhuǎn)、位移、去噪等相關(guān)操作。美國麻省理工學(xué)院林肯實(shí)驗(yàn)室[10]基于MSTAR圖像庫使用模板匹配方法進(jìn)行了識別研究,研究者把MSTAR圖像中的目標(biāo)能量相加取平均后作為模板,在形成模板之前,考慮到SAR圖像對目標(biāo)方位角敏感,首先在全角范圍內(nèi)對MATAR圖像進(jìn)行方位區(qū)間劃分,使每類目標(biāo)不同方位的圖像都在各自接近的方位區(qū)內(nèi)形成模板。在方位區(qū)間間隔確定之后,對每個區(qū)間的目標(biāo)能量做統(tǒng)計(jì)平均,從而形成一個模板。然后設(shè)計(jì)相應(yīng)的分類器,將給定的測試圖像與模板庫中的所有模板按照最小均方差(minimum suqared-error,MSE)進(jìn)行比較,得出識別結(jié)果,在MSTAR數(shù)據(jù)集上,對10類目標(biāo)的識別率為93.9%。由于該方法易受到SAR圖像質(zhì)量的影響,如相干斑噪聲,圖像分辨率等,算法不夠魯棒。同時在使用模板匹配的方法中,方位區(qū)的選取與模板數(shù)據(jù)庫的存儲容量,分類時間以及分類效率這3個因素有關(guān),若要提高分類準(zhǔn)確率就要增大模板數(shù)據(jù)庫的存儲容量,從而導(dǎo)致分類所用的時間增長。反之,如果要減少模板數(shù)據(jù)庫的存儲容量和分類時間,就必須以降低分類概率為代價(jià)。因此當(dāng)目標(biāo)類別較多時,存在模板庫存儲量大,計(jì)算復(fù)雜度較高等問題,大大限制了該方法在實(shí)際場景中的應(yīng)用。

為了抑制圖像的雜波干擾,提高算法魯棒性,獲得更穩(wěn)健的識別效果,研究者們提出了先將原圖像進(jìn)行相關(guān)變換操作,在變換域再進(jìn)行模板匹配[11]的相關(guān)濾波匹配法。典型的方法有Casasent提出的合成判決函數(shù)方法[12],除此之外,還有例如最小平均能量相關(guān)濾波器[13]和最小噪聲和相關(guān)能量濾波器[14]等方法也取得了不錯的識別效果。

從原理上看基于模板的方法的實(shí)現(xiàn)應(yīng)當(dāng)更加簡單,但該方法常常需要存儲大量的模板,所需的模板庫樣本很難得到,實(shí)現(xiàn)起來較為困難。而且現(xiàn)實(shí)中目標(biāo)背景復(fù)雜,目標(biāo)本身結(jié)構(gòu)的變化、遮擋等變化,都會引起SAR圖像或圖像特征發(fā)生變化,從而影響識別性能。

3.2 基于模型的識別方法

基于模型的目標(biāo)識別方法就是先提取出訓(xùn)練樣本和測試樣本的有效特征,然后用分類器對其進(jìn)行分類。數(shù)據(jù)庫中存儲目標(biāo)物理模型,通過對模型的處理預(yù)測目標(biāo)特征的假設(shè),包括目標(biāo)任意姿態(tài)和類別等,將這些預(yù)測特征和輸入的實(shí)際SAR圖像進(jìn)行比較,通過不斷地校正假設(shè)直到和測量圖像的特征矢量匹配。在基于模型的方法中目標(biāo)的特性一般是通過物理模型來表示的。三維電磁散射模型與CAD 模型是目前常用的識別模型。CAD模型方法通過抓住目標(biāo)的外形特征來進(jìn)行建模,使用該方法進(jìn)行識別時首先需要對感興趣的目標(biāo)建立CAD模型,然后使用電磁仿真軟件計(jì)算目標(biāo)CAD模型的電磁散射圖像,在識別階段,需要分別對輸入的SAR圖像和CAD模型形成的散射圖像進(jìn)行特征提取,然后通過搜索匹配算法完成識別。具體的識別方法仍然是由特征提取和分類決策2個步驟組成。具體的流程如圖2所示。

圖2 基于CAD模型的SAR圖像目標(biāo)識別流程框圖

周雨等[15]采用了基于模型的SAR目標(biāo)識別算法,該方法首先在離線階段計(jì)算了目標(biāo)CAD模型的電磁散射,然后在識別階段,先對電磁散射結(jié)果以及待處理目標(biāo)進(jìn)行特征提取,然后進(jìn)行搜索匹配來實(shí)現(xiàn)分類識別,在考慮方位角誤差的情況下,對MSTAR數(shù)據(jù)集中的3類目標(biāo)識別準(zhǔn)確率可達(dá)到95.69%。

盡管CAD模型取得了較好的分類效果,但模型的算法復(fù)雜度成為了制約其發(fā)展的關(guān)鍵因素,三維電磁散射模型就是在這一基礎(chǔ)上產(chǎn)生的更為簡潔的算法模型。該模型利用電磁散射原理將目標(biāo)特征轉(zhuǎn)化為一系列參數(shù),能夠自適應(yīng)的提取不同頻段條件下的目標(biāo)特征信息。除此之外,Zhou等[16]提出一種基于全局散射中心模型的識別方法,可以預(yù)測不同目標(biāo)姿勢下的散射中心特征,同時,可以修改模型以預(yù)測各種目標(biāo)結(jié)構(gòu)的特征,通過閾值化和形態(tài)學(xué)運(yùn)算來提取待測SAR圖像的區(qū)域特征。將提取到的特征與不同目標(biāo)的預(yù)測散射中心特征相匹配,以得到識別結(jié)果。

基于模型的方法較基于模板的方法而言具有較好的魯棒性,但是該方法對圖像的質(zhì)量要求較高且模型構(gòu)建和在線預(yù)測會增加自動目標(biāo)識別系統(tǒng)的復(fù)雜性,因此在識別性能和系統(tǒng)復(fù)雜性之間總是存在折中。

4 卷積神經(jīng)網(wǎng)絡(luò)

4.1 卷積神經(jīng)網(wǎng)絡(luò)的原理及組成

卷積神經(jīng)網(wǎng)絡(luò)是一種帶有卷積結(jié)構(gòu)的深度神經(jīng)網(wǎng)絡(luò),在神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上增加了特征提取器來完成特征提取。卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu)有3個重要思想,其一是局部感受野,其二是權(quán)值共享,其三是池化層,該網(wǎng)絡(luò)模型有效減少了網(wǎng)絡(luò)中的參變量,緩解了模型的過擬合問題。

圖3所示為典型的LeNet-5結(jié)構(gòu),該網(wǎng)絡(luò)結(jié)構(gòu)由卷積層、池化層、全連接層組成。

圖3 LeNet-5網(wǎng)絡(luò)結(jié)構(gòu)示意圖

卷積層的功能是對圖像進(jìn)行特征提取,由多個可學(xué)習(xí)的濾波器(即卷積核)對目標(biāo)圖像進(jìn)行卷積,在這一過程中,卷積核在原始圖像中以一定的步長順次循環(huán)卷積整個輸入圖像,卷積核與原圖像的連接權(quán)值不同,會得到代表不同特征的特征圖。同時CNN采用權(quán)值共享的思想降低了模型過擬合的風(fēng)險(xiǎn)。

下采樣層也稱作池化層,常見的池化方式有最大池化和均值池化2種形式。池化可以適當(dāng)?shù)慕档蛥?shù)數(shù)量,功能是將低維特征提取成高維的抽象特征。常用的濾波器大小有3×3,2×2,步長為2,一般不使用尺寸更大的濾波器,這樣會丟失掉更多的圖像信息。

全連接層中的每一層是由許多神經(jīng)元組成的平鋪結(jié)構(gòu)。其本質(zhì)上是一種感知器,可對輸入的數(shù)據(jù)進(jìn)行分類或回歸。

4.2 卷積神經(jīng)網(wǎng)絡(luò)在光學(xué)圖像分類領(lǐng)域的應(yīng)用

1998年LeNet網(wǎng)絡(luò)的概念被提出,但由于當(dāng)時網(wǎng)絡(luò)簡單功能有限,該網(wǎng)絡(luò)的提出并未受到廣泛關(guān)注。隨著Relu函數(shù)和dropout的提出,CNN的發(fā)展前景逐漸明朗。2012年,AlexNet網(wǎng)絡(luò)首次將 CNN 用于大規(guī)模圖像識別,大幅提高了識別的準(zhǔn)確率,并在ILSVRC比賽中輕松取勝[17]。引發(fā)了圖像分類識別領(lǐng)域算法的變革,為CNN的迅猛發(fā)展拉開了序章。2014年牛津大學(xué)提出了VGGNets[18],VGG網(wǎng)絡(luò)進(jìn)一步加深了網(wǎng)絡(luò)深度,該網(wǎng)絡(luò)全部采用3×3卷積層和2×2子采樣層,通過對卷積層和子采樣層的層疊,VGGNet構(gòu)建了16~19層深的卷積神經(jīng)網(wǎng)絡(luò)。VGG網(wǎng)絡(luò)的成功構(gòu)建表明了加深網(wǎng)絡(luò)深度和使用小卷積核會使其網(wǎng)絡(luò)性能不斷提升。同年,GoogLeNet[19]在ILSVRC2014的比賽中,以絕對優(yōu)勢奪魁。GoogLeNet中引入一個新的網(wǎng)絡(luò)結(jié)構(gòu)Inception模塊,該網(wǎng)絡(luò)結(jié)構(gòu)不僅考慮了網(wǎng)絡(luò)的深度,同時考慮了網(wǎng)絡(luò)的寬度,該模塊的引入使網(wǎng)絡(luò)模型在參數(shù)量和計(jì)算量下降的同時保證了準(zhǔn)確率。2015年,何凱明團(tuán)隊(duì)提出了ResNet[20],并引入了一種跳連的結(jié)構(gòu),采用該結(jié)構(gòu)可進(jìn)一步增加網(wǎng)絡(luò)的深度,防止了當(dāng)網(wǎng)絡(luò)太深時存在的梯度消失問題。該網(wǎng)絡(luò)模型的層數(shù)達(dá)到了152層。在進(jìn)行圖像分類時成功率超過96.53%,分辨能力已經(jīng)超越了肉眼。

5 卷積神經(jīng)網(wǎng)絡(luò)在SAR圖像目標(biāo)識別的應(yīng)用進(jìn)展

美國國防高等研究計(jì)劃署(DARPA)在MSTAR計(jì)劃中公布的合成孔徑雷達(dá)地面目標(biāo)實(shí)測數(shù)據(jù)被稱為MSTAR數(shù)據(jù)集,是目前SAR圖像目標(biāo)分類識別研究數(shù)據(jù)的主要來源。圖像分辨率為0.3 m×0.3 m,像素尺寸大小為128×128,極化方式為HH,該數(shù)據(jù)集包括多種不同型號的車輛目標(biāo)在多個方位角下的SAR圖像信息。同時,MSTAR數(shù)據(jù)集還包含少量環(huán)境場景數(shù)據(jù),其中包括農(nóng)村和城市場景。由于獲取成本的限制,目前普通研究機(jī)構(gòu)很難獲得各種車輛目標(biāo)的大場景SAR圖像,通常選擇將數(shù)據(jù)庫中包含的大幅場景和切片目標(biāo)進(jìn)行合成處理,利用合成處理的圖像進(jìn)行關(guān)于檢測識別的相關(guān)研究。

5.1 基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像噪聲抑制方法

SAR圖像目標(biāo)識別的緊要步驟在于特征提取。由于SAR圖像成像的特性,使得獲取的SAR圖像均存在相干斑噪聲,影響了圖像中目標(biāo)的邊沿和紋理信息,降低了圖像的質(zhì)量,使得在對SAR圖像進(jìn)行后續(xù)處理時的復(fù)雜程度更高。因此為了更好地推動SAR應(yīng)用,準(zhǔn)確有效地完成對圖像中目標(biāo)的檢測、識別和分類,采用合適的去噪算法對圖像中的斑點(diǎn)噪聲進(jìn)行抑制削弱,以便于提高后期的目標(biāo)識別準(zhǔn)確率。

目前,主要從2個方向?qū)AR圖像的斑點(diǎn)噪聲進(jìn)行抑制,一是成像前的非相干多視處理,二是成像后的濾波處理。非相干多視技術(shù)在抑制相干斑噪聲的同時不可避免的會降低圖像的地面分辨率。但是,當(dāng)前對于SAR圖像的研究都依賴于圖像的高分辨率,降低圖像分辨率會對下一步的研究造成很大的影響。因此,眾多研究者都是在成像之后進(jìn)行濾波處理,并且提出了很多方法。

傳統(tǒng)的SAR圖像降噪方法有空域?yàn)V波和變換域?yàn)V波2種思路。空域?yàn)V波不對圖像進(jìn)行變換,直接在空間域進(jìn)行平滑處理,過濾掉特定的噪聲頻率,能夠有效抑制均勻區(qū)域的噪聲,但是該方法在去除噪聲的同時會弱化圖像的邊緣信息,可能導(dǎo)致圖像局部的重要細(xì)節(jié)丟失。常用的方法有Lee[21]濾波、Kuan[22]濾波和Frost[23]濾波等。變換域?yàn)V波算法不直接對圖像進(jìn)行運(yùn)算,而是通過例如傅里葉變換或小波變換等方法將原始信號轉(zhuǎn)移到對應(yīng)的變換域中進(jìn)行處理,再對降噪后的信號進(jìn)行逆運(yùn)算得到噪聲抑制后的圖像。這一類方法較空域?yàn)V波極大地提高了圖像降噪的效果,在去除斑點(diǎn)噪聲的同時保留了圖像細(xì)節(jié)和邊緣信息。但是過度去噪又會造成圖像質(zhì)量下降,圖像復(fù)原后,邊緣出現(xiàn)虛假信息,即吉布斯(Gibbs)現(xiàn)象。傳統(tǒng)的噪聲抑制算法均會對圖像的邊緣信息造成一定的損失。

在深度學(xué)習(xí)以及人工智能迅猛發(fā)展的當(dāng)下,CNN作為一個特征提取目標(biāo)分類的網(wǎng)絡(luò)結(jié)構(gòu)尤為突出,它獨(dú)特的優(yōu)勢使得越來越多的學(xué)者爭相研究,逐漸被應(yīng)用到圖像去噪領(lǐng)域。圖像噪聲的抑制可以看作是把含噪圖像映射為干凈無噪圖像的過程[24]。卷積神經(jīng)網(wǎng)絡(luò)能夠由低級到高級自動提取圖像的特征,具有較強(qiáng)的映射能力,因其不可忽視的優(yōu)勢,2008年,Jain等[25]使用卷積神經(jīng)網(wǎng)絡(luò)對自然圖像進(jìn)行去噪,卷積網(wǎng)絡(luò)提供了與傳統(tǒng)的去噪方法相當(dāng)?shù)男阅埽⑶以谀承┣闆r下具有更好的性能。Zhang等[26]提出了一種用以圖像去噪的深度卷積神經(jīng)網(wǎng)絡(luò)(DnCNN)該網(wǎng)絡(luò)采用殘差學(xué)習(xí)來分離噪聲和觀測噪聲,并引入了批量歸一化的方法與殘差學(xué)習(xí)相結(jié)合來加快訓(xùn)練過程。因?yàn)镾AR圖像的噪聲可以看作是乘性噪聲,因此Chierchia等[27]采用對數(shù)轉(zhuǎn)換的方式將SAR圖像噪聲轉(zhuǎn)化為加性噪聲,然后在DnCNN的基礎(chǔ)上進(jìn)行改進(jìn),使用殘差學(xué)習(xí)的方法來實(shí)現(xiàn)對SAR圖像的去噪。文獻(xiàn)[28]提出了一種ID-cnn網(wǎng)絡(luò),首先在卷積層完成學(xué)習(xí)得到散斑分量的估計(jì)值,然后將輸入圖像與估計(jì)值相除以達(dá)到去除圖像散斑的效果。文獻(xiàn)[29]中提出了一種雙級耦合神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),去斑點(diǎn)和分類耦合神經(jīng)網(wǎng)絡(luò),用于區(qū)分散斑強(qiáng)且變化的合成孔徑雷達(dá)圖像中的多類地面目標(biāo)。它首先用去斑子網(wǎng)絡(luò)來降低噪聲,然后通過分類子網(wǎng)絡(luò)學(xué)習(xí)殘留散斑特征和目標(biāo)信息,以解決神經(jīng)網(wǎng)絡(luò)的噪聲魯棒性問題,分類精度達(dá)到82%。文獻(xiàn)[30]中提出了一種新的深度學(xué)習(xí)方法,即利用擴(kuò)張殘差網(wǎng)絡(luò)學(xué)習(xí)噪聲圖像和干凈圖像之間的非線性端到端映射,該方法在強(qiáng)散斑噪聲方面有較好的效果。以上研究都表明使用卷積神經(jīng)網(wǎng)絡(luò)對SAR圖像噪聲的去除頗有成效,與傳統(tǒng)的去噪方法相比,使用CNN的去噪方法,在抑制噪聲的同時,較好地保持了圖像的細(xì)節(jié)信息和圖像清晰度,在使用CNN抑制噪聲的過程中,設(shè)計(jì)合適的網(wǎng)絡(luò)結(jié)構(gòu)極為關(guān)鍵,目前常見的改變網(wǎng)絡(luò)結(jié)構(gòu)來增加去噪性能的方法有通過改變代價(jià)函數(shù),改變網(wǎng)絡(luò)寬度或網(wǎng)絡(luò)深度,在CNN中使用跳躍連接,選取合適的卷積核大小,利用組卷積的方式,將目標(biāo)的不同角度圖像作為網(wǎng)絡(luò)輸入,還有多通道輸入的方式等,通過不同的網(wǎng)絡(luò)改進(jìn)方式,探討研究如何更好地抑制相干斑噪聲,且能有效提高去噪效率。總結(jié)來說,使用CNN來恢復(fù)潛在干凈圖像是非常有效的,因此卷積神經(jīng)網(wǎng)絡(luò)在SAR圖像去噪領(lǐng)域的應(yīng)用可以進(jìn)一步探索。

5.2 卷積神經(jīng)網(wǎng)絡(luò)在SAR圖像目標(biāo)識別中的研究進(jìn)展

2014年Chen等[31]作為初步研究,采用單級卷積網(wǎng)絡(luò)自動學(xué)習(xí)對合成孔徑雷達(dá)目標(biāo)識別有用的特征。在3類和10類目標(biāo)的MSTAR數(shù)據(jù)集分類中,利用學(xué)習(xí)的形態(tài)特征,分別獲得了90.1%和84.7%的準(zhǔn)確率,之后Chen等[32]為了減少自由參數(shù)的數(shù)量,防止由于樣本集數(shù)量過少在訓(xùn)練過程中的嚴(yán)重過擬合問題,在2016年又提出了一種新的全卷積網(wǎng)絡(luò),它只由稀疏連接的層組成,沒有使用全連接層。網(wǎng)絡(luò)具體結(jié)構(gòu)由5個卷積層和3個子采樣層組成,在MSTAR數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,該算法對10類目標(biāo)的分類平均準(zhǔn)確率明顯優(yōu)于傳統(tǒng)算法,對10類目標(biāo)的分類準(zhǔn)確率可達(dá)到99%,充分體現(xiàn)了神經(jīng)網(wǎng)絡(luò)在用于SAR圖像識別領(lǐng)域的優(yōu)越性。2016年,田壯壯等[33]對誤差代價(jià)函數(shù)作出改進(jìn),在函數(shù)中添加了類別可分性度量正則化項(xiàng),利用SVM對CNN提取出的特征圖進(jìn)行分類,提高了網(wǎng)絡(luò)對于不同類別的分辨能力。2017年,Housseini[34]提出了將CNN和卷積自編碼器相結(jié)合的識別方法,從卷積自編碼器中提取訓(xùn)練好的過濾器,并在CNN中使用它們,該方法大幅降低了算法的時間復(fù)雜度且沒有降低識別精度。Wagner等[35]提出了將CNN和SVM結(jié)合的SAR圖像目標(biāo)識別方法,該方法首先利用卷積神經(jīng)網(wǎng)絡(luò)來獲得目標(biāo)信號特征信息,然后將其送入SVM的分類器中進(jìn)行分類判別處理,該分類方法有較準(zhǔn)確的識別率和較好的魯棒性。Furukawa等[36]通過中心裁剪等數(shù)據(jù)增強(qiáng)方式,擴(kuò)充訓(xùn)練數(shù)據(jù),并借鑒殘差網(wǎng)絡(luò)的思想,訓(xùn)練了具有18層卷積層的深度殘差網(wǎng)絡(luò),使用擴(kuò)充的訓(xùn)練數(shù)據(jù)的CNN實(shí)現(xiàn)了高達(dá)99.56%分類精度,充分體現(xiàn)了擴(kuò)充訓(xùn)練數(shù)據(jù)對于提升分類精度的有效性。

以上實(shí)驗(yàn)研究都體現(xiàn)了卷積神經(jīng)網(wǎng)絡(luò)在SAR圖像目標(biāo)識別上的優(yōu)秀性能,各網(wǎng)絡(luò)具體的識別方法和識別效果如表1所示。

表1 CNN在SAR圖像目標(biāo)識別中的部分識別方法與識別效果

目前對于基于深度學(xué)習(xí)的SAR圖像目標(biāo)識別分類問題。研究者們的研究大多是基于2個方面來進(jìn)行。

第一個方面針對的是算法的識別精度與識別速度問題。通過改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)和優(yōu)化網(wǎng)絡(luò)算法,旨在提高網(wǎng)絡(luò)識別精度的同時降低網(wǎng)絡(luò)復(fù)雜度且有效減少訓(xùn)練網(wǎng)絡(luò)所用的時間。例如為了提升訓(xùn)練速度,減小振蕩,能夠更快的尋求參數(shù)最優(yōu)值,通常采用小批量動量梯度下降的算法。Li等[37]提出了一種快速訓(xùn)練的識別算法,將CNN的卷積和池化層看作CAE用于無監(jiān)督訓(xùn)練以提取高級特征,將全連接層看作淺層神經(jīng)網(wǎng)絡(luò)作為分類器進(jìn)行訓(xùn)練。實(shí)驗(yàn)表明,該方法可以大幅減少訓(xùn)練時間。He等[38]利用CNN提出了一種無監(jiān)督檢測方法,首先利用MSTAR數(shù)據(jù)集訓(xùn)練一個淺層神經(jīng)網(wǎng)絡(luò)對其進(jìn)行分類,然后提取訓(xùn)練好的網(wǎng)絡(luò)模型的第一個卷積層的輸出,通過最大采樣和聚類處理,實(shí)現(xiàn)了目標(biāo)的快速檢測。

第二個方面是小樣本數(shù)據(jù)集問題。SAR圖像由于其獨(dú)特的成像方式,導(dǎo)致其圖像獲取成本較高,對提取到的圖像塊標(biāo)注也較為復(fù)雜,由于SAR圖像數(shù)據(jù)的寶貴和稀缺,現(xiàn)實(shí)中缺少有效尺寸的標(biāo)注實(shí)測SAR圖像數(shù)據(jù),因此,小樣本問題一直是SAR圖像目標(biāo)識別領(lǐng)域較為突出的問題,而卷積神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)訓(xùn)練過程往往需要較為大量的數(shù)據(jù),進(jìn)而從大量數(shù)據(jù)中提取有效特征。為了滿足學(xué)習(xí)訓(xùn)練過程對于樣本數(shù)據(jù)量的需求,通常通過數(shù)據(jù)增強(qiáng)的方式來擴(kuò)充樣本數(shù)據(jù),防止由于訓(xùn)練數(shù)據(jù)過少帶來的模型過擬合問題。數(shù)據(jù)增強(qiáng)的主要方式是利用已有數(shù)據(jù),對其進(jìn)行翻轉(zhuǎn),平移,旋轉(zhuǎn),尺度變化以及添加噪聲等操作,創(chuàng)造出更多的數(shù)據(jù),提高網(wǎng)絡(luò)的泛化和學(xué)習(xí)能力。此外,通過仿真生成模擬數(shù)據(jù),也是解決該問題的一個十分有效的方法。文獻(xiàn)[39]中使用CAD生成模擬數(shù)據(jù),將模擬數(shù)據(jù)與真實(shí)數(shù)據(jù)一起用作訓(xùn)練數(shù)據(jù),以填補(bǔ)數(shù)據(jù)空白,實(shí)驗(yàn)表明,使用模擬數(shù)據(jù)是提高CNN對SAR圖像分類結(jié)果的一個有效手段。在文獻(xiàn)[40]中先使用仿真出來的SAR圖像預(yù)訓(xùn)練CNN,再結(jié)合遷移學(xué)習(xí)的方法,將預(yù)訓(xùn)練網(wǎng)絡(luò)遷移到真實(shí)的SAR圖像數(shù)據(jù)繼續(xù)進(jìn)行訓(xùn)練,有效地解決了由于SAR圖像數(shù)據(jù)不足帶來的過擬合問題。近來,生成對抗網(wǎng)絡(luò)也在SAR領(lǐng)域得到了應(yīng)用,GAN通過模型學(xué)習(xí)的方式在某種程度上可以學(xué)習(xí)到分布相近的新圖像樣本,文獻(xiàn)[41]將GAN應(yīng)用在SAR圖像處理領(lǐng)域,利用生成對抗網(wǎng)絡(luò)生成SAR目標(biāo)切片圖像,生成特定方位角的SAR圖像,實(shí)現(xiàn)了SAR目標(biāo)圖像數(shù)據(jù)集的增強(qiáng),Zheng等[42]在2019年提出了一種結(jié)合生成對抗網(wǎng)絡(luò)和CNN的半監(jiān)督識別方法。用GAN生成未標(biāo)記圖像,并將其與原始標(biāo)記圖像一起作為CNN的輸入,從而在有限的訓(xùn)練樣本下實(shí)現(xiàn)有效的訓(xùn)練和識別。該方法具有提高神經(jīng)網(wǎng)絡(luò)系統(tǒng)精度和魯棒性的能力,同時,在SAR圖像去噪和SAR圖像超分辨率重建等方面,GAN具有很好的應(yīng)用前景。

另外,同一目標(biāo)在不同方位角下所呈現(xiàn)的SAR圖像會有很大差異,只應(yīng)用目標(biāo)的單一方位角觀測圖像并沒有充分利用到合成孔徑雷達(dá)圖像的豐富信息。近來,研究人員研究了多視角圖像的識別問題。并得出結(jié)論,多視角圖像序列可以提供比單個圖像更豐富的分類信息,2018年,Wang等[43]提出了一種基于多特征融合合成孔徑雷達(dá)目標(biāo)識別方法,將強(qiáng)度特征和梯度幅度特征這2個特征信息進(jìn)行融合之后輸入分類網(wǎng)絡(luò)并經(jīng)過實(shí)驗(yàn)驗(yàn)證了該方法的有效性。Zou等[44]提出了一種利用多方位角SAR圖像進(jìn)行目標(biāo)識別的思路,將3個方位角的SAR圖像數(shù)據(jù)合成一副偽彩色圖像參與處理,有效降低了目標(biāo)在不同方位角的差異性,提高了識別效果。Pei等[45]在此基礎(chǔ)上,改進(jìn)了多視角SAR數(shù)據(jù)的生成方式,在不需要許多原始合成孔徑雷達(dá)圖像的情況下可以保證網(wǎng)絡(luò)訓(xùn)練的大量輸入,采用多輸入信號并列的拓?fù)浣Y(jié)構(gòu),分層學(xué)習(xí),多層融合,實(shí)現(xiàn)了優(yōu)越的識別性能,降低了對原始SAR圖像數(shù)量的需求。

6 發(fā)展方向

基于深度學(xué)習(xí)的SAR圖像目標(biāo)識別方法近年來受到人們的廣泛關(guān)注,由于深度神經(jīng)網(wǎng)絡(luò)能夠自動地學(xué)習(xí)輸入數(shù)據(jù)的特征,不再依賴于人為設(shè)計(jì)特征,并且通過反向傳播調(diào)整網(wǎng)絡(luò)參數(shù),在該領(lǐng)域表現(xiàn)出強(qiáng)勁的發(fā)展動力。目前應(yīng)用深度學(xué)習(xí)在特定樣本集的檢測與識別已經(jīng)取得了較好的結(jié)果。

基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)識別精度受制于參數(shù)設(shè)置問題以及網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì)問題,目標(biāo)識別過程包含大量參數(shù),但目前相關(guān)參數(shù)的選取大多仍依賴人工選擇,因此參數(shù)的自適應(yīng)選取應(yīng)當(dāng)是下一步的重要研究方向之一。在網(wǎng)絡(luò)結(jié)構(gòu)方面,單純增加結(jié)構(gòu)復(fù)雜度會導(dǎo)致過擬合等問題,因而如何優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)也是亟待解決的重要問題。

傳統(tǒng)的SAR圖像目標(biāo)識別方法利用圖像的統(tǒng)計(jì)和物理特征手工建模,識別的特征及模型都有明確的含義,因此傳統(tǒng)的識別方法擁有較強(qiáng)的可解釋性。而應(yīng)用深度學(xué)習(xí)的SAR圖像目標(biāo)識別技術(shù)盡管已經(jīng)取得了比較顯著的識別效果,但作為黑匣子的神經(jīng)網(wǎng)絡(luò)其運(yùn)作原理和決策邏輯無法被精確解釋,使得SAR圖像目標(biāo)識別技術(shù)在軍事目標(biāo)偵察等應(yīng)用中可靠性及應(yīng)用的可信程度較低,關(guān)于各識別方法的優(yōu)缺點(diǎn)具體情況如表2所示。

目前關(guān)于基于深度學(xué)習(xí)的SAR圖像目標(biāo)識別可解釋性問題,已經(jīng)引起了研究人員的關(guān)注。德國宇航局(DLR)的Datcu M教授及其團(tuán)隊(duì)[46]在關(guān)于SAR數(shù)據(jù)的可解釋性人工智能方面開始進(jìn)行了初步的探索,未來關(guān)于該問題的研究還需引起重視與解決。

深度學(xué)習(xí)模型的引入在帶來識別準(zhǔn)確率的提升的同時,也帶來了運(yùn)算量大、訓(xùn)練時間過長的問題。一般來說,網(wǎng)絡(luò)越深,性能越好,但是大而深的神經(jīng)網(wǎng)絡(luò)模型運(yùn)算量大,時間上不能滿足許多應(yīng)用場景的需求。此外,大而深的神經(jīng)網(wǎng)絡(luò)模型需要很大的內(nèi)存空間,而對于嵌入式設(shè)備以及一些小型的移動設(shè)備來說無法應(yīng)用。所以,如何讓大模型變小并且變小后的模型具有同大模型一樣的性能是一個很重要的研究方向。SAR圖像的處理也是如此,在保證性能的前提下考慮更為簡潔的網(wǎng)絡(luò)結(jié)構(gòu),開發(fā)輕量網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化方法,降低模型復(fù)雜度,應(yīng)當(dāng)是未來發(fā)展的重要方向。

7 結(jié)論

本文簡要介紹了SAR圖像目標(biāo)識別的傳統(tǒng)方法,重點(diǎn)介紹了卷積神經(jīng)網(wǎng)絡(luò)在SAR目標(biāo)識別的相關(guān)研究。指出了目前基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)識別研究中存在的缺陷與未來發(fā)展方向。

猜你喜歡
分類方法模型
一半模型
分類算一算
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
分類討論求坐標(biāo)
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
主站蜘蛛池模板: 亚洲欧美精品在线| 黄色网站不卡无码| 亚洲精品第五页| 欧美精品色视频| 丝袜美女被出水视频一区| 色老二精品视频在线观看| 人妻精品久久久无码区色视| 精品国产自| 国产乱人乱偷精品视频a人人澡| 日本免费福利视频| 在线免费a视频| 国产鲁鲁视频在线观看| 日本精品视频一区二区| 国产精品成人一区二区不卡 | 亚洲二区视频| 中文字幕 日韩 欧美| 久久a级片| 国产精品自在线拍国产电影| 国产在线精品人成导航| av在线无码浏览| 亚洲男人天堂2020| 黄色网站在线观看无码| 国产成人无码AV在线播放动漫 | 精品国产香蕉伊思人在线| 亚洲欧美自拍中文| 久久国产精品电影| 秘书高跟黑色丝袜国产91在线| 国产精品第一区| 91精品免费久久久| 免费黄色国产视频| 国产95在线 | 91麻豆精品国产91久久久久| 日韩乱码免费一区二区三区| 国产美女91呻吟求| 免费观看亚洲人成网站| 伊人AV天堂| 18禁影院亚洲专区| 九色视频线上播放| 高清欧美性猛交XXXX黑人猛交 | 亚洲三级片在线看| 免费国产福利| 69综合网| 制服丝袜国产精品| 国产福利在线免费| 日韩成人高清无码| 国产成人高清精品免费| 久久精品91麻豆| 色首页AV在线| 欧美在线精品怡红院| 成人一级黄色毛片| 国产在线视频自拍| 丁香六月激情综合| 欧美成人午夜在线全部免费| 小说 亚洲 无码 精品| 国产日韩精品欧美一区喷| 国产精品hd在线播放| 国产三级视频网站| 一级看片免费视频| 美女啪啪无遮挡| 婷婷久久综合九色综合88| swag国产精品| 国产精品密蕾丝视频| 啪啪免费视频一区二区| 五月激激激综合网色播免费| 精品国产美女福到在线直播| 一级毛片免费不卡在线视频| 国产精品国产三级国产专业不| 日韩欧美中文在线| 日本91视频| 五月天综合网亚洲综合天堂网| 色综合久久88| 亚洲人成人伊人成综合网无码| 日韩经典精品无码一区二区| 成人福利在线免费观看| 久青草网站| 国产亚洲欧美在线人成aaaa| a级高清毛片| 国产精品不卡永久免费| 成人亚洲国产| 国产精品污视频| 国产一在线观看| 日韩天堂视频|