999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經(jīng)網(wǎng)絡(luò)的高分辨率SAR圖像飛機(jī)目標(biāo)檢測方法

2017-05-25 00:37:25王思雨高鑫孫皓鄭歆慰孫
雷達(dá)學(xué)報(bào) 2017年2期
關(guān)鍵詞:飛機(jī)檢測方法

王思雨高 鑫孫 皓鄭歆慰孫 顯

①(中國科學(xué)院電子學(xué)研究所 北京 100190)

②(中國科學(xué)院大學(xué) 北京 100049)

基于卷積神經(jīng)網(wǎng)絡(luò)的高分辨率SAR圖像飛機(jī)目標(biāo)檢測方法

王思雨①②高 鑫*①孫 皓①鄭歆慰①孫 顯①

①(中國科學(xué)院電子學(xué)研究所 北京 100190)

②(中國科學(xué)院大學(xué) 北京 100049)

傳統(tǒng)的合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)圖像飛機(jī)檢測方法一般利用像素對(duì)比度信息進(jìn)行圖像分割,從而提取待定目標(biāo)。然而這些方法只考慮了像素亮度信息而忽視了目標(biāo)的結(jié)構(gòu)特征,進(jìn)而導(dǎo)致目標(biāo)的不精確定位和大量虛警的產(chǎn)生。基于上述問題,該文構(gòu)建了一個(gè)全新的SAR圖像飛機(jī)目標(biāo)檢測算法框架。首先,針對(duì)大場景SAR圖像應(yīng)用需求,提出了改進(jìn)的顯著性預(yù)檢測方法,從而實(shí)現(xiàn)SAR圖像候選飛機(jī)目標(biāo)多尺度快速粗定位;然后,設(shè)計(jì)并調(diào)優(yōu)了含4個(gè)權(quán)重層的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN),實(shí)現(xiàn)對(duì)候選目標(biāo)的精確檢測和鑒別;最后,因?yàn)镾AR數(shù)據(jù)量有限、易導(dǎo)致過擬合,提出4種適用于SAR圖像的數(shù)據(jù)增強(qiáng)方法,具體包括平移、斑點(diǎn)加噪、對(duì)比度增強(qiáng)和小角度旋轉(zhuǎn)。實(shí)驗(yàn)證實(shí)該飛機(jī)檢測算法在高分辨率TerraSAR-X數(shù)據(jù)集上效果顯著,與傳統(tǒng)的SAR飛機(jī)檢測方法相比,該方法檢測效率更高,泛化能力更強(qiáng)。

合成孔徑雷達(dá)(SAR);飛機(jī)檢測;卷積神經(jīng)網(wǎng)絡(luò)(CNN);數(shù)據(jù)增強(qiáng);視覺顯著性

1 引言

合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)可以不受氣候、天氣、光照等條件影響,獲得高分辨率雷達(dá)圖像。與光學(xué)傳感器相比,SAR在偵察、監(jiān)視和跟蹤等軍事領(lǐng)域更具優(yōu)勢。然而SAR圖像成像機(jī)理較為復(fù)雜,目標(biāo)由較少的散射點(diǎn)組成而沒有清晰輪廓,圖像存在斑點(diǎn)噪聲,這使得SAR飛機(jī)檢測困難重重。

傳統(tǒng)的SAR圖像目標(biāo)檢測方法可以分為3類[1]。第1種基于單特征的方法通常利用雷達(dá)散射截面積(Radar Cross Section,RCS)信息挑選對(duì)比度較亮的部分作為候選目標(biāo)。其中大多數(shù)檢測方法使用恒虛警率(Constant False Alarm Rate,CFAR)算法做圖像分割和候選目標(biāo)定位。CFAR包含多種衍生算法,包括CA-CFAR (Cell-average CFAR)[2],SO-CFAR (Smallest of CFAR),GO-CFAR (Greatest of CFAR)[3],OS-CFAR (Order-statistic CFAR)[4]和VI-CFAR(Variability Index CFAR)[5]。CFAR具有恒虛警率和自適應(yīng)閾值的特性[6–8]。然而CFAR檢測器只考慮像素對(duì)比度而忽略了目標(biāo)的結(jié)構(gòu)信息,從而導(dǎo)致了目標(biāo)的不精確定位。第2種是基于多特征的方法。多種特征如幾何結(jié)構(gòu)[9],擴(kuò)展分形(Extended Fractal,EF)[10],小波系數(shù)[11]等可以融合起來檢測目標(biāo)。文獻(xiàn)[12]中作者將梯度紋理顯著圖與CFAR相結(jié)合來檢測停機(jī)坪上的飛機(jī)目標(biāo)。綜合而言,設(shè)計(jì)特征是復(fù)雜且耗時(shí)的,并且同種特征組合不一定適用于所有的場景。第3種是基于先驗(yàn)的方法,先驗(yàn)知識(shí)如成像參數(shù)、經(jīng)緯度信息等需要協(xié)同加入檢測流程[13]。這類方法較復(fù)雜且實(shí)際中應(yīng)用較少。

隨著人工智能的發(fā)展,機(jī)器學(xué)習(xí)被引入了SAR目標(biāo)檢測領(lǐng)域。支持向量機(jī)(Support Vector Machine,SVM)[14]和AdaBoost(Adaptive Boosting)[15]等常用方法在MSTAR(Moving and Stationary Target Acquisition and Recognition)[16]數(shù)據(jù)集上表現(xiàn)良好。雖然這些方法比傳統(tǒng)方法性能有所提升,但它們僅適用于小樣本情況,設(shè)計(jì)具有高泛化能力的特征難度較高。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[17]可以自動(dòng)學(xué)習(xí)結(jié)構(gòu)化特征并取得較好的性能。文獻(xiàn)[18,19]中作者使用CNN對(duì)MSTAR數(shù)據(jù)集進(jìn)行分類并取得較好的效果。

本文構(gòu)建了一個(gè)完整的SAR圖像飛機(jī)目標(biāo)檢測框架。總體流程如圖1所示,本文的主要工作如下。首先,提出了一種改進(jìn)的顯著性預(yù)檢測方法,實(shí)現(xiàn)在大場景中多尺度粗略快速地搜索候選目標(biāo)。與滑動(dòng)窗方法相比,該方法有效提升了檢測效率并實(shí)現(xiàn)了多尺度定位。然后,設(shè)計(jì)并調(diào)校了適用于SAR圖像的CNN模型,實(shí)現(xiàn)對(duì)預(yù)檢測候選目標(biāo)的精確檢測,實(shí)驗(yàn)證實(shí)本文的CNN檢測精度高于其他常用的檢測方法。此外,為了應(yīng)對(duì)SAR數(shù)據(jù)量有限的問題,提出了4種適用于SAR圖像的數(shù)據(jù)增強(qiáng)方法,包括平移、加噪、對(duì)比度增強(qiáng)和小角度旋轉(zhuǎn)。實(shí)驗(yàn)結(jié)果表明,該檢測框架在TerraSAR-X數(shù)據(jù)集上有效減小了過擬合現(xiàn)象的影響,顯著提升了飛機(jī)目標(biāo)的檢測率。

2 改進(jìn)的顯著性預(yù)檢測方法原理與設(shè)計(jì)

在預(yù)檢測階段,滑動(dòng)窗方法通常用于獲取可能的候選目標(biāo)。該方法機(jī)械地在待檢測圖像上,按預(yù)設(shè)步長和窗口大小,從左向右、從上向下滑動(dòng)并裁切候選樣本。然而,滑動(dòng)窗法計(jì)算量很大,在大場景遙感圖像中預(yù)檢測效率較低。

為了解決上述問題,分別在訓(xùn)練和測試階段前引入了一種基于顯著性的預(yù)檢測方法[20],以便快速粗略地定位候選目標(biāo)。文獻(xiàn)[20]中作者首先計(jì)算每個(gè)像素的顯著值并得到整幅圖像的顯著圖,飛機(jī)切片的顯著圖如圖2所示。相同大小的初始方形窗口被不重不漏地覆蓋在顯著圖上。然后,迭代計(jì)算每個(gè)窗口的幾何中心pc并將窗口中心移動(dòng)到新的直到pc和之 間的距離小于預(yù)設(shè)值δ。迭代結(jié)束后,所有飛機(jī)目標(biāo)都被窗口框定,圖中還存在一些不包含真實(shí)目標(biāo)的虛警。

該方法的缺點(diǎn)是用固定尺寸的窗口檢測不同尺寸的飛機(jī)。考慮到停機(jī)坪區(qū)域停放不同尺寸飛機(jī)的情況,本文在原有算法的基礎(chǔ)上加入多尺度預(yù)檢測模塊。首先不同大小窗口的單尺度預(yù)檢測分別進(jìn)行,然后是第1次窗口融合。融合采用非極大值抑制算法(Non-Maximum Suppression,NMS),將包含同一目標(biāo)的不同窗口融合為一個(gè)。當(dāng)所有單尺度預(yù)檢測結(jié)束后,將進(jìn)行第2次窗口融合。

改進(jìn)的顯著性預(yù)檢測方法的簡要流程圖如圖3所示。所有選中的切片將被保存為候選目標(biāo)圖像以備后續(xù)CNN的精確檢測。與滑動(dòng)窗方法相比,該方法在大尺度SAR圖像檢測中更為高效。此外,改進(jìn)后的方法因二次窗口融合,虛警率顯著降低,且可以精確地定位不同尺寸的飛機(jī)目標(biāo)。

3 數(shù)據(jù)增強(qiáng)原理與設(shè)計(jì)

深度學(xué)習(xí)在訓(xùn)練集較大時(shí)能夠取得較好效果,但與光學(xué)圖像相比SAR圖像相對(duì)較少,易導(dǎo)致嚴(yán)重的過擬合。不同于常用的數(shù)據(jù)增強(qiáng)方法,由于SAR圖像與光學(xué)圖像成像原理差別較大,需要引入新的數(shù)據(jù)增強(qiáng)方法。本文提出適用于SAR圖像的4種數(shù)據(jù)增強(qiáng)方法來擴(kuò)充已標(biāo)注數(shù)據(jù)集。4種數(shù)據(jù)增強(qiáng)方法如下所示。

3.1 平移

在目標(biāo)不超過圖像邊界的條件下,對(duì)原始圖像執(zhí)行平移操作。假設(shè)原始圖像大小為m×n,則平移后的圖像可以表示為:

其中,(x,y)是位移尺度,(i,j)是平移后坐標(biāo)。圖4(a),圖4(b)給出了平移前后的目標(biāo)示例。

3.2 加噪

由于特殊的成像特性,SAR圖像總是帶有斑點(diǎn)噪聲。斑點(diǎn)噪聲是白色散斑狀的乘性噪聲。加噪后的圖像可以被表示為:

其中,P表示原始圖像,N表示斑點(diǎn)噪聲。N為均值為0方差為v的均勻分布的隨機(jī)噪聲。由于加噪越嚴(yán)重圖像越模糊,必須確保噪聲的強(qiáng)度低于預(yù)設(shè)值。圖4給出了基于原始圖像圖4(a)的加噪示例圖4(c)。

3.3 對(duì)比度增強(qiáng)

同一地點(diǎn)拍攝的SAR圖像可能有不同的亮度。因此本文利用像素對(duì)比度信息進(jìn)行數(shù)據(jù)增強(qiáng)。對(duì)比度增強(qiáng)可以通過非線性變換來實(shí)現(xiàn),具體變換可以表示如下:

其中,P表示原始圖像,P′表示對(duì)比度增強(qiáng)后的圖像。k是用戶預(yù)定義的可調(diào)節(jié)因子,其值在0和1之間。I是與P具有相同維數(shù)的單位矩陣。此外,P和P′ 范 圍均為(0,1)。圖4(a),圖4(d)給出了對(duì)比度增強(qiáng)的示例。

3.4 小角度旋轉(zhuǎn)

雷達(dá)散射特性隨著物體和傳感器之間相對(duì)姿態(tài)的變化而變化。然而文獻(xiàn)[21]中作者證明了飛機(jī)目標(biāo)后向散射特性的位置和強(qiáng)度在至少5°內(nèi)是旋轉(zhuǎn)不變的。旋轉(zhuǎn)坐標(biāo)與原始坐標(biāo)的映射關(guān)系可以表示為:

4 卷積神經(jīng)網(wǎng)絡(luò)原理與設(shè)計(jì)

基于LeNet-5網(wǎng)絡(luò),改進(jìn)后的網(wǎng)絡(luò)更適用于SAR圖像飛機(jī)檢測。由于SAR數(shù)據(jù)較少,大量的實(shí)驗(yàn)表明網(wǎng)絡(luò)超過6層會(huì)發(fā)生過擬合。如圖5所示,本文的CNN網(wǎng)絡(luò)由4個(gè)可訓(xùn)練參數(shù)層組成。為了減小過擬合的影響,引入了dropout方法[22]。此外,用修正線性單元(Rectified Linear Units,ReLU)在實(shí)踐中能很好地應(yīng)對(duì)飽和問題[23],將其代替sigmoid函數(shù)。本文基于典型的隨機(jī)梯度下降法,引入改進(jìn)算法如動(dòng)量法[24]以最小化損失函數(shù)。具體實(shí)現(xiàn)細(xì)節(jié)如下。

4.1 卷積層

在卷積層中,將輸入X和一組濾波器W進(jìn)行卷積,然后與偏置b相加。W表示可訓(xùn)練濾波器,b表示可訓(xùn)練偏差。最后,將上述結(jié)果傳遞給非線性激活函數(shù)f。公式如下:

其中,f(.)是修正線性單元(ReLU),函數(shù)由式(6)給出:

ReLU縮短了訓(xùn)練時(shí)間,并且在沒有無監(jiān)督預(yù)訓(xùn)練時(shí)效果較好[23]。

4.2 Max-pooling

Max-pooling在卷積層之后執(zhí)行降采樣操作。Max-pooling層計(jì)算出m×n局部切片內(nèi)區(qū)域的最大值,公式如下:

其中,(m,n)表示局部區(qū)域的大小,Y表示pooling操作的輸出。

4.3 Softmax

Softmax分類器在輸出層后對(duì)切片進(jìn)行二分類。它求出每類的判別概率并選擇最大值作為最終輸出。Softmax函數(shù)公式如下:

其中,Xi表示最后隱藏層的輸出,k表示類的數(shù)量,Yi表示類i的判別概率。

4.4 實(shí)現(xiàn)細(xì)節(jié)

本文CNN的結(jié)構(gòu)如圖5所示,它由3個(gè)卷積層和3個(gè)pooling層組成。第1個(gè)卷積層的卷積核大小為5×5,并有32個(gè)輸出圖。相似地,第2個(gè)卷積層的卷積核尺寸也是5×5且有64個(gè)輸出圖。最后一個(gè)卷積層有128個(gè)輸出圖,卷積核大小為6×6。每個(gè)卷積層后連著2×2的Max-pooling層。輸入圖像切片的大小為120×120。它們?cè)诘?個(gè)卷積層后變?yōu)?16×116,在第1個(gè)pooling層之后變?yōu)?8×58。循環(huán)往復(fù),Softmax層前輸出兩個(gè)大小為11×11的特征圖。表1列出了CNN的具體結(jié)構(gòu)數(shù)據(jù)。網(wǎng)絡(luò)訓(xùn)練時(shí)間約30 min,測試時(shí)間約幾秒鐘。

表1 CNN參數(shù)Tab. 1 Parameters of our CNN

5 實(shí)驗(yàn)與分析

5.1 0.5 m分辨率TerraSAR-X數(shù)據(jù)集

本文使用的數(shù)據(jù)集是高分辨率TerraSAR-X衛(wèi)星數(shù)據(jù)。所有數(shù)據(jù)含30張?jiān)紙D像,大小約20000× 20000,覆蓋幾個(gè)常見機(jī)場,分辨率為0.5 m×0.5 m。本文數(shù)據(jù)集包含多種類型、多種朝向的飛機(jī)。首先,基于原始圖像手動(dòng)標(biāo)記飛機(jī)目標(biāo)并保存真值文件。在手工標(biāo)注中我們參考了SAR解譯人員的意見,以保證樣本真值的可靠性。然后將切片分為兩類:1000個(gè)目標(biāo)和16000個(gè)非目標(biāo)。之后,隨機(jī)地將樣本按照4:1的比例分為訓(xùn)練集和測試集。圖6給出了訓(xùn)練集的示例。可以看到,正樣本包含了各種形態(tài)的飛機(jī),負(fù)樣本包含了各種復(fù)雜場景。

5.2 改進(jìn)的顯著性預(yù)檢測方法參數(shù)設(shè)置及結(jié)果分析

在大尺度遙感圖像中,滑動(dòng)窗方法一般用于候選目標(biāo)預(yù)檢測。顯著性預(yù)檢測方法的性能比滑動(dòng)窗方法更好。顯著性預(yù)檢測方法可以快速定位候選目標(biāo)并顯著減少虛警。通過比較兩種方法后發(fā)現(xiàn),給定一個(gè)大小為8000×8000的SAR圖像,顯著性預(yù)檢測方法在42.95 s內(nèi)選出1489個(gè)候選目標(biāo)。相同情況下,滑動(dòng)窗口方法在80.06 s內(nèi)篩選出611524個(gè)候選目標(biāo)。

在原始顯著性預(yù)檢測方法的基礎(chǔ)上,本文提出了多尺度算法來檢測不同尺寸的飛機(jī)目標(biāo)。為了適應(yīng)在未知場景中不同尺寸飛機(jī)的情況,對(duì)原始算法進(jìn)行了基于多尺度的改進(jìn)。表2表示了不同預(yù)檢測方法在大小為3708×3951的SAR圖像上的性能比較。Selective Search方法采用圖像分割和層次算法,雖能適應(yīng)不同尺度,但處理流程復(fù)雜、運(yùn)算速度較慢,虛警較多,為535個(gè),框定的飛機(jī)目標(biāo)不夠完整,檢測框尺寸波動(dòng)過于明顯;顯著性預(yù)檢測方法計(jì)算快速,但漏檢2架飛機(jī),虛警266個(gè);改進(jìn)后的顯著性預(yù)檢測方法可以搜索出所有真實(shí)目標(biāo),虛警相對(duì)原始顯著性方法減少58個(gè),檢測框長寬比合適,范圍可以人工設(shè)置,不會(huì)出現(xiàn)極小或極大的窗口。Selective search方法、原始顯著性預(yù)檢測方法和改進(jìn)后的預(yù)檢測方法的實(shí)驗(yàn)效果示例如圖7所示,可以看到改進(jìn)后的顯著性方法預(yù)檢測性能更好。

表2 不同預(yù)檢測方法性能比較Tab. 2 The performance of different pre-detection methods

5.3 數(shù)據(jù)增強(qiáng)參數(shù)設(shè)置及結(jié)果分析

在數(shù)據(jù)增強(qiáng)階段,800個(gè)原始訓(xùn)練正樣本首先按照0.01的方差斑點(diǎn)加噪,然后順時(shí)針旋轉(zhuǎn)5°,再向上平移5個(gè)像素,最后以k=0.5對(duì)比度增強(qiáng)。按這種方式,原始的訓(xùn)練正樣本擴(kuò)展16倍至12800個(gè),同樣地,原始訓(xùn)練負(fù)樣本由200個(gè)擴(kuò)展到3200個(gè)。

為了比較不同數(shù)據(jù)增強(qiáng)方法,本文對(duì)每一種增強(qiáng)方法做了單獨(dú)實(shí)驗(yàn),同時(shí)與4種增強(qiáng)方法合用進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果如表3所示。

表3 不同數(shù)據(jù)增強(qiáng)方法的檢測正確率Tab. 3 Accuracy rates of CNN with different augmentation methods

沒有施加任何數(shù)據(jù)增強(qiáng)方法時(shí),CNN的檢測正確率為86.33%。分析可得:每種數(shù)據(jù)增強(qiáng)方法對(duì)最后檢測正確率的提升都有作用,斑點(diǎn)加噪的提升作用更大。當(dāng)把4種增強(qiáng)方法結(jié)合起來時(shí),檢測正確率達(dá)到了96.36%,超過了單獨(dú)使用每種數(shù)據(jù)增強(qiáng)方法的性能。

5.4 卷積神經(jīng)網(wǎng)絡(luò)參數(shù)設(shè)置及結(jié)果分析

在訓(xùn)練前,將具有不同尺寸的候選目標(biāo)調(diào)整為統(tǒng)一尺寸120×120。本文做了大量實(shí)驗(yàn)以獲取最佳參數(shù)。當(dāng)基本學(xué)習(xí)率為0.01,momentum為0.9,batchsize大小為50,迭代次數(shù)為5000時(shí)檢測性能最佳。訓(xùn)練集包含25600個(gè)樣本,測試集包含6400個(gè)樣本。CNN部分的實(shí)驗(yàn)在具有Tesla k40M GPU和251 GB存儲(chǔ)器的CAFFE框架上實(shí)現(xiàn)。實(shí)驗(yàn)的其余部分在具有32 GB存儲(chǔ)器的3.1 GHz CPU上實(shí)現(xiàn)。

表4、表5、表6分別探究了不同網(wǎng)絡(luò)結(jié)構(gòu)、不同卷積核個(gè)數(shù)和不同卷積核大小對(duì)檢測性能的影響。實(shí)驗(yàn)發(fā)現(xiàn),分別改變網(wǎng)絡(luò)層數(shù)、卷積核個(gè)數(shù)、卷積核大小后檢測正確率均低于本文方法的性能指標(biāo)。

為了驗(yàn)證方法的高效性,將本文的CNN網(wǎng)絡(luò)與在SAR圖像處理中廣泛使用的其它機(jī)器學(xué)習(xí)方法(例如SVM和AdaBoost)作了對(duì)比。SVM使用徑向基函數(shù)(Radial Basis Function,RBF)作為核函數(shù),AdaBoost使用決策樹作為弱分類器。方向梯度直方圖(Histogram of Oriented Gradient,HOG)加SVM方法也加入了比較。表7列出了各種常用方法的檢測正確率。實(shí)驗(yàn)證實(shí),本文CNN的檢測正確率達(dá)到96.36%,并且優(yōu)于其他常用的SAR飛機(jī)檢測方法。

表4 不同網(wǎng)絡(luò)層數(shù)的檢測正確率比較Tab. 4 Accuracy rates of CNN with different number of layers

表5 不同卷積核個(gè)數(shù)的檢測正確率比較Tab. 5 Accuracy rates of CNN with different number of kernels

表6 不同卷積核大小的檢測正確率比較Tab. 6 Accuracy rates of CNN with different size of kernels

表7 不同方法在同一數(shù)據(jù)集上的平均檢測率Tab. 7 Average detection rates of different methods on the same dataset

不同方法的ROC曲線如圖8所示,可以看到我們的CNN方法與橫軸所圍面積最大,檢測性能最好,其余由高到底依次是HOG+SVM,SVM和AdaBoost方法。

當(dāng)把上述所有算法合為一體時(shí),最終得到SAR圖像飛機(jī)目標(biāo)的完整檢測算法框架。圖9表示了該檢測方法在某停機(jī)坪區(qū)域的檢測結(jié)果。在這樣的復(fù)雜場景下,雖然存在少量虛警但并無漏警。總之,本文的飛機(jī)檢測框架在大場景SAR圖像中可以取得較為理想的效果。

6 結(jié)論

本文構(gòu)建了一個(gè)完整的SAR飛機(jī)目標(biāo)檢測算法框架。首先,提出了一種改進(jìn)的顯著性預(yù)檢測方法,實(shí)現(xiàn)在大規(guī)模SAR場景中粗略快速地定位候選飛機(jī)目標(biāo)。實(shí)驗(yàn)證實(shí)該方法與滑動(dòng)窗方法相比更為高效,改進(jìn)后多尺度的加入提升了對(duì)待測場景的適應(yīng)性。然后,設(shè)計(jì)并調(diào)優(yōu)了含4個(gè)權(quán)重層的CNN網(wǎng)絡(luò),實(shí)現(xiàn)對(duì)候選目標(biāo)的精確檢測并得到最終的檢測結(jié)果。此外,為了豐富訓(xùn)練集并防止過擬合,提出了4種數(shù)據(jù)增強(qiáng)方法。具體包括平移、斑點(diǎn)加噪、對(duì)比度增強(qiáng)和小角度旋轉(zhuǎn)。實(shí)驗(yàn)結(jié)果證實(shí),本文的飛機(jī)檢測算法框架取得了96.36%的檢測正確率,并優(yōu)于其他常用的SAR飛機(jī)檢測方法。

[1]El-Darymli K,McGuire P,Power D,et al.. Target detection in synthetic aperture radar imagery: A state-of-the-art survey[J].Journal of Applied Remote Sensing,2013,7(1): 071598.

[2]Steenson B O. Detection performance of a mean-level threshold[J].IEEE Transactions on Aerospace and Electronic Systems,1968,4(4): 529–534.

[3]Gandhi P P and Kassam S A. Analysis of CFAR processors in homogeneous background[J].IEEE Transactions on Aerospace and Electronic Systems,1988,24(4): 427–445.

[4]Novak L M and Hesse S R. On the performance of orderstatistics CFAR detectors[C]. IEEE 25th Asilomar Conference on Signals,Systems and Computers,Pacific Grove,California,USA,Nov. 1991: 835–840.

[5]Smith M E and Varshney P K. VI-CFAR: A novel CFAR algorithm based on data variability[C]. IEEE National Radar Conference,Syracuse,NY,May 1997: 263–268.

[6]Ai Jia-qiu,Qi Xiang-yang,Yu Wei-dong,et al.. A new CFAR ship detection algorithm based on 2-D joint lognormal distribution in SAR images[J].IEEE Geoscience and Remote Sensing Letters,2010,7(4): 806–810.

[7]di Bisceglie M and Galdi C. CFAR detection of extended objects in high-resolution SAR images[J].IEEE Transactions on Geoscience and Remote Sensing,2005,43(4): 833–843.

[8]Jung C H,Kwag Y K,and Song W Y. CFAR detection algorithm for ground target in heterogeneous clutter using high resolution SAR image[C]. 3rd International Asia-Pacific Conference on Synthetic Aperture Radar (APSAR),Seoul,South Korea,Sep. 2011: 1–4.

[9]Olson C F and Huttenlocher D P. Automatic target recognition by matching oriented edge pixels[J].IEEE Transactions on Image Processing,1997,6(1): 103–113.

[10]Kaplan L M. Improved SAR target detection via extended fractal features[J].IEEE Transactions on Aerospace and Electronic Systems,2001,37(2): 436–451.

[11]Sandirasegaram N M. Spot SAR ATR using wavelet features and neural network classifier[R]. Defence Research and Development Canada Ottawa (Ontario),2005.

[12]Tan Yi-hua,Li Qing-yun,Li Yan-sheng,et al.. Aircraft detection in high-resolution SAR images based on a gradient textural saliency map[J].Sensors,2015,15(9): 23071–23094.

[13]Jao J K,Lee C E,and Ayasli S. Coherent spatial filtering for SAR detection of stationary targets[J].IEEETransactions on Aerospace and Electronic Systems,1999,35(2): 614–626.

[14]Zhao Q and Principe J C. Support vector machines for SAR automatic target recognition[J].IEEE Transactions on Aerospace and Electronic Systems,2001,37(2): 643–654.

[15]Sun Yi-jun,Liu Zhi-peng,Todorovic S,et al.. Adaptive boosting for SAR automatic target recognition[J].IEEE Transactions on Aerospace and Electronic Systems,2007,43(1): 112–125.

[16]Keydel E R,Lee S W,and Moore J T. MSTAR extended operating conditions: A tutorial[C]. Proc. SPIE 2757,Algorithms for Synthetic Aperture Radar Imagery III,Orlando,FL,Apr. 1996: 228–242.

[17]Krizhevsky A,Sutskever I,and Hinton G E. ImageNet classification with deep convolutional neural networks[C]. International Conference on Neural Information Processing Systems,South Lake Tahoe,Nevada,USA,Dec. 2012: 1097–1105.

[18]Ding Jun,Chen Bo,Liu Hong-wei,et al.. Convolutional neural network with data augmentation for SAR target recognition[J].IEEE Geoscience and Remote Sensing Letters,2016,13(3): 364–368.

[19]Chen Si-zhe,Wang Hai-peng,Xu Feng,et al.. Target classification using the deep convolutional networks for SAR images[J].IEEE Transactions on Geoscience and Remote Sensing,2016,54(8): 4806–4817.

[20]Diao Wen-hui,Sun Xian,Zheng Xin-wei,et al.. Efficient saliency-based object detection in remote sensing images using deep belief networks[J].IEEE Geoscience and Remote Sensing Letters,2016,13(2): 137–141.

[21]Chen Jie-hong,Zhang Bo,and Wang Chao. Backscattering feature analysis and recognition of civilian aircraft in TerraSAR-X images[J].IEEE Geoscience and Remote Sensing Letters,2015,12(4): 796–800.

[22]Srivastava N,Hinton G,Krizhevsky A,et al.. Dropout: A simple way to prevent neural networks from overfitting[J].The Journal of Machine Learning Research,2014,15(1): 1929–1958.

[23]Glorot X,Bordes A,and Bengio Y. Deep sparse rectifier neural networks[C]. 14th International Conference on Artificial Intelligence and Statistics,Fort Lauderdale,FL,USA,2011: 315–323.

[24]Qian Ning. On the momentum term in gradient descent learning algorithms[J].Neural Networks,1999,12(1): 145–151.

王思雨(1992–),女,山西人,中國科學(xué)院電子學(xué)研究所碩士研究生,研究方向?yàn)镾AR圖像飛機(jī)目標(biāo)檢測識(shí)別。

E-mail: siyuwang92@163.com

成銳今年43歲,河北邯鄲人。很多年前,他就從事金屬加工業(yè)務(wù),對(duì)于電焊、鈑金等工作比較熟悉。2011年6月6日,他應(yīng)聘到本市一家過濾器制造公司,專業(yè)從事鉚工作業(yè)。

高 鑫(1966–),男,遼寧人,北京師范大學(xué)理學(xué)博士,現(xiàn)任中國科學(xué)院電子學(xué)研究所研究員,研究方向?yàn)镾AR場景分類、目標(biāo)檢測識(shí)別、解譯標(biāo)注。

E-mail: gaxi@mail.ie.ac.cn

孫 皓(1984–),男,山東人,中國科學(xué)院大學(xué)工學(xué)博士,現(xiàn)任中國科學(xué)院電子學(xué)研究所副研究員,研究方向?yàn)檫b感圖像理解。

E-mail: sun.010@163.com

鄭歆慰(1987–),男,福建人,中國科學(xué)院大學(xué)工學(xué)博士,現(xiàn)任中國科學(xué)院電子學(xué)研究所助理研究員,研究方向?yàn)榇笠?guī)模遙感圖像解譯。

E-mail: zxw_1020@163.com

孫 顯(1981–),男,浙江人,中國科學(xué)院大學(xué)工學(xué)博士,現(xiàn)任中國科學(xué)院電子學(xué)研究所副研究員,研究方向?yàn)橛?jì)算機(jī)視覺與遙感圖像理解、地理空間大數(shù)據(jù)解譯。

E-mail: sunxian@mail.ie.ac.cn

An Aircraft Detection Method Based on Convolutional Neural Networks in High-Resolution SAR Images

Wang Siyu①②Gao Xin①Sun Hao①Zheng Xinwei①Sun Xian①
①(Institute of Electronics,Chinese Academy of Sciences,Beijing100190,China)
②(University of Chinese Academy of Science,Beijing100049,China)

In the field of image processing using Synthetic Aperture Radar (SAR),aircraft detection is a challenging task. Conventional approaches always extract targets from the background of an image using image segmentation methods. Nevertheless,these methods mainly focus on pixel contrast and neglect the integrity of the target,which leads to locating the object inaccurately. In this study,we build a novel SAR aircraft detection framework. Compared to traditional methods,an improved saliency-based method is proposed to locate candidates coarsely and quickly in large scenes. This proposed method is verified to be more efficient compared with the sliding window method. Next,we design a convolutional neural network fitting in SAR images to accurately identify the candidates and obtain the final detection result. Moreover,to overcome the problem of limited available SAR data,we propose four data augmentation methods comprising translation,speckle noising,contrast enhancement,and small-angle rotation. Experimental results show that our framework achieves excellent performance on the high-resolution TerraSAR-X dataset.

Synthetic Aperture Radar (SAR); Aircraft detection; Convolutional Neural Networks (CNNs); Data augmentation; Visual saliency

TP753

A

2095-283X(2017)02-0195-09

10.12000/JR17009

王思雨,高鑫,孫皓,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的高分辨率SAR圖像飛機(jī)目標(biāo)檢測方法[J]. 雷達(dá)學(xué)報(bào),2017,6(2): 195–203.

10.12000/JR17009.

Reference format:Wang Siyu,Gao Xin,Sun Hao,et al.. An aircraft detection method based on convolutional neural networks in high-resolution SAR images[J].Journal of Radars,2017,6(2): 195–203. DOI: 10.12000/JR17009.

2017-01-20;改回日期:2017-03-05;

2017-05-02

*通信作者: 高鑫 gaxi@mail.ie.ac.cn

國家自然科學(xué)基金青年基金(41501485)

Foundation Item: The National Natural Science Foundation of China (41501485)

猜你喜歡
飛機(jī)檢測方法
飛機(jī)失蹤
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“拼座飛機(jī)”迎風(fēng)飛揚(yáng)
乘坐飛機(jī)
神奇飛機(jī)變變變
小波變換在PCB缺陷檢測中的應(yīng)用
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
主站蜘蛛池模板: 在线观看免费AV网| 国产午夜无码专区喷水| 亚洲热线99精品视频| 欧美黑人欧美精品刺激| 成年女人a毛片免费视频| 亚洲日韩国产精品综合在线观看| 久久一日本道色综合久久| 9丨情侣偷在线精品国产| 国产亚洲精久久久久久久91| 亚洲国产综合精品中文第一| 亚洲欧美一级一级a| 亚洲第一成网站| 久久综合成人| 亚洲欧美在线看片AI| 久久网欧美| 国产一二视频| 蜜桃视频一区二区| 国产成人1024精品| 欧美久久网| 最新亚洲人成无码网站欣赏网| 99久久性生片| 日韩第九页| 国产区人妖精品人妖精品视频| 有专无码视频| 国产一级片网址| 青青草一区| 国产浮力第一页永久地址| 国产精品网拍在线| 在线免费亚洲无码视频| 狠狠久久综合伊人不卡| 国产精品久久久久无码网站| 国产精品污视频| 九九九久久国产精品| 青青青视频91在线 | 狼友av永久网站免费观看| 视频一本大道香蕉久在线播放| 怡春院欧美一区二区三区免费| 精品欧美一区二区三区久久久| 亚洲欧美日韩精品专区| 国产精品无码AV片在线观看播放| 蜜桃视频一区二区三区| 97se综合| 精品久久777| 亚洲欧美自拍中文| 99久久精品久久久久久婷婷| 毛片卡一卡二| 久久性视频| 国产精品极品美女自在线网站| 中日无码在线观看| 亚洲成在线观看| 免费啪啪网址| 亚洲欧美不卡视频| 国产男女XX00免费观看| 久久伊人操| AV在线麻免费观看网站| 色窝窝免费一区二区三区 | 制服丝袜国产精品| 蜜桃视频一区| 伊人福利视频| 看av免费毛片手机播放| 精品久久国产综合精麻豆| 全部无卡免费的毛片在线看| 国产成人高精品免费视频| 亚洲欧美日韩中文字幕在线| 青草91视频免费观看| 一本大道东京热无码av| 国产麻豆91网在线看| 又黄又爽视频好爽视频| 无码 在线 在线| 国产主播福利在线观看| 2021国产乱人伦在线播放| 5555国产在线观看| 亚洲乱码在线播放| 欧美日本在线播放| 国产日韩欧美成人| 超清无码一区二区三区| 国产精品黑色丝袜的老师| 亚洲国产成人麻豆精品| 潮喷在线无码白浆| 青青国产成人免费精品视频| 国产精品亚洲片在线va| 爆乳熟妇一区二区三区|