999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合卷積特征與判別字典學(xué)習(xí)的低截獲概率雷達(dá)信號(hào)識(shí)別

2019-10-24 05:20:08咼鵬程吳禮洋
兵工學(xué)報(bào) 2019年9期
關(guān)鍵詞:特征信號(hào)

咼鵬程, 吳禮洋

(1.95183部隊(duì), 湖南 邵東 422000;2.空軍通信士官學(xué)校 地空導(dǎo)航系, 遼寧 大連 116600)

0 引言

隨著雷達(dá)技術(shù)的發(fā)展,信號(hào)調(diào)制樣式也逐漸變得復(fù)雜,尤其是具有大時(shí)寬帶寬積、強(qiáng)抗干擾性能、高分辨率和低截獲性特點(diǎn)[1-2]的低截獲概率(LPI)雷達(dá)信號(hào)出現(xiàn),給我方非合作截獲接收機(jī)的檢測(cè)制造帶來(lái)巨大困難。因此,在我方電子情報(bào)分析中,如何利用截獲到的少量敵方雷達(dá)信號(hào)數(shù)據(jù)進(jìn)行有效處理,是LPI雷達(dá)信號(hào)識(shí)別研究的關(guān)鍵之一。

在利用雷達(dá)信號(hào)脈間參數(shù)識(shí)別方法逐漸失效的現(xiàn)實(shí)情況下,國(guó)內(nèi)外學(xué)者轉(zhuǎn)而對(duì)信號(hào)脈內(nèi)細(xì)微特征進(jìn)行研究,并提出了許多識(shí)別方法,取得了較好的效果。文獻(xiàn)[1-2]將雙譜對(duì)角切片與廣義維數(shù)結(jié)合,提取到信號(hào)的脈內(nèi)特征,在信噪比大于0 dB情況下,平均識(shí)別率為97.5%;文獻(xiàn)[3]利用崔- 威廉斯分布(CWD)時(shí)頻圖像,從圖像中提取相關(guān)特征,在信噪比為-2 dB情況下識(shí)別率能達(dá)到94.7%;文獻(xiàn)[4]通過(guò)Gabor時(shí)頻變換將時(shí)頻圖像進(jìn)行剪裁并向量化,利用字典學(xué)習(xí)稀疏表示分類(lèi)的方法,在信噪比大于1 dB情況下實(shí)現(xiàn)了90%以上的識(shí)別率。然而以上方法都是利用人工設(shè)計(jì)的特征進(jìn)行分類(lèi),屬于淺層特征,在更低的信噪比情況下識(shí)別率大大降低。

自從2006年Hinton等[5]提出深度學(xué)習(xí)方法以來(lái),利用深度網(wǎng)絡(luò)進(jìn)行特征提取越來(lái)越普遍。而在圖像識(shí)別中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)對(duì)圖像深層特征提取具有較強(qiáng)的優(yōu)勢(shì),能夠?qū)⒃紙D像通過(guò)多層抽象機(jī)制提取到豐富的高層抽象特征,因此也有學(xué)者將CNN用于雷達(dá)信號(hào)識(shí)別中。文獻(xiàn)[6]使用CWD時(shí)頻圖像,通過(guò)兩次預(yù)處理過(guò)程將信號(hào)數(shù)據(jù)輸入到CNN中,通過(guò)對(duì)比不同CNN網(wǎng)絡(luò)結(jié)構(gòu),選擇出最優(yōu)的結(jié)構(gòu)參數(shù),在信噪比為-6 dB情況下實(shí)現(xiàn)了93.5%的識(shí)別率。然而已有文獻(xiàn)在網(wǎng)絡(luò)學(xué)習(xí)中每種信號(hào)都使用了大量的訓(xùn)練樣本,實(shí)際上對(duì)于情報(bào)偵察而言,能夠截獲到有用數(shù)據(jù)的量是非常少的,尤其是對(duì)LPI信號(hào)的截獲,因此很難實(shí)現(xiàn)對(duì)網(wǎng)絡(luò)使用大量樣本進(jìn)行訓(xùn)練。綜上所述,如何在低信噪比、少樣本數(shù)量條件下實(shí)現(xiàn)對(duì)LPI雷達(dá)信號(hào)的有效識(shí)別,是一個(gè)值得研究的問(wèn)題。

本文提出一種融合信號(hào)時(shí)頻圖像卷積特征與字典學(xué)習(xí)(CDL)的雷達(dá)信號(hào)識(shí)別方法。在特征提取方面,利用CNN對(duì)圖像的深層理解能力,使用LeNet-5網(wǎng)絡(luò)最后1個(gè)卷積層得到的數(shù)據(jù)作為信號(hào)特征,即卷積特征;為解決在少量樣本下網(wǎng)絡(luò)訓(xùn)練較差的問(wèn)題,通過(guò)使用國(guó)家標(biāo)準(zhǔn)與技術(shù)研究所數(shù)據(jù)庫(kù)(MNIST)手寫(xiě)數(shù)據(jù)集對(duì)網(wǎng)絡(luò)進(jìn)行預(yù)訓(xùn)練,然后將2~6層網(wǎng)絡(luò)參數(shù)遷移到新的LeNet-5網(wǎng)絡(luò)中提取特征;在最后識(shí)別階段,鑒于稀疏表示方法在識(shí)別中對(duì)噪聲有較強(qiáng)的抗干擾性,對(duì)樣本數(shù)量也具有較強(qiáng)的魯棒性[7-8],且稀疏表示分類(lèi)的方法在目標(biāo)跟蹤[9]、說(shuō)話(huà)人識(shí)別[10]中得到成功應(yīng)用,也為雷達(dá)信號(hào)識(shí)別提供了新的思路,本文應(yīng)用文獻(xiàn)[11]提出的基于Fisher準(zhǔn)則的判別字典學(xué)習(xí)(FDDL),通過(guò)在冗余字典上對(duì)每類(lèi)信號(hào)的卷積特征構(gòu)建子字典并稀疏表示,加入Fisher準(zhǔn)則使子字典更具有判別性,在判別函數(shù)中引入重構(gòu)誤差與稀疏編碼系數(shù)相似度來(lái)增強(qiáng)類(lèi)別判別能力、進(jìn)一步降低訓(xùn)練樣本的代價(jià),并在低信噪比下進(jìn)一步提高識(shí)別率。

1 CNN

1.1 LeNet-5網(wǎng)絡(luò)

LeNet-5是最早的卷積網(wǎng)絡(luò)之一,是一種典型的深度學(xué)習(xí)模型[12]。該模型于1998年正式確定,在文檔識(shí)別中取得了很好的效果[13],并很快成功地在美國(guó)大多數(shù)銀行中實(shí)現(xiàn)了識(shí)別手寫(xiě)數(shù)字的商業(yè)應(yīng)用。盡管該模型年代比較久遠(yuǎn),但近年來(lái)依然有許多學(xué)者對(duì)其加以應(yīng)用與改進(jìn)[14-16],由此可展示出該模型識(shí)別性能的優(yōu)勢(shì)。

LeNet-5卷積網(wǎng)絡(luò)包括輸入層共有8層,即1個(gè)輸入層、3個(gè)卷積層、2個(gè)下采樣層、1個(gè)全連接層和1個(gè)輸出層,如圖1所示。圖1中輸入的圖片為32×32像素,而MNIST手寫(xiě)數(shù)據(jù)集中的圖片大小為28×28像素,實(shí)際應(yīng)用中將像素?cái)U(kuò)大到32×32,是因?yàn)橄M麧撛诘拿黠@特征能夠出現(xiàn)在最高層特征監(jiān)測(cè)子感受野的中心。

圖1 LeNet-5網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Network of LeNet-5

1.2 預(yù)訓(xùn)練說(shuō)明

CNN中的參數(shù)需要大規(guī)模的標(biāo)簽數(shù)據(jù)進(jìn)行大量訓(xùn)練迭代以達(dá)到最優(yōu)效果,尤其是卷積核學(xué)習(xí)的好壞直接決定了提取圖像判別性特征的效果[17-18];目前的通用方法為隨機(jī)初始化網(wǎng)絡(luò)參數(shù),這種方法對(duì)數(shù)據(jù)集數(shù)量較少的情況,訓(xùn)練得到的網(wǎng)絡(luò)參數(shù)非常不理想,識(shí)別率將大大降低,尤其對(duì)于電子偵察方面,其得到敵方有用的數(shù)據(jù)非常稀缺,不可能通過(guò)大量數(shù)據(jù)對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。因此,只能通過(guò)其他數(shù)據(jù)集預(yù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)來(lái)有效解決該問(wèn)題。

文獻(xiàn)[19-21]表明,利用ImageNet數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練得到的CNN具有較強(qiáng)的泛化能力,能夠有效地遷移到識(shí)別其他數(shù)據(jù)集上。由于本文使用的信號(hào)為時(shí)頻二維圖像數(shù)據(jù)和LeNet-5模型,在處理時(shí)應(yīng)首先使用MNIST數(shù)據(jù)對(duì)LeNet-5進(jìn)行預(yù)訓(xùn)練,在處理過(guò)程中首先使用MNIST數(shù)據(jù)對(duì)LeNet-5進(jìn)行訓(xùn)練識(shí)別,當(dāng)設(shè)置參數(shù)使識(shí)別率達(dá)到最好時(shí),取出網(wǎng)絡(luò)的第2~6層,重新構(gòu)造新的LeNet-5網(wǎng)絡(luò)。

2 判別字典學(xué)習(xí)

2.1 基于Fisher判別字典學(xué)習(xí)

稀疏表示分類(lèi)算法在目標(biāo)函數(shù)中僅從重構(gòu)能力方面考慮,而為了使學(xué)習(xí)到的字典既具有較好的重構(gòu)能力又具有較強(qiáng)的判別能力,引入Fisher準(zhǔn)則加入字典學(xué)習(xí)中,即FDDL算法,其目標(biāo)函數(shù)定義為

(1)

式中:r(A,D,X)為判別保真項(xiàng);‖X‖1為稀疏編碼系數(shù)的稀疏約束項(xiàng);f(X)為Fisher判別約束項(xiàng);λ1和λ2為調(diào)節(jié)參數(shù),用于控制目標(biāo)函數(shù)J信息的比例。

1)判別保真項(xiàng)

(2)

式中:F表示F范數(shù)。

2)Fisher判別約束項(xiàng)

(3)

Fisher判別準(zhǔn)則是實(shí)現(xiàn)類(lèi)內(nèi)總離散度矩陣Sw的最小化、類(lèi)間離散度矩陣Sb的最大化。在FDDL算法中,將Fisher準(zhǔn)則的內(nèi)類(lèi)總離散度矩陣稱(chēng)為稀疏編碼系數(shù)X的類(lèi)內(nèi)誤差Sw(X),類(lèi)間離散度矩陣稱(chēng)為稀疏編碼系數(shù)X的類(lèi)間誤差Sb(X)。

定義類(lèi)內(nèi)誤差Sw(X)為

(4)

式中:k表示樣本序號(hào);xk表示稀疏編碼系數(shù)Xi的第k個(gè)元素;mi和m分別為稀疏編碼系數(shù)Xi和X的均值向量。

定義類(lèi)間誤差Sb(X)為

(5)

式中:ni為子樣本矩陣Ai的樣本數(shù)。

因此,通過(guò)加入判別保真項(xiàng)和Fisher判別約束項(xiàng),F(xiàn)DDL算法的目標(biāo)函數(shù)可以表達(dá)為

(6)

關(guān)于目標(biāo)函數(shù)J(D,X)是非聯(lián)合凸函數(shù)的問(wèn)題,根據(jù)現(xiàn)有的解決方法,可以先固定D、優(yōu)化X,然后固定X、優(yōu)化D. 對(duì)該最優(yōu)化的求解步驟可參考文獻(xiàn)[11]。

2.2 類(lèi)別判定準(zhǔn)則

得到最優(yōu)化的判決字典D后,需要建立類(lèi)別判定準(zhǔn)則,對(duì)測(cè)試樣本的類(lèi)別判定進(jìn)行分類(lèi)。在此需要利用測(cè)試樣本在字典上表達(dá)的稀疏編碼系數(shù)信息以及對(duì)應(yīng)的重構(gòu)誤差信息。文獻(xiàn)[9]給出了一種編碼系數(shù)目標(biāo)函數(shù),如(7)式所示:

(7)

為簡(jiǎn)化(7)式,將式中后兩部分組合,構(gòu)造成相似度項(xiàng),使目標(biāo)函數(shù)由重構(gòu)誤差項(xiàng)與相似度項(xiàng)組成,如(8)式所示:

(8)

文獻(xiàn)[22]已經(jīng)證明基于l2范數(shù)約束的稀疏系數(shù)求解與l1范數(shù)相比,計(jì)算復(fù)雜度將大幅度降低。因此,本文使用正則化最小化l2范數(shù)求解測(cè)試樣本稀疏編碼系數(shù)。

當(dāng)子字典Di能夠很好地表示測(cè)試樣本時(shí),其重構(gòu)誤差與相似度值都會(huì)很小,因此可以構(gòu)建類(lèi)別判定準(zhǔn)則函數(shù)如(9)式所示:

(9)

式中:ei為第i類(lèi)的分類(lèi)評(píng)分;γ為常數(shù)。

3 卷積特征提取及識(shí)別框架

對(duì)于卷積特征提取,本文使用訓(xùn)練樣本對(duì)新的LeNet-5網(wǎng)絡(luò)再次進(jìn)行迭代訓(xùn)練,當(dāng)識(shí)別率達(dá)到最高時(shí),表明網(wǎng)絡(luò)第2~6層中的參數(shù)已最優(yōu),然后在C5層中取出數(shù)據(jù),作為訓(xùn)練樣本信號(hào)的卷積特征。測(cè)試樣本則通過(guò)已優(yōu)化的LeNet-5網(wǎng)絡(luò)直接經(jīng)過(guò)卷積、池化,在C5層取出數(shù)據(jù)作為測(cè)試樣本信號(hào)的卷積特征。圖2所示為線(xiàn)性調(diào)頻(LFM)信號(hào)時(shí)頻圖像在網(wǎng)絡(luò)每層中的可視化過(guò)程,第2~5層只顯示了1個(gè)卷積核對(duì)圖像的處理,第6層顯示了120個(gè)卷積核組成的圖像,即該LFM信號(hào)的卷積特征。

圖2 卷積特征可視化Fig.2 Visualization of convolutional feature

圖3所示為本文的識(shí)別框架。由圖3可以看出識(shí)別過(guò)程的基本步驟:低截獲雷達(dá)信號(hào)進(jìn)行時(shí)頻變換、得到時(shí)頻圖像,隨后將圖像重置為28×28像素大小。結(jié)合上述內(nèi)容,將得到的訓(xùn)練和測(cè)試樣本卷積特征作為字典學(xué)習(xí)的訓(xùn)練和測(cè)試樣本,最后依據(jù)類(lèi)別判定準(zhǔn)則進(jìn)行識(shí)別。

圖3 本文識(shí)別框架Fig.3 Recognition framework

4 仿真實(shí)驗(yàn)及分析

4.1 參數(shù)設(shè)置

實(shí)驗(yàn)平臺(tái)配置為: Inter(R) Core(TM) i5-3210M,內(nèi)存4 GB,CPU主頻2.50 GHz,仿真平臺(tái)為MATLAB R2014a. LPI雷達(dá)信號(hào)使用文獻(xiàn)[4]的信號(hào)類(lèi)型:LFM二相編碼(BPSK)、四相編碼(QPSK)、偶二次方調(diào)頻(EQFM)、COSTAS碼。信號(hào)參數(shù)設(shè)置參考文獻(xiàn)[4],所有信號(hào)的頻率都不超過(guò)50 MHz,采樣頻率為100 MHz,脈寬設(shè)置為8~16 μs,其他參數(shù)具體如表1所示。

表1 信號(hào)主要參數(shù)及范圍

本文對(duì)LPI雷達(dá)信號(hào)采用平滑偽Wigner-Ville分布[23](SPWVD),用來(lái)反映信號(hào)內(nèi)部調(diào)制的聚集性和時(shí)頻關(guān)系。

采用高斯白噪聲模擬噪聲環(huán)境,信噪比設(shè)置從-10 dB~5 dB,步長(zhǎng)為5 dB. 每種信號(hào)在不同信噪比下分別產(chǎn)生600組訓(xùn)練樣本和200組測(cè)試樣本,因此在每一信噪比下共有3 000組訓(xùn)練樣本和1 000組測(cè)試樣本。

4.2 預(yù)訓(xùn)練效果對(duì)比

為展示預(yù)訓(xùn)練對(duì)特征提取和網(wǎng)絡(luò)優(yōu)化的效果,對(duì)比實(shí)驗(yàn)選擇完整的LeNet-5模型,將中間第2~6層網(wǎng)絡(luò)進(jìn)行預(yù)訓(xùn)練后替換(有預(yù)訓(xùn)練的LeNet-5網(wǎng)絡(luò)稱(chēng)為L(zhǎng)eNet-1,無(wú)預(yù)訓(xùn)練的LeNet-5網(wǎng)絡(luò)稱(chēng)為L(zhǎng)eNet-0),最后通過(guò)識(shí)別率反映有無(wú)預(yù)訓(xùn)練的效果。

圖4表示在-5 dB的信噪比下,不同迭代次數(shù)、不同數(shù)量訓(xùn)練樣本對(duì)識(shí)別率的影響。其中,待識(shí)別的5種信號(hào)一共產(chǎn)生500~2 500個(gè)信號(hào)樣本,步長(zhǎng)為500. 作為訓(xùn)練樣本,每類(lèi)信號(hào)均等分訓(xùn)練樣本,測(cè)試樣本數(shù)量則為訓(xùn)練樣本數(shù)量的20%. 測(cè)試時(shí)在3 000組訓(xùn)練樣本和1 000組訓(xùn)練樣本中隨機(jī)抽取相應(yīng)數(shù)量的訓(xùn)練樣本和測(cè)試樣本,在每種迭代次數(shù)下進(jìn)行100次訓(xùn)練,將結(jié)果取平均值。

隨著迭代次數(shù)的增加,LeNet-1和LeNet-0網(wǎng)絡(luò)的識(shí)別率都逐漸增加,在迭代次數(shù)達(dá)到70以上時(shí)識(shí)別率趨于穩(wěn)定;隨著訓(xùn)練樣本數(shù)量的減少,識(shí)別率也隨之降低,這是因?yàn)樵跇颖旧俚那闆r下,卷積網(wǎng)絡(luò)對(duì)樣本的學(xué)習(xí)程度不夠,參數(shù)沒(méi)有達(dá)到最優(yōu)。由圖4還可以發(fā)現(xiàn),LeNet-1在不同數(shù)量訓(xùn)練樣本下的識(shí)別率都大于LeNet-0,尤其在樣本數(shù)量?jī)H為500時(shí)識(shí)別率相差26.1%.

由此可以看出,經(jīng)過(guò)預(yù)訓(xùn)練后網(wǎng)絡(luò)的泛化性能得到提高,將其網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)遷移到雷達(dá)數(shù)據(jù)集,能夠較好地解決數(shù)據(jù)樣本數(shù)量少的問(wèn)題。

圖4 有無(wú)預(yù)訓(xùn)練的識(shí)別對(duì)比Fig.4 Comparison of recognition effects with and without pre-training

圖5 分類(lèi)評(píng)分圖Fig.5 Classification score for each class

4.3 字典學(xué)習(xí)識(shí)別效果

為展示字典學(xué)習(xí)的有效性,圖5給出了每類(lèi)測(cè)試樣本信號(hào)分別在各子字典上計(jì)算判別準(zhǔn)則函數(shù)得到的分類(lèi)評(píng)分。由圖5可以看出,每一類(lèi)信號(hào)只有在屬于同類(lèi)子字典上得到的評(píng)分是最小的,而在其他子字典上的評(píng)分值都較大,因此可以通過(guò)最后的分類(lèi)判決進(jìn)行信號(hào)識(shí)別。圖6給出了在信噪比為-5 dB下,由每個(gè)樣本得到的分類(lèi)評(píng)分組成的判別矩陣。從整個(gè)測(cè)試樣本可以看出,信號(hào)類(lèi)別對(duì)應(yīng)的樣本取得的值會(huì)比其他類(lèi)別的樣本更小,更有利于進(jìn)行識(shí)別。

圖6 類(lèi)別判定矩陣(SNR=-5 dB)Fig.6 Discriminative matrix (SNR=-5 dB)

4.4 算法性能對(duì)比

為對(duì)比不同樣本數(shù)量的影響,選擇本文方法、最小二乘支持向量機(jī)(LSSVM)方法、LeNet-1方法、LeNet-0方法進(jìn)行對(duì)比,其中LSSVM來(lái)自海軍工程大學(xué)陸振波編寫(xiě)的支持向量機(jī)工具箱,通過(guò)十折交叉驗(yàn)證得到最優(yōu)化參數(shù)。仿真結(jié)果如圖7所示。

圖7 不同樣本數(shù)量的識(shí)別率對(duì)比Fig.7 Recognition rates with number of different training samples

從圖7中可以看出,在低信噪比情況下,CDL算法依舊保持較高的識(shí)別率,雖然卷積特征是通過(guò)LeNet-1網(wǎng)絡(luò)提取出來(lái)的,但通過(guò)稀疏表示能夠進(jìn)一步將由噪聲導(dǎo)致的不同信號(hào)間不可區(qū)分部分稀疏掉,最大限度地留下具有判別性的信息,與LeNet-1方法中使用的全連接網(wǎng)絡(luò)分類(lèi)相比,識(shí)別率進(jìn)一步提高。另外,本文算法對(duì)樣本數(shù)量比較魯棒,在不同數(shù)量下的識(shí)別率基本平穩(wěn),特別在樣本數(shù)量?jī)H為100時(shí),依舊保持98%、95%和68%的識(shí)別率,能夠較好地解決因信號(hào)識(shí)別中樣本數(shù)量不足而導(dǎo)致使用神經(jīng)網(wǎng)絡(luò)算法學(xué)習(xí)不優(yōu)的問(wèn)題。LSSVM的識(shí)別結(jié)果表明,對(duì)于淺層機(jī)器學(xué)習(xí)算法,在提取到較好的信號(hào)特征后,依然能夠在樣本少的情況下取得較好的識(shí)別效果。

為進(jìn)一步驗(yàn)證本文算法的優(yōu)勢(shì),設(shè)置樣本數(shù)量為100,信噪比從-10 dB,以步長(zhǎng)5 dB增加到5 dB,并與文獻(xiàn)[4]、文獻(xiàn)[24]、文獻(xiàn)[25]、文獻(xiàn)[26]進(jìn)行識(shí)別率對(duì)比,結(jié)果如圖8所示。由圖8可以看出:本文算法在-5 dB時(shí)依舊保持90%以上的識(shí)別正確率,而在-5 dB后識(shí)別率下降較快。這是因?yàn)闀r(shí)頻圖像沒(méi)有進(jìn)行去噪預(yù)處理,導(dǎo)致算法在噪聲進(jìn)一步增大的情況下特征提取、稀疏表示的能力逐漸下降,但相對(duì)于其他4種方法,本文方法在抗噪性方面依然具有優(yōu)勢(shì);文獻(xiàn)[24]使用深度置信網(wǎng)絡(luò),在沒(méi)有足夠樣本訓(xùn)練的條件下,致使從0 dB開(kāi)始就處于較低的識(shí)別率;文獻(xiàn)[4]雖然在訓(xùn)練樣本數(shù)量上也僅使用了100組數(shù)據(jù),但在低信噪比下達(dá)到的識(shí)別效果與本文方法相差較大,且文獻(xiàn)[4]和文獻(xiàn)[25]僅使用時(shí)頻圖像的表面信息,盡管都是使用稀疏表示類(lèi)的方法,但是在特征提取上效果差于卷積特征,因此在低信噪比下識(shí)別率低于本文方法;文獻(xiàn)[26]采用頻率譜特征,在低信噪比下信號(hào)的頻率譜將被噪聲掩蓋,在很大程度上減少了類(lèi)間的區(qū)分性。

圖8 不同方法的識(shí)別率對(duì)比Fig.8 Recognition rates of different methods

5 結(jié)論

本文針對(duì)情報(bào)分析中面臨的LPI雷達(dá)信號(hào)樣本數(shù)量少、信噪比低的問(wèn)題,將卷積特征與字典學(xué)習(xí)相結(jié)合,構(gòu)建了CDL的雷達(dá)信號(hào)識(shí)別方法。通過(guò)仿真分析得出以下結(jié)論:

1)識(shí)別效果的好壞與特征提取有效性和特定條件下分類(lèi)器的選擇有密切關(guān)系,在只考慮少量樣本情況下,神經(jīng)網(wǎng)絡(luò)的分類(lèi)并不占優(yōu)勢(shì)。

2)利用CNN對(duì)圖像的深層特征描述,避免了人工特征選擇的復(fù)雜性,相比于其他淺層特征,提取到的卷積特征能夠在很大程度上表示不同信號(hào)的特點(diǎn),表明深度學(xué)習(xí)相關(guān)算法在特征提取中具有很大的優(yōu)勢(shì)。

3)在分類(lèi)中選擇字典學(xué)習(xí)的方法,對(duì)噪聲有較強(qiáng)的抗干擾性以及對(duì)樣本數(shù)量有較好的魯棒性,相比于原卷積網(wǎng)絡(luò)中的全連接層分類(lèi)有較好的效果。因此,本文方法在低信噪比和少量樣本情況下,更適用于電子情報(bào)分析的應(yīng)用中。

猜你喜歡
特征信號(hào)
抓住特征巧觀(guān)察
信號(hào)
鴨綠江(2021年35期)2021-04-19 12:24:18
完形填空二則
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
孩子停止長(zhǎng)個(gè)的信號(hào)
抓住特征巧觀(guān)察
基于LabVIEW的力加載信號(hào)采集與PID控制
一種基于極大似然估計(jì)的信號(hào)盲抽取算法
主站蜘蛛池模板: 女人18毛片一级毛片在线 | 拍国产真实乱人偷精品| 国产精女同一区二区三区久| 国产美女人喷水在线观看| 夜夜操天天摸| 亚瑟天堂久久一区二区影院| 99久久精品免费看国产免费软件| 日韩午夜片| 欧美不卡在线视频| 国内99精品激情视频精品| 日本一区二区不卡视频| 人妻一区二区三区无码精品一区| 99国产精品国产| 欧美国产成人在线| 久热这里只有精品6| 十八禁美女裸体网站| 亚洲国产在一区二区三区| 精品少妇人妻无码久久| 欧美成人影院亚洲综合图| 真实国产乱子伦视频| 日本精品视频| 国产aaaaa一级毛片| 国产高清又黄又嫩的免费视频网站| 国产福利免费视频| 国产区人妖精品人妖精品视频| 在线看片国产| 国产精品丝袜在线| 国产探花在线视频| 伊人久久大香线蕉影院| 在线免费亚洲无码视频| 青草视频免费在线观看| 亚洲天堂成人| 97影院午夜在线观看视频| 热久久综合这里只有精品电影| 欧美一区二区人人喊爽| av免费在线观看美女叉开腿| 波多野结衣一区二区三区四区视频| 日韩无码视频播放| 自拍偷拍一区| 手机精品视频在线观看免费| 亚洲天堂自拍| 中文字幕第4页| 久久福利片| 亚洲精品人成网线在线| 99热这里只有精品在线观看| 午夜福利网址| 乱人伦视频中文字幕在线| 国产91全国探花系列在线播放 | 在线免费观看AV| 国产一级毛片高清完整视频版| 无码久看视频| 在线中文字幕网| 在线视频一区二区三区不卡| 中文字幕有乳无码| 亚洲成人动漫在线| 国产精品精品视频| 老熟妇喷水一区二区三区| 日韩精品成人网页视频在线| 亚洲一区二区三区在线视频| 婷婷午夜影院| 午夜啪啪网| 青青青亚洲精品国产| 天天色综合4| 久久这里只有精品8| 国产欧美日韩91| 亚洲一区二区视频在线观看| 久久a级片| 亚洲色婷婷一区二区| 毛片网站免费在线观看| 日韩一级毛一欧美一国产| 国产精品原创不卡在线| 亚洲高清中文字幕| 国产一区二区网站| a级毛片免费播放| 五月激情婷婷综合| 精品第一国产综合精品Aⅴ| 国产精品尤物铁牛tv| 亚洲愉拍一区二区精品| 国产综合欧美| 久久无码av三级| 欧美a在线视频| 国产精品视频久|