999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于特征融合和MACLNN的通信信號自動調(diào)制識別

2022-11-24 01:53:40吳美霖高瑜翔涂雅培覃鏡濤唐芷宣
無線電工程 2022年11期
關鍵詞:特征信號模型

吳美霖,高瑜翔*,涂雅培,覃鏡濤,唐芷宣,胡 斐

(1.成都信息工程大學 通信工程學院,四川 成都 610225;2.氣象信息與信號處理四川省高校重點實驗室,四川 成都 610225)

0 引言

自動調(diào)制識別(Automatic Modulation Classification,AMC)技術在電子偵察、認知無線電等[1-2]智能通信應用中一直發(fā)揮著重要作用。隨著通信信號調(diào)制方式的激增以及通信電磁環(huán)境愈加復雜,如何提高調(diào)制識別的精度、降低特征提取的復雜度已成為通信領域研究的熱點。

傳統(tǒng)的調(diào)制識別方式識別性能嚴重依賴于人工提取特征的區(qū)分度,對于多種調(diào)制方式的識別需要設計的特征個數(shù)增加,對特征區(qū)分度的要求也更高。近年來,無線通信技術的發(fā)展逐步進入認知智能時代,大量研究人員將深度學習應用到AMC領域。文獻[3]將時頻圖像處理為二值圖像,利用卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)完成8種認知無線電波形的分類。文獻[4]通過生成對抗網(wǎng)絡增強數(shù)據(jù)集,生成輪廓星座圖用于數(shù)字調(diào)制方式的識別。文獻[5]通過平滑循環(huán)相關熵譜和殘差網(wǎng)絡完成了Alpha穩(wěn)定分布噪聲下的調(diào)制識別。調(diào)制信號圖像特征集的制作及后續(xù)一系列圖像處理操作,將會引入圖像處理領域的難題到原本的調(diào)制識別工作中。

目前,AMC的調(diào)制信號分類特征參數(shù)已經(jīng)非常成熟,其中不乏計算量低、分類效果好的特征參數(shù)。研究表明,多輸入結構有利于調(diào)制信號隱藏特征的充分提取及融合,有利于提高AMC的識別精度。注意力機制能夠改變輸入特征不同維度的權重,應用于AMC中,可以為神經(jīng)網(wǎng)絡學習到的調(diào)制信號特征分配權重,進而減少數(shù)據(jù)冗余。據(jù)此,本文提出了一種基于特征融合和自注意力機制的并聯(lián)調(diào)制識別算法——MACLNN。提出的模型不再依賴于復雜冗長的網(wǎng)絡結構,無需制作調(diào)制信號的圖像特征集。將原始采樣數(shù)據(jù)和特征參數(shù)組合作為網(wǎng)絡的輸入,使用復雜度更低的淺層網(wǎng)絡完成11類數(shù)字和模擬調(diào)制信號的高精度識別。

1 特征參數(shù)提取

1.1 高階累積量

通信信號的特征分為統(tǒng)計量特征、譜相關特征和小波變換特征等,主要表征為特征參數(shù)和圖像的形式。出于探尋一種便于在硬件平臺部署、可作為數(shù)模調(diào)制信號混合識別工作通用模型的目的,使用復雜度更低的特征參數(shù)組合作為分支模型的輸入。實驗原始數(shù)據(jù)集為IQ數(shù)據(jù)集,因此接收到的數(shù)據(jù)可以表示為:

x[i]=xI[i]+jxQ[i],

(1)

式中,x[i]表示第i個信號樣本;xI[i]和xQ[i]分別表示第i個信號的同相分量和正交分量。由于高斯噪聲在二階以上的統(tǒng)計量為零,高階累積量對高斯噪聲具有魯棒性,因此其常用于信號的調(diào)制方式識別。

通過累積量-矩公式(C-M公式)和矩-累積量公式(M-C公式)[6],對于零均值復隨機信號x[i]的p階矩和q階累積量可表示為:

E[x(i)p-qx*(i)q],

(2)

(3)

式中,*表示復共軛;p為階數(shù)(p>q);q為取復共軛的序列個數(shù);E表示求均值,下同。經(jīng)過推導,可得到x(i)的常用高階累積量表達式[7]為:

C21=M21,

(4)

(5)

C41=M41-3M20M21,

(6)

(7)

(8)

(9)

(10)

(11)

因為各種調(diào)制方式的高階累積量不完全相同,所以從中提取的信號特征可用于信號的調(diào)制方式識別。為節(jié)約計算開銷,根據(jù)經(jīng)驗構造以下3種分類特征參數(shù):

(12)

(13)

(14)

1.2 特征參數(shù)集

為了進一步區(qū)分模擬調(diào)制方式寬帶調(diào)頻(Wide Band Frequency Modulation,WBFM)和雙邊帶抑制載波調(diào)幅(Amplitude Modulation-Double Side Band,AM-DSB),本文引入了零中心歸一化瞬時幅度譜密度最大值Rmax[8]作為第4個調(diào)制特征參數(shù):

(15)

式中,N為每條采樣信號的采樣點數(shù),即128;Acn(i)為零中心歸一化瞬時幅度,計算式為:

(16)

然而,這些特征對于多進制正交幅度調(diào)制(Multiple Quadrature Amplitude Modulation,MQAM)的分類效果不佳,因此加入歸一化采樣信號的功率譜密度最大值(PSD)、峰均方根比(PRR)和峰均比(PAR)這3個特征參數(shù),分別作為特征參數(shù)集的F5,F(xiàn)6,F(xiàn)7:

(17)

(18)

(19)

式中,N為接收信號x(i)的采樣點數(shù);x(:)為x(i)的所有采樣點;max()表示x(i)中采樣點最大值。

由Rmax,PSD,PRR,PAR以及3種組合重構的高階累積量共同構成特征參數(shù)數(shù)據(jù)集F=[F1,F2,F3,F4,F5,F6,F7,F8]。

2 MACLNN網(wǎng)絡設計

2.1 MACLNN網(wǎng)絡結構

本文網(wǎng)絡MACLNN為雙路輸入的并聯(lián)結構,其中分支1使用2層CNN代替決策樹等傳統(tǒng)方法對調(diào)制特征參數(shù)進行特征提取,加入自注意力機制進一步獲取信號的關鍵特征,是對參數(shù)類調(diào)制數(shù)據(jù)集特征提取的一種新結構。本分支是對參數(shù)類調(diào)制數(shù)據(jù)集的一種新的處理思路,使用深度學習的方法對參數(shù)數(shù)據(jù)集進行特征提取處理。

分支2為了充分提取時間序列的特征,使用一層CNN和2層長短期神經(jīng)網(wǎng)絡串聯(lián)的結構,同時加入自注意力機制,減少網(wǎng)絡疊加帶來的數(shù)據(jù)冗余。分支2進行原始調(diào)制信號的調(diào)制方式識別時,其在公開數(shù)據(jù)集上具有較好的識別性能。

經(jīng)過并聯(lián)層拼接2路分支模型所提取的特征,進行展平后通過Dense層完成調(diào)制分類識別。MACLNN的結構如圖1所示。

圖1 MACLNN結構

2.2 CNN

CNN是一種由卷積運算和深層結構組成的前反饋神經(jīng)網(wǎng)絡,其基本結構單元有卷積層、激活層、池化層和全連接層,CNN的作用可看作輸入到輸出的映射。隨著智能信息處理領域的發(fā)展,CNN分類的能力逐漸被研究人員應用到調(diào)制識別技術中并加以改進。

無論是特征參數(shù)還是原始數(shù)據(jù)集的分支模型輸入,卷積層均使用一維卷積。MACLNN的分支1用于特征參數(shù)組合的輸入,因此將卷積層的核尺寸設為1,且不使用池化層;分支2用于采樣序列的輸入,根據(jù)其輸入結構將核尺寸設計為8,2條分支模型所使用的卷積層濾波器個數(shù)均為64。

2.3 長短時記憶網(wǎng)絡

為了更好地提取原始序列的特征信息,本文引入了長短時記憶網(wǎng)絡(Long Short-term Memory,LSTM)。LSTM在文獻[9]中首次提出,被廣泛應用于處理時間序列數(shù)據(jù)。相較于循環(huán)神經(jīng)網(wǎng)絡(Recurrent Neural Network,RNN),LSTM引入了輸入門、遺忘門和輸出門,以及與隱藏狀態(tài)相同的記憶單元,用于記錄附加信息,其單元結構如圖2所示。

圖2 LSTM結構

圖2中,Ct和Ct-1分別表示當前時刻和上一時刻的細胞狀態(tài);ft表示遺忘門;it表示輸入門;ht表示輸出門。計算過程如下:

ft=σ(Wf·[ht-1,xt]+bf),

(20)

it=σ(Wi·[ht-1,xt]+bi),

(21)

(22)

(23)

ht=σ(W0[ht-1,xt]+bo)?tanh(Ct)。

(24)

由于LSTM的閘門機制有利于長時間儲存有用的歷史信息,因此可以持續(xù)地學習數(shù)據(jù)特征。LSTM在處理時間序列任務時,表現(xiàn)出優(yōu)良的性能。MACLNN的分支2使用了2層LSTM結構來提取時間序列的特征,每層LSTM后使用Dropout層來防止過擬合,所提取的特征經(jīng)過并聯(lián)層與特征參數(shù)輸入層得到的特征進行拼接,送入全連接層進行分類處理。

2.4 注意力機制

深度學習領域存在信息過載的問題,為了更好地分配資源,將有限的計算資源用于處理更重要的信息,本文引入了注意力機制。注意力機制可以為關鍵特征分配更大的權重,使模型的注意力更集中于關鍵的部分特征。研究表明[10],注意力機制的加入有助于提高AMC的精度。同時,考慮到后續(xù)工作以及AMC工作的難度將逐漸加大,所需特征數(shù)也隨之增加,因此在分支網(wǎng)絡的末端均加入自注意力機制,用于改變時間維度的權重,使得深度學習模型關注到更關鍵的特征參數(shù)。

3 實驗與結果分析

3.1 數(shù)據(jù)集

為方便驗證和對比MACLNN的性能,使用文獻[11]提供的RadioML2016.10a數(shù)據(jù)集進行實驗,此數(shù)據(jù)集包括11種調(diào)制類型:8PSK,BPSK,CPFSK,GFSK,PAM4,QAM16,QAM64,QPSK,AM-DSB,AM-SSB,WBFM。在18 dB下的可視化結果如圖3所示,橫坐標表示采樣點,縱坐標表示IQ數(shù)據(jù)的采樣值大小,紅色曲線、藍色曲線分別表示采樣信號實部、虛部在時域的采樣值。

(a)8PSK

圖3的數(shù)據(jù)可視化中,信號樣本的信噪比區(qū)間為[-20,18]dB,以2 dB為間隔,采樣長度為128,數(shù)據(jù)存儲為IQ信號。采樣數(shù)據(jù)使用真實的文本信號和語言信號,在通信信道中添加了加性高斯白噪聲、多徑衰落、中心頻率偏移和采樣率偏移等干擾,因此十分接近真實場景下的采樣數(shù)據(jù)。

3.2 仿真條件及評估方法

將RadioML2016.10a數(shù)據(jù)集中70%的數(shù)據(jù)樣本作為訓練集,15%的數(shù)據(jù)樣本作為驗證集,15%的數(shù)據(jù)樣本作為測試集。實驗環(huán)境為Windows操作系統(tǒng),搭載NVIDIA RTX 3060 GPU,使用Python接口的tensorflow2.4.0深度學習框架完成仿真實驗。仿真實驗部分采用分類識別準確率對網(wǎng)絡模型分類精度進行度量,使用混淆矩陣對各類調(diào)制方式的識別準確率及錯誤識別情況進行分析與對比,使用網(wǎng)絡參數(shù)量作為網(wǎng)絡模型復雜度的衡量指標。

3.3 仿真分析

使用相同的數(shù)據(jù)集,本文按照AMC中的經(jīng)典模型結構設計了3種模型與MACLNN進行對比,用于驗證所提方法是否能有效提取調(diào)制信號特征,是否能提高AMC的識別率。其中IQ_CNN為3層CNN,IQ_CLNN為1層CNN和2層LSTM,IQ_BiLSTM為1層CNN和2層BiLSTM,以上算法均為級聯(lián)結構。仿真實驗所用CNN均為一維CNN,3種對比模型與MACLNN的分支2所涉及的濾波器個數(shù)、卷積核尺寸等參數(shù)均相同。

不同算法精度對比如圖4所示。由圖4可知,相較于其他3種模型,MACLNN的識別準確率有明顯提升,在信噪比達到-12 dB后,MACLNN性能開始優(yōu)于其他算法模型。在0 dB識別準確率達到89%,在高信噪比處MACLNN精度最高達到94.1%,相較于其他3種算法模型,高信噪比處的識別精度高出3%以上。

圖4 不同算法精度對比

為了更好地說明MACLNN對不同調(diào)制方式識別性能的改善,使用混淆矩陣對4 dB下的IQ_CNN,IQ_CLNN和MACLNN進行對比分析。混淆矩陣中,橫、縱指標相同時對應值越大表示此類調(diào)制方式識別率越高。3種算法在4 dB時的混淆矩陣如圖5~圖7所示。

圖5 SNR=4 dB,IQ_CNN混淆矩陣

圖6 SNR=4 dB,IQ_CLNN混淆矩陣

圖7 SNR=4 dB,MACLNN混淆矩陣

為了進一步評估MACLNN的性能及模型復雜度,將其與使用相同數(shù)據(jù)集的同類型算法對比,將對比算法分別記為1_CNN-BiLSTM[11],2_CLDNN[12],3_CLSNN[13],4_CNN-LSTM[14]和5_HNIC[15],將訓練參數(shù)、最高識別精度作為指標,對比結果如表1所示。

表1 同類型算法對比

相較于對比的5種算法,MACLNN以較少的訓練參數(shù),僅使用原始數(shù)據(jù)和少量特征參數(shù)作為模型輸入,在128采樣長度的模擬、數(shù)字調(diào)制數(shù)據(jù)集中實現(xiàn)了最高94.1%的AMC精度,達到了當前的最高精度。

4 結束語

針對模擬、數(shù)字調(diào)制混合識別復雜度高和精度低的問題,提出了一種基于特征融合和自注意力機制的并聯(lián)調(diào)制識別模型。MACLNN使用更簡單的特征參數(shù)組合與原始數(shù)據(jù)集作為數(shù)據(jù)輸入,同時降低了分類網(wǎng)絡的復雜度,實現(xiàn)了數(shù)字、模擬調(diào)制信號的高精度識別。實驗結果表明,MACLNN在RML2016.10a的識別準確率高于同類算法,最高識別準確率為94.1%。而引入的特征參數(shù)組合方式有效提高了16QAM,64QAM和WBFM的識別精度,在信噪比4 dB時這3種調(diào)制方式均達到了95%以上的平均識別率。為降低數(shù)字、模擬調(diào)制方式的AMC技術的難度提供了一種新思路,模型復雜度低也使得所提算法更具實際應用價值。

猜你喜歡
特征信號模型
一半模型
信號
鴨綠江(2021年35期)2021-04-19 12:24:18
重要模型『一線三等角』
完形填空二則
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
基于FPGA的多功能信號發(fā)生器的設計
電子制作(2018年11期)2018-08-04 03:25:42
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 国产精品嫩草影院视频| 精品午夜国产福利观看| 欧美伦理一区| 日本免费高清一区| 黄色片中文字幕| 久热re国产手机在线观看| 99视频有精品视频免费观看| 精品1区2区3区| 91精品国产自产91精品资源| 免费观看欧美性一级| 国产成本人片免费a∨短片| 激情乱人伦| 最新亚洲人成网站在线观看| 青青国产在线| 国内毛片视频| 蜜臀AV在线播放| 狠狠色噜噜狠狠狠狠色综合久 | 欧美性精品| 青草视频免费在线观看| 国产精品一区二区无码免费看片| 国产青榴视频| 国产成人精品一区二区秒拍1o | 91久久精品国产| 91精品专区国产盗摄| 91精品国产91久无码网站| 国产丰满成熟女性性满足视频| 亚洲AⅤ永久无码精品毛片| 国产精品白浆无码流出在线看| 国产成人资源| 欧美日韩资源| 国产成人乱无码视频| 91色爱欧美精品www| 天天综合亚洲| 色亚洲激情综合精品无码视频 | 国产成人在线无码免费视频| 成人综合在线观看| 亚洲欧美色中文字幕| 高清色本在线www| 亚洲欧美在线综合一区二区三区| 四虎综合网| 国产精品午夜电影| 欧美一区二区啪啪| 欧美国产日韩另类| 日韩天堂在线观看| 一级毛片在线播放| 夜精品a一区二区三区| 人人爱天天做夜夜爽| 久久综合色天堂av| 欧美色99| 亚洲性影院| 老司国产精品视频91| 国产在线精品人成导航| 沈阳少妇高潮在线| 午夜欧美在线| 黄色a一级视频| 欧美a在线看| av午夜福利一片免费看| 依依成人精品无v国产| www亚洲天堂| 亚洲精品欧美日本中文字幕| 超清无码一区二区三区| 欧美成在线视频| 免费在线国产一区二区三区精品 | 精品久久久久久成人AV| 日本三级精品| 在线精品欧美日韩| 国产精品福利在线观看无码卡| 浮力影院国产第一页| 国产无遮挡猛进猛出免费软件| 狠狠躁天天躁夜夜躁婷婷| 久久青草热| 女人18毛片久久| 无码中文字幕乱码免费2| 免费一看一级毛片| 一级爱做片免费观看久久| 日韩人妻精品一区| 久久久精品无码一区二区三区| 午夜精品久久久久久久2023| 99久久亚洲精品影院| av尤物免费在线观看| 国产美女免费| 狠狠综合久久|