999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于門控注意力網(wǎng)絡(luò)的調(diào)制信號分類識別算法

2025-02-08 00:00:00許雪姚文強李晨郭業(yè)才
現(xiàn)代電子技術(shù) 2025年3期

摘" 要: 針對神經(jīng)網(wǎng)絡(luò)提取的信號特征不足導致信號識別率下降的問題,提出基于門控注意力網(wǎng)絡(luò)的調(diào)制信號分類識別算法。該算法先對輸入信號進行混合數(shù)據(jù)增強,生成更多維度的樣本以便網(wǎng)絡(luò)更好地提取信號特征;再將處理后的樣本信號輸入雙通道網(wǎng)絡(luò)(CNN and BiLSTM Parallel),并行提取信號的空間特征和時間特征;最后將提取到的特征輸入到門控注意力網(wǎng)絡(luò)中,自適應(yīng)地調(diào)整特征權(quán)重,減少網(wǎng)絡(luò)復雜度。實驗表明,文中提出的算法最高分類準確率為92.3%,優(yōu)于對比的其他網(wǎng)絡(luò)模型。

關(guān)鍵詞: 自動調(diào)制識別; 雙通道網(wǎng)絡(luò); 長短時記憶網(wǎng)絡(luò); 門控注意力網(wǎng)絡(luò); 空間特征; 時間特征

中圖分類號: TN911.3?34; TP183" " " " " " " " 文獻標識碼: A" " " " " " " " " " " "文章編號: 1004?373X(2025)03?0069?07

Modulation signal classification and recognition algorithm

based on gated attention network

XU Xue1, YAO Wenqiang2, LI Chen1, GUO Yecai1

(1. Wuxi University, Wuxi 214105, China; 2. Jiangsu Electronic Information Product Quality Supervision and Inspection Institute, Wuxi 214072, China)

Abstract: The signal features extracted by neural network are insufficient, which leads to the decline of signal recognition rate, so this paper proposes a modulation signal classification and recognition algorithm based on gated attention network. In this algorithm, the input signal is subjected to mixed data augmentation to generate samples with more dimensions, so that the network can extract satisfactory signal features. And then, the processed sample signal is input into a dual?channel network (CNN and BiLSTM parallel) to extract the spatial and temporal features of the signal in parallel. Finally, the extracted features are input into the gated attention network to adjust feature weights adaptively and reduce network complexity. The experiment shows that the highest classification accuracy of the proposed algorithm is 92.3%, which is better than that of the other comparison network models in this article.

Keywords: automatic modulation recognition; dual?channel network; LSTM network; gated attention network; spatial feature; temporal feature

0" 引" 言

自動調(diào)制分類(AMC)作為一項關(guān)鍵技術(shù),在民用和軍事領(lǐng)域發(fā)揮著重要作用[1],其核心任務(wù)是在接收信號調(diào)制類型未知的情況下,自動對信號進行分類。傳統(tǒng)調(diào)制方式識別主要包括基于最大似然(LB)和基于特征提取(FB)[2?3]。LB方法通常使用概率模型和假設(shè)檢測理論,利用決策準則對接收信號進行分類[4];FB方法提取接收信號的特征[5],并利用分類器進行識別分類[6?7]。AMC學者一直專注于降低算法復雜度,提高信號特征的提取效率,并尋找更多更有效的先驗條件來提高識別率[8?9]。

近年來,基于深度學習[10?11]的調(diào)制類型識別方法取得了優(yōu)越的效果。相對于傳統(tǒng)調(diào)制方式識別算法需要人工設(shè)計專家特征提取信號的特征,深度學習能夠自動提取信號的全部特征,從而避免了對信號的繁瑣預處理步驟[12]。文獻[13]提出自編碼器模型對信號調(diào)制分類,但實驗使用的卷積神經(jīng)網(wǎng)絡(luò)(CNN)結(jié)構(gòu)簡單,提取的信號特征有限,導致識別精度較低;文獻[14]提出一種循環(huán)卷積神經(jīng)網(wǎng)絡(luò)(RNN),該網(wǎng)絡(luò)可以關(guān)注信號樣本前后的時間特征信息,補全了CNN在提取信號特征時的不足;文獻[15]使用更深層的深度神經(jīng)網(wǎng)絡(luò)(DNN)來識別調(diào)制信號的類型,這些網(wǎng)絡(luò)模型通常具有更多層的隱藏層和更多的神經(jīng)元,因此能在訓練數(shù)據(jù)集中提取更多的信號特征,獲得更高的分類準確率,但同時增加了算法的復雜度。

為解決此類問題,本文提出基于門控注意力網(wǎng)絡(luò)的調(diào)制信號分類識別算法,混合數(shù)據(jù)增強模塊對輸入信號進行時域數(shù)據(jù)增強和自擾動數(shù)據(jù)增強,該模塊將輸入信號進行時域變換和自擾動操作,以此增加樣本信號的數(shù)量,有利于神經(jīng)網(wǎng)絡(luò)提取信號的特征;將處理后的樣本輸入到雙通道網(wǎng)絡(luò)中進行特征提取,第一通道的CNN提取信號的空間特征,第二通道的BiLSTM網(wǎng)絡(luò)提取信號的時間特征;最后將提取的特征輸入到門控注意力網(wǎng)絡(luò)中進行分類計算,對提取的大量特征進行權(quán)重賦值,門控機制將無用的特征丟棄,大大減小了算法的復雜度。

1" 調(diào)制信號模型

調(diào)制信號主要分為模擬調(diào)制和數(shù)字調(diào)制兩類,模擬調(diào)制是將原始信息直接調(diào)制到載波信號上,而數(shù)字調(diào)制則是通過將數(shù)字信號轉(zhuǎn)換為模擬信號后再進行調(diào)制或直接調(diào)制數(shù)字信號[16]。在無線通信系統(tǒng)中,發(fā)射器負責將信息轉(zhuǎn)換為模擬調(diào)制信號或數(shù)字調(diào)制信號進行發(fā)送,如圖1所示,信道是信息傳輸?shù)慕橘|(zhì),而接收器則接收和解碼信號。接收到的信號表示如下:

[r(t)=-∞∞s(τ)?h(t-τ)dτ+n(t)] (1)

式中:[r(t)]為接收到的調(diào)制信號;[s(τ)]為發(fā)送的調(diào)制信號;[h(t)]表示信道的沖激響應(yīng);[n(t)]為噪聲信號。本文使用加性噪聲來研究復雜信道下的調(diào)制算法。

2" 基于門控注意力網(wǎng)絡(luò)的調(diào)制信號分類識別算法

基于門控注意力網(wǎng)絡(luò)的調(diào)制信號識別算法由輸入模塊、混合數(shù)據(jù)增強模塊(Mixed Data Augmentation, MDA)、雙通道網(wǎng)絡(luò)(CBNet)和門控注意力網(wǎng)絡(luò)(Gate Attention, GAtt)組成,算法整體架構(gòu)如圖2所示。

2.1" 混合數(shù)據(jù)增強算法

輸入神經(jīng)網(wǎng)絡(luò)的信號往往都是單一相位的調(diào)制信號,為了使神經(jīng)網(wǎng)絡(luò)更好地提取信號特征,本文提出了一種混合數(shù)據(jù)增強算法(MDA)。對原始數(shù)據(jù)進行時域增強和頻域增強,其中時域增強通過對信號進行時移操作以改變信號在時間軸上的位置,使網(wǎng)絡(luò)能夠?qū)W習到不同時間偏移下的特征;自擾動數(shù)據(jù)增強通過對輸入信號進行各種形式的擾動或變換,從而產(chǎn)生更多樣化、更具代表性的訓練樣本。混合數(shù)據(jù)增強模型如圖3所示。

2.1.1" 時域數(shù)據(jù)增強

時域移位操作通過在信號的時間序列上進行平移來實現(xiàn)。對于離散時間信號[x(n)],時域移位操作可以表示為[x(n-Δn)],其中[Δn]為采樣點的偏移量。以下是時域數(shù)據(jù)增強的具體步驟:

1) 創(chuàng)建一個新的信號[y(n)],其長度與[x(n)]相同;

2) 將[x(n)]的值從[n=0]到[n=N-1]復制到[y(n+k)];

3) 如果[kgt;0],則在[y(n)]的開始處填充[k]個零;如果[klt;0],則在[y(n)]的末尾處填充[-k]個零。

通過上述步驟,即可實現(xiàn)將信號[x(n)]向右移動[k]個采樣點的操作,從而進行時域移位。

2.1.2" 自擾動數(shù)據(jù)增強

自擾動進行數(shù)據(jù)增強是指隨機裁剪數(shù)據(jù)的一部分,將其拼接回剩余數(shù)據(jù)的過程[17]。假設(shè)進行自擾動增強的數(shù)據(jù)表示為[X],裁剪后剩余的數(shù)據(jù)表示為[Xc],裁剪后的剩余數(shù)據(jù)長度表示為[Xc],從原始數(shù)據(jù)中取出的隨機片段表示為[x]。自擾動增強數(shù)據(jù)可表示為:

[XOP=Xc[0?p]+x+Xcp:Xc] (2)

式中:[XOP]為自擾動數(shù)據(jù)增強算法的輸出;[p]為[Xc]的一個隨機位置。

自擾動算法涉及裁剪序列的部分內(nèi)容,將其添加到隨機位置,以擴展數(shù)據(jù)集并豐富特征。該算法提高了模型的泛化性能,即在訓練集之外的數(shù)據(jù)上表現(xiàn)良好的能力,增強數(shù)據(jù)的多樣性,減少過擬合的風險,而且不會引入額外的信息。

2.2" 雙通道網(wǎng)絡(luò)

2.2.1" 雙向長短時記憶網(wǎng)絡(luò)

盡管LSTM網(wǎng)絡(luò)能夠較好地提取信號的時間特征,但當前時間點的單元狀態(tài)只能通過上一個時間點的信息來更新。雙向長短時記憶網(wǎng)絡(luò)(BiLSTM)能夠同時從前向和后向分析輸入信號,提取更全面的時間特征[18?19]。其中,BiLSTM網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

在圖4中,網(wǎng)絡(luò)各層可用公式表示為:

[ht=f(W(1)xt+V(1)ht-1+b(1))] (3)

[ht=f(W(2)xt+V(2)ht+1+b(2))] (4)

[ht=ht⊕ht] (5)

[yt=g(Uht+c)] (6)

2.2.2" 雙通道網(wǎng)絡(luò)架構(gòu)

本文提出的雙通道網(wǎng)絡(luò)架構(gòu)如圖5所示。第一通道由CNN層和Flatten層組成,其中第一個CNN層包括256個2×3的卷積核,第二個CNN層包含256個1×3的卷積核;第二通道是由BiLSTM層組成,其中兩個BiLSTM層均包含128個單元。

2.3" 門控注意力網(wǎng)絡(luò)

注意力網(wǎng)絡(luò)是一種在機器學習和人工智能領(lǐng)域中常用的技術(shù)。注意力網(wǎng)絡(luò)能夠模仿人類注意力的行為,使模型在處理輸入數(shù)據(jù)時專注于重要的部分,忽略不相關(guān)或不重要的信息[20]。針對本文數(shù)據(jù)增強算法可能導致提取的特征爆炸式增長的問題,提出基于門控機制的注意力網(wǎng)絡(luò)。GAtt網(wǎng)絡(luò)能夠利用門控機制對輸入的特征進行篩選,排除無關(guān)特征的干擾,減少注意力網(wǎng)絡(luò)的復雜度,GAtt網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

由圖6可知,本文提出的門控注意力網(wǎng)絡(luò)由輸入層、門控層、注意力層和輸出層組成,其工作流程如下。

1) 計算門控參數(shù)[gt]。首先根據(jù)輸入的信號特征計算門控參數(shù),使用Sigmoid函數(shù)輸出一個[0,1]之間的值,其公式表示為:

[gt=σ(Wg?ht+bg)] (7)

式中:[Wg]和[bg]為門控層參數(shù);[σ()]為Sigmoid函數(shù)。

2) 計算注意力權(quán)重。信號特征值輸入到注意力層中,進行注意力權(quán)重的計算,可表示為:

[eti=ReLU(We?ht+Ue?xi+be)] (8)

[Ati=exp(eti) i=1Texp(eti)] (9)

式中:[We]、[Ue]、[be]表示注意力機制參數(shù);[Ati]表示注意力輸出權(quán)重。

3) 結(jié)合門控參數(shù)和注意力權(quán)重更新[ht]。將自門控參數(shù)[gt]與注意力權(quán)重[Ati]結(jié)合,以動態(tài)地調(diào)整隱藏狀態(tài)[ht],其公式為:

[ht=gt?ht+(1-gt)?i=1TAti?xi] (10)

式中[ht]表示更新后的狀態(tài)。

3" 實驗結(jié)果與討論

本實驗采用RML2016.10a數(shù)據(jù)集[21],圖7展示了部分信號的I/Q波形。

該數(shù)據(jù)集通過復雜信道后由GUN Radio生成,其數(shù)據(jù)集的采樣速率為200 kHz,最大采樣率偏移為50 Hz。并且每個信號都由128個采樣點組成,每個信號包含8個符號。整個數(shù)據(jù)集中共有220 000個信號,這些信號在信噪比范圍從-20~18 dB之間變化,提供了多樣的信號環(huán)境,可以用于評估不同噪聲條件下的通信系統(tǒng)性能[22]。

本實驗將RML2016.10a數(shù)據(jù)集中的信號樣本分成兩部分:70%的樣本用作訓練集,30%的樣本則用作測試集。

3.1" 網(wǎng)絡(luò)的性能分析與對比實驗

為驗證混合數(shù)據(jù)增強算法和門控注意力網(wǎng)絡(luò)對最終分類識別結(jié)果的影響,本文實驗分別進行MDA+CBNet+GAtt、MDA+CBNet、CBNet處理,其分類準確率如圖8所示。

通過圖8可以看出,使用CBNet網(wǎng)絡(luò)進行調(diào)制信號識別的識別準確率為85.7%。加入混合數(shù)據(jù)增強算法(MDA)后,網(wǎng)絡(luò)可以提取的信號特征變多,網(wǎng)絡(luò)的識別準確率提升了2.5%,為88.2%。繼續(xù)加入門控注意力網(wǎng)絡(luò)(GAtt)后,提取的信號特征被賦予權(quán)重,網(wǎng)絡(luò)的識別準確率比MDA+CBNet提升了4.1%,為92.3%。

本文將CBNet與CNN[13]、CNN?LSTM[23]、ResNet[24]、DenseNet[15]和KNN[25]進行對比實驗,信號識別準確率如圖9所示。

通過圖9可知,CBNet的信號識別準確率最高,為85.7%。與其他網(wǎng)絡(luò)模型對比,KNN識別準確率最低為69%;CNN網(wǎng)絡(luò)能夠通過提取信號特征來識別信號類型,信號的識別準確率有所提高,為72.9%;ResNet、DenseNet網(wǎng)絡(luò)模型擁有更深層的網(wǎng)絡(luò)和更多的參數(shù),因此對樣本信號有更好的識別率,分別為81.0%和80.1%;CNN?LSTM網(wǎng)絡(luò)模型使用CNN和LSTM提取信號的空間特征和時間特征,此類特征符合調(diào)制信號的特性,因此識別率較高,為82.2%。

3.2" 網(wǎng)絡(luò)模型混淆矩陣分析

為研究不同網(wǎng)絡(luò)模塊對各個調(diào)制類型的分類識別率,SNR=-10 dB時CBNet、ResNet、DenseNet和CNN?LSTM的混淆矩陣如圖10所示。

從圖10可以看出,在SNR=-10 dB時,四種網(wǎng)絡(luò)模型對各類調(diào)制信號的分類準確率都較低,調(diào)制信號的混淆現(xiàn)象嚴重。但相比于圖10b)~圖10d),CBNet的混淆矩陣的對角線更加清晰,因此識別準確率更好。

當SNR=10 dB時,CBNet、ResNet、DenseNet和CNN?LSTM的混淆矩陣如圖11所示。

由圖11可知,在SNR=10 dB時,各類網(wǎng)絡(luò)模型均能識別出絕大部分的調(diào)制信號類型。與對比算法相比,CBNet網(wǎng)絡(luò)模型對各類信號的識別率更好,因此總的識別準確率更高。

最后實驗得出了在SNR=18 dB高信噪比下,本文網(wǎng)絡(luò)模型的混淆矩陣如圖12所示。

由圖12看出,本文提出的CBNet對大部分的調(diào)制信號都有很好的識別率。但是,單純使用神經(jīng)網(wǎng)絡(luò)提取QAM16和QAM64的信號特征不足以清晰地分辨出兩類調(diào)制信號,因此兩類調(diào)制信號的識別率略低。

4" 結(jié)" 語

本文提出了基于門控注意力網(wǎng)絡(luò)的調(diào)制信號分類識別算法,該算法通過混合數(shù)據(jù)增強擴充樣本信號,解決了神經(jīng)網(wǎng)絡(luò)提取信號特征不足的問題;提出雙通道神經(jīng)網(wǎng)絡(luò),解決傳統(tǒng)網(wǎng)絡(luò)難以充分提取樣本信號的時間特征和空間特征的問題;最后提出門控注意力網(wǎng)絡(luò),解決了因信號樣本增加可能導致提取特征暴增的問題。實驗表明,本文提出的算法能夠明顯提高信號的識別準確率。未來工作方向在于提高QAM16信號和QAM64信號的識別準確率。

注:本文通訊作者為許雪。

參考文獻

[1] YANG Y W, GAO F F, MA X L, et al. Deep learning?based channel estimation for doubly selective fading channels [J]. IEEE access, 2019, 7: 36579?36589.

[2] LI L Q, XIE L H, HUANG Z P, et al. A deep learning based method for blind recognition of LDPC codes [C]// Information Communication Technologies Conference. [S.l.: s.n.], 2021: 112?116.

[3] SHEN B X, WU H Y, HUANG C. Blind recognition of channel codes via deep learning [C]// IEEE Global Conference on Signal and Information Processing. New York: IEEE, 2019: 1?5.

[4] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need [C]// Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017. [S.l.: s.n.], 2017: 5998?6008.

[5] KONG W, YANG Q, JIAO X, et al. A transformer?based CTDNN structure for automatic modulation recognition [C]// Proceedings of 2021 7th International Conference on Computer and Communications. [S.l.: s.n.], 2021: 159?163.

[6] CAI J J, GAN F M, CAO X H, et al. Signal modulation classification based on the transformer network [J]. IEEE transactions on cognitive communications and networking, 2022, 8(3): 1348?1357.

[7] LUAN S Y, GAO Y R, CHEN W, et al. Automatic modulation classification: Decision tree based on error entropy and global?local feature?coupling network under mixed noise and fading channels [J]. IEEE wireless communications letters, 2022, 11(8): 1703?1707.

[8] ZHENG Q H, ZHAO P H, WANG H J, et al. Fine?grained modulation classification using multi?scale radio transformer with dual?channel representation [J]. IEEE communications letters, 2022, 26(6): 1298?1302.

[9] WEST N E, O′SHEA T J. Deep architectures for modulation recognition [C]// 2017 IEEE International Symposium on Dynamic Spectrum Access Networks (DySPAN). New York: IEEE, 2017: 1?6.

[10] 張嘉文.基于深度學習的數(shù)字信號調(diào)制識別技術(shù)的研究[D].成都:電子科技大學,2022.

[11] 郭業(yè)才,王慶偉.基于截斷遷移與并行殘差網(wǎng)絡(luò)的調(diào)制識別算法[J].系統(tǒng)仿真學報,2022,34(9):2009?2018.

[12] 李瑞佳.面向復雜結(jié)構(gòu)數(shù)據(jù)的聚類算法研究[D].成都:電子科技大學,2022.

[13] O′SHEA T J, HOYDIS J. An introduction to deep learning for the physical layer [J]. IEEE transactions on cognitive communications and networking, 2017, 3(4): 563?575.

[14] MEI F, CHEN H, LEI Y K. Blind recognition of forward error correction codes based on a depth distribution algorithm [J]. Symmetry, 2021, 13(6): 1?24.

[15] HONG D H, ZHANG Z L, XU X D. Automatic modulation classification using recurrent neural networks [C]// 2017 3rd IEEE International Conference on Computer and Communications (ICCC). New York: IEEE, 2017: 695?700.

[16] SHEN B X, HUANG C, XU W J, et al. Blind channel codes recognition via deep learning [J]. IEEE journal on selected areas in communications, 2021, 39(8): 2421?2433.

[17] LI S D, ZHOU J, HUANG Z P, et al. Recognition of error correcting codes based on CNN with block mechanism and embedding [J]. Digital signal processing, 2021, 111: 1?8.

[18] SURIYA M, SUMITHRA M G. Overview of spectrum sharing and dynamic spectrum allocation schemes in cognitive radio networks [C]// 2022 8th International Conference on Advanced Computing and Communication Systems (ICACCS). New York: IEEE, 2022: 934?937.

[19] KERECHANIN Y, BOBROV P. EEG denoising using wavelet packet decomposition and independent component analysis [C]// Fourth International Conference Neurotechnologies and Neurointerfaces (CNN). New York: IEEE, 2022: 68?70.

[20] KUMAR Y, SHEORAN M, JAJOO G, et al. Automatic modulation classification based on constellation density using deep learning [J]. IEEE communications letters, 2020, 24(6): 1275?1278.

[21] O′SHEA T J, WEST N. Radio machine learning dataset generation with GNU radio [C]// Proceedings of the GNU Radio Conference. [S.l.: s.n.], 2016: 69?74.

[22] 郭業(yè)才,姚文強.基于信噪比分類網(wǎng)絡(luò)的調(diào)制信號分類識別算法[J].電子與信息學報,2022,44(10):3507?3515.

[23] YAO T Y, CHAI Y, WANG S, et al. Radio signal automatic modulation classification based on deep learning and expert features [C]// 2020 IEEE 4th Information Technology, Networking, Electronic and Automation Control Conference (ITNEC). New York: IEEE, 2020: 1225?1230.

[24] WEI Z X, JU Y, SONG M. A method of underwater acoustic signal classification based on deep neural network [C]// 2018 5th International Conference on Information Science and Control Engineering (ICISCE). New York: IEEE, 2018: 46?50.

[25] ZHU Z C, ASLAM M W, NANDI A K. Genetic algorithm optimized distribution sampling test for M?QAM modulation classification [J]. Signal processing, 2014, 94: 264?277.

主站蜘蛛池模板: 久久久受www免费人成| 在线观看91香蕉国产免费| 天天操精品| 欧美黄网在线| 亚洲愉拍一区二区精品| 黄色福利在线| 97视频在线精品国自产拍| 免费国产高清视频| 国产性精品| 中文字幕资源站| YW尤物AV无码国产在线观看| 国产精品亚洲综合久久小说| 亚洲欧美日韩天堂| 二级特黄绝大片免费视频大片| 啦啦啦网站在线观看a毛片| 伊人AV天堂| 免费在线色| 亚洲综合一区国产精品| AV片亚洲国产男人的天堂| 最新亚洲人成网站在线观看| 不卡无码h在线观看| 免费精品一区二区h| 亚洲有码在线播放| 亚洲永久色| 小13箩利洗澡无码视频免费网站| 日韩无码黄色网站| 国产成人无码AV在线播放动漫| 精品一区国产精品| 亚洲精品老司机| 欧美日韩亚洲国产| 欧美成人国产| 亚洲精品日产AⅤ| 狠狠操夜夜爽| 国产内射一区亚洲| 国产麻豆91网在线看| 国产主播福利在线观看| 亚洲综合经典在线一区二区| 另类重口100页在线播放| 亚洲精品视频网| 日韩精品视频久久| 欧美日韩激情在线| 老司机午夜精品网站在线观看| 国产超碰一区二区三区| 女人18毛片一级毛片在线| 一级黄色网站在线免费看| 国产一级妓女av网站| 国产在线自乱拍播放| 国产日本欧美亚洲精品视| 久久semm亚洲国产| 免费观看无遮挡www的小视频| 欧美国产在线精品17p| 免费在线不卡视频| 国产中文一区二区苍井空| 国产精品久久久免费视频| 人妻无码一区二区视频| 欧美在线三级| 欧日韩在线不卡视频| 久久99国产精品成人欧美| 色爽网免费视频| 久久国产高清视频| 亚洲无码久久久久| 久久精品国产91久久综合麻豆自制| 91热爆在线| 污污网站在线观看| 国产一级在线观看www色| 日本AⅤ精品一区二区三区日| 另类专区亚洲| 欧洲熟妇精品视频| a在线亚洲男人的天堂试看| 免费可以看的无遮挡av无码 | 久久久久免费精品国产| 午夜在线不卡| 久热中文字幕在线观看| 亚洲无码电影| 97视频在线观看免费视频| 伊人久久大香线蕉成人综合网| 国内精品一区二区在线观看| 热re99久久精品国99热| 在线播放国产99re| 成人国产免费| 亚洲一区二区三区香蕉| 欧美视频在线播放观看免费福利资源|