999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種用于因果式語音增強(qiáng)的門控循環(huán)神經(jīng)網(wǎng)絡(luò)

2023-01-09 14:28:22李江和
計(jì)算機(jī)工程 2022年11期
關(guān)鍵詞:特征信號

李江和,王 玫

(桂林理工大學(xué) 信息科學(xué)與工程學(xué)院,廣西 桂林 541006)

0 概述

近年來,語音增強(qiáng)技術(shù)在軍事、商業(yè)等領(lǐng)域發(fā)揮著重要作用,在工業(yè)界與學(xué)術(shù)界受到越來越多的關(guān)注。在語音識別、通信等應(yīng)用領(lǐng)域,由于背景噪聲的影響,語音質(zhì)量、語音可懂度等指標(biāo)大幅下降,從而導(dǎo)致語音識別率下降,同時(shí)給試聽者帶來較差的聽覺體驗(yàn)。為解決該問題,語音增強(qiáng)技術(shù)在語音預(yù)處理中成為不可或缺的一部分[1]。

當(dāng)前,語音增強(qiáng)技術(shù)發(fā)展迅速,傳統(tǒng)經(jīng)典的語音增強(qiáng)算法包括譜減法[2-3]、統(tǒng)計(jì)模型法[4-6]、維納濾波[7-8]等。傳統(tǒng)譜減法的關(guān)鍵在于對噪聲頻譜進(jìn)行估計(jì),通過在帶噪頻譜中減去噪聲譜,從而得到增強(qiáng)后的語音頻譜。在傳統(tǒng)基于譜減法的語音增強(qiáng)方法中,需要對先驗(yàn)信噪比進(jìn)行估計(jì),但這會影響到算法性能。除此之外,基于子空間的語音增強(qiáng)算法[9-10]也得到一定發(fā)展。

傳統(tǒng)的語音增強(qiáng)方法均建立在數(shù)字信號處理的基礎(chǔ)上。近年來,基于深度學(xué)習(xí)的語音增強(qiáng)方法逐漸引起研究人員的關(guān)注并展現(xiàn)出優(yōu)越性能。相較傳統(tǒng)的基于數(shù)字信號處理的語音增強(qiáng)方法,基于深度學(xué)習(xí)的語音增強(qiáng)方法在語音客觀可懂度、語音感知質(zhì)量(PESQ)等指標(biāo)上得到大幅提升。XU 等[11]提出基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的語音增強(qiáng)方法,通過多目標(biāo)、多通道的網(wǎng)絡(luò)學(xué)習(xí),在語音可懂度、語音感知質(zhì)量等指標(biāo)上得到較大提升。由于語音信號在頻域表現(xiàn)出時(shí)頻相關(guān)性,為了更好地學(xué)習(xí)這種相關(guān)性,文獻(xiàn)[12-14]提出基于卷積循環(huán)神經(jīng)網(wǎng)絡(luò)的語音增強(qiáng)方法,通過卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)頻譜的空間相關(guān)性,同時(shí)利用循環(huán)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)頻譜的時(shí)間相關(guān)性,研究結(jié)果表明,這種方法能更好地建模語音信號。一些學(xué)者通過研究發(fā)現(xiàn),聽覺特征可以提高深度學(xué)習(xí)的語音增強(qiáng)性能,文獻(xiàn)[15-16]通過融合使用MFCC、Log_Mel 頻譜等聽覺特征,提高了神經(jīng)網(wǎng)絡(luò)對語音信號的建模能力。

然而,現(xiàn)有基于深度學(xué)習(xí)的語音增強(qiáng)方法[17-19]為了使網(wǎng)絡(luò)更好地學(xué)習(xí)語音信號相鄰幀的相關(guān)性,網(wǎng)絡(luò)采用了非因果式的對稱窗作為輸入,即輸入不僅為當(dāng)前幀(第n幀),而且需要先前的N幀以及后續(xù)的N幀共同作為網(wǎng)絡(luò)的輸入特征(2N+1 幀),這導(dǎo)致在語音增強(qiáng)過程中產(chǎn)生了固定時(shí)延,不能滿足語音增強(qiáng)系統(tǒng)對實(shí)時(shí)性的要求。因果式語音增強(qiáng)方法僅利用當(dāng)前幀(第n幀)與先前的N幀作為網(wǎng)絡(luò)輸入,從而避免了固定時(shí)延問題。文獻(xiàn)[20]從實(shí)驗(yàn)中尋找適合因果式語音增強(qiáng)的網(wǎng)絡(luò)結(jié)構(gòu),增強(qiáng)后的語音質(zhì)量得到較大提升,但其并未針對網(wǎng)絡(luò)本身結(jié)構(gòu)進(jìn)行改進(jìn)。

本文從網(wǎng)絡(luò)結(jié)構(gòu)出發(fā),為充分利用先前N幀語音信號的信息,提出一種用于因果式語音增強(qiáng)的門控循環(huán)神經(jīng)網(wǎng)絡(luò)CGRU。該網(wǎng)絡(luò)結(jié)構(gòu)單元的輸出結(jié)合當(dāng)前時(shí)刻的輸入xt以及上一時(shí)刻的輸入xt-1和輸出ht-1,充分利用先前幀的信息來提高網(wǎng)絡(luò)的建模能力。在實(shí)驗(yàn)過程中,將本文CGRU 網(wǎng)絡(luò)與簡單循環(huán)神經(jīng)網(wǎng)絡(luò)(SRNN)、門控循環(huán)神經(jīng)網(wǎng)絡(luò)(GRU)、簡化循環(huán)神經(jīng)網(wǎng)絡(luò)(SRU)[21]等傳統(tǒng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行性能對比,驗(yàn)證算法增強(qiáng)后的語音在短時(shí)客觀可懂度(STOI)、語音感知質(zhì)量、分段信噪比(SSNR)等指標(biāo)上的性能表現(xiàn)。

1 深度學(xué)習(xí)因果式的語音增強(qiáng)方法

假設(shè)加性噪聲為n(t),純凈語音信號為s(t),帶噪語音為y(t),則帶噪語音信號的時(shí)域表示為:

為了更好地分析語音信號,一般需要對時(shí)域信號進(jìn)行短時(shí)傅里葉變換(Short Time Fourier Transform,STFT)。對帶噪語音信號y(t)進(jìn)行的短時(shí)傅里葉變換為:

其中:n、k分別表示第n幀的第k個(gè)頻帶。本文采用基于非負(fù)幅度的特征實(shí)現(xiàn)語音增強(qiáng)實(shí)驗(yàn),以驗(yàn)證所提方法的有效性。通過短時(shí)傅里葉變換式(2),得到音頻的頻率分量。非負(fù)幅度譜[22]可通過式(3)計(jì)算:

其中:Y(n,k)為語音通過短時(shí)傅里葉變換后的幅度譜;Z(n,k)為非負(fù)幅度譜特征。在深度學(xué)習(xí)因果式的語音增強(qiáng)中,語音增強(qiáng)可視為通過非線性函數(shù)fx實(shí)現(xiàn)帶噪語音到純凈語音的復(fù)雜映射:

其中:x為神經(jīng)網(wǎng)絡(luò)訓(xùn)練后的參數(shù);Xn代表網(wǎng)絡(luò)的輸入特征,其為當(dāng)前幀(第n幀)與先前N幀拼接而成的因果式輸入特征(N+1 幀);為神經(jīng)網(wǎng)絡(luò)對純凈語音特征的估計(jì)結(jié)果。

通過網(wǎng)絡(luò)的不斷訓(xùn)練迭代,得到一個(gè)從帶噪語音到純凈語音的復(fù)雜映射函數(shù),記為fx。在網(wǎng)絡(luò)的訓(xùn)練過程中,本文通過多次實(shí)驗(yàn)發(fā)現(xiàn)絕對誤差的語音增強(qiáng)效果較好,最后選擇的損失函數(shù)為平均絕對誤差,如下:

其中:fx(Xi)是通過網(wǎng)絡(luò)后得到的輸出特征值,即對純凈語音非負(fù)幅度譜的估計(jì);Ti為網(wǎng)絡(luò)的訓(xùn)練標(biāo)簽,即目標(biāo)語音的非負(fù)幅度譜;M為網(wǎng)絡(luò)在訓(xùn)練時(shí)采用的批量大小,本文通過實(shí)驗(yàn)得出M的合適取值為256。

通過神經(jīng)網(wǎng)絡(luò)對帶噪語音非負(fù)幅度譜Zn(n,k)進(jìn)行估計(jì)得到純凈語音非負(fù)幅度譜,記為Zs(n,k),然后利用人耳對相位不敏感的特點(diǎn),通過帶噪語音的相位譜φ(n,k)結(jié)合估計(jì)的純凈語音非負(fù)幅度譜逆變換,得到增強(qiáng)后的時(shí)域語音分幀后的信號,利用重疊相加法得到估計(jì)的語音信號xt:

對于語音信號,通過對分幀加窗(hamming 窗)處理后的數(shù)據(jù)進(jìn)行STFT(式(2)),得到語音信號的時(shí)頻二維分量,求取頻率幅度值并保存相位φ(n,k),利用幅度譜,通過式(3)可計(jì)算得到非負(fù)幅度譜特征以用于網(wǎng)絡(luò)訓(xùn)練和測試。通過語音增強(qiáng)算法得到增強(qiáng)后的非負(fù)幅度譜,并經(jīng)由式(6)、式(7),聯(lián)合保存的相位φ(n,k)經(jīng)過傅里葉逆變換得到增強(qiáng)后的時(shí)域語音信號,最后利用重疊相加法(式(8))恢復(fù)增強(qiáng)后的信號時(shí)域序列xt。

2 門控循環(huán)神經(jīng)單元

2.1 GRU 門控循環(huán)神經(jīng)單元

圖1 所示為門控循環(huán)神經(jīng)單元結(jié)構(gòu),其中,xt、ht、ht-1分別為當(dāng)前時(shí)刻輸入、當(dāng)前時(shí)刻輸出以及上一時(shí)刻輸出,rt、zt、分別為重置門、更新門和候選隱藏狀態(tài)。門控循環(huán)神經(jīng)單元(GRU)采用了門控機(jī)制,在一定程度上能夠緩解網(wǎng)絡(luò)過擬合問題,且網(wǎng)絡(luò)能夠?qū)W習(xí)更長的時(shí)序關(guān)系[23]。GRU 對長短時(shí)記憶(LSTM)網(wǎng)絡(luò)進(jìn)行優(yōu)化,在網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜度、網(wǎng)絡(luò)參數(shù)量等指標(biāo)上均有改進(jìn),LSTM 具有3 個(gè)門結(jié)構(gòu),而GRU 只有重置門rt和更新門zt這2 個(gè)門。GRU 相對于LSTM網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜度更低,語音增強(qiáng)實(shí)時(shí)性更高,此外,GRU 網(wǎng)絡(luò)結(jié)構(gòu)對語音增強(qiáng)系統(tǒng)的硬件要求更低。

圖1 GRU 結(jié)構(gòu)Fig.1 Structure of GRU

GRU 的單元更新關(guān)系可由式(9)表示:

其中:W、U為權(quán)重矩陣,b為偏置項(xiàng),它們均為可訓(xùn)練的參數(shù);⊙為Hadmard 乘積;σ為Sigmoid 激活函數(shù)。

2.2 CGRU 因果式門控循環(huán)神經(jīng)單元

圖2 所示為本文所設(shè)計(jì)的CGRU 因果式門控循環(huán)神經(jīng)單元結(jié)構(gòu)。為了解決傳統(tǒng)神經(jīng)網(wǎng)絡(luò)語音增強(qiáng)中因采用非因果式(輸入為2N+1 幀)的對稱窗而產(chǎn)生的固定時(shí)延問題,本文采用因果式(輸入為N+1 幀)的網(wǎng)絡(luò)輸入。由于采用了因果式的網(wǎng)絡(luò)輸入,因此神經(jīng)網(wǎng)絡(luò)獲得的語音信號特征信息衰減為非因果式輸入的0.5 倍,為減小其對神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的影響,本文充分利用前N幀的語音信號特征信息,在CGRU網(wǎng)絡(luò)單元中融入上一時(shí)刻的輸入特征xt-1。

圖2 CGRU 結(jié)構(gòu)Fig.2 Structure of CGRU

在圖2 中,xt、ht、xt-1、ht-1分別為當(dāng)前時(shí)刻的輸入和輸出以及上一時(shí)刻的輸入和輸出。CGRU 神經(jīng)網(wǎng)絡(luò)單元當(dāng)前時(shí)刻的輸出ht由上一時(shí)刻的輸入xt-1、上一時(shí)刻的輸出ht-1以及當(dāng)前時(shí)刻的輸入xt共同決定,從而充分利用先前幀的語音信號特征。受空間注意力機(jī)制以及門控線性單元(GLU)[24]的啟發(fā),本文在CGRU 因果式門控循環(huán)神經(jīng)網(wǎng)絡(luò)的單元輸入中首先計(jì)算xt、xt-1、ht-1的帶權(quán)特征向量:

與GRU 不同,CGRU 的候選隱藏狀態(tài)僅由當(dāng)前時(shí)刻的輸入xt決定:

當(dāng)前時(shí)刻網(wǎng)絡(luò)單元的輸出ht由候選隱藏狀態(tài)、遺忘門ft以及上一時(shí)刻輸出的帶權(quán)特征共同決定,如式(13)所示:

為了降低網(wǎng)絡(luò)的結(jié)構(gòu)復(fù)雜度,本文僅在CGRU網(wǎng)絡(luò)中采用一個(gè)遺忘門ft,同時(shí),針對在因果式語音增強(qiáng)中因輸入語音信號特征信息減少所導(dǎo)致的語音增強(qiáng)性能下降問題,本文充分利用先前幀的語音信號特征,在當(dāng)前時(shí)刻的輸入xt中融合上一時(shí)刻的輸入xt-1,同時(shí)采用GLU 控制特征信息的傳遞,從而大幅提高網(wǎng)絡(luò)性能。

3 實(shí)驗(yàn)結(jié)果與分析

3.1 實(shí)驗(yàn)設(shè)置

為了驗(yàn)證CGRU 網(wǎng)絡(luò)的有效性,本文進(jìn)行對比實(shí)驗(yàn)。針對純凈語音,本文在TIMIT 語音數(shù)據(jù)集[25]的訓(xùn)練集中隨機(jī)選取2 000 條音頻作為訓(xùn)練集,從測試集中隨機(jī)選取500 條音頻作為測試集。對于訓(xùn)練集的噪聲,本文使用文獻(xiàn)[26]中的100 種環(huán)境噪聲,對于測試集的噪聲,使用文獻(xiàn)[27]中的15 種噪聲。在信噪比分別為-5 dB、0 dB、5 dB、10 dB 這4 種情況下,將從TIMIT 訓(xùn)練集中隨機(jī)選取的2 000 條音頻與文獻(xiàn)[26]中的100種環(huán)境噪聲隨機(jī)混合生成8 000條訓(xùn)練數(shù)據(jù)集。在信噪比分別為-5 dB、0 dB、5 dB、10 dB 這4 種情況下,將從TIMIT 測試集中隨機(jī)選取的500 條純凈語音數(shù)據(jù)與文獻(xiàn)[27]中的15 種噪聲隨機(jī)混合生成2 000 條帶噪語音測試數(shù)據(jù)集。在特征提取時(shí),純凈語音、噪聲的采樣頻率均設(shè)置為8 000 Hz,幀長為256(約31 ms),幀移為128。

在keras/tensorflow2.0 的環(huán)境下完成網(wǎng)絡(luò)構(gòu)建與訓(xùn)練。網(wǎng)絡(luò)的初始學(xué)習(xí)率設(shè)為1e-4,為了使網(wǎng)絡(luò)更好地收斂,設(shè)置學(xué)習(xí)率的衰減系數(shù)為1e-6,最大學(xué)習(xí)迭代次數(shù)為50 次。網(wǎng)絡(luò)訓(xùn)練采用批量梯度下降算法,利用Adam 算法做迭代優(yōu)化,批量大小設(shè)置為256。網(wǎng)絡(luò)訓(xùn)練的損失函數(shù)使用平均絕對誤差(MAE)。在實(shí)驗(yàn)過程中,分別設(shè)計(jì)4 層的GRU、SRNN、SRU 以及CGRU 網(wǎng)絡(luò)結(jié)構(gòu),每一層均為512 個(gè)神經(jīng)網(wǎng)絡(luò)單元。

3.2 結(jié)果分析

分別對4 層的GRU、SRNN、SRU 以及CGRU 網(wǎng)絡(luò)結(jié)構(gòu)模型進(jìn)行實(shí)驗(yàn)。在-5 dB、0 dB、5 dB 這3 種信噪比條件下,測試集上的factory2、destroyerengine、buccaneer1、hfchannal 4 種噪聲[27]分別與測試集中的500 條純凈語音進(jìn)行混合,利用4 種網(wǎng)絡(luò)模型進(jìn)行語音增強(qiáng)對比實(shí)驗(yàn),從而驗(yàn)證所提網(wǎng)絡(luò)的有效性。

在本次實(shí)驗(yàn)中,語音增強(qiáng)性能評估指標(biāo)選擇STOI、PESQ 以及SSNR。STOI 的取值范圍為0~1,PESQ 的取值范圍為-0.5~4.5,數(shù)值越大,表明增強(qiáng)后的語音質(zhì)量越高,語音可懂度越高。表1、表2 所示分別為不同網(wǎng)絡(luò)模型得到的平均語音感知質(zhì)量與平均語音短時(shí)可懂度。

表1 平均語音感知質(zhì)量對比Table 1 Comparison of average speech perceptual quality

表2 平均語音短時(shí)可懂度對比Table 2 Comparison of average speech objective intelligibility

通過對表1、表2 中的平均語音感知質(zhì)量與平均語音短時(shí)可懂度進(jìn)行分析可以發(fā)現(xiàn),SRNN 的語音增強(qiáng)效果最差,SRU 與GRU 具有較好的語音增強(qiáng)效果,這是由于簡單循環(huán)神經(jīng)網(wǎng)絡(luò)并不能學(xué)習(xí)到長期依賴關(guān)系,而GRU 與SRU 采用的門控機(jī)制在很大程度上提升了網(wǎng)絡(luò)的學(xué)習(xí)能力。與其他3 種網(wǎng)絡(luò)相比,本文因果式語音增強(qiáng)網(wǎng)絡(luò)CGRU 在語音質(zhì)量與語音短時(shí)可懂度上均取得了良好表現(xiàn)。

在CGRU 網(wǎng)絡(luò)的單元結(jié)構(gòu)中,采用門控循環(huán)神經(jīng)網(wǎng)絡(luò)的門控機(jī)制,同時(shí),為了充分利用輸入特征先前的特征信息,在當(dāng)前網(wǎng)絡(luò)的輸出特征計(jì)算中,不僅整合當(dāng)前時(shí)刻的輸入xt與上一時(shí)刻的輸出ht-1,而且還融合了上一時(shí)刻的輸入xt-1,從而充分利用語音信號先前的N幀特征信息。表1 和表2 的實(shí)驗(yàn)結(jié)果證明了因果式循環(huán)神經(jīng)網(wǎng)絡(luò)CGRU 的有效性。為了進(jìn)一步直觀地展現(xiàn)CGRU 的優(yōu)越性,統(tǒng)計(jì)4 種噪聲的平均語音感知質(zhì)量與平均語音短時(shí)可懂度,結(jié)果如圖3 所示。從圖3 可以看出,CGRU 在語音短時(shí)可懂度上取得了最好的可懂度評分,在平均語音感知質(zhì)量方面,雖然在-5 dB 信噪比條件下CGRU 性能略低于SRU,但是隨著信噪比的增加,CGRU 表現(xiàn)出更好的性能。

圖3 平均語音感知質(zhì)量與平均語音短時(shí)可懂度Fig.3 Average speech perceptual quality and average speech objective intelligibility

為了進(jìn)一步驗(yàn)證CGRU 的優(yōu)越性,統(tǒng)計(jì)不同信噪比條件下4 種噪聲通過4 種不同網(wǎng)絡(luò)增強(qiáng)后得到的平均語音分段信噪比SSNR,結(jié)果如圖4 所示。從圖4 可以看出,在圖4(c)的destroyerengine 噪聲下,SRNN 在-5 dB 和0 dB 信噪比條件下獲得了較高的SSNR 得分,除此之外,CGRU 在增強(qiáng)后的語音分段信噪比評價(jià)指標(biāo)上得分普遍優(yōu)于其他3 種網(wǎng)絡(luò)結(jié)構(gòu),這進(jìn)一步驗(yàn)證了CGRU 的優(yōu)越性。

圖4 不同噪聲條件下的分段信噪比結(jié)果對比Fig.4 Comparison of SSNR results under different noise conditions

在圖3 中,相較傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)(GRU、SRNN),CGRU 網(wǎng)絡(luò)在增強(qiáng)后的語音可懂度(STOI)、語音感知質(zhì)量(PESQ)評價(jià)指標(biāo)上均有較大提升。在圖4 中,CGRU 網(wǎng)絡(luò)相較GRU、SRNN、SRU 等傳統(tǒng)網(wǎng)絡(luò)在增強(qiáng)后的語音平均分段信噪比評價(jià)指標(biāo)上也得到了提升。GRU、SRNN 網(wǎng)絡(luò)僅融合上一時(shí)刻的輸出,很多情況下語音增強(qiáng)性能反而低于未融合上一時(shí)刻輸出的SRU 網(wǎng)絡(luò)。本文CGRU 網(wǎng)絡(luò)在當(dāng)前時(shí)刻的輸入中融合上一時(shí)刻的輸入與輸出,同時(shí)采用線性門控機(jī)制控制信息傳輸,緩解了網(wǎng)絡(luò)過擬合問題,提升了網(wǎng)絡(luò)對帶噪語音的建模能力,使得增強(qiáng)后的語音評價(jià)指標(biāo)結(jié)果均取得了較大提升。

表3 所示為不同網(wǎng)絡(luò)結(jié)構(gòu)的參數(shù)量對比,從表3可以看出,相對于GRU 的雙門控機(jī)制,CGRU 由于采用了單門控機(jī)制,因此其參數(shù)量較少。

表3 不同網(wǎng)絡(luò)模型的參數(shù)量對比Table 3 Comparison of parameter quantity of different network models

4 結(jié)束語

傳統(tǒng)基于深度學(xué)習(xí)的語音增強(qiáng)方法采用非因果式的輸入,導(dǎo)致產(chǎn)生固定時(shí)延問題,難以滿足語音增強(qiáng)系統(tǒng)對實(shí)時(shí)性的需求。本文提出一種基于因果式門控循環(huán)神經(jīng)網(wǎng)絡(luò)CGRU 的語音增強(qiáng)方法。實(shí)驗(yàn)結(jié)果表明,在平均語音短時(shí)客觀可懂度、平均語音感知質(zhì)量、分段信噪比等指標(biāo)上,CGRU 網(wǎng)絡(luò)的表現(xiàn)均優(yōu)于SRNN、GRU、SRU 等傳統(tǒng)網(wǎng)絡(luò)。下一步將以提高語音增強(qiáng)系統(tǒng)的實(shí)時(shí)性、降低網(wǎng)絡(luò)復(fù)雜度作為研究目標(biāo),此外,考慮到卷積神經(jīng)網(wǎng)絡(luò)能夠提取頻譜結(jié)構(gòu)特征,后續(xù)將融合卷積神經(jīng)網(wǎng)絡(luò)同時(shí)建模音頻的時(shí)間相關(guān)性與空間相關(guān)性,從而提高網(wǎng)絡(luò)性能。

猜你喜歡
特征信號
抓住特征巧觀察
信號
鴨綠江(2021年35期)2021-04-19 12:24:18
完形填空二則
新型冠狀病毒及其流行病學(xué)特征認(rèn)識
如何表達(dá)“特征”
不忠誠的四個(gè)特征
孩子停止長個(gè)的信號
抓住特征巧觀察
基于LabVIEW的力加載信號采集與PID控制
一種基于極大似然估計(jì)的信號盲抽取算法
主站蜘蛛池模板: 最新国产精品鲁鲁免费视频| 亚洲成a人片在线观看88| 成人午夜免费观看| 国产欧美亚洲精品第3页在线| 91丝袜乱伦| 久久性视频| 欧美成人影院亚洲综合图| 风韵丰满熟妇啪啪区老熟熟女| 香蕉国产精品视频| 99视频全部免费| 夜夜爽免费视频| 国产性爱网站| 日本亚洲欧美在线| 亚洲AⅤ波多系列中文字幕| 五月天丁香婷婷综合久久| 福利视频一区| 亚洲精品自产拍在线观看APP| 国产微拍一区二区三区四区| 51国产偷自视频区视频手机观看| 亚洲aaa视频| 日本高清免费一本在线观看| 亚洲免费三区| 亚洲美女一级毛片| 国产91导航| 一本大道在线一本久道| 国产精品原创不卡在线| 萌白酱国产一区二区| 日本a∨在线观看| 9丨情侣偷在线精品国产| 免费又黄又爽又猛大片午夜| 亚洲一区二区约美女探花| 凹凸国产熟女精品视频| 国产高颜值露脸在线观看| 亚洲视频欧美不卡| 亚洲激情99| 成人在线视频一区| 婷婷久久综合九色综合88| 91精品国产自产在线观看| 国产亚洲精品自在久久不卡 | AV熟女乱| 欧美综合区自拍亚洲综合天堂| 国产aaaaa一级毛片| 高清久久精品亚洲日韩Av| 成人毛片免费在线观看| AV不卡国产在线观看| 色窝窝免费一区二区三区 | 亚洲欧美h| 97av视频在线观看| 欧美成人二区| 欧美啪啪网| 污污网站在线观看| 成人精品免费视频| 精品国产aⅴ一区二区三区| 黄片在线永久| 午夜电影在线观看国产1区| 免费一级成人毛片| 日韩不卡免费视频| 波多野结衣一区二区三区四区视频| 特级毛片8级毛片免费观看| 国产一区二区视频在线| 亚洲一区无码在线| 日本福利视频网站| 欧美不卡在线视频| 71pao成人国产永久免费视频| 欧美成人在线免费| 精品撒尿视频一区二区三区| 欧美精品亚洲精品日韩专区va| 久久网欧美| 国产一区二区三区精品久久呦| 日本精品αv中文字幕| 欧美国产成人在线| 精品国产中文一级毛片在线看| 欧美综合区自拍亚洲综合天堂| 亚洲中文字幕无码mv| 亚洲欧美日韩成人高清在线一区| 国产精品自在拍首页视频8| 亚洲区第一页| 欧美成人日韩| 亚洲精品成人7777在线观看| 蝌蚪国产精品视频第一页| 久久久久九九精品影院| 亚洲综合狠狠|