999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Kaldi的普米語語音識別

2018-01-19 00:54:08,,
計算機工程 2018年1期
關鍵詞:實驗模型

,,

(云南民族大學 數學與計算機科學學院,昆明 650500)

0 概述

近年來語音識別技術得到飛速的發展,通過自然語言控制機器的夢想正在逐步實現。國內語音識別研究經過60年左右的積累,尤其是近20年來快速的發展,已取得顯著成效。語音識別技術已由傳統的隱馬爾科夫模型(Hidden Markov Model,HMM)發展到了當今廣泛使用的深度學習技術,并且取得較好的效果。但是這些研究都是針對英語、漢語等國際主流語言,對無文字瀕危少數民族語言進行語音識別的研究目前還比較少見。

云南省有25個少數民族,大部分少數民族都有本民族的語言。由于民族語言眾多且語言之間差別較大,導致各民族之間的交流比較困難。同時,像普米族、基諾族等人口較少的民族有20%的語言已經瀕危[1]。因此,從少數民族語言保護和傳承的角度看,進行少數民族語音識別研究就顯得尤為重要。本團隊的主要工作是針對普米語進行語音識別研究。普米族有本民族的語言,但沒有文字。普米語屬于漢藏語系藏緬語族羌語支,分為南北兩個方言[2]。在此之前本團隊的研究主要是基于HTK進行的,已取得了一些成果[3-7]。本文引入基于Kaldi的深度學習技術對普米語語音識別做進一步研究,這對普米語語音識別率的提高意義重大。

文獻[8]提出深度學習的概念,激起了深度學習的研究熱潮。自2009年以來,將深度學習技術應用到語音識別領域取得巨大成功。百度研發的新技術:深度語音識別(Deep Speech),通過使用一種叫做疊加的物理學原理,在干凈的語音語料中加入各種不同的背景噪聲來擴大語音語料量,用得到的語音語料進行深度語音識別實驗,同時使用百度強大的新計算機系統的GPU進行加速支撐,運算效率得到重大提升,詞錯誤率降低了10%[9]。微軟公司人工智能研發團隊受到機器學習集成技術的啟發,系統性地結合使用了一系列的卷積神經網絡模型、長短時間記憶單元的神經網絡、全新的空間平滑方法和最大互信息訓練方法,為所有聲學模型架構的性能帶來了顯著的提升,最好的單個聲學模型系統在NIST 2000 Switchboard數據集上的詞錯誤率為6.9%,數個聲學模型系統性地結合將詞錯誤率降低到6.3%[10]??拼笥嶏w將深度神經網絡(Deep Neural Network,DNN)模型首次成功應用到中文語音識別領域,語音識別率得到很大提升[11]。這些基于深度學習的語音識別研究主要是針對英語、漢語等國際主流語言的,在少數民族語言語音識別中使用深度學習技術的還比較少見,查閱到的文獻主要集中在藏語、維吾爾語以及蒙古語。文獻[12]在基于DNN模型的聲學建模中,針對數據稀疏問題,提出了采用大語種數據訓練好的DNN模型作為目標模型的初始網絡進行模型優化的策略,實驗用自然對話風格的藏語電話語音,共計10 327個句子,從中隨機選擇550個句子用于測試,其余的用于訓練。實驗結果表明,用1 000 h的漢語訓練的DNN模型作為藏語DNN模型的初始網絡,相對直接用藏語訓練的DNN模型,語音識別率提升了6.37%[12]。文獻[13]提出了基于DNN模型的維吾爾語語音識別方法,以Kaldi語音識別工具包為實驗平臺,用4 466條維吾爾語語音訓練了一個含有4隱層的DNN模型,用訓練好的DNN模型對499條維吾爾語語音進行測試,測試結果顯示,DNN模型相比傳統的HMM詞錯誤率下降了31.09%[13]。文獻[14]基于Kaldi語音識別工具包,用DNN模型建立大詞匯量連續語音識別系統,用78 h的蒙古語語音語料進行實驗,實驗結果表明,DNN-HMM模型比GMM-HMM模型語音識別率提高了約50%。因此,針對語音語料量和系統魯棒性的問題,本文將深度學習引入普米語語音識別中,在Kaldi上進行普米語語音識別實驗。

本文所使用的深度學習模型是深度神經網絡-隱馬爾科夫模型(DNN-HMM)的混合模型,以Kaldi語音識別工具包為實驗平臺,訓練一個含有4隱層的深度學習模型,實現普米語語音識別。

1 Kaldi簡介及使用流程

目前,常用的開源語音識別工具有Kaldi和HTK,Kaldi與HTK的比較如表1所示。

表1 Kaldi與HTK比較

從表1中可以看出,基于深度學習的語音識別實驗在Kaldi上進行更合適。因此,本文選用Kaldi語音識別工具包作為實驗平臺。

1.1 Kaldi語音識別工具包

Kaldi語音識別工具包是由約翰·霍普金斯大學開發的開源的語音識別工具包,用C++編寫并被Apache License v2.0授權許可[15-16]。Kaldi可以在Linux環境和Windows環境下編譯,但是在Linux環境下進行編譯比較穩定。因此,本文將在Linux環境下編譯Kaldi。Kaldi語音識別工具包的框架結構如圖1所示。

圖1 Kaldi語音識別工具包結構

從圖1中可以看出,Kaldi語音識別工具包主要依賴2個外部開源庫: BLAS/LAPACK和OpenFST。同時,Kaldi本身也分為2個模塊,分別依賴這2個外部開源庫,這2個模塊通過Decodable接口橋接。

BLAS是基本線性函數庫,是許多數值計算軟件庫的核心,主要用于向量操作、矩陣-向量操作、矩陣-矩陣操作等基本運算。LAPACK是一個高性能的用于數值計算的函數集,以BLAS為基礎,包含了豐富的工具函數,可用于常見的數值線性代數問題,例如求解線性方程、計算特征值和特征向量等問題。

OpenFST是一個開源的用于構造、合并、優化和搜索加權有限狀態轉換器(Weighted Finite State Transducer,WFST)的庫。OpenFST在處理時間和空間規模很大的問題上時效果很好。WFST常被用于語音識別、模式匹配以及機器學習等任務中。在語音識別系統中,把數學模型轉換為有限狀態機模型,然后對有限狀態機模型進行優化得到搜索空間,這樣可以降低語音識別系統的復雜度。

1.2 基于Kaldi語音的識別實驗過程

本文將Kaldi部署在Ubuntu14.04系統上,為了在DNN模型訓練時使用GPU加速,還需要安裝配置CUDA。

所有安裝及配置都完成之后就可以在Kaldi上進行基于深度學習的普米語語音識別實驗了。實驗主要在/kaldi-trunk/egs/PrimiL/s5/下進行。具體過程如圖2所示。

圖2 基于Kaldi的普米語語音識別過程

從圖2可以看出,基于Kaldi的普米語語音識別主要分為3步,具體過程描述如下:

1)普米語語音語料的準備。通過把錄音棚下錄制的干凈的普米語語音語料通過混音工具得到帶有背景噪音的普米語語音語料,用來擴大語音語料量。本文使用的混音工具是本團隊成員開發的[7]。接著把帶噪的語音語料和干凈的語音語料都用格式工廠轉換為Kaldi可用的格式。最后,將實驗用到的語音語料按要求存放在指定文件夾中。

2)數據準備。數據準備又分為2個部分:第1部分是數據部分準備,先用KaldiDPT工具分別生成訓練集和測試集下的spk2gender、text、wav.scp以及utt2spk,KaldiDPT工具是專門用Kaldi數據部分的準備工具[15]。再以這些文件作為輸入,通過調用Kaldi中相應的工具,生成spk2utt、feats.scp以及cmvn.scp。其中,feats.scp中存儲所有語音語料的特征文件存放的位置,cmvn.scp中存儲所有語音語料的倒譜均值和方差歸一化統計量存放的位置。第2部分是語言部分準備,語言部分的準備以發音字典為輸入,依次調用prepare_lang.sh和format_data.sh工具,生成lang和lang_test_bg文件夾,這2個文件夾的差別在于lang_test_bg文件夾中多了G.fst文件,G.fst是語言模型的有限狀態轉換器格式的表示,用于解碼。普米語發音字典已根據《普米語簡志》準備好,且符合Kaldi的格式要求[15-16]。

3)模型的訓練和測試。把前2步準備好的語音語料和文件用于模型的訓練和測試。本文訓練了5種不同的聲學模型,分別是:單音子GMM-HMM,記為Monophone,該模型的訓練過程要迭代39次,并且每迭代1次~3次要進行一次數據對齊;三音子GMM-HMM模型,記為Triphone1,該模型的訓練是以訓練好的Monophone模型為輸入,訓練過程要迭代34次,并且每迭代10次進行一次數據對齊;優化后的三音子GMM-HMM模型,記為Triphone2,該模型是對三音子GMM-HMM模型進行線性判別分析、最大似然線性變換和發音自適應訓練的優化;優化后的子空間高斯混合模型,記為O-SGMM,該模型的訓練以Triphone2模型為輸入,訓練子空間高斯混合模型(Subspace Gauss Mixture Model,SGMM)之前要用通用背景模型進行初始化,再訓練SGMM,并進行最大互信息的區分性訓練;深度神經網絡模型,記為G-DNN,是基于O-SGMM模型訓練的,G-DNN含有4層隱層,且使用GPU加速訓練過程。每個模型訓練完成后都會進行測試,得到基于該模型的普米語語音識別率。

2 實驗及結果分析

本文基于Kaldi的普米語語音識別實驗分為3個部分。第1部分:不同的聲學模型對普米語語音識別率的影響;第2部分:普米語語音語料的規模對普米語語音識別率的影響;第3部分:普米語語音識別系統的魯棒性。

本文實驗使用的語音語料:4位普米語發音人在錄音棚環境錄制的包含1 650個普米詞匯的干凈的普米語語音語料,在錄音棚錄制普米語語音語料時,每個普米詞匯每個發音人說8遍。再通過混音工具對所有干凈的語音語料分別混入4種不同的背景噪音,每種隨機混音8次,每2次混音得到的帶噪的普米語語音語料記為一組,共有4組,分別記為第1組~第4組。因此,干凈的語音語料有:1 650個詞×8遍×4位發音人=52 800條,帶噪的語音語料有:1 650個詞×8遍×4種背景噪聲×8次混音×4位發音人=1 689 600條,共計1 742 400條語音語料。

2.1 聲學模型實驗

不同的聲學模型對語音識別率的影響較大,因此本實驗驗證不同的聲學模型對普米語語音識別率的影響。同時,為了避免語音語料量不足及測試集和訓練集設置的問題導致識別結果出現偶然性,進行交叉驗證實驗。

本實驗用所有干凈的普米語語音語料和第1組帶噪的普米語語音語料。為了便于交叉驗證實驗的進行,將本節所用的所有實驗數據平均分為4組,分別記為第1組~第4組。使用留一交叉驗證的方法,其中3組用于訓練,余下的1組用于測試,每組數據都有且僅有一次作為測試集出現在實驗中。用測試集的序號標記實驗組的序號,例如以第4組為測試集,則記為第4組實驗。

通過實驗得到不同聲學模型的語音識別率,如表2所示。

表2 不同聲學模型的語音識別率 %

為了更直觀地表示在不同聲學模型中,普米語語音識別率的變化情況,由表2中的數據繪制折線圖,得到圖3、圖4。

圖3 不同聲學模型的語音識別率1

圖4 不同聲學模型的語音識別率2

從表2中可以看出,4組實驗的語音識別率不完全相同,在圖3中,4條折線幾乎重合,說明4組實驗中語音識別率的波動很小。由此可以得出,測試集和訓練集的設置沒有影響普米語語音識別率。從圖4可以看出,4組實驗中G-DNN模型的語音識別率最高,接著是O-SGMM模型、Triphone2模型、Triphone1模型、Monophone模型依次降低,而Monophone模型的語音識別率最低。以第1組為測試集的普米語語音識別實驗為例,通過對表2中的數據比較得到,G-DNN模型比O-SGMM模型語音識別率提升了2.6%,G-DNN模型比Triphone2模型語音識別率提升了11.7%,G-DNN模型比Triphone1模型語音識別率提升了23.5%,G-DNN模型比Monophone模型語音識別率提升了49.6%。由此可知,G-DNN模型有效地提升了普米語語音識別率。

由于GMM-HMM在考慮三音子后,模型的參數迅速增加,模型參數無法充分地訓練,影響語音識別率。而深度學習模型是一種多隱層的網絡結構,每一層都單獨訓練,使得模型參數能夠充分地訓練,所以基于深度學習的聲學模型相比其余4個聲學模型,語音識別率有了明顯提升。因此,使用不同的聲學模型對普米語語音識別率的影響較大,其中,由G-DNN模型訓練得到的普米語語音識別系統的語音識別率最高,由Monophone模型訓練得到的普米語語音識別系統的語音識別率最低。由此可以得出,深度學習模型能夠有效地提升普米語語音識別率。

2.2 不同語料量實驗

不同語料量的實驗指的是單個普米語詞匯語音語料的數量不同的實驗。基于深度學習的語音識別實驗,語音語料量的大小對語音識別率有很大的影響,本節將研究普米語語音語料量的大小對普米語語音識別率的影響。

本實驗使用所有干凈的普米語語音語料和第1組~第4組帶噪的普米語語音語料,共進行了4組實驗。

第1組實驗:用所有干凈的語音語料和第1組帶噪的語音語料,分別取干凈的和帶噪的語音語料的6/8用于訓練,余下的用于測試。

第2組實驗:用所有干凈的語音語料加上第1組、第2組帶噪的語音語料,分別取干凈的和帶噪的語音語料的6/8用于訓練,余下的用于測試。

第3組實驗:用所有干凈的語音語料加上第1組、第2組、第3組帶噪的語音語料,分別取干凈的和帶噪的語音語料的6/8用于訓練,余下的用于測試。

第4組實驗:用所有干凈的語音語料加上第1組~第4組帶噪的語音語料,分別取干凈的和帶噪的語音語料的6/8用于訓練,余下的用于測試。

通過實驗得到不同語料量的普米語語音識別率,如表3所示。

表3 不同語料量實驗的語音識別率 %

為了更直觀地表示當普米語語音語料量不同時,語音識別率的變化情況,由表3中的數據繪制折線圖,如圖5、圖6所示。

圖5 不同語料量實驗的語音識別率1

圖6 不同語料量實驗的語音識別率2

由圖5可以看出,不論語料量的多少,每條折線均是從左往右呈上升趨勢,即每組實驗中均是由Monophone模型到Triphone1模型、Triphone2模型、O-SGMM模型、G-DNN模型語音識別率依次升高。由圖6可以看出,隨著普米語語音語料量的增加,Monophone模型、Triphone1模型、Triphone2模型以及O-SGMM模型的語音識別率都有所下降,只有G-DNN模型的語音識別率逐漸升高。當語料量從干凈的語音語料加1組加噪的語音語料增加到干凈的語音語料加4組加噪的語音語料時,基于G-DNN模型的普米語語音識別率提升了0.9%。實驗結果表明,增加普米語語音語料量可以促進基于深度學習的普米語語音識別率的提升。

2.3 魯棒性實驗

本實驗的目的在于驗證不同的聲學模型對普米語語音識別系統魯棒性的影響以及相同的聲學模型用不同的訓練集對普米語語音識別系統的魯棒性的影響。

實驗使用所有干凈的普米語語音語料和第1組帶噪的普米語語音語料,共進行4組實驗。

第1組實驗:用所有干凈的普米語語音語料,取6/8用于訓練,余下的用于測試。

第2組實驗:用第1組實驗訓練好的模型,把第1組用于測試的干凈的普米語語音語料用混音工具隨機混音1次得到的帶噪普米語語音語料作為該組實驗的測試集。

第3組實驗:將第1組實驗的訓練集加上第1組帶噪普米語語音語料的6/8用于該組實驗的訓練,第1組實驗的測試集作為該組實驗的測試集。

第4組實驗:用第3組實驗訓練好的模型,用第2組實驗的測試集進行該組實驗的測試。

通過實驗得普米語語音識別系統魯棒性實驗的語音識別率,如表4所示。

表4 魯棒性實驗的語音識別率 %

為了更直觀地表示魯棒性實驗普米語語音識別率的變化規律,由表4中的數據繪制折線圖,如圖7、圖8所示。

圖7 魯棒性實驗的語音識別率1

圖8 魯棒性實驗的語音識別率2

對第1組實驗與第2組實驗進行比較,第1組、第2組實驗的訓練集相同,都是干凈的語音語料,測試集分別為干凈的和帶噪的語音語料。從圖7中可以看出,第1組實驗的語音識別率較高,第2組實驗的語音識別率較低,且2組實驗的語音識別率變化較大。由此可以得出,用干凈的語音語料訓練出來的模型只有用干凈的語音語料去測試才能得到較高的語音識別率,若是使用帶噪的語音語料去測試則語音識別率很低,說明僅使用干凈的語音語料訓練的語音識別系統,系統的魯棒性較差。對第3組實驗與第4組實驗進行比較,第3組、第4組實驗的訓練集也相同,都是干凈的語音語料加上帶噪的語音語料,測試集分別為干凈的和帶噪的語音語料。從圖7可以看出,第3組實驗的語音識別率更高,第4組實驗的語音識別率更低,但是2組實驗的語音識別率變化不大。由此可以得出,在訓練集中加入帶噪的語音語料時,即使用帶噪的語音語料進行測試,語音識別率也不會大幅度地降低,說明同時使用干凈的和帶噪的語音語料進行訓練的語音識別系統,系統的魯棒性較好。實驗結果表明,在訓練集中加入帶噪的語音語料能夠有效地提高普米語語音識別系統的魯棒性。

從圖8可以看出,無論是在哪種方案的實驗中,G-DNN模型的語音識別率均比其余4個模型的語音識別率高。當測試集與訓練集的設定不同時,Monophone模型、Triphone1模型、Triphone2模型以及O-SGMM模型的語音識別率波動較大,而G-DNN模型的語音識別率波動較小。例如將第1組實驗與第2組實驗進行比較,如表5所示,當測試集由干凈的普米語語音語料換為帶噪的普米語語音語料時,Monophone模型的語音識別率下降了80.3%;Triphone1模型的語音識別率下降了77.4%;Triphone2模型的語音識別率下降了72.1%;O-SGMM模型的語音識別率下降了66.8%;G-DNN模型的語音識別率下降了18.2%。為了更直觀地表示不同聲學模型語音識別率的變化情況,繪制柱狀圖,如圖9所示??梢钥闯?G-DNN模型的語音識別率的減少量最小。由此可知,G-DNN模型的語音識別率降低得最少。實驗結果表明,G-DNN模型的魯棒性比其余4個聲學模型的魯棒性更好。

表5 第1組實驗與第2組實驗語音識別率比較 %

圖9 第2組比第1組語音識別率減少量

通過對實驗結果的詳細分析,得到僅用干凈的語音語料訓練的語音識別系統中,只有用干凈的語音語料進行測試才能得到較高的語音識別率。如果用帶噪的語音語料進行測試,則語音識別率會變得很低,說明僅使用干凈的普米語語音語料訓練的普米語語音識別系統的魯棒性較差。而同時使用干凈的和帶噪的語音語料進行訓練時,不論是用干凈的語音語料進行測試,還是用帶噪的語音語料進行測試,語音識別率波動較小,說明在訓練集中加入帶噪的語音語料能夠提高普米語語音識別系統的魯棒性。同時,在4組實驗中,基于G-DNN模型的普米語語音識別系統的語音識別率波動最小,其余4個聲學模型的語音識別率波動較大。綜上所述,相比于Monophone模型、Triphone1模型、Triphone2模型和O-SGMM模型,G-DNN模型具有更好的魯棒性,即用深度學習技術能夠提高普米語語音識別系統的魯棒性。

3 結束語

本文在Kaldi上進行基于深度學習的普米語語音識別實驗,為加速模型的訓練,配置安裝了CUDA,有效地解決了深度學習模型訓練效率的問題。在Kaldi上進行了3類實驗:通過對不同聲學模型實驗結果的比較發現,深度學習模型的語音識別率明顯高于其余的4個聲學模型,G-DNN模型比Monophone模型的語音識別率平均提升了49.8%;通過不同語音語料量的實驗發現,在訓練集中增加語音語料量,可以提高基于深度學習的普米語語音識別率;通過魯棒性的實驗發現,在訓練集中加入帶噪的語音語料可以提高普米語語音識別系統的魯棒性,并且基于深度學習的普米語語音識別系統的魯棒性比其余4個聲學模型的普米語語音識別系統的魯棒性更強。

[1] 陸惠云.云南省七個“特少”民族語言使用狀況調查[J].玉溪師范學院學報,2014,30(1):45-59.

[2] 解魯云.國內普米族研究綜述[J].云南民族學院學報(哲學社會科學版),2003,20(1):75-78.

[3] 李余芳,蘇 潔,胡文君,等.基于HTK的普米語孤立詞的語音識別[J].云南民族大學學報(自然科學版),2015,24(5):426-430.

[4] 蘇 潔.基于HTK的普米語孤立詞識別研究[D].昆明:云南民族大學,2016.

[5] 郭 琳,蘇 潔,李余芳,等.一種人機交互語音切分系統[J].云南民族大學學報(自然科學版).2016,25(1):87-91.

[6] 蘇 潔,李余芳,郭 琳,等.HTK參數對普米語孤立詞識別率的影響[J].云南民族大學學報(自然科學版),2015,24(6):510-513.

[7] 李余芳.基于HTK的帶噪普米語音識別系統的魯棒性研究[D].昆明:云南民族大學,2016.

[8] HINTON G E,OSINDERO S,TEH Y W.A Fast Learning Algorithm for Deep Belief Nets[J].Neural Computation,2006,18(7):1527-1554.

[9] AWNI H,CARL C,JARED C,et al.Deep Speech:Scaling up End-to-End Speech Recognition[EB/OL].(2014-10-19).https://arxiv.org/pdf/1412.5567v2.pdf.

[10] XIONG W,DROPPO J,HUANG Xuedong,et al.Achieving Human Parity in Conversational Speech Recognition[EB/OL].(2016-10-17).https://arxiv.org/abs/1610.05256.

[11] 科大訊飛.探索語音識別技術的前世今生[J].科技導報,2016,36(9):76-77.

[12] 袁勝龍,郭 武,戴禮榮.基于深層神經網絡的藏語識別[J].模式識別與人工智能,2015,28(3):209-213.

[13] 其米克·巴特西,黃 浩,王羨慧.基于深度神經網絡的維吾爾語語音識別[J].計算機工程與設計,2015(8):2239-2244.

[14] ZHANG Hui,BAO Feilong,GAO Guanglai.Mongolian Speech Recognition Based on Deep Neural Networks[M]// SUN Maosong,LIU Zhiyuan,ZHANG Min.Chinese Computational Linguistics and Natural Language Processing Based on Naturally Annotated Big Data.Berlin,Germany:Springer,2015.

[15] HU Wenjun,FU Meijun,PAN Wenlin.Primi Speech Recognition Based on Deep Neural Network[C]//Proceedings of IEEE International Conference on Intelligent Systems.Washington D.C.,USA:IEEE Press,2016:667-671.

[16] 陸紹尊.普米語簡志[M].北京:民族出版社,1983.

猜你喜歡
實驗模型
一半模型
記一次有趣的實驗
微型實驗里看“燃燒”
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
做個怪怪長實驗
3D打印中的模型分割與打包
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 欧美一级高清视频在线播放| 天堂岛国av无码免费无禁网站| 制服丝袜一区| 日本高清在线看免费观看| 国产欧美精品一区aⅴ影院| 欧美成人亚洲综合精品欧美激情| 精品自拍视频在线观看| 免费观看欧美性一级| 有专无码视频| 最新午夜男女福利片视频| 视频国产精品丝袜第一页| 2021国产精品自产拍在线观看 | 67194亚洲无码| 91青草视频| 精品视频第一页| 国产精品不卡片视频免费观看| 亚洲男人天堂久久| 波多野结衣无码视频在线观看| 成人年鲁鲁在线观看视频| 午夜国产精品视频黄| 美女亚洲一区| 久久精品一品道久久精品| 色网站在线免费观看| 亚洲天堂免费观看| 91视频99| 免费看a级毛片| 精品一区二区三区视频免费观看| 精品福利国产| 无码网站免费观看| 欧美成人免费午夜全| 国产乱人伦AV在线A| 爽爽影院十八禁在线观看| 免费A∨中文乱码专区| 国产精品污污在线观看网站| 日韩国产黄色网站| 欧美不卡视频在线观看| 毛片视频网址| 国产成人1024精品| 日韩在线2020专区| 国产精品网址你懂的| 欧美成人亚洲综合精品欧美激情| 国产免费一级精品视频| 国产美女在线免费观看| 日韩小视频在线播放| 国产小视频在线高清播放| 国产人碰人摸人爱免费视频| 久久永久精品免费视频| 亚洲人成网站观看在线观看| 亚洲精品午夜天堂网页| 亚洲无线观看| 成人第一页| 无码精品国产dvd在线观看9久| 92午夜福利影院一区二区三区| a亚洲天堂| 狠狠久久综合伊人不卡| 国产aⅴ无码专区亚洲av综合网 | 狠狠操夜夜爽| 亚洲欧美日韩中文字幕在线| 国产主播在线一区| 国产精品第5页| 97免费在线观看视频| 国产无码高清视频不卡| 国产高清在线精品一区二区三区 | 91探花国产综合在线精品| 亚洲人成网站色7799在线播放| 综合天天色| 99re在线免费视频| 国产成人乱无码视频| 3D动漫精品啪啪一区二区下载| 久久91精品牛牛| 欧美另类图片视频无弹跳第一页| 91国内在线观看| 91精品国产自产在线老师啪l| 波多野结衣视频一区二区| 久久成人18免费| 美美女高清毛片视频免费观看| 日日拍夜夜操| 免费观看男人免费桶女人视频| 精品人妻一区无码视频| 视频国产精品丝袜第一页| 91成人在线免费视频| 久久毛片免费基地|