999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于LSTM自動(dòng)編碼機(jī)的短文本聚類(lèi)方法

2017-10-26 06:42:19黃健翀鄧玫玲

黃健翀 鄧玫玲

摘要:一種基于文本向量化的短文本聚類(lèi)方法。該方法以詞向量作為基本特征,使用基于LSTM的自動(dòng)編碼機(jī),對(duì)表征文本的詞向量進(jìn)行壓縮編碼,從而將文本不定長(zhǎng)的詞向量特征統(tǒng)一提取為統(tǒng)一輸入長(zhǎng)度的文本特征向量。這些文本特征向量的聚類(lèi)結(jié)果即為短文本的聚類(lèi)結(jié)果。對(duì)這一方法使用帶標(biāo)注的數(shù)據(jù)集進(jìn)行了測(cè)試,使用基尼非純度作為指標(biāo)衡量該方法的聚類(lèi)效果與人工聚類(lèi)的擬合度;同時(shí),使用聚類(lèi)中心平均距離來(lái)衡量聚類(lèi)結(jié)果中句子之間的結(jié)構(gòu)相似度。結(jié)果表明,該方法更著重于匹配整體的文檔結(jié)構(gòu),得到的聚類(lèi)的句子間的結(jié)構(gòu)相似度較高。

關(guān)鍵詞:自然語(yǔ)言處理;短文本;聚類(lèi);長(zhǎng)短期記憶網(wǎng)絡(luò);自動(dòng)編碼機(jī)

中圖分類(lèi)號(hào):TP183文獻(xiàn)標(biāo)識(shí)碼:A

Abstract:A short text clustering method,which is based on text vectorization,is proposed in this article.Word vectors are used as basic features in this method,and are encoded and compressed by LSTMAutoEncoder to get fixed length vectors to represent the texts.These fixed length vectors are used for the final clustering.A test with labeled dataset is applied for this method,with Gini impurity used to measure the similarity of the result of the clustering of this method and human clustering.Meanwhile,innercluster distance is used as evaluation for the structural similarity within a cluster.The result shows that,this method is focused on matching the structural information of the text,as the result got a relatively high similarity within the cluster.

Key words:natural language processing;short text;clustering;long shortterm memory network;autoencooder

1引言

在自然語(yǔ)言處理的應(yīng)用領(lǐng)域中,文本聚類(lèi)是一個(gè)重要的任務(wù)。通過(guò)文本聚類(lèi),可以根據(jù)文本內(nèi)容的性質(zhì)對(duì)海量文本進(jìn)行初步的劃分,為后續(xù)如數(shù)據(jù)挖掘、標(biāo)簽化處理、知識(shí)圖譜等一系列的應(yīng)用提供一定的信息。同時(shí),文本聚類(lèi)的結(jié)果對(duì)一些業(yè)務(wù)本身,諸如客服回復(fù)、病例整理等存在參考價(jià)值。在文本聚類(lèi)中,以詞在文檔中的出現(xiàn)情況作為特征維度,組建特征向量并進(jìn)行聚類(lèi)的方法是一類(lèi)較經(jīng)典的方法。該類(lèi)方法依賴(lài)于兩個(gè)文檔之間共有詞的比較,需要對(duì)文檔中詞的出現(xiàn)情況進(jìn)行編碼,并比較兩個(gè)編碼后的向量。在該類(lèi)方法中,較經(jīng)典的文檔編碼方法是直接將詞出現(xiàn)情況進(jìn)行編碼的詞袋(Bag of words)方法[1]以及進(jìn)一步衍生的以詞頻-逆向文檔頻率(Term FrequencyInverse Document Frequency,TFIDF)作為權(quán)重的編碼方法。使用當(dāng)文本長(zhǎng)度較長(zhǎng)時(shí),文本間存在足夠多的相同詞匯,得到的表征文本的特征向量較稠密,能夠較好地應(yīng)用于文本聚類(lèi)上。然而,短文本(通常在10~100詞之間)聚類(lèi)問(wèn)題因其文本長(zhǎng)度短,基于詞出現(xiàn)情況生成的詞袋向量非常稀疏,詞和詞之間的重合率較低,容易由于同義詞/近義詞的語(yǔ)義鴻溝現(xiàn)象產(chǎn)生相似度漂移,傳統(tǒng)的聚類(lèi)方式效果差強(qiáng)人意。

另一方面,詞袋模型在操作時(shí)并沒(méi)有考慮文本的結(jié)構(gòu)信息(Semantic Information)。雖然改進(jìn)的詞袋模型使用n元(ngram)詞能夠保留部分結(jié)構(gòu)信息,但并非完整的結(jié)構(gòu)信息。

針對(duì)于短文本易受同義詞影響的特性,可以使用詞向量(Word vector)作為基礎(chǔ)特征。近義詞和同義詞的詞向量具有高相似度,可以利用這一特性,解決原先在詞袋模型中,同義詞無(wú)法識(shí)別的問(wèn)題。使用詞向量作為基礎(chǔ)特征、LSTM整合處理的組合方法能有效地對(duì)文本內(nèi)在含義進(jìn)行抽取,這一點(diǎn)已經(jīng)被最近的一些自然語(yǔ)言推斷(Natural Language Inference)方法充分證明了 [2][3]。因此,可以使用類(lèi)似的方法,將詞向量按順序輸入到LSTM網(wǎng)絡(luò)中轉(zhuǎn)化為最終的文本向量,并使用經(jīng)典的Kmeans方法進(jìn)行聚類(lèi)。在文本向量的生成過(guò)程中,為了最大限度地保留有效信息,使用自動(dòng)編碼機(jī)(AutoEncoder)的方式來(lái)對(duì)詞向量進(jìn)行轉(zhuǎn)換的LSTM網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練。

2詞的分布式表示向量模型

以TFIDF作為權(quán)重的詞袋模型中,特征(后續(xù)簡(jiǎn)述為T(mén)FIDF特征)中的單個(gè)詞語(yǔ)實(shí)際上是作為一個(gè)單元來(lái)進(jìn)行處理的。在詞表示的級(jí)別,其表示可以視為一個(gè)僅在對(duì)應(yīng)該詞的維度上對(duì)應(yīng)值為1的詞獨(dú)熱編碼(Onehot encoding)向量。而詞袋模型則是將這些向量累加起來(lái)并乘以對(duì)應(yīng)的IDF值作為權(quán)重,得到該文檔向量中對(duì)應(yīng)于這一個(gè)詞的最終特征值。在這一過(guò)程中,詞與詞之間的關(guān)系并沒(méi)有被考慮。表達(dá)同樣意義或近似意義的詞,為該特征向量上的毫無(wú)關(guān)系的兩個(gè)維度。

基于“詞的語(yǔ)義由其上下文確定” 理論(A word is characterized by the company it keeps),許多分布語(yǔ)言模型被提出。其中較典型的有基于矩陣的分布表示——以全局向量法(Global Vector,GloVe)[4]為代表,和基于神經(jīng)網(wǎng)絡(luò)的分布表示——以本文中使用的詞向量生成工具Word2vec[5]采用的連續(xù)詞袋(Continuous BagofWords)模型和跳過(guò)語(yǔ)法模型(Skipgram)為代表。endprint

通過(guò)分布式表示的詞向量模型得到的詞向量,有一個(gè)特性是可以很好地表征詞和詞之間的關(guān)系。典型的例子是詞的關(guān)系的類(lèi)比,如

υ("國(guó)王")-υ("王后")≈υ("男")-υ("女")

υ("英國(guó)")+υ("首都 ")≈υ("倫敦")(1)

對(duì)詞間關(guān)系有良好表達(dá)這一特性正是對(duì)短文本的表征中所需要的。這一特性使得近義詞或同義詞更容易被表征為近似的向量。這一關(guān)系能夠在后續(xù)的LSTM網(wǎng)絡(luò)中被捕捉并利用。此外,分布式表示的詞向量具有低維稠密的特點(diǎn),在后續(xù)的使用上較高維稀疏的基于詞獨(dú)熱編碼(Onehot encoding)所生成的詞袋(Bag of Words)或進(jìn)一步的TFIDF特征更為方便。

3基于LSTM的自動(dòng)編碼機(jī)

31自動(dòng)編碼機(jī)(Autoencoder)

自動(dòng)編碼機(jī)是利用自監(jiān)督學(xué)習(xí)來(lái)對(duì)輸入樣本進(jìn)行編碼的人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network)。自動(dòng)編碼機(jī)的主要用于對(duì)某種特定分布的數(shù)據(jù)集進(jìn)行壓縮編碼,以達(dá)到降低數(shù)據(jù)樣本維度的目的。自動(dòng)編碼機(jī)通常用于進(jìn)行無(wú)監(jiān)督學(xué)習(xí)(原理為自監(jiān)督學(xué)習(xí))和特征學(xué)習(xí)[6][7]。自動(dòng)編碼機(jī)及其衍生也在生成模型中得到了應(yīng)用[8]。自動(dòng)編碼機(jī)的結(jié)構(gòu)主要分為兩個(gè)部分:編碼器(Encoder)與解碼器(Decoder),其中編碼器主要將原始數(shù)據(jù) 壓縮為輸出編碼 ,即:

:X→Z(2)

而解碼器則將輸出編碼 還原為接近原始數(shù)據(jù)的數(shù)據(jù),即

Ψ:Z→X′(3)

自動(dòng)編碼機(jī)的原理圖如下:

圖1自動(dòng)編碼機(jī)原理簡(jiǎn)圖

將數(shù)據(jù)轉(zhuǎn)化為編碼的過(guò)程中,數(shù)據(jù)的信息有一定損失。在編碼中僅保留主要的信息。這一特性亦提供了降低隨機(jī)噪聲的能力。因此,在部分場(chǎng)景中會(huì)使用自動(dòng)編碼機(jī)作為降噪機(jī)制,將編碼再解碼后的數(shù)據(jù)作為降噪后的結(jié)果輸出。

為使自動(dòng)編碼機(jī)能夠保留原樣本中的主要信息,優(yōu)化目標(biāo)設(shè)置為:

,φ=argmin,φ||X-φ((x))X||2(4)

即輸出編碼經(jīng)過(guò)解碼器還原后,其和原輸入相差距離最小,應(yīng)該能最大限度地還原原始數(shù)據(jù)。

32長(zhǎng)短期記憶網(wǎng)絡(luò)(Long shortterm memory Neural Network)

為處理序列型的數(shù)據(jù),Gollerp[9]等提出了遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network,RNN)。遞歸神經(jīng)網(wǎng)絡(luò)將先前時(shí)刻的輸出作為輸入一部分,與此刻的外部輸入一起輸入到神經(jīng)網(wǎng)絡(luò)中,以將先前時(shí)刻的輸入信息保留并在后續(xù)中使用。為更好地處理和保留長(zhǎng)序列的歷史信息,Hochreiter[10]等提出了長(zhǎng)短期記憶網(wǎng)絡(luò)(Long Shortterm Memory Neural Network)。其原理如圖:

在上圖中,Xt為L(zhǎng)STM網(wǎng)絡(luò)當(dāng)前時(shí)刻的輸入,ht-1為L(zhǎng)STM上一時(shí)刻的輸出,ht為當(dāng)前時(shí)刻的輸出,Ct-1為L(zhǎng)STM上一個(gè)

時(shí)刻的細(xì)胞狀態(tài)(Cell State),Ct為L(zhǎng)STM當(dāng)前的細(xì)胞狀態(tài)。關(guān)于細(xì)胞狀態(tài)的意義,請(qǐng)?jiān)斠?jiàn)后續(xù)的描述。

在LSTM網(wǎng)絡(luò)中,數(shù)據(jù)分為兩個(gè)支流。每個(gè)支流均由Sigmoid函數(shù)(在圖中由σ表示)來(lái)決定其對(duì)后續(xù)的影響,而tanh函數(shù)為核心處理函數(shù)。先前的信息保存在細(xì)胞狀態(tài)(Cell State)中,在結(jié)構(gòu)圖中為上路部分,如圖:

該部分首先由以下結(jié)構(gòu)生成限制函數(shù)以決定保留多少先前的歷史信息,即生成對(duì)原先細(xì)胞狀態(tài)的保留系數(shù)

在該部分中當(dāng)前輸入Xt和歷史輸出ht經(jīng)過(guò)tanh函數(shù)變換后為細(xì)胞狀態(tài)的更新信息。使用一個(gè)Sigmoid函數(shù)對(duì)其進(jìn)行系數(shù)變換,以決定更新信息在新的細(xì)胞狀態(tài)中的權(quán)重。最終這一部分輸出的系數(shù)加權(quán)后的更新信息。

系數(shù)加權(quán)后的歷史信息和系數(shù)加權(quán)后的更新信息直接疊加,得到新的細(xì)胞狀態(tài),如以下:

該輸出同時(shí)作為一部分的下一時(shí)刻的輸入使用。從以上結(jié)構(gòu)可以看出,LSTM網(wǎng)絡(luò)可以保留歷史信息,并根據(jù)歷史信息處理和當(dāng)前輸入同時(shí)決定當(dāng)前輸出。該模型用于整合序列的詞向量是非常合適的。使用LSTM網(wǎng)絡(luò),前后文的信息將得到最大保留,從而輸出一個(gè)信息較全面的文本特征。

33基于LSTM的自動(dòng)編碼機(jī)的實(shí)現(xiàn)

為將文本轉(zhuǎn)換為定長(zhǎng)的稠密向量,并盡量保留原文本序列中的信息,我們采用了基于LSTM的自動(dòng)編碼機(jī),其大致結(jié)構(gòu)如下:

在這里,為了便于說(shuō)明,我們將不同時(shí)刻的LSTM網(wǎng)絡(luò)展開(kāi)。句子經(jīng)分詞后,表示各個(gè)詞的詞向量按順序輸入到作為編碼器的LSTM網(wǎng)絡(luò)中,解碼器直接獲取編碼器的輸出進(jìn)行解碼,并以原來(lái)的詞向量作為優(yōu)化目標(biāo),使信息經(jīng)過(guò)編碼器和解碼器后得到最大保留,以保證原句子被轉(zhuǎn)換為統(tǒng)一的短文本向量后其信息得到了最大的保留。同時(shí),使用LSTM網(wǎng)絡(luò)順序處理詞向量信息最大程度地保留了原先的句子結(jié)構(gòu)信息。

詞向量由Word2Vec[5]工具對(duì)文本進(jìn)行自監(jiān)督訓(xùn)練后輸出生成,到目前為止所有的工作都可以使用不需人工標(biāo)注的數(shù)據(jù)。

4聚類(lèi)方法與整體說(shuō)明

使用LSTM自動(dòng)編碼機(jī)生成文本特征向量后,使用Kmeans聚類(lèi)算法對(duì)文本進(jìn)行聚類(lèi)。方法整體結(jié)構(gòu)如下:

先通過(guò)Word2Vec神經(jīng)網(wǎng)絡(luò)進(jìn)行詞嵌入(Word Embedding),使用輸出的詞向量作為序列輸入到LSTM網(wǎng)絡(luò)中進(jìn)行以自動(dòng)編碼機(jī)(AutoEncoder)的方式進(jìn)行自監(jiān)督訓(xùn)練,得到的文本向量最終輸入到Kmeans聚類(lèi)中進(jìn)行文本聚類(lèi)。

本文中,Word2Vec的詞向量生成使用的工具是Gensim,語(yǔ)料庫(kù)(Corpus)使用了中文維基于2017/05/20的導(dǎo)出文件和內(nèi)部的投訴處理數(shù)據(jù)集合并而成的語(yǔ)料。LSTM自動(dòng)編碼機(jī)的網(wǎng)絡(luò)訓(xùn)練使用的是Keras神經(jīng)網(wǎng)絡(luò)工具箱。Kmeans聚類(lèi)方法來(lái)自于python的機(jī)器學(xué)習(xí)庫(kù)Sklearn。endprint

在實(shí)驗(yàn)中,我們用于聚類(lèi)的數(shù)據(jù)集為內(nèi)部的投訴處理數(shù)據(jù)集。該數(shù)據(jù)集根據(jù)業(yè)務(wù)標(biāo)簽分為了10類(lèi),為結(jié)果。本次實(shí)驗(yàn)的評(píng)估方式主要有以下幾個(gè)方面:

1)通過(guò)特征向量降維后的可視化結(jié)果,可以比較直觀地看到生成后的特征向量的分布情況。在這里我們使用Tsne來(lái)進(jìn)行特征向量的降維。

2)平均聚類(lèi)中心距離:

i=1n∑xjCi‖xj-i‖(5)

其中xj為屬于Ci類(lèi)的樣本向量,ci為該類(lèi)的中心向量,n為該類(lèi)的大小。該指標(biāo)為傳統(tǒng)的聚類(lèi)效果指標(biāo),用于衡量類(lèi)中樣本的集中度。該項(xiàng)指標(biāo)越低,則表明聚類(lèi)結(jié)果中句子結(jié)構(gòu)越接近。

3)原標(biāo)簽類(lèi)與聚類(lèi)后標(biāo)簽類(lèi)的基尼非純度(Gini Impurity)

I(Ci)=1-max1≤k≤K∑Jj=1[yj=k?]J(6)

其中yj為某個(gè)樣本標(biāo)簽,k為原數(shù)據(jù)集中的類(lèi)別標(biāo)簽,J為Ci類(lèi)中的樣本總數(shù)。該指標(biāo)從流行的決策樹(shù)(Decision Tree)模型類(lèi)的分類(lèi)與回歸樹(shù)(Classifcation and Regression Tree,CART)算法[9]中衍生出來(lái),主要衡量類(lèi)中非主要的原標(biāo)簽的比例。該項(xiàng)指標(biāo)反映了聚類(lèi)結(jié)果與人工標(biāo)注的相似度。

5實(shí)驗(yàn)結(jié)果與分析

51詞向量提取

本次實(shí)驗(yàn)中詞向量提取使用的語(yǔ)料來(lái)源為兩部分。其一用于后續(xù)聚類(lèi)的投訴數(shù)據(jù)集,該部分?jǐn)?shù)據(jù)中共有有效句子460762個(gè),詞13396546個(gè)。由于該部分?jǐn)?shù)據(jù)量較小,另外使用了中文維基于2017/05/20的導(dǎo)出文件作為輔助語(yǔ)料庫(kù),與該部分一起用于進(jìn)行詞向量的提取。中文維基導(dǎo)出的語(yǔ)料庫(kù)中共有有效句子3311845個(gè),詞140948202個(gè)。最終獲取詞向量字典大小為100003,罕見(jiàn)詞(出現(xiàn)次數(shù)<5)未收錄。

生成的詞向量字典中部分隨機(jī)抽取的詞匯及與其最相似的詞的匹配示例如下:

以上結(jié)果顯示了詞向量的意義相似性,即生成的詞向量和其含義相近的詞的詞向量具有較高的相似匹配度。

52LSTM自動(dòng)編碼機(jī)網(wǎng)絡(luò)訓(xùn)練

LSTM自動(dòng)編碼機(jī)使用Keras神經(jīng)網(wǎng)絡(luò)工具包實(shí)現(xiàn)。Keras環(huán)境使用的是使用Theano后端(Backend)。

在訓(xùn)練過(guò)程中,自動(dòng)編碼機(jī)將編碼器(Encoder)與解碼器(Decoder)結(jié)合起來(lái)進(jìn)行訓(xùn)練。訓(xùn)練完成后,將編碼器(Encoder)用于對(duì)文本進(jìn)行編碼,并使用這些編碼向量進(jìn)行聚類(lèi)。

53文本向量降維后的可視化

首先將TFIDF特征向量與LSTM自動(dòng)編碼機(jī)文本向量進(jìn)行降維可視化,從這一角度來(lái)直觀地了解生成的特征對(duì)聚類(lèi)的影響。

以下是TFIDF的原標(biāo)簽分布與其聚類(lèi)結(jié)果的標(biāo)簽分布。

其中圖10中文本按照其原先標(biāo)識(shí)的標(biāo)簽進(jìn)行顏色的標(biāo)識(shí),圖11中文本按照聚類(lèi)后的標(biāo)簽進(jìn)行顏色的標(biāo)識(shí)。

圖12為使用LSTM自動(dòng)編碼機(jī),編碼器輸出的壓縮文本向量的原標(biāo)簽分布情況。圖13為使用這些文本向量進(jìn)行聚類(lèi)后的結(jié)果。可以看到在該圖中文本已經(jīng)形成了一定程度的集落,且與數(shù)據(jù)集提供的標(biāo)簽有一定程度的對(duì)應(yīng)關(guān)系。在聚類(lèi)后的集群中有部分體現(xiàn)了這樣的關(guān)系。

54使用基尼(Gini)非純度和聚類(lèi)中心距離作為指標(biāo)衡量

參考4,我們用于比較模型的主要標(biāo)準(zhǔn)為基尼(Gini)非純度和聚類(lèi)中心平均距離。以下為實(shí)驗(yàn)結(jié)果。

55總結(jié)

本文介紹了一種使用詞向量作為基本特征,并使用LSTM網(wǎng)絡(luò)將文本的詞向量特征統(tǒng)一提取為統(tǒng)一的文本的特征的方法。基于這種文本特征,使用Kmeans等聚類(lèi)方法對(duì)文本進(jìn)行聚類(lèi)。

本文使用的特征與基于TFIDF特征的方法相比,更加著重于匹配整個(gè)文檔的結(jié)構(gòu),得到的聚類(lèi)中的句子間的結(jié)構(gòu)差異較小,這點(diǎn)從較小的聚類(lèi)中心平均距離可以證明。

由于本次提供的原始數(shù)據(jù)集較小,在訓(xùn)練詞向量的時(shí)候使用了額外的維基語(yǔ)料庫(kù)作為輔助的詞向量數(shù)據(jù)集,但依然未能很好地解決某些業(yè)務(wù)關(guān)鍵詞出現(xiàn)次數(shù)較少而無(wú)法準(zhǔn)確匹配其語(yǔ)義的現(xiàn)象,后續(xù)可以從以下方面進(jìn)行完善:

1)依然使用詞向量作為基礎(chǔ)特征,以解決語(yǔ)義鴻溝現(xiàn)象,但需要更大的和業(yè)務(wù)相關(guān)的文本數(shù)據(jù)集;

2)增加能夠捕捉業(yè)務(wù)關(guān)鍵詞信息的方法,以應(yīng)對(duì)實(shí)際場(chǎng)景中以業(yè)務(wù)關(guān)鍵詞作為聚類(lèi)重要依據(jù)的場(chǎng)景。

參考文獻(xiàn)

[1]RAJARAMAN A,UllMAN J D.Mining of Massive Datasets [M].1 Edition,Cambridge:Cambridge University,2011:1-17 doi:10.1017/CBO9781139058452.002.

[2]MUELLER J,THYAGARAJAN A.Siamese Recurrent Architectures for Learning Sentence Similarity[C]//AAAI.2016:2786-2792.

[3]CHEN Q,ZHU X,LING Z H,et al.Enhanced LSTM for natural language inference[C]//Proc.ACL.2017.

[4]PENNINGTON J,SOCHER R,MANNING C D.Glove:Global vectors for word representation[C]//EMNLP.2014,14:1532-1543.

[5]MIKOLOV T,CHEN K,CORRADO G,et al.Efficient estimation of word representations in vector space[J].arXiv preprint arXiv:1301.3781,2013.

[6]LIOU C Y,HUANG J C,YANG W C.Modeling word perception using the Elman network[J].Neurocomputing,2008,71(16):3150-3157.

[7]LIOU C Y,CHENG W C,LIOU J W,et al.Autoencoder for words[J].Neurocomputing,2014,139:84-96.

[8]KINGMA D P,WELLING M.Autoencoding variational bayes[J].arXiv preprint arXiv:1312.6114,2013.

[9]GOLLER C,KUCHLER A.Learning taskdependent distributed representations by backpropagation through structure[C].IEEE International Conference on Neural Networks,Washington,DC,USA.1996,1:347-352.

[10]HOCHREITER S,SCHMIDHUBER J.Long shortterm memory[J].Neural computation,1997,9(8):1735-1780.

[11]BREIMAN L,F(xiàn)RIEDMAN J,STONE C J,et al.Classification and regression trees [M].CRC press,1984.endprint

主站蜘蛛池模板: 亚洲视频在线青青| 欧美成人区| 狠狠亚洲五月天| 免费人成黄页在线观看国产| 日本免费a视频| 一级毛片在线免费看| 国产成人一区在线播放| 欧美日韩激情在线| 亚洲区欧美区| 日韩国产黄色网站| 美女扒开下面流白浆在线试听| 国产熟女一级毛片| 91丝袜乱伦| 久夜色精品国产噜噜| 免费视频在线2021入口| 四虎精品黑人视频| 野花国产精品入口| 色婷婷电影网| 91www在线观看| 无码一区中文字幕| 亚洲视频二| 亚洲成综合人影院在院播放| 国产成人夜色91| 日韩欧美国产区| 干中文字幕| 国产精品自在线天天看片| 国产黄在线观看| 国产69精品久久| a毛片在线播放| 欧美日韩动态图| 久久精品中文无码资源站| 久久久久人妻一区精品| 国产成人久久综合一区| 国产制服丝袜91在线| 香蕉久久国产超碰青草| 97精品伊人久久大香线蕉| 国产精品视屏| 亚洲国产中文综合专区在| 欧美.成人.综合在线| 怡红院美国分院一区二区| 亚洲中文字幕久久无码精品A| 在线欧美日韩国产| 亚洲视屏在线观看| 26uuu国产精品视频| 人妻无码AⅤ中文字| 99久久精品美女高潮喷水| 国产性精品| 91色爱欧美精品www| 亚洲日本在线免费观看| 99福利视频导航| 999精品色在线观看| av一区二区三区高清久久| 五月丁香在线视频| 国产精品xxx| 中美日韩在线网免费毛片视频| 久久精品娱乐亚洲领先| 九色91在线视频| a级毛片毛片免费观看久潮| 亚洲一区第一页| 精品免费在线视频| 亚洲成人网在线观看| 免费在线播放毛片| 中文字幕久久波多野结衣| 国产成人精品日本亚洲77美色| 四虎影视无码永久免费观看| 无码日韩视频| 成人在线不卡视频| 欧美三级自拍| 狠狠操夜夜爽| 2021无码专区人妻系列日韩| 极品av一区二区| 中国精品自拍| 中文字幕亚洲无线码一区女同| 九九久久99精品| 99久久精品免费看国产免费软件| 成人午夜久久| 国产第一页免费浮力影院| 国产欧美日本在线观看| 天天摸夜夜操| 麻豆精品视频在线原创| 1769国产精品视频免费观看| 欧美福利在线观看|