999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于分層注意力機制的神經網絡垃圾評論檢測模型

2018-12-14 05:26:24劉雨心
計算機應用 2018年11期
關鍵詞:方法模型

劉雨心,王 莉,張 昊

(1.太原理工大學 信息與計算機學院, 山西 晉中 030600; 2.太原理工大學 大數據學院, 山西 晉中 030600)(*通信作者電子郵箱591085595@qq.com)

0 引言

隨著互聯網的發展,人們越來越喜歡在網上發表自己的觀點,并與其他網絡用戶分享他們的觀點。 2016年,美國Yelp評論網站的評論超過108萬(https://www.yelp.com/about),每年評論數量增加超過18萬, 然而,虛假評論約占Yelp總評論的14%~20%,占Tripadvisor、Orbitz、Priceline和Expedia總評論的2%~6%。2011年美國Cone Communication的調查報告(http://www.conecomm.com/contentmgr/showdetails.php/id/4008)顯示,64%的用戶通過閱讀相關評論獲得產品信息,87%的用戶在閱讀肯定評論后購買了此產品,80%的用戶在閱讀否定評論后放棄購買,這充分說明評論對用戶的購買決策起到舉足輕重的作用,積極的評論可以提高產品口碑和品牌信譽進而提高商家的利潤和聲譽,垃圾評論在這種背景下應用而生[1-2]。

垃圾評論是垃圾評論者為了誤導潛在客戶,精心虛構的虛假評論[3-4],是商家或用戶在個人利益驅使下親自雇傭水軍惡意發布的虛假評論。用戶撰寫評論的質量受各種因素的影響,如用戶的文化背景和用戶撰寫評論時的情緒。本文垃圾評論不指用戶的否定評論,即否定的低質量的評論不一定是垃圾評論。事實上,為了隱藏自己的身份并誤導用戶,垃圾評論者通常會確保評論的質量,以提高垃圾評論的影響。下面是兩條來自公開垃圾評論數據集的評論。

1)如果你在芝加哥,艾爾雷格洛酒店對你來說是完美的。它位于市中心,有時尚的房間和細心的員工。我在酒店住了3個晚上,對一切都很滿意。床很舒服,有很多蓬松的枕頭,大的平板電視,收音機和iPad塢站和浴室是干凈的。我接觸的每個人都非常友好并樂于助人。我在那里的最后一天,我訂了房間服務,不僅我的飯菜美味,并按時交付,廚房還打來電話,詢問一切是否都好。我從來沒有這樣的跟進服務。

2)我在芝加哥希爾頓酒店逗留期間一直很不愉快。你怎么會這樣問?好吧,我告訴你,那里的毛巾很臟沒有消毒,服務也很糟糕,最糟糕的是,我登記的時候,他們甚至不在桌子上。另外,我從酒店訂購了早餐、午餐和晚餐,但我收到的是錯誤的訂單。所有的飯菜,吃完后想吐的感覺。最后,我還為我不想要的東西支付了賬單。總的來說,這個酒店對我來說都是非常糟糕和不愉快的。我給它半星的評價。

第1)條不是垃圾評論,即來自顧客的真實的評論;第2)條是垃圾評論,來自土耳其人編寫的虛假評論。從上面兩條評論可以看出,靠人工從真實的評論中區分垃圾評論是很困難的。在以前的研究中,研究人員邀請三名志愿者識別160條垃圾評論,而志愿者誤將垃圾評論判為真實評論,識別準確率僅為53.1%~61.9%[5],這個結果同樣表明垃圾評論不易識別,這導致標注數據不足和難以評價檢測結果的困境。因此,垃圾評論檢測是一項緊迫必而必要的任務。

用戶評論通常是短文本,垃圾評論檢測是一個二分類問題, 該任務的目標是區分一條評論是否為垃圾評論。現有方法主要遵循文獻[6]的工作,采用機器學習的方法來構建分類器,特征工程在這個方向很重要。大部分研究主要集中在從語言學和心理學的角度設計有效的特征以提高分類性能,盡管這些特征表現出強大的性能,但評論的離散型和稀疏性使得研究者們從語篇角度出發,挖掘評論的潛在語義信息變得異常困難。

近年來,在自然語言處理領域,神經網絡模型取得了較好成果。基于其良好的性能,一些研究采用神經網絡模型來學習文檔表示,從而實現從語義的角度檢測垃圾評論。例如,Ren等[7]建立了一個門遞歸神經網絡模型來學習文檔表示,雖然取得了較好的效果,但準確率仍有待提高。

基于以上研究,本文提出一種基于層次注意力的神經網絡(Hierarchical Attention-based Neural Network, HANN)垃圾評論檢測模型, 該模型主要由兩部分組成:Word2Sent 層 (見2.1節),在詞向量表示的基礎上,采用卷積神經網絡(Convolutional Neural Network, CNN)[8]生成連續的句子表示;Sent2Doc 層(見2.2節),基于上一層產生的句子表示,使用注意力池化的神經網絡生成文檔表示,生成的文檔表示直接作為垃圾評論的最終特征,采用softmax分類器分類。本文的貢獻主要包括以下3個方面:

1)創新性地提出HANN模型來區分垃圾評論與真實評論,所提模型不需要外部模塊,采用端到端的方式進行訓練。

2)HANN模型完整地保留了用戶評論的位置和強度特征,并從中提取重要的和綜合的信息,包括文檔中任何位置的歷史、未來和局部上下文,從而挖掘用戶評論的潛在語義信息。

3)實驗結果表明,與Li等[9-10]的方法相比,本文方法準確率平均提高5%,在最好的情況下,準確率高達90.9%,比Li等的方法高出15%,分類效果顯著改善。

1 相關工作

與其他類型的垃圾檢測,如郵件垃圾[11]、網頁垃圾[12-13]等相比,由于用戶評論具有數量大、噪聲多、更新快、主觀性高和針對性強等特點,使得用戶垃圾評論檢測更困難,所以先進的各種垃圾檢測方法不能直接用于用戶垃圾評論檢測。垃圾評論檢測被認為是自然語言處理(Natural Language Processing, NLP)領域的一個復雜問題。

2008年,Jindal等[6]首次提出了垃圾評論這個問題,采用評論內容、評論者和商品本身的特征來訓練模型。Jindal等將垃圾評論分為3類,即虛假(負面)評論、僅討論品牌而非產品的評論以及不存在評論(如廣告)的評論,第一類危害性最大也最難識別[3]。

研究者提出許多垃圾評論檢測的方法[14-15]。大多數研究表明,垃圾評論與真實評論在情感、語言、寫作風格、主觀性和可讀性方面不同[16-19]。大多數方法在Ott等[5]最初介紹的合成數據集上進行; 但是,文獻[20-21]采用相同的方法分別在合成的和真實的數據集上實驗,發現合成的數據集是有缺陷的。因為它們沒有如實反映真實的垃圾評論,且合成數據集的技術存在問題。

Yoo等[22]收集了42個虛假的和40個真實的酒店評論,并手動比較了他們的語言差異。Ott等[23]通過雇傭土耳其人撰寫虛假評論來創建數據集,后續研究大都在這個數據集上進行。最近,Li等[9]在Ott等工作的基礎上發展了一個范圍廣泛的黃金標準垃圾評論數據集,這個數據集通過眾包和領域專家生成,包括3個領域(“酒店”“餐館”和“醫院”),由于此數據集數據量大、覆蓋性廣,所以本文實驗采用這個數據集。

許多方法已經證明,關注評論的上下文相似性是有益的,在這些方法中,重復和近似重復的評論被認為是垃圾評論。Lau等認為垃圾評論者不僅發布虛假評論,而且會以不同的身份復制這些評論作為不同品牌或同一品牌的多種產品的評論,因此,內容相似性比較是研究人員眾所周知的技術[16, 24]。

Heydari等[25]提出了一個垃圾評論檢測系統,評論者的積極性、評價行為和評論的上下文相似性這些特征被綜合考慮。從評論的時間序列角度出發,在可疑時間間隔內采用模式識別技術,捕捉垃圾評論; Ahsan等[26]通過使用評論內容的詞頻-逆文本頻率指數(Term Frequency-Inverse Document Frequency, TF-IDF)特征引入主動學習方法來檢測垃圾評論;Zhang等[27]提出一種基于熵和協同訓練算法的CoFea方法,在無標簽數據上,采用熵值對所有詞匯進行排序,提出兩種策略,即CoFea-T和CoFea-S,對比這兩種策略后發現CoFea-T策略準確率更高,而CoFea-S策略時間開銷少。其他研究也有采用評論內容本身之外的特征,例如,何瓏[28]提出基于隨機森林的垃圾評論檢測方法,即對樣本中的大、小類有放回地重復抽取同樣數量樣本或者給大、小類總體樣本賦予同樣的權重以建立隨機森林模型,解決只考慮評論特征的選取,忽略了評論數據集不平衡性的問題; Wang等[29]提出了一種松散的垃圾評論者群體檢測技術,該技術采用雙向圖投影。

以上研究取得了較好的成果,但都表現出一個共同問題:依賴人工設計的、基于特定任務的語言和心理特征,未從文檔語篇的角度有效挖掘用戶評論的潛在語義信息。本文提出HANN模型,從語篇的角度有效提取文檔連續的語義信息,并從中獲取重要的和綜合的信息,從而提高垃圾評論識別準確率。

2 虛假垃圾評論檢測方法

用戶評論具有層次結構(單詞形成句子,句子形成文檔)[30]。另外,文檔中的不同詞和句子具有不同的信息量和不同程度的重要性。基于此,本文構建了一個分層注意力神經網絡模型來學習文檔表示。圖1描述了模型的結構,主要由兩部分組成: Word2Sent 層(見2.1節),基于詞向量的表示;Sent2Doc 層(見2.2節),基于上一層產生的句子表示。生成的文檔表示直接作為垃圾評論的最終特征,采用softmax分類器分類用戶評論。

圖1 基于層次注意力機制的神經網絡垃圾評論檢測模型

2.1 詞到句子的表示(Word2Sent layer)

卷積神經網絡(CNN)是建模句子語義表示最先進的方法[31]。CNN不依賴于外部解析樹[31-32],可用于學習句子的連續表示。卷積操作已被廣泛用于合成N-gram信息[33]。N-gram對許多自然語言處理任務(NLP)有用[18, 34],本文將N-gram應用于HANN模型。如圖2所示,使用3個卷積濾波器生成句子表示,因為它們可以捕捉不同粒度的N-gram局部語義信息,包括unigrams、bigrams和trigrams。N-gram在一些NLP任務中很強大,比如情感分類[35]。HANN模型使用3個寬度(width)分別為2、3和4的卷積濾波器。

正式的定義由n個詞組成的句子為(w1,w2, …,wi,…,wn)。每個詞wi映射用一個詞向量e(wi)∈RL表示,卷積濾波器是具有共享參數的線性層列表。L1、L2、L3表示3個卷積濾波器的寬度。

以L1為例,W1和b1是該濾波器線性層的共享參數。線性層的輸入是在固定長度窗口L1中的詞向量表示(word embedding)的連接,表示為I1,i=[e(wi);e(wi+1);…;e(wi+L1-1)]∈RL×L1。

線性層的輸出為:

H1,i=W1·I1,i+b1

(1)

其中:W1∈Rloc×L×L1,loc是線性層的輸出大小。將它提供給一個平均池化層,產生一個固定長度的輸出向量:

(2)

進一步添加一個激活函數tanh以合并非線性,濾波器O1的輸出如下:

O1=tanh(H1)

(3)

類似的,分別得到寬度為2和3的其他兩個卷積濾波器O2、O3的輸出。為了捕捉句子的全局語義信息,用3個濾波器的平均輸出作為句子的最終輸出S。

S=(O1+O2+O3)/3

(4)

圖2 詞到句子的模型

2.2 句子到文檔的表示(Sent2Doc layer)

有各種文檔表示的方法,如:平均所有的句子表示作為文檔的表示,但這種方法不能有效捕捉句子間的語義信息。CNN采用線性層的共享參數來建模局部句子關系,但CNN不能直接對長范圍的語篇結構建模,而這對一個文檔的表示非常重要。基于上層生成的句子表示,Sent2Doc層采用注意力池化的CNN[8]和雙向長短時記憶(Bidirectional Long-Short Term Memory, BLSTM)[36]模型的組合,實現從語篇的角度提取文檔重要的和綜合的語義信息。

CNN是一個功能強大的語義合成模型,卷積操作可以獨立地捕獲包含在文檔中任何位置的信息,但不能捕捉文檔長范圍的語篇結構,如圖1所示,卷積濾波器只能對上層產生的文檔矩陣執行卷積操作,產生局部表示(Local Representation),再將這個局部表示通過注意力權重(Attention Weight)集成到最終的文檔表示中。而注意力權重是通過對比局部表示與BLSTM生成的中間句子表示(Intermediate Representation)、在訓練階段進行優化而獲得的。生成的文檔表示作為最終的特征向量輸入到頂層softmax分類器。在測試階段,中間句子表示也作為softmax分類器的輸入,如圖1中的虛線所示。

在HANN模型中,卷積操作是在k個濾波器wc∈Rmd×k和一個連接向量xi:i+m-1之間進行的,xi:i+m-1表示從第i個句子開始的m個句子的窗口。每個濾波器的參數在所有窗口中共享。使用具有不同初始化權重的多個濾波器來提高模型的學習能力。通過交叉驗證決定濾波器的數量k。卷積運算由ci控制:

ci=g(WcTxi:i+m-1+bc)∈Rk

(5)

其中:xi∈Rd,bc是一個偏向量,g(·)是一個非線性激活函數。本文采用LeakyReLU[37]非線性激活函數,與ReLU相比,LeakyReLU有助于提高學習效率,并且在單元處于非活動狀態時允許小的梯度消失。

假定文檔的長度為T,當句子窗口滑動時,卷積層的特征映射表示如下:

c=[c1,c2,…,cT]∈RK×T

(6)

卷積層的輸出作為文檔的局部表示,每個元素ci都是相應位置的局部表示。

中間文檔表示由BLSTM生成。BLSTM是循環神經網絡的變體,通過用門控記憶單元代替循環神經網絡的隱藏狀態,解決LSTM的“梯度消失”問題;此外,還可以學習文檔任何位置的歷史和未來的信息。BLSTM架構與其他組件一起訓練。在訓練階段,損失函數的梯度通過中間文檔表示反向傳播來優化。

通過對比由卷積操作生成的局部表示與由BLSTM生成的中間文檔表示來計算注意力權重。為了對比這兩種表示,應把局部表示和文檔的中間表示映射到同一維空間,本文通過控制BLSTM的輸出維度與卷積過濾器的數量相同達到這個目的。

(7)

其中

(8)

術語ai是一個標量,函數sim(·)用于度量兩個輸入之間的相似度。本文采用余弦相似度。獲得注意力權重后,最終的文檔表示如下:

(9)

在識別垃圾評論和真實評論時,評論中的句子在語義表達中扮演著不同的角色,一些句子比另外一些句子更重要。本文中,每個句子的權重代表句子對整個文檔含義的貢獻,注意力可被視為獲得所有句子標注的加權和來計算文檔標注。這種方法借鑒了著名的注意力機制思想,將較大的權值賦給較重要的特征,從而提取文檔包含的重要信息。

2.3 softmax分類器

文檔表示d作為頂層分類器的輸入。在模型的頂部添加線性轉換層將文檔表示轉換為實值向量yc,softmax函數將實值向量轉換為條件概率,計算如下:

(10)

為了避免過擬合,在模型的倒數第二層,使用掩碼概率為p的dropout,dropout的關鍵思想是在訓練階段從神經網絡中隨機丟棄神經單位[38]。

(11)

其中,?是一個元素乘法運算符;q是dropout 率為p的掩碼向量。在訓練階段實現輸出權重Ws的l2范數約束。

(12)

其中:C是類別數,Si表示第i個句子。

卷積過濾器、BLSTM和softmax 分類器中的所有權重和偏置都由模型來決定。注意力權重在訓練階段優化。文獻[39]的Adadelta更新規則是一種有效且高效的反向傳播算法,本文采用此算法來優化模型。

3 實驗結果和分析

在公開的垃圾評論數據集上評價了本文方法的性能,并將該方法與已有方法進行比較,進行了3種類型的實驗,即領域內、跨領域和混合領域。

3.1 數據集和評價指標

本文采用Li等[9]發布的公開黃金標準垃圾評論數據集,其具體分布見表1。該數據集包含3個領域,即“酒店”“餐館”和“醫生”, 每個領域都有3種數據類型,分別是“顧客”“專家”和“土耳其人”。真實評論來自具有實際消費體驗的“顧客”。垃圾評論由土耳其人和專家編輯,這些專家具有專家級的領域知識。

表1 三個領域的數據統計

本文采用準確率作為評價指標, 所有(顧客/土耳其人/專家)評論都被用于酒店領域中的分類。在餐館和醫生領域中,只有顧客/土耳其人評論被采用,因為專家評論有限。本文使用數據集的90%作為訓練集,10%作為測試集。

3.2 Word embedding

本文采用Word2Vec工具來表示單詞向量。用skip-gram和最大化所有詞[40]的平均對數概率的方法,在包括1 000億個不同單詞的Google新聞數據集上訓練。每個單詞和短語都用300維向量表示,詞向量矩陣相對較大(3.6 GB),但包含許多不必要的詞。具體公式如下:

(13)

其中:c是上下文窗口大小,T表示文檔的長度。詞向量值包含在參數中,在訓練過程中優化。

3.3 實驗結果分析

3.3.1 領域內結果分析

領域內,根據Ren等[7]的實驗設置進行了一組測試并與之對比,顧客/土耳其人/專家評論都用于酒店領域;對于餐館和醫生領域,只有顧客/土耳其人評論被采用,實驗結果見表2。

表2 兩種方法領域內結果

3.3.2 跨領域結果分析

在交叉領域進行兩種類型的實驗來驗證本文模型的泛化能力和領域適應性。在第1個實驗中,在一個領域上訓練,分別在另外兩個領域測試; 在第2個實驗中,在兩個領域訓練,在剩下的領域測試。

本文通過在標注豐富的酒店領域數據集上訓練模型,然后分別在餐館和醫生領域測試,從而評價本文模型的泛化能力和領域適應性。

從表3可以看出,Ren等的方法,在餐館領域的測試準確率為83.5%,但在醫生領域的測試準確率卻降到57.0%。Li等[10]方法的準確率在餐館和醫生領域都不太好。本文方法的準確率都優于他們的方法。在餐館領域,本文方法獲得了最佳結果,準確率達到了87.5%; 在醫生領域,準確率最高的是Li等[9]采用離散特征的傳統方法。兩個先進的神經網絡模型的準確率低于Li等傳統模型的準確率,而本文模型的準確率與之相近。

表3 四種方法跨領域結果(在酒店領域訓練)

由于餐館和酒店之間有許多相似屬性,如環境和位置,而醫生領域與酒店的相似屬性少一些,詞匯差異也較大,這導致在酒店領域訓練的模型,在醫生領域的測試結果不如餐館領域結果。這些結果與以往研究結果一致。

另外,本文第一次在兩個領域上訓練,在剩下的領域測試。例如,本文在醫生和酒店兩個領域訓練,在餐館領域測試。

表4顯示,通過使用醫生和酒店領域的兩組數據進行訓練,在餐館領域的測試準確率為77.5%。當只采用酒店領域的數據用于訓練時,在餐館領域的測試準確率提高了大約10個百分點,因為餐館領域和酒店領域有許多相似屬性,但與醫生領域的相似屬性較少,所以通過在訓練過程中添加醫生領域的數據,在餐館領域的測試準確率不會提高反而降低,這充分驗證了不同的主題在評論中具有不同程度的重要性。例如,健康信息通常可以成為餐館評論的強大特征,因此,再次驗證了本文采用注意力機制方法來挖掘評論中的重要信息是可取的。

表4 本文方法跨領域結果

而當采用酒店和餐館領域的兩個數據集訓練時,醫生領域的評價準確率為74.5%,但是,如果只采用酒店領域數據訓練,則在醫生領域的準確率降低2%。這表明,當訓練領域的數據集極性與目標評價領域相似度較低時,使用大量訓練數據集可以提高目標領域的評價精度。

3.3.3 混合領域結果分析

在混合領域,與Li等[10]的方法進行了比較,其采用來自土耳其人和專家的所有虛假評論以及顧客的真實評論。同樣為了和Li等的方法對比,本文實驗設置與他們的方法一致。

Li等的方法包括段落均值(paragraph-average)、加權平均(weight-average)、句子卷積神經網絡(Sentence Convolutional Neural Network, SCNN)、句子加權神經網絡(Sentence-Weighted Neural Network, SWNN)以及這些方法和特征的組合。SCNN是一個基本的文檔表示學習模型,由兩個卷積操作組成: 句子卷積通過一個固定長度的窗口為每個句子創建一個組合; 文檔卷積把句子向量轉換為文檔向量。SWNN是SCNN的變體。Li等采用KL(Kullback-Leibler)散度作為一個詞的重要性權重來計算一個句子的權重。

本文采用所有句子標注的加權和來計算文檔標注。句子的權重衡量句子對整個文檔含義的貢獻,評論中的不同句子在文檔的語義表示中扮演著不同的角色。從真實的評論中區分垃圾評論時,一些句子比另一些句子更重要,因此,當一個句子對整個文檔的含義貢獻較大時,給它分配較大的權重。

表5顯示本文模型在混合領域取得了最好的結果,其準確率明顯高于其他神經網絡。SWNN模型的準確率為80.1%,SWNN+特征2的準確率為82.2%。在垃圾評論檢測中,POS(Part-Of-Speech)[9]和“第一人稱”是強大的特征, 特征1指POS特征,特征2指POS+“第一人稱”。因此,可大膽地假設:如果將這兩個特征與本文模型結合,那么準確率將比對比模型的準確率高出更多。

表5 各方法混合領域結果

3.3.4 參數分析

在實驗中,本文研究了3個參數的影響,即句子窗口大小、學習率和句子級卷積過濾器的數量。實驗結果表明當句子窗口大小設置為2、3和4,學習率為0.5,Word2Doc卷積濾波器數量為100時,準確率最高。

4 結語

一種新的基于分層的注意力機制的神經網絡被成功地用于垃圾評論檢測。通過使用層次注意力機制,使評論的位置和強度信息被完整地保留下來。Word2Sent和Sent2Doc的組合使本文模型能從保存的特征中提取重要的和全面的信息,挖掘用戶評論的潛在語義信息,從而提高垃圾評論識別準確率。本文方法分別在領域內、跨領域和混合領域三個領域上進行了檢測對比實驗。本文方法準確率比Li等[9-10]的方法準確率平均提高5%,最好的情況下,準確率高達90.9%,比Li等的方法高出15%,總體來說,本文方法的準確率更高,泛化能力更強。

將來,將進一步考慮把從垃圾評論中提取的語言學和心理學特征作為先驗知識加入到本文所提出的模型中,以充分利用兩者的優勢達到增強分類效果的目的; 另一方面,可以將這個新模型擴展到其他NLP任務,如情感分析[4],甚至計算機視覺和圖像識別等領域。

猜你喜歡
方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
學習方法
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 国产呦视频免费视频在线观看| 亚洲久悠悠色悠在线播放| 亚洲精品在线观看91| 亚洲码一区二区三区| 热re99久久精品国99热| 国产麻豆另类AV| 国产av一码二码三码无码| 71pao成人国产永久免费视频| 国产在线八区| 丰满人妻中出白浆| 亚洲αv毛片| 天堂av综合网| 欧美日本在线观看| 国产凹凸视频在线观看| 亚洲91在线精品| 高清不卡一区二区三区香蕉| 青草午夜精品视频在线观看| 日韩第一页在线| 国产欧美又粗又猛又爽老| 99热这里只有精品国产99| 91免费国产高清观看| 99re热精品视频中文字幕不卡| 免费国产小视频在线观看| 国产理论精品| 日韩成人在线视频| 国产精品成| 干中文字幕| 久久一色本道亚洲| 高潮爽到爆的喷水女主播视频| 青草免费在线观看| 午夜福利免费视频| 精品伊人久久久香线蕉| 视频一本大道香蕉久在线播放| 国产欧美在线观看一区| 亚洲久悠悠色悠在线播放| aaa国产一级毛片| 在线色国产| 在线五月婷婷| 国产69精品久久久久妇女| 在线观看91精品国产剧情免费| 中文字幕亚洲专区第19页| 激情六月丁香婷婷四房播| 久久婷婷人人澡人人爱91| 真实国产精品vr专区| 国产亚洲欧美日韩在线一区二区三区| 亚洲精品人成网线在线 | 在线看片中文字幕| 99热这里只有精品5| 亚洲91精品视频| 亚洲欧洲日产无码AV| www.91在线播放| 国产午夜不卡| 激情影院内射美女| 国产精品va免费视频| 丝袜高跟美脚国产1区| 国产男人天堂| 久久综合五月| 五月综合色婷婷| 超碰aⅴ人人做人人爽欧美| 在线另类稀缺国产呦| 91国内外精品自在线播放| 99在线视频免费| 日韩在线播放中文字幕| 色综合热无码热国产| 综合社区亚洲熟妇p| 看看一级毛片| 国产传媒一区二区三区四区五区| 91精品啪在线观看国产91九色| 国产亚洲欧美在线中文bt天堂 | 伊人色天堂| 无遮挡一级毛片呦女视频| 国产麻豆91网在线看| AV老司机AV天堂| 97视频在线观看免费视频| 中文字幕66页| 亚洲高清无码精品| 亚洲无线一二三四区男男| 白浆免费视频国产精品视频| 成人av专区精品无码国产| 26uuu国产精品视频| 噜噜噜综合亚洲| 亚洲精品高清视频|