999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

聯合注意力機制與MatchPyramid的文本相似度分析算法

2022-10-18 01:02:58孫海春朱容辰孫天楊
計算機工程與應用 2022年19期
關鍵詞:特征提取機制特征

代 翔,孫海春,朱容辰,孫天楊

中國人民公安大學 信息網絡安全學院,北京 100038

文本相似度計算是自然語言處理領域的核心技術之一,在自動問答系統、信息檢索、自動文本摘要、文本分類等自然語言處理的任務中都有著廣泛的應用[1]。隨著深度學習的迅速發展,文本相似度計算方法層出不窮,孿生網絡結構是文本相似度計算常采取的一種網絡結構,將兩個文本分別輸入到兩個子網絡中,子網絡常采用卷積神經網絡或者長短期記憶網絡,通過這兩個獨立的子網絡分別對兩個文本進行特征提取,然后將子網絡輸出的特征向量采用曼哈頓距離等距離度量方法進行計算即得到兩個文本的相似度得分。這種以孿生網絡為主體的文本相似度計算方法,善于捕獲單文本內部的特征,但文本之間沒有產生交互,因而完全忽略了文本之間的關聯信息。之后,注意力機制被引入到文本相似度計算當中用來建模文本之間的交互信息,例如給定以下兩個文本:

A:He said the foodservice pie business doesn’t fit the company’s long-term growth strategy.

B:The foodservice pie business does not fit our long-term growth strategy.

當對A 句中“foodservice”進行編碼時,注意力機制可以使我們看到B句中各個單詞對“foodservice”的影響力,影響力越高,對A句中“foodservice”進行編碼的過程中貢獻度就越大。通過這種方式,使兩個文本在編碼過程中融入彼此的信息從而產生交互。MatchPyramid 模型提出一種新穎的交互方式,其在編碼過程中使兩個文本詞向量矩陣進行點積,將兩個文本融合為圖的模式。接著使用卷積神經網絡對該二維圖進行特征提取,在卷積的過程中兩個文本在不同層級的特征上產生信息交互。本文針對傳統的MatchPyramid 模型進行改進,在輸入編碼層加入多頭自注意力機制和互注意力機制增強對文本內部特征和文本間關聯特征的表達。其次使用了密集連接的卷積神經網絡,彌補了模型對長距離依賴特征提取的不足,結果表明本文模型在文本相似度計算任務上表現更好。

1 Related works

早期,人們判斷兩段文本是否相似主要依賴于關鍵字匹配,這種匹配方式完全忽略了語義的影響,對于語義相似而字面差距大的文本識別效果不好。之后,人們逐漸考慮到了語義理解在文本相似度計算中的重要性,使用一系列的機器學習算法如LSA、PLSA、LDA將文本從稀疏的高維空間映射到低維語義空間,在低維語義空間計算相似度。在這一時期初步考慮到了語義,但一詞多義等問題仍是難點。Mikolov等人[2]創造出的word2vec模型,該模型使用大量的語料庫訓練,不僅使單詞從過去稀疏的獨熱編碼轉換到了稠密的分布式詞向量表示方法,極大降低了單詞表示維度,也考慮到了單詞的語義。Pennington等人[3]在word2vec的基礎上提出了glove向量,相比word2vec 單單考慮到了單詞局部的上下文信息,glove 通過共現矩陣考慮到了整個語料庫的全局信息,對單詞的語義表達更充分。劉繼明等人[4]提出PO-SIF算法,將word2vec詞向量使用SIF算法轉化為句向量,然后計算句向量之間的相似度。Huang 等人[5]提出了DSSM模型,首次將神經網絡模型運用到文本相似度計算當中,DSSM 模型使用的是詞袋模型,但其提出了詞哈希技術,將單詞切割為三字母表示,極大地降低了單詞向量的維度,接著將降維后的單詞向量投入到全連接神經網絡中抽取相應的語義特征。隨后,Shen 等人[6]提出了CLSM模型,該文認為,DSSM模型采用詞袋模型忽略了文本中的詞序,文中利用滑動窗口順序取詞,然后利用詞哈希技術降維,在一定程度上考慮到了文本的位置信息。同時,在特征提取層,用卷積神經網絡替代全連接神經網絡,通過卷積層操作融入局部上下文信息,但忽略了全局信息。后續又出現了LSTMDSSM[7]等模型提升對文本長距離依賴特征的提取表現。Hu等人[8]提出了ARC-I和ARC-II模型,ARC-I單純使用CNN 分別對文本提取特征,兩個文本之間并沒有交互。而ARC-II 模型屬于交互學習的模型,模型從兩個文本分別抽取詞向量組合起來進行全卷積,以此加強對關聯特征的提取。Yin等人[9]提出了ABCNN模型,將注意力機制與CNN 相結合進行特征表示。Wan 等人[10]提出了MV-LSTM 模型,使用雙向LSTM 對語句重編碼,然后將編碼后的句向量以多種方式進行交互操作,最后使用k-Max 池在每個交互矩陣上提取最大信號。2016年,Liang等人[11]提出了MatchPyramid模型,該模型將兩個文本的詞向量矩陣通過點積轉化為二維圖的形式,然后使用CNN 對二維圖進行卷積操作。Mueller 等人[12]提出了孿生LSTM 模型評估句子之間的語義相似性,將詞嵌入作為LSTMs的輸入,把句子編碼為固定大小的向量來表達句子潛在意義,然后對兩個向量計算曼哈頓距離。Parikh 等人[13]提出了可分解注意力模型,該模型將兩個句子分解成每個詞的軟對齊機制,來計算當前文本中每個詞與另一段文本的注意力得分從而得到每個詞的加權向量,該模型強調單詞之間的對應關系。Wang等人[14]提出了適用于句子匹配任務的比較聚合框架,研究了在對兩個句子向量進行匹配過程中使用不同比較函數的效果。在2017 年,Nie 等人[15]提出了SSE 模型,在編碼層使用堆疊的雙向LSTM,同時每層Bilstm的輸入都是前面所有層輸出的連接,最后一層的輸出接最大池化形成固定向量后輸入到分類器中。Chen 等人[16]提出了ESIM 模型,該模型在編碼層使用Bilstm 對輸入詞向量在當前語境下重編碼,接著對輸出的兩個文本向量使用注意力加權,加權后的向量與原始向量采取多種方式組合。最后將生成的向量連接起來再輸入到Bilstm中進行特征提取。Wang等人[17]提出了BIMPM模型,該模型對于孿生Bilstm 的每一步進行交互匹配,且提出了多種匹配方式,實現更細粒度的交互機制。Yi等人[18]提出了MCAN模型,注意力機制通常用來關注重點信息,本文中將注意力機制視為特征提取器,將多種注意力機制視為從不同的視角提取文本特征,增強了文本特征表示。Chen 等人[19]提出將對抗網絡應用到文本相似度建模任務上,認為這種方式能更好的建模了兩個文本之間的共同特征。Kim等人[20]提出DRCN模型,結合密集連接和注意力機制的遞歸模型進行文本相似度計算,文中使用5 層Bilstm 模型,每層的輸入都采用密集連接包含了之前所有層的輸出,同時為了避免密集連接機制所造成的的維度增大,引入自編碼器壓縮高維向量到固定長度,這種密集連接機制避免了底層特征的丟失。趙琪等人[21]提出膠囊網絡和BIGRU 的聯合模型,認為膠囊網絡可以提取文本的局部特征,BIGRU 可以提取文本的全局特征,該模型在Quora數據集上準確率達到86.16%。

交互式模型能很好地建模文本之間的關聯特征,傳統的MatchPyramid 模型的特點決定了它在句內特征與長距離依賴特征方面的提取還有改善的空間?;诖耍疚奶岢鋈诤献⒁饬C制的增強MatchPyramid 模型,多頭自注意力機制彌補了模型在單文本內部特征提取的不足,互注意力機制則增強了對文本間交互特征的表示,同時,采用密集連接的卷積神經網絡提升模型在長距離依賴特征提取上的表現。結果表明,本文模型在文本相似度計算任務上有更優良的表現。

2 模型架構

本文的模型分為輸入編碼層、特征提取層、特征分析判斷層。如圖1 所示為本文模型架構圖。在輸入編碼層,首先使用自編碼器(autoencoder,AE)對初始詞向量降維,降維后的詞向量作為多頭自注意力和互注意力機制的輸入,通過多頭自注意力機制,可以提取到單文本的內部語義特征,捕獲文本內部的詞依賴關系;互注意力機制更善于提取句間特征,對兩個句子中更相似的部分給予更高的關注。本文將兩種注意力的輸出以不同形式相組合,然后將形成的多種特征與初始詞向量相連接形成新的詞向量矩陣。傳統的MatchPyramid 模型將兩個文本通過點積形成單通道圖的形式,本文首先將新形成兩個文本向量通過轉換矩陣映射到多個特征子空間,然后使特征子空間的文本向量對應點積形成多通道圖作為特征提取層的輸入,相比于單通道圖輸入到卷積神經網絡進行特征提取,映射到多個特征子空間再進行特征提取更能突出某些特征。在特征提取層相比于傳統的MatchPyramid 模型,本文使用了密集連接的卷積神經網絡,使底層特征能夠傳遞到最高層,避免了特征信息的丟失。本文的密集連接卷積神經網絡分為3個DenseBlock,其中前2 個DenseBlock 包含4 個卷積模塊,第3 個DenseBlock 包含2 個卷積模塊。每個卷積模塊都包括Batch Normalization 層、卷積層、ReLU 層,其中最后一個卷積模塊增加池化層進行特征降維。本文池化層聯合平均池和最大池進行組合池化。在特征分析判斷層,本文的分類器是一個多層感知機(multilayer perceptron,MLP),由兩個全連接神經網絡組成,網絡間加入ReLU 激活函數和batch normalization 層,最后使用Sigmoid函數進行二分類。

2.1 輸入編碼層

2.1.1 自編碼器

在輸入編碼層,不像之前的模型直接使用注意力加權后的詞向量矩陣代替初始的glove詞向量矩陣作為后續網絡的輸入。本文將多頭自注意力機制與互注意力機制的輸出以多種形式組合并與原始300 維預訓練的glove向量相連接作為后續網絡的輸入。假如直接將多個詞向量矩陣按照圖1模式相連接,那么詞向量的維度將達到1 500 維,極大地增加模型運行時間。因此為防止詞向量長度過大造成計算量的急劇上升,本文增加了自編碼器用于降低維度。本文的自編碼器只包含編碼層,去除了解碼層,使用自編碼器將300維glove向量壓縮到64 維,然后將降維后的詞向量作為多頭自注意力機制和互注意力機制的輸入,這極大地降低了注意力層的計算量。

圖1 總體模型架構Fig.1 Overall model architecture

2.1.2 多頭自注意力機制

在公式(4)中,將h次注意力機制的結果按照維度dv進行拼接后,通過W0進行線性變換得到的結果即為最終的多頭注意力。

本文多頭自注意力機制的輸入為經自編碼器壓縮過的詞向量矩陣,因此輸入輸出的詞向量長度均為64維。

2.1.3 互注意力機制

文本相似度建模是基于雙文本,因此既要考慮單文本內部的依賴特征,也要關注文本之間的關聯特征。將預訓練的300 維Glove 向量輸入到自編碼器,向量長度被壓縮到64 維,然后將壓縮后的向量輸入互注意力機制中,公式(5)和(6)表示輸入的兩個壓縮后的詞向量矩陣P2和Q2,對P2中的任何一個單詞,要衡量其與Q2中每個單詞間的相關程度。這在現實中具有很好的解釋性,在判斷兩個語句之間的相似性時,兩個語句的單詞之間相關程度并不是一致的,更要關注重點信息。為了計算pi對Q2的注意力,首先根據公式(7)計算出pi與Q2中每個單詞之間的相關程度,然后將所有得到的值使用公式(8)歸一化即得到pi與Q2之間每個單詞的注意力權重,最后根據公式(9)使用注意力權重對Q2的每個詞向量加權求和即得到最終的pi對Q2的注意力值。

在得到多頭自注意力與互注意力的輸出后,不像以往的模型直接使用注意力的輸出作為后續網絡的輸入,本文將注意力的輸出以多種方式組合并與底層的詞向量相連接。以文本P(文本Q類似)為例,本文計算互注意力和多頭自注意力之間的差值以及二者之間的元素點積,如公式(10)將注意力機制的輸出、差值、元素點積的結果與原始的300 維Glove 向量相連接,得到的詞向量為556維,認為這樣能夠更好地對文本進行表示。

圖2 單頭注意力計算過程Fig.2 Calculation process of single head attention

2.1.4 多通道映射

傳統的MatchPyramid 模型將兩個文本的詞向量矩陣通過點積形成單通道二維圖的形式,圖中的每個像素點即為兩個單詞的詞向量點積后得到的實數值。本文提出將兩個文本的詞向量矩陣映射到多個表示子空間中,由公式(11)生成初始化三維張量M,其中mi的維度與輸入的詞向量矩陣的維度一致,均為seq_len×embed_size,l代表要映射的通道數,具體來說對于輸入的詞向量矩陣P5和Q5而言,根據公式(12)將詞向量矩陣P5與M進行元素點積,最終將詞向量矩陣映射到20個特征子空間中,對Q5進行同樣的操作。

經多通道映射后得到的P6和Q6的形狀為l×seq_len×embed_size,將二者做點積,形成多通道二維圖的形式,形狀為l×seq_len×seq_len,其中某單通道二維圖的像素點即代表在該表示子空間下兩個單詞的詞向量點積后得到的實數值。該多通道二維圖即為后續特征提取層的輸入。

2.2 特征提取層

傳統的MatchPyramid 模型在特征提取層將兩個文本詞向量矩陣經點積后形成的單通道二維圖直接輸入到多層CNN中進行特征提取,依靠CNN層的堆疊雖然能在一定程度上加強對文本長距離特征的提取,但是也在一定程度上造成了底層特征的損失。本文在特征提取層使用密集連接的CNN,通過密集連接的方式將底層的特征傳遞到頂層的卷積層。這種將不同卷積層的特征圖相連接的方式,可以實現特征重用,既使模型能夠提取文本長距離依賴特征,又減少了底層特征的損失。如圖3 所示,特征提取層主要由3 個DenseBlock 組成,其中前2個DenseBlock均包含4個卷積模塊,最后1個DenseBlock 由2 個卷積模塊組成。其中每個卷積模塊都包含batch normalization層、卷積層、ReLU層,最后一個卷積模塊添加池化層用于對特征圖降維。

圖3 特征提取層流程圖Fig.3 Flow chart of feature extraction layer

Batch normalization層在本文的網絡中發揮很大的作用,深度神經網絡的訓練十分復雜,每層網絡的一個很細微的變化通過層層傳遞,就會逐漸被放大,當我們對初始層的輸入進行歸一化的處理后,數據經過神經網絡的隱藏層的變換會導致深度模型中間層網絡的輸入數據的分布不斷變化,然后網絡去不斷地調整以適應這種新的數據分布,從而影響到訓練速度。中間層網絡輸入數據分布的變化引起后續網絡數據分布的改變,這種神經網絡訓練過程中中間層數據分布的變化也被稱為內部協方差偏移。batch normalization 是歸一化網絡層,在卷積層前添加batch normalization 層可以使每層卷積網絡的輸入數據分布保持穩定,從而使網絡快速收斂,并且有利于提高網絡的泛化能力。

對于batch normalization層的具體計算是針對每一批數據進行的,首先根據公式(13)計算出每批數據的均值,m代表batch_size:

但是如果單純的將每層網絡的輸入數據做歸一化處理,那么上層網絡所學習到的特征分布就會被破壞。因此,為了保留上層網絡學習到的特征分布,batch normalization 算法在對批數據歸一化處理后加入了變換重構,如公式(16),其中γ和β是可學習參數,從該公式中可以看出,當γ與β的值接近于批標準差和均值時,特征分布就會被還原,從而起到恢復特征分布的作用。

本文特征提取層的輸入數據的形狀為batch_size×l×seq_len×seq_len,l代表輸入通道數。在本文的Denseblock模塊中,每一個卷積模塊的輸入都會采取密集連接的機制,根據公式(17)將前面所有卷積模塊的輸出都連接起來作為本層卷積模塊的輸入,其中函數Hl是卷積模塊中batch normalization 層、卷積層、ReLU 層、池化層一系列操作的組合,xl代表每一個卷積模塊的輸出。

2.3 特征分析判斷層

在特征分析判斷層將特征提取層最終輸出的特征圖展平然后輸入到分類器中。該層主要包含一個多層感知器,由兩層全連接神經網絡組成,在每層全連接神經網絡前添加batch normalization層對輸入數據做歸一化處理,最后使用Sigmoid 函數進行二分類從而判斷出兩個文本是否相似。損失函數本文使用的是二分類交叉熵損失函數。

3 實驗結果與分析

3.1 數據集

本文使用的數據集為Quora Question Pairs[17],該數據集包含多個字段,囊括了問題對的序號以及標識問題對是否具有相同的含義的序號,1代表問題對具有相同釋義,0 代表該問題對之間無關聯。數據集一共包含404 000 個問題對,將其劃分為訓練集、驗證集和測試集,其中訓練集包括384 000條數據,驗證集和測試集各10 000 條數據。本文在數據處理方面,去除了停用詞,句子最大長度設置為40 個字符,長度不足40 個字符的則補齊,超過40個字符的句子則截取前40個字符。

3.2 實驗設置

本文使用預訓練的300維Glove向量做初始化詞嵌入,對于未登錄詞隨機初始化。優化器選擇Adam,超參數設置方面,學習率設置為0.001,batch_size 設置為64,epoch 設置為20。本文的實驗環境為:pytorch1.6.0,python3.6.9。

3.3 評價指標

文本相似度計算屬于二分類任務,兩個文本若被判斷為相似則分類為1,不相似便被分類為0。對此,本文使用準確率、精確率、召回率、F1值和Auc值來評價模型的好壞。

準確率,即預測結果中正確預測的樣本占所有預測結果的比重:

3.4 實驗結果及分析

針對本文提出的模型,實施了4 個實驗進行驗證:(1)將本文的模型其他的一些基準模型進行對比;(2)進行消融實驗,探索模型各部分是否發揮積極作用;(3)對密集連接的卷積神經網絡的層數進行了探索;(4)探討了BN層的位置對本文模型的影響。

如表1所示,在Quora Question Pairs數據集上將本文模型與其他文章中所提出的模型進行對比,相比于文獻[11]提出的MatchPyramid 模型,文獻[22]提出的聯合孿生LSTM網絡在準確率和F1值上均有所提升。傳統的MatchPyramid 模型,將兩段文本的詞向量矩陣通過點乘形成二維圖,在此過程中,兩段文本已經進行了初次交互,而后續利用多層卷積神經網絡對該二維圖進行特征提取,能夠獲得文本短語特征、語法和語義等高階特征。文獻[22]提出的模型,在MatchPyramid模型的基礎上,通過利用LSTM 的長期記憶性,從而保留了一些文本內長距離依賴特征,因此效果要好于傳統的Match-Pyramid 模型。而相比于以上所提出的模型,本文的模型在輸入編碼層融合了多頭自注意力機制和互注意力機制,自注意力機制相比于LSTM 網絡,不僅能夠提取出文本全局特征,而且更能銳化關鍵特征,充分表示出單文本內部的特征依賴,而互注意力機制通過對兩段文本進行交互加權,進一步加強了文本間交互特征的表示,最后將點積形成的單通道圖映射到多個表示子空間,以豐富特征表達。在特征提取層本文采取了密集連接的卷積神經網絡,將底層邊緣特征與高階特征相結合,避免了特征損失,最終本文的模型準確率達到86.62%,F1值達到86.93%,相比前文所提到的模型有所提升。

表1 基準模型對比Table 1 Comparison of benchmark models單位:%

如表2所示,本文對模型各部分發揮的作用做出了定量的分析,將注意力機制的結果與原始詞向量相連接,會使詞向量表示能力更加健壯,從而對模型的性能產生影響。特征映射將形成的單通道圖映射到多個表示子空間,豐富了底層的特征表示,同時在密集連接的卷積神經網絡中,特征映射的通道數會對后續多層卷積神經網絡的參數造成較大影響。

表2 消融實驗對比Table 2 Comparison of ablation experiments單位:%

BN層在每個卷積層和最終的全連接層都發揮著作用,一方面,提高網絡的收斂速度,另一方面,在一定程度上抑制模型的過擬合,提高模型的泛化能力,因此當去除了所有的BN層后,模型的過擬合現象比較嚴重,使得模型的效果更差。最后,可以看出dense 網絡對模型的提升效果并不太好,原因在于實驗中為了提高模型的運行速度,本文模型在加深模型深度的同時,降低了卷積層的通道數,從而減少了模型的參數量,不可避免地削弱了特征提取層的表征能力,使得dense 網絡對模型的提升效果不明顯。

在特征提取層,本文采取了密集連接的卷積神經網絡,網絡層數的增加能使模型提取更高層次的特征,但盲目的增加網絡層數,一方面過深的網絡也會導致模型過擬合,另一方面過深的網絡會引起參數量的急劇增長,從而加劇了模型時間復雜度。因此,選取適當的網絡層數也是本文需要探索的目標。如表3 所示給出了不同深度的卷積層下模型的效果,可以看出當層數為10時最合適。

表3 不同卷積層數實驗對比Table 3 Experimental comparison of different convolution layers 單位:%

將BN層置于卷積層之后,激活層之前,可以使卷積層的輸出落在激活函數的非飽和區從而緩解梯度爆炸或梯度消失的問題。本文測試了將BN層分別置于卷積層前后的效果,如表4所示BN層位于卷積層之前效果更好,原因在于本文的密集連接在每個卷積層的輸入都會接受到其他層的輸出,因此若將BN層置于卷積模塊中卷積層之后激活層之前,那么歸一化的效果只會作用于當前層的輸出,然而下一層網絡的輸入是之前所有層的輸出相連接,因此BN層歸一化的效果被極大的削弱了,所以對于本文而言,將BN層置于卷積層之前效果更好。

表4 BN層位置對比Table 4 Comparison of ablation experiments單位:%

4 結束語

本文對傳統的MatchPyramid 模型進行了改進,通過多頭自注意力機制和互注意力機制,彌補了傳統的MatchPyramid 模型對單文本內特征和雙文本間依賴特征提取的不足,采取多通道映射將單通道圖映射到多個表示子空間豐富了特征表達,也能對關鍵特征起到銳化作用。接著使用密集連接的卷積神經網絡使得底層特征能夠參與到最終的分類決策當中,避免了特征損失。實驗結果表明,本文提出的模型在文本相似度計算任務上效果很好。

猜你喜歡
特征提取機制特征
如何表達“特征”
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
自制力是一種很好的篩選機制
文苑(2018年21期)2018-11-09 01:23:06
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識別算法
破除舊機制要分步推進
中國衛生(2015年9期)2015-11-10 03:11:12
基于MED和循環域解調的多故障特征提取
注重機制的相互配合
中國衛生(2014年3期)2014-11-12 13:18:12
打基礎 抓機制 顯成效
中國火炬(2014年4期)2014-07-24 14:22:19
主站蜘蛛池模板: 国产成人亚洲精品无码电影| 极品国产一区二区三区| 国产一级二级三级毛片| 中国国语毛片免费观看视频| 免费网站成人亚洲| 伊人五月丁香综合AⅤ| 亚洲人成网7777777国产| 亚洲欧美极品| 亚洲国语自产一区第二页| 免费欧美一级| 国产乱子伦视频三区| 五月婷婷导航| 黄色污网站在线观看| 国产精品夜夜嗨视频免费视频| 国产尤物在线播放| 在线日韩一区二区| 亚洲日本www| 国产视频大全| 亚洲日本在线免费观看| 色天堂无毒不卡| 国产一区二区精品福利| 国产一区二区福利| 亚洲中文字幕在线一区播放| 国产精品主播| 久久综合色88| 亚洲国产在一区二区三区| 国产精品免费入口视频| 国产欧美日韩免费| 亚洲福利一区二区三区| 国产一区二区免费播放| 日本在线免费网站| 一级毛片在线免费视频| 波多野结衣无码视频在线观看| 五月婷婷综合在线视频| 国产成人综合日韩精品无码首页| 日本午夜三级| 制服丝袜亚洲| 亚洲免费福利视频| 少妇露出福利视频| 亚洲欧洲免费视频| 色网站在线视频| Jizz国产色系免费| 国产福利小视频在线播放观看| 久久久久人妻一区精品色奶水| 美女啪啪无遮挡| 日韩久久精品无码aV| 国产美女无遮挡免费视频网站| 婷婷久久综合九色综合88| 凹凸精品免费精品视频| 99精品在线视频观看| 午夜福利视频一区| 国产第一页屁屁影院| 欧美有码在线| 久久91精品牛牛| 日韩小视频在线播放| 亚洲第一精品福利| 三上悠亚在线精品二区| 999福利激情视频 | 亚洲福利片无码最新在线播放| 97在线免费| 亚洲天堂区| 成年人免费国产视频| 亚洲侵犯无码网址在线观看| 亚洲一区波多野结衣二区三区| 无码网站免费观看| 久久久久久久久18禁秘| 丰满人妻中出白浆| 无码电影在线观看| 日本黄网在线观看| 中文字幕乱妇无码AV在线| 国产大片喷水在线在线视频| 秋霞午夜国产精品成人片| 国产亚洲视频播放9000| 精品欧美日韩国产日漫一区不卡| 久久国产精品麻豆系列| 88av在线| 国产高清色视频免费看的网址| 成人一区专区在线观看| 欧美日韩第二页| 五月综合色婷婷| 欧美色图久久| 午夜综合网|