999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合雙圖卷積與門控線性單元的方面級情感分析模型

2024-04-23 10:03:18楊春霞吳亞雷閆晗黃昱錕
計算機工程 2024年4期
關鍵詞:句法單詞詞匯

楊春霞,吳亞雷,閆晗,黃昱錕

(1.南京信息工程大學自動化學院,江蘇 南京 210044;2.江蘇省大數據分析技術重點實驗室,江蘇 南京 210044;3.江蘇省大氣環境與裝備技術協同創新中心,江蘇 南京 210044)

0 引言

情感分析已成為自然語言處理中的熱門話題。方面級情感分析旨在確定句子中給定方面的情感極性。例如:“great food but the service was dreadful”給定2個方面詞food和service,目標是推斷方面詞的情感極性:food為正面,service為負面。方面級情感分析可以讓用戶對特定方面的意見進行細粒度分析,是許多自然語言處理任務的基礎,近年來引起了廣泛的關注。

方面級情感分析的早期研究大多使用機器學習算法來構建情感分類器。后來,研究者針對這項任務提出了各種神經網絡模型,包括長短期記憶(LSTM)[1]網絡、卷積神經網絡(CNN)[2]和深度記憶網絡(MemNet)[3]。以上模型將句子表示為一個詞序列,忽略了詞與詞之間的句法關系,因此它們很難找到遠離方面詞的意見詞。為了解決這個問題,人們開始利用基于圖的模型來整合句子的句法結構,并顯示出比不考慮句法關系的模型更好的性能。但僅基于語法的方法忽略了語料庫中的詞共現信息,而這些信息又是大量存在且不可忽視的[4]。例如,在句子“food was okay, nothing special”中,詞對nothing special在SemEval訓練集中出現了5次,表示負極性。如果沒有這樣的全局信息來抵消okay的積極影響,基于語法的方法將對food做出錯誤的情感預測。因此,為了能夠充分利用到語料庫中的詞共現信息,本文首先使用全局詞匯圖對語料庫中的詞共現信息進行編碼,然后在詞共現圖和語法圖上分別進行雙層卷積。這樣,在考慮句子語法信息的同時,也能有效地利用語料庫中的詞共現信息,從而達到更好的分類效果。

此外,當前對提取出的特征的處理方法主要是直接屏蔽掉非方面詞,然而,這樣有可能會遺漏與方面詞有關的情感信息。門控線性單元(GLU)是卷積神經網絡中的一種門控機制,與循環神經網絡的門控循環單元(GRU)相比,門控線性單元更容易進行梯度傳播,不易造成梯度消失或者梯度爆炸,且能大幅度減少計算時間。此外,門控機制控制信息在網絡中流動的路徑已被證明對神經網絡有很好的效果。

基于以上分析,本文提出一種融合雙圖卷積與門控線性單元的方面級情感分析模型(BGGCN),主要貢獻如下:

1)采用2種圖結構獲取句子的詞匯信息與語法信息,使用卷積模塊進行建模,并將2種建模后的結果進行交互,有效地利用了語料庫中的詞共現信息,彌補了單獨使用句法結構的缺陷。

2)使用門控線性單元控制模型提取的情感信息,幫助模型更加精確地對方面詞進行情感分類。

3)使用4個SemEval數據集進行廣泛的實驗,實驗結果表明所提模型較對比模型取得了顯著的性能提升。

1 相關工作

當前方面級情感分類的研究主要集中在如何準確地利用語法信息,因為語法信息可以提供特定方面與情感表達之間的關系信息。因此,研究者采用基于圖的模型來整合句法結構,基本思想是將依存樹轉換為圖,然后使用圖卷積網絡(GCN)或圖注意網絡(GAT)將信息從語法鄰域意見詞傳播到方面詞。ZHANG等[5]提出在句子的依存樹上使用GCN,以利用上下文的句法信息和方面的單詞依存關系。HUANG等[6]提出了一個目標依存圖注意力網絡,通過探索上下文詞之間的依存關系來學習每個方面的情感信息。SUN等[7]在LSTM上堆疊了GCN層來完成方面級情感分類的任務,利用雙向LSTM(Bi-LSTM)模型來學習句子的上下文特征,并進一步在依存樹上執行卷積操作以提取豐富的方面級情感表示。盡管這些方法很有效,但基于語法的方法忽略了語料庫中的詞共現信息,而這些信息又是大量存在且不可忽視的。AF-LSTM方法[8]通過計算方面和上下文之間的循環相關性或循環卷積并將它們輸入到關注層,來利用方面和上下文間的單詞共現。然而,它的性能并不總是優于其他經典方法。由此可推斷出,通過關注層直接整合單詞關聯信息不足以利用詞匯關系。

門控機制控制信息在網絡中流動的路徑,并已被證明可用于遞歸神經網絡[9]。LSTM通過由輸入和遺忘門控制的獨立單元實現長期記憶,這允許信息在可能的許多時間步驟中暢通無阻地流動。如果沒有這些門,信息很容易通過每個時間步的轉換而消失。相反,卷積網絡不受相同類型的消失梯度的影響,研究者通過實驗發現它們不需要遺忘門。門控線性單元是一種基于DAUPHIN等[10]的非確定性門工作的簡化選通機制,通過將線性單元耦合到門來緩解消失梯度問題,其保留了層的非線性能力,同時允許梯度通過線性單元傳播而不縮放。

以上相關工作表明,句法結構信息與詞共現信息的交互對情感分析都有不可或缺的作用。本文模型利用句法圖和詞匯圖來捕獲句子中的依存關系和訓練語料庫中的單詞共現關系,利用分類概括結構將具有相似用途或含義的關系分組在一起,并減少噪聲。同時本文引入門控線性單元,這有助于模型控制情感信息流向給定方面。

2 準備工作

2.1 問題定義

給定一個由n個詞和一個從a+1位置開始且長度為m的方面詞組成的句子S=[w1,w2,…,wa+1,…,wa+m,…,wn],方面級情感分析的目標是通過從上下文中提取與方面相關的情感信息來檢測給定方面的情感極性。

2.2 句法分類圖

句法圖中有一個節點集Vs和一個邊集Es。Vs中的每個節點v是句子中的一個詞,Es中的每條邊e表示2個詞在句法上是相關的。

現有的語法集成方法沒有在其句法圖中利用各種類型的依存關系和邊,只是簡單地表示2個詞之間存在依存關系。正如上文在引言中提到的,每個依存關系代表一個單詞在句子中所起的特定語法功能,并且應該以自己的方式使用。然而,由于解析樹中存在大量關系,因此直接使用一個依存關系作為圖中的一種邊可能會產生解析錯誤等噪聲。

為了解決這個問題,在依存關系上添加一個句法分類結構Rs。具體來說,本文將36個依存關系分為5種關系類型,包括“名詞”、“動詞”、“副詞”、“形容詞”和“其他”,在Rs中分別表示為s1,s2,…,s5。由于大多數方面詞和意見詞分別是名詞和形容詞,因此“名詞”和“形容詞”成為2種主要類型;由于動詞表示動作、事件或狀態,副詞修飾動詞和形容詞,因此分為“動詞”和“副詞”2種類型;其余所有關系類型構成“其他”類型。

然后基于句法分類結構構造一個句法分類圖,記為{Vs,Es,Rs},其中,Vs、Es、Rs分別是節點集、邊集、句法關系類型集。Es中的每條邊都附有一個標簽,表示Rs中的依存關系類型。句法分類圖示例如圖1所示。

圖1 句法分類圖Fig.1 Syntactic classification graph

2.3 詞共現圖

為了使模型能考慮到語料庫中的詞共現信息,本文構造了詞匯圖來完成這一任務。全局詞匯圖中有一個節點集VT和一個邊集ET。VT中的每個節點v表示一個詞,ET中的每條邊e表示詞匯量為N的訓練語料庫中2個單詞之間的詞共現頻率。然后,本文為每個句子構造一個局部詞匯圖,其中每個節點代表句子中的一個單詞,每條邊表示句子中同時出現的2個單詞。但是,這個邊與全局詞匯圖中2個相同單詞之間的邊具有相同的權重,其基本原理是將全局詞匯圖中的全局詞分布信息轉移到局部詞匯圖中。

語料庫中詞的共現頻率高度傾斜,其中多數詞對出現1~2次,少數詞對出現頻率較高。顯然,應該區別對待頻繁詞對和罕見詞對。因此,本文在詞共現關系上添加了一個頻率分類結構Rf,根據對數正態分布對詞對的頻率進行分組。具體來說,用d1和d2表示頻率為20和21的詞對關系,用d3,d4,…,d7表示頻率落在[2k+1,2k+1](1≤k≤5)區間的詞對關系,用d8表示所有出現頻率大于26的詞對的詞匯關系。詞共現圖示例如圖2所示。

圖2 詞共現圖Fig.2 Word co-occurrence graph

3 模型實現

在本節中將介紹本文提出的BGGCN模型。首先在圖3中展示其架構。從圖中可以看出,BGGCN主要由嵌入層、卷積交互層和門控輸出層組成。首先以頻率全局詞匯圖和詞序列為輸入得到初始句子表示,然后經過交叉網絡,用以深度融合GCN嵌入和Bi-LSTM嵌入。在頻率局部詞匯圖和句法圖上執行雙層卷積后,使用交互模塊改進句子表示。最后,通過門控線性單元獲得面向方面的表示,以更好地預測句子中特定方面的情感極性。

圖3 BGGCN模型框架Fig.3 Framework of BGGCN model

3.1 嵌入層

GloVe通過利用全局詞頻統計信息來學習詞嵌入,這種方法能夠捕捉到更全面的語言信息。相比之下,Word2Vec基于局部的上下文窗口來學習詞向量,可能會忽略一些詞的全局信息[11]。因此,本文采用已預訓練好的GloVe嵌入獲得每個詞向量。預訓練的詞嵌入表示為Ew∈|V|×d。其中:|V|是詞匯量;d是詞嵌入的維度;Ew用于將包含n個詞的評論序列S映射到詞向量空間[e1,e2,…,ea+1,…,ea+m,…,en]∈n×d。然后,本文提出了2種類型的文本表示來改進句子嵌入:一種是基于頻率全局詞匯圖的GCN嵌入,另一種是Bi-LSTM嵌入。

3.1.1 GCN嵌入

首先,將特定語料庫的詞匯信息編碼到評論表示中。對于這個目標,本文首先構建一個嵌入矩陣Ewt∈N×d用來作為訓練語料庫的特征矩陣,其中,N是訓練語料庫的詞匯量。

然后,在頻率全局詞匯圖上執行標準GCN,并得到一個新的嵌入矩陣Egcn∈N×d。頻率全局詞匯圖可以提供所有單詞之間的關系信息,即使單詞之間的距離很遠,也能夠捕捉到它們之間的關系。這樣可以在模型中考慮更多的上下文信息,提高模型的準確性。此外,頻率全局詞匯圖根據整個語料庫中的單詞共現情況進行構建,可以更好地反映單詞之間的相關性。

最后,再使用Egcn即可形成輸入評論序列S的GCN嵌入,即[x1,x2,…,xa+1,…,xa+m,…,xn]∈n×d,在圖3中表示為x。

3.1.2 Bi-LSTM嵌入

本文按照之前的大多數研究將序列信息編碼到評論表示中。此外,由于更接近方面詞的詞向量可能對判斷方面詞的情感貢獻更大,因此計算每個上下文詞wt到對應方面詞的絕對距離,并且得到S的位置序列。令Ep∈n×d為隨機初始化的位置嵌入查找表,然后將位置序列映射到位置嵌入查找表[p1,p2,…,pa1,…,pam,…,pn]。

3.2 卷積交互層

從圖3中可以看出,卷積交互層由3個模塊組成,分別是交叉網絡模塊、Bi-GCN模塊和信息交互模塊。以GCN嵌入x和Bi-LSTM嵌入y作為初始句子表示,使用交叉網絡融合GCN嵌入和Bi-LSTM嵌入,然后利用Bi-GCN在頻率局部詞匯圖和句法圖上進行卷積,用來更好地表示句子S。頻率局部詞匯圖可以更好地捕捉單詞之間的相對位置信息,并幫助模型更好地識別出每個方面的情感傾向,這對于情感分析任務來說非常重要。例如,一個單詞可能在某個特定方面具有不同的情感傾向,而這取決于它在句子中的位置。此外,為了使2個圖可以進行交互,本文引入了BiAffine模塊,這有助于更好地改進句子表示。

3.2.1 交叉網絡

為了深度融合GCN嵌入x和Bi-LSTM嵌入y,本文采用了簡單而有效的交叉網絡結構[9]。首先連接x和y以形成固定組合h0∈d,即h0=x⊕y。然后在交叉網絡的每一層中,使用下式來更新融合嵌入:

hl=h0(hl-1)Twl+bl+hl-1

(1)

其中:l表示層數(l=1,2,…,|L|);wl,bl∈d是權重和偏差參數。然后將第l層中的融合嵌入hl從原始連接位置分離為xl和yl,這將用作雙層GCN中2個圖的輸入節點表示。

3.2.2 Bi-GCN

本文的句法圖和詞匯圖包含分類概括結構,而普通GCN不能在帶有標記邊的圖上進行卷積。為了解決這個問題,本文使用用于聚合不同關系類型的Bi-GCN,即給定一個句子,使用2個聚合操作來執行雙層卷積。

第2個聚合將所有虛擬節點及其特定關系聚合在一起。使用不同關系類型上的平均聚合函數更新目標詞m的表示:

(2)

其中:⊕r表示不同關系類型的表示的串聯;Wl是第l層的權重矩陣。

3.2.3 信息交互

為了在頻率局部詞匯圖和句法分類圖之間有效地交換相關特征,本文采用相互BiAffine變換作為橋梁。具體如下:

(3)

(4)

其中:V1和V2是可訓練的參數。

在模塊最后,將Hx和Hy組合在一起形成聚合嵌入Hl=Hx⊕Hy。

3.3 門控輸出層

為了更好地預測一個方面的情感極性,本文使用門控線性單元來控制情感信息流向給定方面。該機制依照LSTM中的門機制,利用多層的CNN結構,為每層CNN都加上一個輸出門控,運算過程如下所示:

(5)

HL=Hl*αt

(6)

在使用LSTM進行情感分析時,因為在LSTM的最終隱藏狀態中,模型已經將輸入文本中的所有上下文信息整合到一個固定長度的向量表示中,這個向量表示可以看作是整個文本的“語義向量”。在情感分析任務中,需要將這個“語義向量”作為輸入傳遞到輸出層,以進行情感分析預測[12]。最后,檢索與方面詞語義相關的重要特征,并為每個上下文詞設置基于檢索的注意力權重。句子的最終表示為:

(7)

(8)

(9)

其中:yt∈d是Bi-LSTM嵌入;通過一個全連接層從方面詞嵌入轉換得到,以保持與yt相同的維度。

3.4 模型訓練

在獲得面向方面的表示Z后,將其輸入一個全連接層和一個Softmax層以投影到預測空間中:

U=Softmax(Wuz+bu)

(10)

其中:U是預測結果;Wu和bu分別是權重矩陣和偏差。然后將最高概率的標簽設置為最終預測U。

本文使用基于L2正則化的交叉熵損失函數作為模型的損失函數。交叉熵損失函數是一種常用的用于分類任務的損失函數,它衡量了模型的預測結果與真實標簽之間的差異,并且可以通過最小化該損失函數來優化模型的參數。在損失函數中添加L2正則化項,用于約束模型的復雜度,可以使模型的權重參數趨向于較小的值,從而減小過擬合的風險。損失函數表示為:

(11)

4 實驗

4.1 實驗數據與實驗平臺

本文在4個公開數據集上進行實驗,分別是Twitter[13]、SemEval-2014[14]、SemEval-2015[15]和SemEval-2016[16]評論集。以上數據集中標注了每句句子的方面詞以及方面詞的情感極性,分別為“積極”、“中性”和“消極”3種不同的情感極性,具體分布情況如表1所示。本文的實驗平臺及實驗環境如表2所示。

表1 數據集中情感極性分布Table 1 Distribution of emotional polarities in datasets 單位:個

表2 實驗平臺及實驗環境Table 2 Experimental platform and environment

4.2 參數設置與評價指標

本文使用嵌入維度為300的預訓練GloVe來獲得初始詞嵌入,使用spaCy工具包來獲取依存關系。具體參數設置如表3所示。

表3 參數設置Table 3 Parameters setting

(12)

(13)

(14)

對于dp個類別,準確率與宏平均F1值的計算公式分別為:

(15)

(16)

其中:宏平均F1值是指所有類別的F1值的平均值,模型重復運行3次,取最高的一次作為最終結果。

4.3 對比模型

將本文模型與以下基線模型進行比較:

1)LSTM[17],是一種目標相關的模型,該模型在生成句子表示時可以捕捉目標詞與其上下文之間的聯系,用于目標相關的情感分類。

2)MemNet[3],是一種基于記憶的模型,該模型將神經注意力模型與外部記憶相結合,計算每個上下文詞對某個方面的重要性。

3)AF-LSTM[8],是一個方面融合LSTM模型,該模型學習句子單詞和方面之間的關聯關系。

4)RAM[18],該模型使用多跳的注意力層,并將輸出與循環神經網絡(RNN)相結合用于句子表示。

5)AOA[19],該模型學習方面詞和上下文詞之間的相互作用,并通過注意力模型關注句子中的重要部分。

6)IAN[20],該模型使用2個LSTM和1個交互式注意力機制來生成方面詞和句子的表示。

7)ASGCN[5],該模型在依存樹上為每個句子構建有向圖,然后通過GCN提取句法信息和單詞依存關系。

8)CDT[7],該模型在句子的依存樹上利用GCN模型來提取上下文詞和方面詞之間的依存關系。

9)kumaGCN[21],該模型使用潛在的圖形結構來補充句法特征。

在上述模型中,前6種模型是具有典型神經結構的經典模型,后3種模型是基于圖形和語法集成的模型。

4.4 結果與分析

所有模型的比較結果如表4所示,可以看出:本文提出的BGGCN模型在4個不同的公開數據集上準確率和宏平均F1值均有一定的提升。與表現較好的kumaGCN相比,準確率分別提高了2.37、1.49、1.6和0.42個百分點,宏平均F1值分別提高了2.2、1.1、1.73和0.18個百分點。LSTM僅僅對句子進行建模,忽略了方面詞的影響,最終得到的是句子的全局情感,因此效果最差。基于注意力機制的模型如MemNet、RAM、IAN和AOA性能均優于LSTM模型,這表明注意力機制在情感分析任務中是有效的。IAN將方面詞和上下文詞進行交互獲取句子的準確表達,并且考慮到方面詞可能有多個單詞組成,另外添加了一層對于方面詞的注意力操作用于計算權重。AOA與IAN思路相似,也是利用方面詞與上下文之間的信息交互從而獲取語義。因此,IAN與AOA的效果較好。基于圖和語法的集成方法ASGCN、CDT和kumaGCN比不考慮語法的前5種方法要好,表明依存關系有利于識別情感極性,這與以往的研究一致。但是,它們只考慮到句子的語法信息,忽略了語料庫中的詞共現信息,因此與本文提出的 BGGCN模型相比,顯現出明顯的不足。AF-LSTM通過關注層直接整合單詞關聯信息,未能充分地利用到詞匯信息,與基于注意力機制的模型相比都不能取得更好的效果。BGGCN在考慮到句法信息的同時,也考慮到語料庫級別的詞共現信息,并將詞匯信息與語法信息進行有效的交互。此外,其又利用了門控線性單元,避免了對特征表示進行平均池化可能會缺失重要的情感信息的問題,因此,在與上述模型的對比實驗中,取得了最為優異的結果。

表4 不同模型的實驗結果Table 4 Experimental results of different models %

4.5 消融研究

為了觀察BGGCN模型中每個組件的影響,本文進行了消融研究,并將結果列在表5中。其中:w/o sy表示只保留詞匯圖的模型;w/o wc表示只保留句法圖的模型;w/o mu表示2個GCN模塊沒有交互的模型;w/o ga表示去掉門控線性單元的模型;w/o sy+ga和w/o wc+ga 表示在使用門控線性單元下分別去掉句法圖和詞匯圖的模型。

表5 消融實驗結果Table 5 Results of ablation experiment %

首先研究詞匯圖和句法圖的影響。與完整的BGGCN模型相比,去掉詞匯圖或者句法圖的模型性能均有所下降。因為僅使用詞匯圖會忽略句法信息,而僅使用句法圖會忽略詞共現信息。從表中還可看出,即使只使用單個圖卻已然取得了有效的結果,表明無論是詞匯圖還是句法圖都有本身的貢獻存在。本文還研究句法圖和詞匯圖上的信息未交互時的情況,可以看出,由于在2個圖上孤立地提取特征,因此未能取得比BGGCN模型更好的結果。

此外,本文還研究了門控線性單元對模型的影響。從表5中可以看出,當去掉門控線性單元時,由于無法保證輸出的情感信息流向指定方面,導致預測性能指標明顯降低。而當只用句法信息或詞共現信息時,使用門控線性單元依然取得了良好的效果。由此可以看出本文所添加模塊的必要性及有效性。

5 結束語

為了解決詞共現信息缺失以及不能控制情感信息流向的問題,本文提出了BGGCN模型,利用基于圖的方法進行方面級情感分類。該模型使用詞匯圖來捕獲訓練語料庫中的全局單詞共現信息,在每個詞匯圖和句法圖上建立一個分類概括結構,分別處理圖中不同類型的關系;使用卷積交互層以使詞匯圖和句法圖協同工作,有效融合句法信息和詞匯信息;使用門控線性單元來控制情感信息流向指定方面,用于更有效地預測一個方面的情感極性。本文在4個公開的數據集上進行了實驗,BGGCN模型均取得了優秀的分類效果。

BGGCN模型仍存在一些不足之處。例如,本文主要針對英文文本進行情感分析,而對于跨語言和多模態的情感分析任務,該模型可能無法直接適用。此外,該模型在大規模數據集上存在計算效率較低的問題,導致訓練和推斷時間較長。下一步將把該模型擴展到跨語言和多模態情感分析領域,并優化模型結構和算法,提高計算效率,以適應更大規模的數據集。

猜你喜歡
句法單詞詞匯
句法與句意(外一篇)
中華詩詞(2021年3期)2021-12-31 08:07:22
述謂結構與英語句法配置
本刊可直接用縮寫的常用詞匯
一些常用詞匯可直接用縮寫
山東醫藥(2020年34期)2020-12-09 01:22:24
單詞連一連
本刊可直接用縮寫的常用詞匯
句法二題
中華詩詞(2018年3期)2018-08-01 06:40:40
看圖填單詞
詩詞聯句句法梳理
中華詩詞(2018年11期)2018-03-26 06:41:32
本刊一些常用詞匯可直接用縮寫
主站蜘蛛池模板: 国产亚洲精| 日本黄色a视频| 自拍偷拍欧美日韩| 亚洲成人动漫在线观看| 久久久久国色AV免费观看性色| 国产福利一区二区在线观看| 免费jizz在线播放| 欧美日韩在线国产| 多人乱p欧美在线观看| 91视频精品| 欧美五月婷婷| 综合社区亚洲熟妇p| 综合成人国产| 在线观看视频一区二区| 亚洲人成网站18禁动漫无码| 伊人久久精品亚洲午夜| 在线视频精品一区| 亚洲日韩国产精品综合在线观看| 欧美综合成人| 国产在线视频导航| 波多野结衣中文字幕一区二区 | 国产精品伦视频观看免费| 成人免费视频一区| 精品亚洲国产成人AV| 黄色网站在线观看无码| 日韩无码精品人妻| 亚洲美女久久| 欧美人与牲动交a欧美精品| 亚洲成人黄色在线| 精品少妇人妻一区二区| 国产毛片高清一级国语| 中文字幕无码av专区久久| 久久性妇女精品免费| 日韩小视频在线播放| 呦女亚洲一区精品| 国产成人免费视频精品一区二区| 青青青视频免费一区二区| 五月婷婷精品| 亚洲国模精品一区| 一级一级特黄女人精品毛片| 欧美成人手机在线观看网址| 欧美一区二区啪啪| 国产精鲁鲁网在线视频| 国产18在线播放| 久久国产精品夜色| 4虎影视国产在线观看精品| 国产激情无码一区二区免费 | 久久综合九九亚洲一区| 美女亚洲一区| 久久6免费视频| 国产黄视频网站| 欧美精品啪啪一区二区三区| 东京热一区二区三区无码视频| 波多野结衣久久高清免费| 亚洲一级毛片| 亚洲欧美一区在线| 国产自在线拍| 国产黄色视频综合| 国产欧美日韩另类精彩视频| 国产日韩av在线播放| 日韩免费成人| 日本高清免费不卡视频| 欧洲精品视频在线观看| 天堂亚洲网| 小说区 亚洲 自拍 另类| 一级毛片免费的| 四虎成人精品| 国产天天色| 狠狠色狠狠综合久久| аⅴ资源中文在线天堂| 亚洲AV永久无码精品古装片| 真实国产乱子伦视频| 亚洲欧美色中文字幕| 亚洲首页在线观看| 国产精品人莉莉成在线播放| 国产精品v欧美| 福利一区在线| 人妻丰满熟妇av五码区| 欧美精品1区| 天堂成人av| 国产成人高清在线精品| 久久综合色88|