999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結合實體描述信息的跨句包關系抽取方法

2021-06-18 07:31:30申長虹姜景虎崔家銘
計算機工程 2021年6期
關鍵詞:監督信息方法

孫 新,申長虹,姜景虎,崔家銘

(1.北京理工大學 計算機學院,北京 100081;2.復旦大學 信息科學與工程學院,上海 200433)

0 概述

關系抽取是指從文本中發現與識別句子中已標記實體對之間的語義關系,這種語義關系常以三元組<頭實體,關系,尾實體>的形式表達。關系抽取是信息抽取的關鍵技術,在知識圖譜構建、智能問答和語義檢索等方面被廣泛應用。

在現有的實體關系抽取方法中,有監督方法的準確率較高,但缺點是費時費力,無法較好地完成大規模的關系抽取任務。為了能夠自動獲取高質量的標注數據,文獻[1]提出了遠程監督的方法,通過數據自動對齊遠程知識庫的方法解決開放域中大量無標簽數據自動標注的問題。由于遠程監督的關系抽取方法能夠大幅減少標注成本,因此近年來受到研究者的廣泛關注。

遠程監督方法最大的問題在于通過知識庫標注的句子往往存在噪聲,如實體間存在多種關系,無法確定包含該實體對的句子具體表達哪種關系。此外,提取特征時引入的誤差傳播問題也會影響關系抽取的效果。針對這些問題,研究者提出多實例學習和多實例多標簽學習的方法[2-3]來解決錯誤標注問題,并通過注意力機制對句子進行賦權。文獻[4]將多實例學習與分段卷積神經網絡模型(Piecewise Convolutional Neural Network,PCNN)相結合來進行遠程監督的關系抽取,文獻[5]在此基礎上引入注意力機制,綜合利用句包中所有語句的信息,為不同的句子賦予不同的權重,同時丟棄一些噪音數據,進一步提升了關系抽取模型的性能。

雖然很多關系抽取方法[6-8]都使用了注意力機制,但是這些工作所采用的注意力機制只是將每個關系當作獨立的個體來看待,孤立地選取適用于每種關系的語句,沒有充分利用關系之間存在的豐富關聯信息。例如,在句子“我喜歡吃蘋果”中,對于關系“喜歡”,此句就是高質量句子,那么相應地,可以認為對于關系“討厭”,此句便為低質量句子。對于蘊含關聯信息的關系,句子的表征也有一定的相關性。

此外,現有方法往往集中在探索句子的語義信息層面上,忽略了實體的描述信息對關系抽取效果的影響。在上述例句中,如果沒有“蘋果”是一種水果的信息,則很難判斷該句表達的是哪種關系。在缺乏背景知識時,“蘋果”可能是指電子設備,而句子并不表示關系“喜歡”。因此,實體本身的描述信息能夠幫助改善關系抽取的效果。

本文提出一種結合實體描述信息的跨句包關系抽取模型(PC2SAD)。利用PCNN 進行句編碼,獲得更多與實體相關的上下文信息。同時為減弱錯誤標簽帶來的噪聲,使用跨關系跨句包注意力機制獲取關系特征,彌補傳統注意力機制孤立分析單個關系的不足,更好地從遠程監督的噪聲數據中鑒別有效的實例,從而學習到更準確的關系表示。此外,為在跨關系跨句包注意力模塊中提供更好的實體表征,使用卷積神經網絡(Convolutional Neural Network,CNN)從Freebase 知識庫與Wikipedia 文本中提取實體的描述信息,補充關系抽取任務所需的背景知識。

1 相關工作

實體關系抽取能夠快速高效地從開放領域的文本中抽取出有效信息,是信息抽取的關鍵任務。現有的關系抽取方法主要分為有監督、半監督、弱監督、無監督和遠程監督等方法[9-10],其中,有監督關系抽取方法和遠程監督關系抽取方法是實體關系抽取的常用方法。

有監督的關系抽取旨在從大規模標注語料中獲取表達實體間語義關系的有效特征,在已標注的數據基礎上訓練分類器,主要方法有基于規則、基于特征工程、基于核函數和基于深度模型的方法等。基于規則的方法[11-12]主要采用模板匹配的方式進行關系抽取,但是該方法依賴于專家經驗,代價高且可移植性差,難以被推廣使用。基于特征工程的方法[13-14]通過從句子中提取出相關詞法、語法和句法信息獲取有效特征。基于核函數的方法[15-16]通過構建結構樹并計算關系距離以抽取關系實例,緩解了特性稀疏性問題。基于深度模型的方法能夠自動學習句子特征,避免特征提取的錯誤傳播問題,提升關系抽取的效果。雖然有監督的關系抽取方法準確率高,但是需要大量人工標注的語料,這限制了大規模的實體關系抽取。

為解決人工標注語料嚴重缺乏的問題,文獻[1]提出一種不用人工標注的遠程監督方法,其利用Freebase 知識庫與Wikipedia 文本進行對齊,獲取大量關系三元組。遠程監督基于如下假設:如果已知兩個實體間存在某種關系,那么所有包含這兩個實體的句子都潛在地表達了該關系。因此,可以借助外部知識庫將高質量的實體關系對應到大規模文本中,然后通過有監督的方法訓練得到關系抽取模型。

文獻[17]根據上述假設,將基于遠程監督的關系抽取問題形式化為多實例單標簽問題,只關注于句包體現了實體對間的哪些關系,選擇使關系概率最大的實例語句作為實體對的表示,從而更契合于實際應用場景。文獻[2-3]考慮到在一個實體對中可能有不止一種關系成立,在多實例學習的基礎上,更進一步地將該問題形式化為多實例多標簽學習問題。

文獻[18]使用卷積神經網絡進行關系抽取,輸入句子中所有單詞的詞向量和位置向量,通過卷積和池化操作提取句子特征,緩解了使用自然語言處理工具進行特征提取可能導致的誤差傳播問題。文獻[4]在卷積神經網絡的基礎上進一步提出PCNN模型,根據實體在句中的位置將句子分段進行池化,得到更多與實體相關的上下文信息,也有效解決了特征提取誤差傳播問題。PCNN 雖然結合多實例學習方法提升了遠程監督關系抽取的效果,但是多實例學習只給句包打標簽,從包含實體對的句包的所有語句中只選擇一個句子,這會導致丟失大量有用句子的信息。

文獻[5]在文獻[4]的基礎上提出了基于注意力機制的多實例學習策略,使用關系向量作為注意力,對一個句包中的每個句子分配權重,以表示在該關系上不同句子的重要程度,并對句子向量進行加權求和得到句包嵌入向量,在此基礎上直接對句包進行分類。

文獻[19]提出雙向長短時記憶網絡來提取句子特征,同時應用注意力機制識別噪聲句子。文獻[20]指出句包中的假正例仍然是影響關系抽取效果的主要因素,并且識別錯誤標注的句子應該是決策問題而不是注意力的權重分配,在此基礎上提出一種基于強化學習框架來訓練關系抽取器。文獻[21]提出的強化學習方法包含句子選擇器和關系抽取器,句子選擇器遍歷句子并做出動作是否選擇當前句子,關系抽取器用選擇出來的句子做關系分類并給出獎勵,該方法適用于句子級別的關系抽取而不是傳統的包級別。

盡管遠程監督關系抽取方法已經取得了顯著的發展,但是仍然面臨一些亟待解決的問題:首先,多數工作孤立地對每個關系建模,忽略了關系之間豐富的相關性;其次,現有的關系抽取方法只關注從文本中直接抽取實體之間的關系,忽略了實體描述所提供的有用的背景知識。為解決上述問題,本文利用關系之間豐富的相關信息減少噪音句子的影響,設計結合實體描述信息的跨關系、跨句包注意力機制,以期提高關系抽取性能。

2 跨句包關系抽取模型

本文在PCNN 模型基礎上,提出一種結合實體描述信息的跨句包關系抽取模型PC2SAD,模型結構如圖1 所示。首先利用PCNN 進行句編碼,提取句子中的實體關系;然后利用跨關系跨句包注意力機制獲取關系特征,從而既充分利用關系的相關性,又減少知識庫中未出現或者過時事實的影響,尤其減少整包句子均為噪聲情況的影響;最后使用卷積神經網絡模型從Freebase 和Wikipedia 中提取實體描述信息的特征向量,并通過增加對關系抽取模塊目標函數的約束,使其接近相應的實體向量。

圖1 PC2SAD 模型架構Fig.1 Architecture of PC2SAD model

2.1 句編碼

傳統的遠程監督特征提取主要是利用自然語言處理工具進行數據集的特征提取,這會導致誤差逐層傳播,影響關系抽取的效果。本文選用PCNN 模型進行句編碼,根據實體所在的位置將句子切分成3 段進行池化,從而得到更多與實體相關的上下文信息,以解決特征提取的誤差傳播問題。為方便表述模型內容,進行以下符號說明:

1)將含有相同實體對的若干句子組成的句子集合稱為句包B。第i個句包記做其中,si,j是第i個句包Bi中包含相同實體對的第j個句子,j?[1,nb],nb為句包Bi中句子的數目。

2)句包B中的每個句子用s表示,句子s的分布式表示記做句子s的特征向量s′。

3)對于句包B中第j個句子s={w1,w2,…,wm},每個單詞wi經過向量化處理成詞向量w′i,每個單詞wi的實體相對位置特征經過向量化表示為位置向量pi。其中,m是句子s的單詞個數,j?[1,nb],nb是句包中句子的個數。

為充分獲取句子的高維語義表示,解決句子特征提取的誤差傳播問題,PC2SAD 模型利用PCNN 模型將給定的句子轉換成對應的特征向量,具體過程如下:

1)對于句子s,PC2SAD 模型拼接每個單詞的詞向量wi′與位置向量pi,作為模型的輸入向量xi。此處,xi?Rki,ki=kw+kp×2,其中,kw為單詞wi的詞向量維數,kp為位置向量維數。型定義qi?Rl×d為第i個滑動窗口內的單詞輸入向量

2)對輸入的xi使用PCNN 模型進行句編碼。模xi的拼接:

W為其卷積核矩陣,其中,dc是句子特征向量的維度大小。

卷積層的第i個卷積輸出為:

其中,b是一個偏置向量,f是激活函數。

經過卷積之后,傳統的做法是直接進行池化操作,如最大池化,但是簡單地進行最大池化并不能很好地捕捉實體詞在句子中的結構信息,句法解析的準確性將會隨著句長的增加而顯著降低[17]。考慮到實體對在句子中存在一定的結構特征,即句包中的每個句子都被兩個實體詞分成三部分,利用這種內部結構信息將有助于捕捉實體間關系[4],因此,PCNN 模型使用分段最大池化操作以保留更細粒度的信息,獲取準確的句編碼表示。

句子s的特征向量s′?的第j維通過分段池化操作得到:

此處,卷積層輸出的結果被頭實體和尾實體分成了三部分,i1和i2是句子s的頭實體和尾實體在句中的位置。

句子s的特征向量s′?為三部分池化結果的拼接:

通過分段池化操作將低層特征組合成高層特征,能夠在保留句子細粒度信息的同時,避免利用自然語言處理工具進行特征提取所導致的錯誤傳播問題。

2.2 跨關系跨句包注意力機制

在遠程監督方法中,通過知識庫標注的句子往往含有較多的噪聲,包含實體對的許多句子可能并沒有表達出該實體對的對應關系,這個問題會嚴重影響關系抽取的性能。本文在句編碼的基礎上,構建跨關系跨句包注意力機制,充分考慮和利用關系的相關性,以緩解錯誤標注句子對模型的影響。PC2SAD 模型先利用跨關系注意力為每種關系計算句包特征,減少噪音句子或者不匹配句子的影響,再利用跨包注意力為每種關系構造一個關系包,使其能夠更多地關注高質量的訓練實例。

2.2.1 跨關系注意力

在利用句編碼將句包Bi中的每個句子si,j表示為s′i,j之后,依據句子和關系之間的相似度為每個句子計算其注意力得分:

其中,rk是第k個關系對應的注意力參數。

為捕捉關系間的相關性,利用貝葉斯規則計算預期的注意力權重βj,k,可以得到:

其中,αj,k為第k個關系在第j個句子上的條件概率計算值,βj,k為第j個句子在第k個關系下的條件概率計算值。

第k個關系下句包Bi的特征向量計算為:

依據句子與所有關系之間的相似度來計算跨關系注意力,最終得到每個關系對應的句包特征向量。

2.2.2 跨句包注意力

句子級別的注意力基于以下假定:如果兩個實體間存在某種關系,那么在所有這兩個實體共同出現的句子中,至少有一句表達了這種關系。然而,由于遠程監督中大量數據被錯誤標記,句包中存在過時事實或者不存在事實等噪音數據,甚至整個句包都為噪音數據。因此,PC2SAD 利用關系包將注意力集中到更高質量的訓練實例上。

相同關系的句包組成的集合稱為關系包,其分布式表示向量稱為關系包的特征向量。對于關系包B={B1,B2,…Bns},ns是關系包的大小,句包Bi被標記為表達第k個關系。

在跨關系注意力上,PC2SAD 模型捕捉句子之間的相關性,同時為每個句包構建其特征向量。PC2SAD 模型利用注意力機制將這些特征向量組合在一起。

關系包B的特征向量f計算方法如下:

其中,bi,k是句包Bi在第k個關系下的特征向量,rk是第k個關系對應的注意力參數,可以用余弦相似度計算得到。

多實例方法[4]只使用句包中一個句子的實例信息,未能充分利用包中的訓練實例。本文提出的跨包注意力機制不僅能夠解決這個問題,而且在綜合利用包中所有訓練實例信息的基礎上,通過二次篩選和去除包中的無用信息,將關系相同的句子組合到一起,從而更好地改善遠監督關系抽取的效果。

2.3 實體信息提取

實體描述信息可以為句子中的實體提供豐富的背景知識。PC2SAD 模型使用包含一個卷積層和一個池化層的CNN 模型,從實體的描述信息中提取特征。

在PC2SAD 模型中,為使實體的向量接近描述的向量,將它們之間的誤差定義為:

基于TransE[22]思想,關系可以表示為尾實體減去頭實體。例如,關系“/location/location/contains”可以表示為關系對應的實體對“Belle Harbor”與“Queens”之差:r≈wBelle_Harbor-wQueens,也可以表示為實體對“Celina”與“Ohio”之差:r≈wCelina-wOhio。

理論上,對于同一關系,不同實體對的計算結果是相似的,并使用平均值表示關系。

實體描述信息來源于Freebase 和Wikipedia,在Freebase 中提取25 271 個實體描述信息,在Wikipedia 中提取14 257 個實體描述信息。

在訓練過程中,首先使用極大似然函數來訓練跨關系跨句包注意力模塊,然后再聯合訓練實體描述模塊。

極大似然函數定義如下:

其中,nsb是訓練過程中關系包的數目,li表示關系包的標簽。

聯合訓練的損失函數為:

在訓練過程中采用隨機梯度下降來最小化目標函數,從訓練集中隨機選擇數據進行訓練,不斷迭代,直到損失函數收斂。

3 實驗與結果分析

為驗證本文方法在緩解特征提取誤差傳播、減弱錯誤標簽噪聲數據影響以及補充實體背景信息方面的有效性,設計3 組實驗,分別從語料庫、句子和句子數量層面驗證PC2SAD 模型的關系抽取效果。

3.1 數據集和參數設置

實驗使用文獻[2]所使用的數據集和NYT10 數據集[17]。文獻[2]所使用的數據集(本文中用NYT11表示)共包含395 個人工標注的句子。NYT10 數據集[17]共包含53 種關系類型,其中,訓練數據包含522 611 個句子、281 270 個實體對和18 252 個關系事實,測試數據包含172 448 個句子、96 678 個實體對和1 950 個關系事實。表1 列出了實驗中使用的所有訓練參數。

表1 訓練參數設置Table 1 Setting of training parameters

3.2 結果分析與比較

3.2.1 語料庫層面關系抽取方法比較

為證明PC2SAD 模型的有效性,本文以PCNN 模型作為句子編碼器,在NYT10 數據集上與以下模型進行比較:

1)PCNN:將PCNN 作為遠監督關系抽取的基線模型。

2)PCNN+ATT:以PCNN 為句編碼模塊,結合普通注意力機制ATT,驗證遠監督關系抽取中注意力模塊的有效性。

3)PCNN+C2SA:以PCNN 為句編碼模塊,驗證C2SA 在關系抽取中的有效性。

實驗采用準確率-召回率曲線對不同方法性能進行衡量,即通過對比測試集上每個句子在每個關系上概率的高低,逐一判斷每個句子在該關系上的正確性,計算得到準確率-召回率曲線,如圖2 所示。可以看出,PC2SAD 在整個召回率范圍內顯著優于基于人工特征的方法,這表明人工特征無法簡潔地表達句子的語義含義,同時,借助自然語言處理工具所帶來的錯誤同樣也會影響關系抽取的性能。相比之下,PC2SAD 可以很好地表達關系抽取所需的句子語義信息。

圖2 不同關系抽取方法的準確率-召回率曲線Fig.2 Precision-recall curves of different relation extraction methods

對于PCNN+ATT 模型,加入ATT 方法可以使模型相比于原始的PCNN 有更好的關系抽取效果,這表明加入ATT 可以有效過濾對關系沒有意義的句子,緩解遠監督關系抽取中存在的錯誤標注問題。

對于PCNN+C2SA 模型,圖2 的準確率-召回率曲線驗證了C2SA 方法的有效性,這表明跨關系跨句包注意力模塊對關系抽取的性能要優于普通注意力方法ATT,跨關系注意力確實能夠提高實例選擇的質量,而跨句包注意力對過濾知識庫事實不匹配或者不存在的噪音數據也有一定的緩解效果。

對于PC2SAD 模型,從圖2 中可以看出,該模型的效果優于上述所有模型,這表明在PCNN 作為句編碼、C2SA 進行實例權重選擇基礎上,加入實體描述信息,不僅為預測關系提供了更多的信息,同時也為注意力模塊帶來了更好的實體表征。

3.2.2 句子層面關系抽取方法比較

為進一步驗證PC2SAD 中加入跨關系跨句包注意力機制和實體描述信息后整個模型在句子級關系抽取方面的性能優勢,比較不同方法針對特定句子識別實體對的關系類型的性能。在文獻[2]所使用的數據集上,分別以PCNN、循環神經網絡(Recurrent Neural Network,RNN)為編碼模塊,替換普通注意力網絡ATT、跨關系注意力CRSA、跨關系跨包注意力C2SA 以及加入實體描述信息后的模型,以此進行實驗對比,實驗結果如表2 所示。

表2 句子層面不同關系抽取算法的F1 值比較Table 2 F1 value comparison on the sentence-level relation extraction

從表2 可以看出:

1)以PCNN 和RNN 為句編碼模塊的關系抽取效果相當,而PC2SAD 整體上優于其他模型。這一實驗結果驗證了實體描述信息在關系抽取任務中的有效性,其與ATT、C2SA、PCNN 模型相結合后,關系抽取的效果得到了更好的提升。

2)PCNN+C2SA 模型效果優于PCNN+ATT,這表明相比于ATT,C2SA 不僅具備ATT 已有的噪聲數據權重更低的優勢,更能充分利用關系的相關性,尤其是減少句包中所有句子均為噪聲數據時對模型性能的影響。

3)RNN/PCNN+CRSA 模型比PCNN+ATT 效果要好,這表明跨關系注意力機制通過計算句子與所有關系之間的相似度,對于噪聲數據或者錯誤標注的數據計算得到的權重會比較低,因此,可以降低錯誤標注的影響。而PCNN+C2SA 模型的效果要更好,這表明句包中的句子有些是過時的或者是不存在的事實,跨包注意力將關系相同的句向量組合到一起,可以丟棄沒有價值的信息,從而關注更高質量的訓練實例。

3.2.3 句子數量對關系抽取性能的影響

在NYT10 原始測試數據集中,有74 857 個實體對僅對應于一個句子,在所有實體對上占比接近3/4。由于PC2SAD 模型的優勢在于能夠處理包含多個句子實體對的情況,因此本文比較CNN/PCNN+MIL、采用注意力機制的CNN/PCNN+ATT 和結合實體描述信息的PC2SAD 在具有多個句子的實體對集合上的表現。此處,MIL 是文獻[4,18]提出的多實例學習方法。

實驗內容如下:

1)One:對于每個測試實體對,隨機選擇其對應的句子集合中的1 個句子作為訓練實例進行關系預測。

2)Two:對于每個測試實體對,隨機選擇其對應的句子集合中的2 個句子作為訓練實例進行關系預測。

3)All:對于每個測試實體對,選擇其對應的句子集合中的所有句子作為訓練實例進行關系預測。

實驗結果如表3 所示,可以看出:

表3 不同關系抽取方法的P@N 值比較Table 3 P@N value comparison for different relation extraction methods

1)隨著實例數量的增加,所有方法的性能都會有所提高。這進一步表明,跨關系、跨句包注意力可以通過選擇高質量的實例、丟棄無用實例來更好地利用句包信息。

2)以PCNN 為句編碼模型要優于以CNN 為句編碼模型,這表明利用實體對將句子分成三部分進行分段最大池化操作是有益的。相比于CNN 模型僅用單個最大池化操作,分段最大池化可以有效捕捉句子結構信息。同時加入MIL 方法可以有更好的性能,這表明以PCNN 為句編碼模型可以一定程度緩解遠監督中存在的噪音問題。加入ATT 方法表明對每個句子賦予同等權重,同時也會從錯誤標注的數據中得到負面信息,進而損害關系抽取的性能。

3)由于Freebase 知識庫不完整,導致NYT10 數據集[17]中許多句子被錯誤標注。soft-label 方法[6]是通過使用后驗概率約束來校正可能不正確的句包關系類型,該方法可以從正確標注的實體對中挖掘語義信息,從而在訓練過程中動態地糾正錯誤的標記。以PCNN 為句編碼模塊加入MIL 方法或ATT 方法,再結合soft-label 方法,比PCNN 加入MIL 方法或ATT 方法效果要好,校正了錯誤標注后的關系抽取效果優于本就存在錯誤標注的NYT 數據集,這表明錯誤標注確實影響了遠監督關系抽取的效果。

4)以PCNN 為句編碼模型的抽取效果優于以CNN 為句編碼模型的效果,這表明分段池化操作將低層特征組合成高層特征,既保留了句子中細粒度的信息,又避免了利用自然語言處理工具進行特征提取可能會導致的錯誤傳播問題。PC2SAD 模型的性能優于CNN+C2SA+D,則從整體上驗證了分段池化操作在關系抽取時,考慮到句子的內部結構信息,能捕捉到更多與實體有關的上下文信息,緩解特征提取的誤差傳播問題。

5)PC2SAD 模型的性能優勢,進一步說明本文提出的模型可以充分利用實體描述所提供的有用的背景知識,有效過濾對關系抽取沒有意義的句子,緩解錯誤標注帶來的負面影響,改善關系抽取效果。

4 結束語

本文研究遠程監督的實體關系抽取方法,針對現有模型學習中只關注實例本身,沒有關注到各個關系之間的關聯信息,以及忽視實體描述信息的問題,構建結合實體描述信息的跨句包關系抽取模型PC2SAD。該模型引入跨關系跨句包注意力機制用于遠程監督關系抽取,充分應用關系層次中所蘊含的相關性選擇有效的實例,并進一步從Freebase 與Wikipedia 中提取實體的描述信息,補充關系抽取任務所需的背景知識,利用該實體描述信息支撐關系預測任務,同時為跨關系跨句包注意力模塊提供更好的實體表示。在大規模基準數據集上的實驗結果表明,本文模型能夠充分利用實體描述所提供的背景知識過濾對關系抽取沒有意義的句子,減小錯誤標注帶來的負面影響,改善關系抽取效果。下一步將研究現有多種注意力機制的變種形式,在此基礎上改進注意力模塊,嘗試利用強化學習進行模型訓練。

猜你喜歡
監督信息方法
突出“四個注重” 預算監督顯實效
人大建設(2020年4期)2020-09-21 03:39:12
監督見成效 舊貌換新顏
人大建設(2017年2期)2017-07-21 10:59:25
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
夯實監督之基
人大建設(2017年9期)2017-02-03 02:53:31
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
監督宜“補”不宜“比”
浙江人大(2014年4期)2014-03-20 16:20:16
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 免费AV在线播放观看18禁强制| 一级毛片免费观看久| 成人欧美日韩| 制服丝袜在线视频香蕉| 成人综合久久综合| 欧美亚洲日韩中文| 大香网伊人久久综合网2020| 手机在线免费毛片| 亚洲av无码成人专区| 国产福利微拍精品一区二区| 2021亚洲精品不卡a| 精品国产成人av免费| 最新加勒比隔壁人妻| 亚洲色欲色欲www网| 亚洲IV视频免费在线光看| 亚洲91精品视频| 九色91在线视频| 欧美成人一区午夜福利在线| 呦女亚洲一区精品| 最新国语自产精品视频在| 亚洲第一色网站| 国产爽爽视频| 日本亚洲最大的色成网站www| 国产大片黄在线观看| 无码综合天天久久综合网| 婷婷综合在线观看丁香| 国产特一级毛片| 麻豆精品在线视频| а∨天堂一区中文字幕| 97人人做人人爽香蕉精品| 在线观看视频一区二区| 成人精品视频一区二区在线| 2048国产精品原创综合在线| 国产精品大白天新婚身材| 极品国产在线| 精品国产三级在线观看| 成人伊人色一区二区三区| 粉嫩国产白浆在线观看| 视频一本大道香蕉久在线播放| 国产区在线观看视频| 欧美亚洲一区二区三区导航| 国产成人禁片在线观看| 亚洲成人在线网| 国产精品无码AV片在线观看播放| 午夜久久影院| 亚洲电影天堂在线国语对白| 亚洲91在线精品| 亚洲国产成人麻豆精品| 69精品在线观看| 久久一本日韩精品中文字幕屁孩| 毛片网站在线播放| 毛片视频网| 亚洲日韩国产精品无码专区| 久久频这里精品99香蕉久网址| 日本三级精品| vvvv98国产成人综合青青| 久久久久亚洲AV成人网站软件| 欧美精品在线看| 青青草一区| 伊人查蕉在线观看国产精品| 亚洲日韩精品伊甸| a毛片在线播放| 亚洲男人的天堂在线| 日本中文字幕久久网站| 免费一级成人毛片| 日本日韩欧美| 在线观看视频一区二区| 国产午夜无码专区喷水| 色哟哟国产精品| av无码一区二区三区在线| 欧美日韩国产精品综合| 97国产精品视频人人做人人爱| 精品人妻一区二区三区蜜桃AⅤ| 国产成人综合亚洲网址| 欧洲成人在线观看| 日韩欧美成人高清在线观看| 精品91视频| 十八禁美女裸体网站| 免费毛片全部不收费的| a网站在线观看| 中文字幕va| 91精品网站|