999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于NEZHA-UniLM模型的農(nóng)業(yè)領(lǐng)域問題生成技術(shù)研究

2022-09-29 08:12:08黎芬費凡彭琳
湖北農(nóng)業(yè)科學(xué) 2022年16期
關(guān)鍵詞:文本農(nóng)業(yè)模型

黎芬,費凡,彭琳

(云南農(nóng)業(yè)大學(xué)大數(shù)據(jù)學(xué)院,昆明 650000)

1 引言

農(nóng)業(yè)作為第一產(chǎn)業(yè),對社會穩(wěn)定和經(jīng)濟發(fā)展起著至關(guān)重要的作用。農(nóng)業(yè)生產(chǎn)中面臨著許多挑戰(zhàn),其中農(nóng)業(yè)知識的準(zhǔn)確發(fā)現(xiàn)、篩選與應(yīng)用場景一致的農(nóng)業(yè)知識是永恒的主題。隨著農(nóng)業(yè)信息化的發(fā)展,農(nóng)業(yè)在線問答系統(tǒng)以其可以跨越空間和溝通成本低廉的優(yōu)點得到了廣泛應(yīng)用。農(nóng)業(yè)領(lǐng)域問答數(shù)據(jù)集是實現(xiàn)農(nóng)業(yè)在線問答系統(tǒng)的重要基礎(chǔ),制作農(nóng)業(yè)問答數(shù)據(jù)集不僅需要大量的人力物力,更需要農(nóng)業(yè)專家的支持,因此農(nóng)業(yè)問答數(shù)據(jù)集的自動生成受到廣泛關(guān)注。問題生成是一種根據(jù)輸入文本自動生成問題的技術(shù),可用于問答數(shù)據(jù)擴充。因此,如何在龐大的農(nóng)業(yè)數(shù)據(jù)中就其語句形式的多樣性匹配相關(guān)的語義豐富的問句、農(nóng)業(yè)領(lǐng)域問題生成訓(xùn)練集的數(shù)據(jù)標(biāo)注困難等問題,是近年來問題生成領(lǐng)域急需處理的難題。

目前,深度學(xué)習(xí)達(dá)到一個空前繁榮的時期,隨著很多蘊含語義知識的預(yù)訓(xùn)練模型的發(fā)表,預(yù)訓(xùn)練語言模型和微調(diào)在問題生成的很多領(lǐng)域中取得了一定的成果。在問答系統(tǒng)領(lǐng)域,Liu等[1]從大規(guī)模的維基百科語料庫中,使用自動化方法生成了大規(guī)模有質(zhì)量的問答對;在閱讀理解領(lǐng)域,Yang等[2]使用半監(jiān)督的方法將模型生成的問題和人工生成的問題相結(jié)合,來訓(xùn)練閱讀理解模型;在醫(yī)療領(lǐng)域,問題生成可以用于臨床上評估人類的心理健康狀態(tài)或提高心理健康水平[3];在農(nóng)業(yè)領(lǐng)域,李巖等[4]針對農(nóng)民用戶在知識和技術(shù)上沒有查詢平臺的問題,依托于自然語言處理和人工智能技術(shù)構(gòu)建了基于知識圖譜的農(nóng)業(yè)知識問答系統(tǒng)。王郝日欽等[5]為實現(xiàn)農(nóng)業(yè)問答社區(qū)提問數(shù)據(jù)的快速自動重復(fù)語義檢測,提出了基于BERT-Attention-DenseBiGRU的農(nóng)業(yè)文本相似度匹配模型,實現(xiàn)對農(nóng)業(yè)問答社區(qū)相同語義問句自動、精確識別。這些領(lǐng)域的應(yīng)用知識在應(yīng)用層面的規(guī)模化、智能化、體系化等方面仍有很大的提升空間[6],基于農(nóng)業(yè)領(lǐng)域的問題生成研究也未見報道。因此,如何有效利用現(xiàn)有碎片化的數(shù)據(jù)實現(xiàn)農(nóng)業(yè)領(lǐng)域的問題生成仍是十分有挑戰(zhàn)性的工作。

2 方法

隨著各種預(yù)訓(xùn)練模型的提出,新一代的NLP技術(shù)給農(nóng)業(yè)大數(shù)據(jù)領(lǐng)域帶來更多可能和手段。BERT預(yù)訓(xùn)練模型[7]是第一個基于微調(diào)的表征模型,其原理是借助Transformer來提取特征,捕獲語句間的交互信息。BERT也是第一個將無監(jiān)督的預(yù)訓(xùn)練和有監(jiān)督的微調(diào)結(jié)合起來,并應(yīng)用到更深層的雙向結(jié)構(gòu)中的預(yù)訓(xùn)練模型,但是對于語言生成任務(wù),如翻譯、問題生成等效果達(dá)不到要求。目前,該模型在問題生成領(lǐng)域中的作用就是代替詞嵌入或者直接替代序列到序列框架的編碼器。

本研究在BERT預(yù)訓(xùn)練模型的基礎(chǔ)上,提出了基于NAZHA-UniLM模型的農(nóng)業(yè)領(lǐng)域問題生成模型,該模型結(jié)合預(yù)訓(xùn)練模型NEZHA與統(tǒng)一預(yù)訓(xùn)練模型UniLM的優(yōu)勢,首先利用NEZHA預(yù)訓(xùn)練模型實現(xiàn)農(nóng)業(yè)源文本的詞向量取,然后利用融合覆蓋機制的UniLM模型作為解碼器以實現(xiàn)問題生成。模型的總體架構(gòu)如圖1所示。

圖1 NEZHA-UniLM模型架構(gòu)

2.1 基于NEZHA預(yù)訓(xùn)練模型的詞向量獲取

NEZHA[8]整體上是基于BERT的改進(jìn),通過沒有任何可訓(xùn)練參數(shù)的預(yù)定義函數(shù)對自注意中的相對位置進(jìn)行編碼,并將位置編碼信息直接加到詞嵌入作為Transformer的輸入,對大規(guī)模未標(biāo)記的純文本語料庫進(jìn)行訓(xùn)練,以提高下游的NLP任務(wù)的性能指標(biāo)。函數(shù)相對位置編碼公式如下:

式中,k表示維度,i和j是索引位置,二者的差值相當(dāng)于絕對位置的索引值,dz表示NEZHA模型每個Head的隱藏層大小。

NEZHA預(yù)訓(xùn)練過程使用全詞掩碼(WWM)[9]策略,有效提高了預(yù)訓(xùn)練模型效果;在預(yù)訓(xùn)練過程中使用了混合精確訓(xùn)練技術(shù)[10]和LAMB優(yōu)化器[11]。其中,混合精確訓(xùn)練技術(shù)可以將訓(xùn)練速度提高2~3倍,同時降低了模型的空間消耗,從而可以利用更大的Batch Size;LAMB優(yōu)化器通過使用非常大的Batch Size來加速模型的訓(xùn)練,而不會導(dǎo)致性能損失。

本研究使用NEZHA對源文本進(jìn)行處理,輸入語料表示“[CLS]合理施肥…[SEP]玉米苗枯病該怎么防治?[SEP]”,經(jīng)過Word2vec詞嵌入的方法計算生成特征向量得到“[CLS]E1,E2,E3…[SEP]Z1,Z2,Z3,Z4,Z5,Z6,Z7,X8,Z9,Z10,Z11[SEP]”,然后將該特征向量輸入NEZHA模型進(jìn)行訓(xùn)練,以獲得文本序列的特征向量表示,從而得到解碼器的輸入序列。

2.2 基于統(tǒng)一預(yù)訓(xùn)練語言模型UniLM的問題生成

UniLM[12]是一種統(tǒng)一預(yù)訓(xùn)練語言模型,其網(wǎng)絡(luò)結(jié)構(gòu)和BERT一樣,由24層Transformer組成,模型的參數(shù)使用BERT的參數(shù)進(jìn)行初始化,輸入由3部分拼接而成:詞嵌入、位置嵌入、段嵌入。如表1所示,將UniLM與其他模型對比,UniLM能夠進(jìn)行有條件的語言生成任務(wù)。其中ELMO學(xué)習(xí)兩個單向LM:正向LM從左到右閱讀文本,而向后LM從右到左對文本進(jìn)行編碼。GPT[13]使用一個從左到右的Transformer來逐字預(yù)測一個文本序列。BERT使用雙向轉(zhuǎn)換編碼器來融合左右上下文來預(yù)測掩蔽詞。雖然BERT顯著提高了各種自然語言理解任務(wù)的性能,但它的雙向性特性使其難以應(yīng)用于自然語言生成任務(wù)。

表1 語言模型預(yù)訓(xùn)練目標(biāo)之間的比較

本研究使用融合覆蓋機制的UniLM模型來進(jìn)行問題生成。針對因曝光誤差導(dǎo)致的累計誤差現(xiàn)象,引入了對抗訓(xùn)練,使用FGM(Fast Gradient Method)對模型進(jìn)行訓(xùn)練。將對抗樣本(x0,x1,…,xn,y0,y1,y2,…,yn)加入NAZHA模型輸出的特征向量中進(jìn)行對抗擾動(其中x,y分別表示模型輸入的原文本和原問題),然后一同輸入UniLM模型進(jìn)行問題生成。UniLM模型先對解碼器中詞進(jìn)行隨即掩碼,然后再進(jìn)行預(yù)測。該模型使用不同的Self-attention Masks矩陣控制不同語言模型的交互方式,結(jié)構(gòu)如圖2所示,其中白色表示屏蔽,藍(lán)色為可見信息。

2.2.1 輸入表征本研究輸入的詞序列為農(nóng)業(yè)領(lǐng)域知識的問答對,開始處為特殊的序列開始標(biāo)記[CLS],在每個段的結(jié)束處添加一個特殊的序列結(jié)束標(biāo)記[SEP],用于模型學(xué)習(xí)在問題生成任務(wù)中表示何時終止解碼過程。輸入表示法遵循BERT的輸入表示法。模型表征輸入時將文本通過WordPiece進(jìn)行子詞標(biāo)記。針對每個輸入遮蔽,憑借與之對應(yīng)的遮蔽嵌入、位置嵌入以及文本段嵌入進(jìn)行求和運算得到相應(yīng)的矢量表示。

2.2.2 模型微調(diào)模型微調(diào)部分采用UniLM模型中Seq2Seq框架結(jié)構(gòu)處理問題自動生成任務(wù)。微調(diào)下游任務(wù)與預(yù)訓(xùn)練任務(wù)中使用自注意機制掩碼相似。設(shè)定文本中源序列S1:“合理施肥,加強田間管理比合理施肥是減輕苗枯病的一項重要措施…”目標(biāo)序句子為S2:“玉米苗枯病該怎么防治?”,將兩個句子進(jìn)行拼接,得到輸入序列[CLS]S1[SEP]S2[SEP]。

本研究模型微調(diào)結(jié)構(gòu)如圖2中Seq-to-Seq LM所示。在微調(diào)過程中,在UniLM中隨機加入一些[Mask]來屏蔽S2序列中70%的詞,實現(xiàn)在輸入部分進(jìn)行MLM任務(wù)以提升理解能力,同時在輸出部分做Seq2Seq以增強生成任務(wù)。微調(diào)時屏蔽詞只能選取S2,并且提高比例以縮小微調(diào)時和預(yù)訓(xùn)練語言模型的差距,確保預(yù)測過程生成問題的質(zhì)量。

圖2 UniLM問題生成模型框架

微調(diào)任務(wù)通過對目標(biāo)序列中設(shè)置比例的遮蔽進(jìn)行隨機覆蓋,使模型學(xué)習(xí)還原被遮蔽的詞進(jìn)行任務(wù)微調(diào)。基于前后文本被遮蔽的最大似然度得到生成問題[14]。

2.3 對抗訓(xùn)練

對抗訓(xùn)練屬于對抗防御的一種。在預(yù)訓(xùn)練過程中,將對抗樣本加入到原數(shù)據(jù)集中,以增強模型對對抗樣本的魯棒性,從而提高模型的表現(xiàn),如式3所示。

式中,D代表訓(xùn)練集,x代表輸入,y代表標(biāo)簽,θ是模型參數(shù),L(x,y;θ)是單個樣本的損失值,Δx是對抗擾動,Ω是擾動空間[15]。

在預(yù)訓(xùn)練過程中加入對抗訓(xùn)練,在Embedding層中添加小擾動,生成對抗樣本,進(jìn)行訓(xùn)練。本研究使用對抗訓(xùn)練方法Fast Gradient Method(FGM)[16],通過對抗訓(xùn)練生成對抗樣本以緩解Exposure Bias問題,提升模型的泛化能力。

3 結(jié)果與分析

3.1 數(shù)據(jù)集與評價指標(biāo)

目前,問題生成研究主要在英文語料數(shù)據(jù)集,對于其他語種存在語料缺乏的問題[17]。絕大多數(shù)研究基于SQuAD數(shù)據(jù)集進(jìn)行文本問題生成,對于農(nóng)業(yè)領(lǐng)域的文本問題生成研究不多[18]。本研究數(shù)據(jù)集從淘金地農(nóng)業(yè)網(wǎng)的農(nóng)業(yè)問答板塊問答頁面進(jìn)行爬取,利用先進(jìn)的Scrapy框架,Urllib、Requests等庫,運用Python編程語言,從html頁面的特定標(biāo)簽中爬取了問答頁面所有問句對存入到csv文件中。

3.1.1 數(shù)據(jù)清洗數(shù)據(jù)清洗保證了輸入模型的數(shù)據(jù)的質(zhì)量,相比于不做處理,對模型有很大的提升。數(shù)據(jù)清洗處理方式包括剔除空白字符、剔除帶括號的英文、處理部分不匹配數(shù)據(jù)。本研究共爬取了一萬余條數(shù)據(jù)對,經(jīng)過檢查篩選對部分殘缺、重復(fù)的問答對進(jìn)行刪除,對部分帶有特殊格式和符號的字符經(jīng)正則表達(dá)式刪除;然后經(jīng)人工隨機校對,最終保留了5 920對問答對(表2)。本研究隨機將80%數(shù)據(jù)集中問答對設(shè)為訓(xùn)練集,20%數(shù)據(jù)為測試集。

表2 農(nóng)業(yè)領(lǐng)域數(shù)據(jù)集信息

3.1.2 數(shù)據(jù)處理根據(jù)問題生成任務(wù)對數(shù)據(jù)的要求,對劃分的數(shù)據(jù)集進(jìn)行文本截斷。其中,問題文本的長度均未超過131個字符,所以相當(dāng)于未做截斷:對于答案文本,79.38%的長度是小于64的,答案長度可以取得較短。答案的部分內(nèi)容可以精簡,通常根據(jù)答案的前面部分,就已經(jīng)能夠推理出對應(yīng)的提問。因此,選取答案的長度為64,大于64的進(jìn)行截斷,可以保留絕大部分信息,長度短可以加速訓(xùn)練和推理。對于數(shù)據(jù)集中每一個輸入的序列、答案、問題3元組,經(jīng)過分詞后按照如下方式進(jìn)行拼接。數(shù)據(jù)集的主要處理格式如圖3所示。

圖3 數(shù)據(jù)預(yù)處理

其中,序列S1為序列和答案的拼接,其方式和BERT相同。S2由標(biāo)準(zhǔn)答案構(gòu)成,在解碼時,S2將拼接作為輸入。

3.2 評價指標(biāo)

ROUGE:本研究使用Lin等[19]報道的ROUGE自動摘要評價算法,主要是基于召回率(recall)的一種常用的機器翻譯和文章摘要評價指標(biāo)。構(gòu)建標(biāo)準(zhǔn)問題集,將模型所生成問題與標(biāo)準(zhǔn)問題相對比,使用ROUGE-L作為評價指標(biāo)。ROUGE-L中的L指最長公共子序列(Longest Common Subsequence,LCS),ROUGE-L計算的時候使用了機器譯文C和參考譯文S的最長公共子序列,生成問題相當(dāng)于公式里的機器譯文,標(biāo)準(zhǔn)問題相當(dāng)于參考譯文,計算公式如下所示。

其中,RLCS表示召回率,PLCS表示精確率,F(xiàn)LCS表示ROUGE-L,可以通過超參數(shù)β來控制對召回率和準(zhǔn)確率的傾向程度。

BLEU:BLEU(Bilingual Evaluation Understudy)[20]意為雙語評估替換,是計算生成的問題與地面真實問題的N-gram重疊分?jǐn)?shù),重合程度越高就認(rèn)為生成質(zhì)量越高。對于整個語料庫而言,本研究中BLEU計算是基于句子進(jìn)行的,通過計算BLEU-1、BLEU-2、BLEU-3和BLEU-4的累加得分來說明模型問題生成的性能。BLEU的總體評價公式如下:

其中,Wn指n-gram的權(quán)重,一般設(shè)為均勻權(quán)重。BP是懲罰因子,在問題生成中,lc表示生成的問題的長度,ls表示標(biāo)準(zhǔn)問題的有效長度。如果lc的長度小于lr,則BP小于1。

3.3 試驗參數(shù)設(shè)置

NEZHA-UniLM模型參數(shù)主要包括NEZHA及UniLM模型的參數(shù)。本研究模型中NEZHA設(shè)置最大 序 列 長 度 為128,Train_batch_size為16,Learning_rate為5e5。模型參數(shù)如表3所示。

表3 NEZHA預(yù)訓(xùn)練語言模型參數(shù)

UniLM模型設(shè)置隱向量維度為768,微調(diào)學(xué)習(xí)率Learning_rate設(shè)為1e4,Epochs設(shè)為55。批處理大小Batch_size設(shè) 為16,Beam_search解 碼 時 的Beam_size為5。本研究試驗環(huán)境及配置如表4所示。

表4 試驗環(huán)境及配置

3.4 結(jié)果分析

本研究引入了對抗訓(xùn)練,通過構(gòu)造對抗樣本加入到原數(shù)據(jù)集中,以增強模型對對抗樣本的魯棒性。使用FGM對模型進(jìn)行訓(xùn)練,F(xiàn)GM算法epsilon值為1。通過設(shè)置對比試驗來驗證NEZHA-UniLM模型處理問題生成任務(wù)的優(yōu)越性(表5)。

1)NQG。簡單的Seq2Seq模型,使用LSTM進(jìn)行編碼解碼,并在解碼過程中引入了全局注意力機制。

2)BERT-LM。該模型使用BERT中的掩蔽語言建模對編碼器進(jìn)行預(yù)訓(xùn)練,并使用語言模型對解碼器進(jìn)行預(yù)訓(xùn)練。其中,LM是帶有下三角的Attention Mask從左到右Transformer模型。

3)BERT+UniLM。該模型采用Seq2Seq基礎(chǔ)架構(gòu),將Encoder替換為雙向Transformer編碼模塊,Decoder采用UniLM。使用BERT模型對編碼端參數(shù)進(jìn)行初始化處理,解碼端從初始狀態(tài)訓(xùn)練。

由表5可以看出,與基線模型NQG相比,BERT+LM引入預(yù)訓(xùn)練模型BERT,由于BERT模型在海量語料上的訓(xùn)練,模型具有優(yōu)秀的向量表征能力,進(jìn)一步提升問題生成算法評測得分。BLEU-4和Rouge-L分別提升了0.053 5和0.093 6。與BERT+LM模型相比,BERT+UniLM模型的問題生成效果得到了提升。BLEU-4和Rouge-L分 別 提 升 了0.020 9和0.017 4。與基線NQG相比,BLEU-4和Rouge-L分別提升了0.074 4和0.111 0。與其他模型對比,本研究提出的NEZHA-UniLM模型的Rouge-L和BLEU1-4均取得了最好的成績。與基線模型NQG進(jìn)行對比,BLEU-4和Rouge-L分別提升了0.195 3和0.151 7。模型通過兩階段進(jìn)行問題生成的算法能夠有效地將NEZHA模型與UniLM模型的優(yōu)勢相結(jié)合,有效生成問題。

表5 模型評測對照表

同時,為了驗證加入FGM對抗訓(xùn)練的有效性,對該模型進(jìn)行消融試驗,試驗結(jié)果如表6所示。由表6可知,基于未加對抗訓(xùn)練的NEZHA-UniLM預(yù)訓(xùn)練模型,其BLEU-4和Rouge-L為0.314 1和0.470 1,加入對抗訓(xùn)練后的BLEU-4和Rouge-L分別提高了0.068 9和0.113 8。

表6 對抗消融試驗

3.5 人工測評

利用人工評估來衡量生成的問題的質(zhì)量,隨機抽取50個問題對,并使用本研究預(yù)訓(xùn)練模型生成問題,通過5個方面指標(biāo)來測評。自然度:表示語法性和流暢性;相關(guān)性:表示與答案主題的聯(lián)系;連貫性:衡量生成的問題是否與對話歷史一致;豐富度:衡量問題中包含的信息量;可回答性:即表示該問題是否可根據(jù)該答案段落來回答。然后,將每個帖子和相應(yīng)的模型生成的問題發(fā)送給5個沒有順序的人類注釋者,并要求他們評估每個問題是否滿足上述定義的標(biāo)準(zhǔn),對每個問題打分(1-5分),分?jǐn)?shù)越高越好。所有的注釋者都是研究生。

從表7可以看到,本研究方法在所有方面都優(yōu)于其他模型。當(dāng)模型生成既短又流暢的問題時,會使得其在自然度、相關(guān)性方面沒有顯著差異。在豐富度、連貫性和可回答性等方面,生成模型與人類注釋之間存在著明顯的差距,說明語境理解仍然是問題生成任務(wù)中一個具有挑戰(zhàn)性的問題。

表7 人工測評結(jié)果

4 小結(jié)

本研究經(jīng)過數(shù)據(jù)爬取、清洗、過濾和標(biāo)注等工作,構(gòu)建了問題生成的數(shù)據(jù)集,并研究了基于NEZHA-UniLM預(yù)訓(xùn)練模型的農(nóng)業(yè)領(lǐng)域問題生成,其中,針對因曝光誤差導(dǎo)致的累計誤差現(xiàn)象,引入了對抗訓(xùn)練來生成擾動樣本以緩解該問題。該模型不僅有效緩解生成問題與答案匹配度低、生成問題漏詞或者多詞和曝光誤差等問題,還能有效提高生成問題的質(zhì)量。

猜你喜歡
文本農(nóng)業(yè)模型
一半模型
國內(nèi)農(nóng)業(yè)
國內(nèi)農(nóng)業(yè)
國內(nèi)農(nóng)業(yè)
擦亮“國”字招牌 發(fā)揮農(nóng)業(yè)領(lǐng)跑作用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
在808DA上文本顯示的改善
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
3D打印中的模型分割與打包
主站蜘蛛池模板: 天天综合网亚洲网站| 九九久久99精品| 99热这里只有精品免费国产| 亚洲va欧美ⅴa国产va影院| 五月激情婷婷综合| 国产中文一区a级毛片视频| 波多野结衣久久精品| 在线国产三级| 成人午夜久久| 麻豆精品视频在线原创| 亚洲男人在线| 免费日韩在线视频| 国产电话自拍伊人| 91在线一9|永久视频在线| 中文字幕在线观看日本| 久久精品无码中文字幕| 色噜噜在线观看| 噜噜噜久久| 国产精品开放后亚洲| 青青操国产| 成年人午夜免费视频| 国产在线麻豆波多野结衣| 欧美日韩91| 亚洲国产日韩欧美在线| 久久一色本道亚洲| 女高中生自慰污污网站| 不卡无码h在线观看| 夜夜拍夜夜爽| 91国内视频在线观看| 97视频免费在线观看| 久久夜夜视频| 亚洲日本韩在线观看| 国产91导航| 99偷拍视频精品一区二区| 日本不卡在线视频| 国产区在线观看视频| 99青青青精品视频在线| 亚洲综合色婷婷| 草草线在成年免费视频2| 久草网视频在线| 午夜小视频在线| 91无码国产视频| 好紧太爽了视频免费无码| 国产区免费| 亚洲av中文无码乱人伦在线r| 午夜一区二区三区| 日韩欧美国产中文| 91精品啪在线观看国产| 四虎国产永久在线观看| 毛片久久久| 亚洲精品无码AⅤ片青青在线观看| 婷婷六月天激情| 国产真实自在自线免费精品| 91丨九色丨首页在线播放| 漂亮人妻被中出中文字幕久久| 五月天丁香婷婷综合久久| 欧美啪啪一区| 久久综合九色综合97婷婷| 国产打屁股免费区网站| 精品三级在线| 亚洲第七页| 国产精品9| 国产精品乱偷免费视频| 影音先锋亚洲无码| 中文字幕色在线| 亚洲成人精品| 欧美在线天堂| 午夜国产理论| 在线人成精品免费视频| 黄片在线永久| 成年人免费国产视频| 久久久久无码国产精品不卡| 毛片网站免费在线观看| 亚洲V日韩V无码一区二区| 一级毛片免费观看不卡视频| 九九久久精品国产av片囯产区| 人妻精品全国免费视频| 久久久久人妻一区精品色奶水| 精品99在线观看| 日韩人妻无码制服丝袜视频| 黄色污网站在线观看| 欧美特黄一级大黄录像|