999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于知識蒸餾模型的文本情感分析

2024-06-03 00:00:00李錦輝劉繼
軟件工程 2024年4期

摘 要:為了解決預訓練語言模型訓練時間過長、參數多且難以部署,以及非預訓練語言模型分類效果較差的問題,提出了基于知識蒸餾模型的文本情感分析。以預訓練深度學習模型(Bidirectional Encoder Representationsfrom Transformers,BERT)作為教師模型,選擇雙向長短期記憶網絡(Bidirectional Long Short-Term Memory,BiLSTM)作為學生模型;在知識蒸餾過程中,將教師模型的Softmax層的輸出作為“知識”蒸餾給學生模型,并將蒸餾后的模型應用到公共事件網絡輿情文本情感分析中。實驗結果表明,該模型參數僅為BERT模型的1/13,使BiLSTM模型的準確率提升了2.2百分點,優于其他同類別輕量級模型,提高了文本情感分析效率。

關鍵詞:知識蒸餾;網絡輿情;BERT模型;BiLSTM模型

中圖分類號:TP391.1 文獻標志碼:A

0 引言(Introduction)

在大數據和互聯網飛速發展的背景下,社交平臺(如微博、小紅書、Twitter)中涌現了大量情緒化數據,此時輿情文本情感分析在該領域起到了重要作用[1]?,F有的文本情感分析模型主要分為預訓練語言模型和非預訓練語言模型兩種。預訓練語言模型效果好,但訓練時間過長且參數多,不適用于低資源設備;非預訓練語言模型簡單易用,但分析效果較差。

針對上述問題,本文提出基于知識蒸餾模型的文本情感分析,將教師模型的輸出層作為“知識”蒸餾給學生模型,以便在壓縮教師模型的同時,也能提升學生模型的準確率。通過該方法,深入挖掘和分析公眾對突發事件的情感傾向,幫助政府部門及時了解公眾對突發事件的態度和情感需求,也可以根據情感分析結果對輿情發展趨勢進行預判,以此提高網絡輿情智能化管理效能。

1 相關研究(Related research)

文本情感分析又稱情感傾向分析或意見挖掘,是從用戶意見中獲取信息的過程。目前,文本情感分析方法主要包括基于機器學習的模型和基于深度學習的模型兩種。從機器學習的角度來看,基于機器學習的文本情感分析是通過使用有標注或者無標注的數據,利用傳統統計機器學習算法抽取特征,然后進行情感傾向分析。例如,鄧君等[2]提出Word2Vec和支持向量機(SVM)方法實現了對評論文本進行二分類。隨著深度學習技術的發展,深度學習在處理文本信息領域取得了較大的進展。不同的網絡搭建方法構成了不同的算法,典型的有卷積神經網絡(CNN)、循環神經網絡(RNN)和長短期記憶網絡(LSTM)等。BEHERA等[3]提出基于Co-LSTM 的情感分析方法。BASIRI等[4]將注意力機制與CNN-RNN融合用于文本情感分析。硬件技術的迭代推動了預訓練語言模型的快速發展,在自然語言處理領域(NLP)取得重大突破。DEVLIN等[5]首次提出自編碼(AutoEncoder)預訓練語言模型BERT(Bidirectional Encoder Representations from Transformers),該模型提升了11項NLP任務的技術水平。為了解決單一模型存在的缺陷,有學者進行了模型融合。例如,馬長林等[6]提出一種融合主題模型的情感分析算法。ALAYBA等[7]將CNN和LSTM進行融合,提出基于CNN-LSTM的文本情感分類方法。劉繼等[8]提出混合深度學習模型M2BERT-BiLSTM,該模型很好地解決了輿情正負樣本失衡的問題。

隨著深度學習的發展,自然語言處理領域取得了重大的突破。但在實際應用中,深度學習模型仍然存在諸多挑戰。為了獲得更高的準確率,模型通常會被設計得龐大而復雜,這就導致模型在訓練和部署過程中需要消耗大量資源,因此很難部署在手機等邊緣設備上。所以,設計一個具有高性能且滿足低資源設備的模型尤為必要。當前,有5種方法可以獲得高效的深度學習模型,直接設計輕量級網絡、剪枝、量化、網絡自動設計以及知識蒸餾(Knowledge Distillation,KD),其中知識蒸餾是由HINTON等[9]在其Distilling the Knowledge in a NeuralNetwork 論文中首次提出,它作為一種新型的模型壓縮方法,目前已經成為深度學習研究領域的一個熱點。

知識蒸餾采用教師-學生(Teacher-Student)的訓練框架,該方法通常是把復雜的深層網絡當作教師模型,淺層的小型網絡當作學生模型。在文本情感分類任務中,輕量級網絡(如BiLSTM)的表現通常不佳,但可以利用知識蒸餾原理加強其分類能力。為了在壓縮模型的同時能夠進一步提升BiLSTM 模型的文本情感分類能力,本文采用BERT 作為教師模型,BiLSTM作為學生模型,提出一種基于知識蒸餾的模型Distill-BiLSTM對網絡輿情文本進行有效分析。

2 研究方法(Research method)

2.1 知識蒸餾

知識蒸餾是模型壓縮中常用的方法之一。通常復雜度越高的模型其分類能力越好,但過大的模型可能存在冗余,訓練時會消耗大量的計算時間,因此很難部署在低資源設備上。知識蒸餾以輕微損失模型的準確度為代價,壓縮復雜模型。有學者從不同角度分析知識蒸餾的有效性。例如,FURLANELLO等[10]指出,教師模型的最大Softmax概率值可以視為加權重要性,并通過實驗表明,即使重新排列所有的非最大Softmax概率值也可以提高知識蒸餾的性能。YUAN等[11]認為,知識蒸餾的成功不僅歸功于類間相似性的信息,還歸功于標簽平滑正則化(Label Smoothing Regularization,LSR),在一些情況下,使用“軟標簽”的理論推理是正確的。

在蒸餾過程中,教師模型將其掌握的“知識”作為監督信號傳遞給學生模型,文獻[8]將這種知識稱為“暗知識”(DarkKnowledge)。學生模型在訓練過程中接受這種“知識”提高其準確度,防止過擬合問題,使之接近教師的性能,實現知識的遷移,以此達到壓縮模型的目的。蒸餾框架涉及兩種標簽:軟標簽(Soft Label)和硬標簽(Hard Label)。教師模型經過溫度蒸餾得到的概率輸出稱為軟標簽;通過one-hot方式進行編碼的稱為硬標簽(真實標簽)。在訓練過程中,相較于硬標簽,軟標簽往往攜帶更多的“知識”。

定義預測正確的類別概率稱為絕對信息(AbsoluteInformation);把非正確預測類別的概率稱為相對信息(Relative Information)。模型在訓練過程中經過Softmax層之后往往會把絕對信息賦予較大的值,把相對信息賦予較小的值,然而相對信息中包含著重要知識。為了平滑兩種信息之間的差異性,引入溫度系數ρ 進行調節,通過控制ρ 放大信息之間的相似性進而確定蒸餾程度。當溫度越高,學生模型就越容易從相對信息中獲取更多的知識。經過平滑后的概率分布qi(Zi,ρ)就被稱為軟標簽,其中Zi 表示模型對第i 個類別的logits值,軟標簽概率的計算公式如下:

然而并不是溫度越高越好,當溫度過高時就會陷入一種平均主義。比如,一張手寫數字7的圖片對應的硬標簽值為[1,0,0],將圖片輸入模型中得到logits值為[7,5,3],通過Softmax之后,得到軟標簽值為[0.83,0.12,0.05],模型的輸出表明,手寫數字7特別像數字2,但特別不像數字8;當溫度為3時,通過公式(1)輸出為[0.56,0.28,0.16],它們的相對大小就越接近;而當溫度為100時,通過公式(1)輸出為[0.34,0.33,0.33],就體現不出類別之間的差異性。

知識蒸餾損失函數由兩個部分組成:一是KL 散度損失函數,使用公式(2)計算;二是CE 交叉熵損失函數,使用公式(3)計算。

知識蒸餾的總損失函數是這兩者的加權和,使用公式(4)表示。

LKD =αKL(q(zT;ρ),q(zS;ρ))+(1-α)CE(zhard,zS)(4)

其中:zS 為學生模型的logits融合輸出,zhard 為硬標簽(真實標簽),zT 為教師模型的logits融合輸出,ρ 為溫度系數,α 為平衡系數,知識蒸餾模型流程如圖1所示。

2.2 教師模型

本文采用大規模中文預訓練Bert-base-Chinese作為教師模型,大量研究工作已經證明[12-13],預訓練語言模型可以提高許多自然語言處理任務(如文本情感分析、自然語言生成)的性能。預訓練是指在大量未帶有標簽的文本上,以上一個詞預測下一個詞為目的進行模型訓練,這樣做的好處是可以使模型學習到每個詞元的上下文表示,通過這種方式學到的向量稱為詞向量。通過訓練得到的詞向量和模型參數中包含許多在預訓練階段學習到的語義特征?;陬A訓練的語言模型只需要進行微調(Fine-tuning),就可以應用到下游任務當中。

BERT模型用于情感分類的過程如下:首先將單個句子以[CLS]+句子+[SEP]方式進行拼接,其次通過位置編碼轉換成詞向量,將轉換的詞向量作為Transformer的輸入進行訓練,最后取出經過訓練的詞向量分類標識[CLS]所對應的向量,傳給Softmax分類器就可以實現文本分類。BERT教師模型框架如圖2所示。

2.3 學生模型

本文采用BiLSTM 作為學生模型,該模型是由一個前向LSTM和一個后向LSTM 構成。在BiLSTM 學生模型中,對于一個長度為n 的輸入序列X=[x1,x2,…,xn],其中每個xi表示第i 個詞元的向量,詞向量輸入前向長短期記憶網絡hf的同時在后向長短期記憶網絡hb 進行反向計算,其t 時刻的傳播公式如公式(5)、公式(6)所示:

利用拼接后的詞向量H 的輸出作為輸出層,然后利用Softmax分類器進行分類,這個過程為BiLSTM 文本情感分類的完整過程。BiLSTM學生模型框架如圖3所示。

BiLSTM模型可以同時兼顧前向信息和后向信息,在結合輸入文本的語義信息和詞性特征的同時,還能獲取上下文相關的遠期信息,從而有效地解決了由于距離過長而引起的梯度消失和梯度爆炸等問題。

2.4 基于Distill-BiLSTM 的蒸餾模型

知識蒸餾采用教師-學生模型框架進行訓練時,需要分別選擇合適的模型作為教師模型和學生模型。通常,復雜但準確度高的作為教師模型;結構簡單、容易部署的作為學生模型。文獻[9]提出的BERT模型在當時11項自然語言處理任務中達到最高水平,該模型能夠很好地利用文本語義特征充分獲取樣本信息;BiLSTM模型結構簡單,可以在考慮文本的語義信息和詞性特征的基礎上獲取上下文相關的長時信息。所以,本文采用Bert-base-Chinese作為教師模型,BiLSTM 作為學生模型,提出基于Distill-BiLSTM的中文文本情感分類模型。此模型通過已經訓練完成的BERT教師模型的軟標簽作為監督信號,指導BiLSTM學生模型進行訓練,通過最小化蒸餾損失,使BiLSTM學生模型的性能接近BERT教師模型的性能,從而讓學生模型具有更好的泛化性能。BiLSTM 通過利用BERT模型的輸出以及BiLSTM模型中反向傳播誤差的對應關系模擬BERT教師模型的知識。

此模型包括兩個步驟:前向計算中,將數據通過位置編碼轉化為詞向量方式輸入BERT教師模型,將logits輸出的概率分布作為學生模型的知識;BiLSTM 學生模型將數據通過位置編碼轉化為詞向量方式輸入,聯合軟標簽和硬標簽對學生模型進行知識蒸餾。本文采用KL 散度作為蒸餾損失函數,并且BiLSTM學生模型通過結合軟標簽、硬標簽避免學習到錯誤的知識。在蒸餾過程中,KL 散度損失函數和CE 交叉熵分類損失函數用來計算模型損失。BiLSTM 學生模型通過反向傳播計算誤差,并通過計算梯度更新模型參數,從而更新BiLSTM學生模型的參數,Distill-BiLSTM 模型的損失函數如公式(4)所示。每次蒸餾結束后,將蒸餾損失和學生損失進行加權求和,并將其反饋給BiLSTM 學生模型,然后利用BiLSTM 學生模型對文本進行情感分類。

知識蒸餾模型如圖4所示。

3 相關實驗(Related experiments)

3.1 實驗環境配置

本實驗在Mat Pool平臺上操作,使用Python3.8語言進行編程,使用Pytorh 1.11.0版本深度學習框架搭建模型。實驗使用的GPU 型號為NVIDIA RTX A4000,顯存大小為16 GB,使用CUDA 11.3進行GPU加速。

3.2 實驗數據集

使用Microsoft Edge瀏覽器以“疫情”為關鍵詞爬取微博客戶端中的相關內容,總共采集30 434條數據,數據內容包含發布人名稱、發布來源、發布時間、評論文本、點贊數、轉發數、評論數。數據自身未帶情感傾向標注,為確保數據的有效性,利用Python自帶的自然語言處理庫SnowNLP進行預分類。由于自帶的SnowNLP庫是有關電商評論的文本,對于分析本文與關鍵詞“疫情”相關的數據會造成一定的偏差,進而影響模型的準確度。所以,第一步需要訓練一個有關“疫情”的語料庫,將爬取的數據隨機抽取1 000條預先進行人工標注,將人工標注情感傾向為“正向”和“負向”分別存入SnowNLP庫的“pos.txt”文件和“neg.txt”文件中,用以擴充樣本的多樣性,將模型運行后的“sentiment.marshal”替換原有的SnowNLP中的“sentiment.marshal”文件。第二步從爬取的數據中隨機抽取不同于第一步選取的1 000條數據進行人工標注(標注方式同第一步),用于測試數據。通過人工標注和機器算法進行對比,使得當模型的準確率達到80%以上時用于數據分類。第三步是對爬取的數據運用第一步和第二步訓練好的SnowNLP進行分類,將分類后的結果進行人工調整得到最終數據標簽,數據預處理過程如圖5所示。

鑒于本文研究的是二分類問題,選定以1表示積極,0表示消極。數據樣本量共30 434條,以8∶1∶1的方式將數據集劃分為訓練集、驗證集和測試集,即訓練數據為24 347條,驗證數據為3 043條,測試數據為3 044條,微博評論數據集合如表1所示。

3.3 評價指標

選取準確率(Acc)、精確率(P)、召回率(R)和F1值作為評價指標。

其中:TP 表示預測為正例且實際為正例,TN 表示預測為負例且實際為負例,FP 表示預測為正例且實際為負例,FN 表示預測為負例且實際為正例,n 表示樣本量。

3.4 參數設置

教師模型參數設定:采用Bert-base-Chinese作為教師模型進行訓練,該模型共有12個Transformer的架構,隱藏層大小為768,有12個多頭自注意力,共1.1億個參數,模型的優化方式采用AdamW,初始學習率為3e-5,詞向量的最大長度為256,訓練輪數(epoch)為10 且批量大小為32,丟棄率(Dropout)默認為0.1。

學生模型參數設定:采用BiLSTM 作為學生模型,模型訓練時的批量大?。╞atch_size)為32,訓練輪數(epoch)為8,隱藏層維度(num_hiddens)為256,學習率(lr)為0.001,優化器(optimizer)選用Adam,丟棄率(Dropout)選用0.5。

蒸餾參數設定:利用知識蒸餾技術進行教師-學生架構訓練,蒸餾過程涉及蒸餾溫度ρ 和平衡系數α 兩個參數,其中在蒸餾過程中起主導作用的是α,它表示從教師模型蒸餾知識能力的大小。所以,本文選用不同的平衡系數,以模型結果的準確率為衡量標準,模型的準確率越高,表明從教師模型學習到的知識越多,蒸餾效果越好。

給定蒸餾溫度ρ=3,α 的取值為0~0.9,當α=1時,表明知識蒸餾模型為原始的BiLSTM 模型,所以在此部分不考慮α=1的情況。不同α 值的設定如表2所示。

為了更直觀地反映出不同α 值對模型的準確率的影響,將表2中的數據繪制成折線圖,如圖6所示。

從圖6中可以觀察到,當α=0.2時,模型的準確率達到80.72%,為所有取值中最大。α=0.2表明,模型的損失中,有80%來自蒸餾損失,有20%來自學生損失,此時學生模型從教師模型中學習到最多的知識。

4 實驗結果(Experimental result)

準確率是指模型對整體數據分類結果的準確性進行評估,能夠反映分類器對所有類別的分類準確性;精確率是指分類器預測為正類的數據中,真正為正類的占比,反映的是對正樣本的區分能力;召回率是指真正為正類別的數據中,分類器預測為正類別的占比,反映的是對正樣本的識別能力;F1是綜合考慮精確率與召回率的數值,能夠更全面地反映模型的分類性能,其值越接近1,表示分類器的性能越好。

(1)BERT:選用Bert-base-Chinese預訓練模型,參數為模型原始設定的參數,將文本轉化為詞向量輸入BERT模型進行分類。

(2)BiLSTM:由前向LSTM模型和后向LSTM模型構成,模型共兩層,采用全連接層經過Softmax進行分類。

(3)GRU:調用torch 中的GRU,采用全連接層經過Softmax進行分類。

(4)LSTM:調用torch中的LSTM,采用全連接層經過Softmax進行分類。

(5)TEXT-CNN:調用BERT模型詞表經過全局最大池化層,最后一層的全連接的Softmax層輸出每個類別的概率。

(6)Distill-BiLSTM:選用BERT作為教師模型、BiLSTM作為學生模型進行知識蒸餾。

模型參數量對比如表3所示。

為了避免實驗出現的偶然性,實驗中共測試5次,再取平均值。模型結果比較如表4所示。

實驗使用本文提出的方法將教師模型的“知識”蒸餾到學生模型后,將收集到的數據進行測試,對比模型的評價結果。根據表3和表4,BERT模型的參數量龐大,約為102 MB,數據集的分類準確率達到了81.76%,在所有模型分類能力中性能最佳。本文提出的Distill-BiLSTM 模型相比大規模預訓練語言BERT模型,準確率只差1.04百分點,但是該模型的參數量約為8 MB,約為BERT模型的1/13;相比于輕量級BiLSTM模型,該模型與BiLSTM 模型的參數量一致,但相較于BiLSTM模型準確率、精確率、召回率和F1分別提升了2.20百分點、6.66百分點、7.14百分點和6.89百分點。此外,實驗還比較了LSTM、GRU、TEXT-CNN以及Distill-BiLSTM幾種模型的性能。結果表明,在同類別輕量級網絡中,本文提出的Distill-BiLSTM模型的文本分類能力最佳。

不同模型的實驗結果如圖7所示。從圖7可以觀察到,Distill-BiLSTM模型在同類別輕量級模型中的中文文本情感分類能力最佳。

5 結論(Conclusion)

本文針對大規模預訓練語言BERT模型訓練時間長、計算資源消耗大、難以部署等問題,提出了一種基于Distill-BiLSTM的中文文本情感分析模型。將BERT模型作為教師模型,使用BiLSTM模型作為學生模型,并運用知識蒸餾的思想將BERT模型的知識遷移到BiLSTM 模型,從而實現文本情感分類。結果表明,Distill-BiLSTM 模型與BERT模型的分類能力相當,驗證了本文提出方法的合理性及有效性。本文提出的模型旨在既能提升輕量級淺層BiLSTM 模型的中文文本情感分類效果,又能降低BERT模型的復雜度和計算開銷。在未來的研究中,可以嘗試在教師模型中加入領域知識以進一步提高教師模型的分類能力,從而提高學生模型的分類精度。

參考文獻(References)

[1] 王春東,張卉,莫秀良,等. 微博情感分析綜述[J]. 計算機工程與科學,2022,44(1):165-175.

[2] 鄧君,孫紹丹,王阮,等. 基于Word2Vec和SVM的微博輿情情感演化分析[J]. 情報理論與實踐,2020,43(8):112-119.

[3] BEHERA R K,JENA M,RATH S K,et al. Co-LSTM:Convolutional LSTM model for sentiment analysis in socialbig data[J]. Information processing amp; management,2021,58(1):102435.

[4] BASIRI M E,NEMATI S,ABDAR M,et al. ABCDM:anattention-based bidirectional CNN-RNN deep model forsentiment analysis[J]. Future generation computer systems,2021,115:279-294.

[5] DEVLIN J,CHANG M W,LEE K,et al. Bert:Pre-trainingof deep bidirectional transformers for language understanding[C]∥BURSTEIN J,DORAN C,SOLORIO T. Proceedingsof the 2019 Conference of the North AmericanChapter of the Association for Computational Linguistics:Human Language Technologies,NAACL-HLT 2019. MinneapolisMN USA:ACL,2019:4171-4186.

[6] 馬長林,王濤. 基于相關主題模型和多層知識表示的文本情感分析[J]. 鄭州大學學報(理學版),2021,53(4):30-35.

[7] ALAYBA A M,PALADE V. Leveraging Arabic sentimentclassification using an enhanced CNN-LSTM approach andeffective Arabic text preparation[J]. Journal of King Sauduniversity-computer and information sciences,2022,34(10):9710-9722.

[8] 劉繼,顧鳳云. 基于BERT與BiLSTM 混合方法的網絡輿情非平衡文本情感分析[J]. 情報雜志,2022,41(4):104-110.

[9] HINTON G E,VINYALS O,DEAN J. Distilling theknowledge in a neural network[J]. Computer science,2015,14(7):38-39.

[10] FURLANELLO T,LIPTON Z C,TSCHANNEN M,et al. Born again neural networks[EB/OL]. (2018-06-29)[2023-03-25]. https:∥arxiv.org/pdf/1805.04770.pdf.

[11] YUAN L,TAY F E H,LI G,et al. Revisiting knowledgedistillation via label smoothing regularization[EB/OL].(2021-03-04)[2023-03-27]. https:∥arxiv.org/pdf/1909.11723.pdf.

[12] ZHAO A,YU Y. Knowledge-enabled BERT for aspectbasedsentiment analysis[J]. Knowledge-based systems,2021,227(5):107220.

[13] DABRE R,SHROTRIYA H,KUNCHUKUTTAN A,et al. IndicBART:A pre-trained model for indic naturallanguage generation[EB/OL]. (2022-10-27)[2023-03-29]. https:∥arxiv.org/pdf/2109.02903.pdf.

作者簡介:

李錦輝(1999-),男,碩士生。研究領域:數據智能分析,知識蒸餾,網絡輿情。

劉 繼(1974-),男,博士,教授。研究領域:數據智能分析,網絡輿情。

基金項目:國家自然社科基金資助項目(大數據背景下網絡輿情智能治理:共同體構建、協同演進與引導機制,編號:72164034)

主站蜘蛛池模板: 久久永久精品免费视频| 福利视频一区| 伊人久久久大香线蕉综合直播| 毛片免费观看视频| 伊人丁香五月天久久综合| 亚洲水蜜桃久久综合网站| 2020国产在线视精品在| 91久久大香线蕉| 这里只有精品免费视频| 91久久国产综合精品| 精品国产成人三级在线观看| 99精品在线看| 夜夜操天天摸| 国产噜噜噜视频在线观看| 亚洲天堂免费在线视频| 97国产精品视频人人做人人爱| 国内精品视频| 日本少妇又色又爽又高潮| www.av男人.com| 欧美成人a∨视频免费观看| 久久综合伊人 六十路| 久久综合色播五月男人的天堂| 亚洲日韩高清无码| 亚洲经典在线中文字幕| 成人韩免费网站| 久久久久久久久久国产精品| 色婷婷色丁香| 天天综合色网| 亚洲中文无码h在线观看| 精品一區二區久久久久久久網站| 亚洲欧美日韩另类在线一| 日本亚洲欧美在线| 久久久久国产精品免费免费不卡| 91国内在线观看| 中文精品久久久久国产网址| 毛片网站在线看| 超薄丝袜足j国产在线视频| 人妻精品久久久无码区色视| 亚洲欧美国产高清va在线播放| 久久青草热| 日韩欧美网址| 久久永久精品免费视频| 亚洲色欲色欲www在线观看| 亚洲日韩精品伊甸| 亚洲成人黄色在线观看| 国产浮力第一页永久地址| 六月婷婷激情综合| 国产午夜无码专区喷水| 国产女人水多毛片18| 婷婷五月在线| 最新日韩AV网址在线观看| 色哟哟国产精品| 中文国产成人久久精品小说| 精品自窥自偷在线看| 91精品啪在线观看国产91| 丁香五月激情图片| 午夜毛片免费观看视频 | 亚洲香蕉久久| 亚洲娇小与黑人巨大交| 国产人人乐人人爱| 毛片免费网址| 国产亚洲欧美在线专区| 性69交片免费看| 中文字幕佐山爱一区二区免费| 亚洲天堂日韩在线| 国产亚洲视频在线观看| 国内精自视频品线一二区| 亚亚洲乱码一二三四区| 91探花国产综合在线精品| 日韩色图区| 成人va亚洲va欧美天堂| 高潮毛片免费观看| 欧美精品导航| 日韩一级二级三级| 亚洲综合婷婷激情| 欧美激情视频一区二区三区免费| 国产情侣一区| 国产精品无码翘臀在线看纯欲| 人妻无码一区二区视频| 四虎永久免费地址在线网站| 一级爆乳无码av| 国产毛片基地|