999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于某組合模型的不平衡數(shù)據(jù)分類算法研究

2022-06-14 10:05:48龔曉峰
計(jì)算機(jī)仿真 2022年5期
關(guān)鍵詞:分類特征模型

李 斌,龔曉峰

(四川大學(xué)電氣工程學(xué)院,四川 成都 610065)

1 引言

數(shù)據(jù)不平衡,即其中一類樣本的數(shù)目遠(yuǎn)遠(yuǎn)小于另一類,而往往少數(shù)類樣本會蘊(yùn)藏更有價值的信息,因此具有更高的錯分代價。不平衡分類問題廣泛存在于社會生產(chǎn)中,如財(cái)務(wù)欺詐[1],腫瘤識別[2],軟件漏洞查找[3]。除了數(shù)據(jù)樣本量的差別,不平衡數(shù)據(jù)經(jīng)常存在特征空間重疊,樣本分布不明顯等問題,影響分類結(jié)果。

目前的研究主要從數(shù)據(jù)重采樣和改進(jìn)分類算法兩方面解決問題。在數(shù)據(jù)處理層面,主要分為欠采樣和過采樣。Chawla等人[4]提出的 SMOTE算法通過分析少數(shù)類樣本特征空間,生成與少數(shù)類樣本相似的樣本來使數(shù)據(jù)集平衡。由于SMOTE算法在合成少數(shù)類樣本的隨機(jī)性過大問題,Torres提出了SMOTE-D[5]。針對欠采樣容易造成多數(shù)類樣本丟失的缺點(diǎn),學(xué)者先后提出了鄰域清理法[6],基于聚類的欠采樣方法[7]。

分類算法主要根據(jù)傳統(tǒng)分類算法對不平衡數(shù)據(jù)的缺陷進(jìn)行相應(yīng)的改進(jìn),如單類學(xué)習(xí)中的單類支持向量機(jī)[8],引入敏感因子的代價敏感決策樹[9]。集成學(xué)習(xí)是解決不平衡問題的常用算法,通過訓(xùn)練多個不同的基分類器,并將其分類結(jié)果按一定方式集成,從而提升單個分類器的性能[10]。集成學(xué)習(xí)算法分為Bagging和Boosting,常見的Boosting算法如XGBoost,Adaboost,GBDT[11],常見的Bagging算法如隨機(jī)森林[12]。學(xué)者將數(shù)據(jù)采樣技術(shù)與集成學(xué)習(xí)結(jié)合,相繼提出了SMOTEBoost[13],RUSBoost[14],RHSBoost[15]去處理不平衡問題。

文獻(xiàn)[16]提出了結(jié)合隨機(jī)子空間和SMTOTE過采樣技術(shù)的AdaBoostRs來增加分類樣本的多樣性和降低數(shù)據(jù)維度;文獻(xiàn)[17]借鑒了Focal loss的基本思想提出了根據(jù)基分類器預(yù)測結(jié)果直接優(yōu)化權(quán)重更新策略的FocalBoost。以上所列算法雖然取得了良好的識別效果,但是在某些極端條件下,如少數(shù)類樣本極端少和分布不連續(xù),很難反映數(shù)據(jù)真實(shí)的分布特性,造成算法分類誤差較大;在處理高維特征數(shù)據(jù)時很難學(xué)習(xí)到潛在的最優(yōu)特征表達(dá),具有一定的局限性。

針對上述問題,本文在結(jié)合了集成學(xué)習(xí)和特征學(xué)習(xí)思想的基礎(chǔ)上,提出了一種新的不平衡分類算法Bagging-RUSBoost。該算法對經(jīng)典RUSBoost模型的樣本權(quán)重更新方式進(jìn)行了改進(jìn),提高少數(shù)類樣本的錯分代價;引入了散度自編碼器進(jìn)行隱含特征提取,將高維特征進(jìn)行降維處理,使兩類特征差異最大化,提高模型的特征學(xué)習(xí)能力;采用Bagging對RUSBoost子模型進(jìn)行了加權(quán)集成,解決了單分類器泛化能力差的問題。實(shí)驗(yàn)結(jié)果證明相較于其它集成領(lǐng)域的模型,本文算法有效提高了精度,在面對高維的非平衡樣本時具有更強(qiáng)的魯棒性。

2 Bagging-RUSBoost算法簡介

2.1 改進(jìn)的RUSBoost模型

RUSBoost模型是在AdaBoost理論基礎(chǔ)上融入隨機(jī)欠采樣技術(shù)的不平衡數(shù)據(jù)分類模型,是由多個弱分類器組合為強(qiáng)分類器的算法。但是在面對極端不平衡數(shù)據(jù)時,仍存在一些不足和改進(jìn)的地方。主要分為兩點(diǎn):在權(quán)重更新時,所有樣本錯分的權(quán)值變化是相同的,這樣容易造成不公平的權(quán)值分配,在兩類樣本相差懸殊時,少數(shù)類應(yīng)當(dāng)具有更高的錯分代價;在基分類器訓(xùn)練階段,樣本權(quán)重變化主要依賴于上一輪訓(xùn)練的結(jié)果,然而這樣的權(quán)值分配方式過于片面,例如前t次迭代某一樣本x全部分類正確,樣本y全部分類錯誤,第t+1次x,y均分類錯誤,那么其權(quán)值是變化相同的,這樣是不公平的,y理應(yīng)獲得更高的權(quán)值分配,參考前t次的分類結(jié)果進(jìn)行權(quán)值更新更為客觀,使樣本訓(xùn)練更為均衡。

設(shè)訓(xùn)練的不平衡數(shù)據(jù)集S為{(x1,y1),(x2,y2),…(xm,ym)},其中xi表示樣本的特征向量,yi∈{-1,1}表示樣本標(biāo)簽,樣本權(quán)值分布為Dt={w1,w2,…wm}。t表示迭代次數(shù),ht(xi)表示弱分類器。

2)Fort=1,2,…T

a.使用隨機(jī)欠采樣技術(shù)創(chuàng)建臨時的訓(xùn)練集St,并產(chǎn)生其對應(yīng)的權(quán)值分布Dt

b.將生成的訓(xùn)練集St,去訓(xùn)練第t次迭代生成的弱分類器ht

c.返回預(yù)測模型ht

d.計(jì)算第t次訓(xùn)練的分類錯誤率εt,εt為在訓(xùn)練集St所有樣本構(gòu)成的分布Λt下預(yù)測錯誤的概率之和,I為弱分類器的概率輸出。如果εt>0.5,則返回b步驟重新訓(xùn)練弱分類器

(1)

e.計(jì)算樣本的權(quán)值更新參數(shù)αt,即弱分類器的權(quán)重

(2)

f.更新樣本權(quán)值,Dt+1(i)表示第i個樣本在第t+1輪訓(xùn)練的權(quán)值,原始算法為

(3)

Zt表示對所有樣本權(quán)重的歸一化函數(shù)。

針對原更新方式的不足,本文提出了一種新的更新模式。原始算法中樣本權(quán)重更新只依賴于上一輪的訓(xùn)練結(jié)果,本算法改為以加權(quán)歷史迭代結(jié)果對樣本權(quán)重進(jìn)行更新。樣本i在前t次的迭代,即前t個弱分類器訓(xùn)練的中加權(quán)分類正確率βt

(4)

設(shè)λ為敏感因子,對少數(shù)類作特殊標(biāo)記,提高每次迭代時少數(shù)類樣本的錯分代價,使其在下次更新時具有更高的選中率。一般取[0.1,0.2]

(5)

則第t+1次的樣本權(quán)值為

(6)

歸一化因子公式如下

(7)

3) 輸出的T個弱分類器組合模型RUSBoost

(8)

最終算法會以sign[HT(x)]輸出樣本所屬類別。如果sign[HT(x)]>0,則輸出1,反之則輸出-1。

2.2 基于散度自編碼器的隱含特征提取

樣本不平衡問題,除了樣本數(shù)量的失衡,往往伴隨著特征空間重疊、樣本特征不明顯等問題,會導(dǎo)致數(shù)據(jù)特征屬性分布的失衡,尤其在遭遇高維不平衡特征時,其少數(shù)類樣本分布更加稀疏,關(guān)鍵的樣本特征很難得到表達(dá),因此容易導(dǎo)致分類器的性能降低,甚至造成維度災(zāi)難等情況。

針對以上情況,本文從特征學(xué)習(xí)角度出發(fā),提出了一種基于自編碼器的特征提取方法, 在自編碼器架構(gòu)的基礎(chǔ)上,在其瓶頸層,引入一層KL散度激勵函數(shù),和重構(gòu)損失函數(shù)構(gòu)成了雙目標(biāo)訓(xùn)練的模型,結(jié)構(gòu)圖如下:

圖1 散度自編碼器的結(jié)構(gòu)

重構(gòu)損失采用交叉熵?fù)p失函數(shù)來評價重構(gòu)特征相對于原始特征的損失,KL散度激勵函數(shù)用于將瓶頸層的壓縮特征差異最大化。

編碼階段為對原始特征進(jìn)行逐層抽象的過程,x為輸入的原始特征

z=fθ(x)=σ(wx+b)

(9)

z為隱含層的抽象特征,θ={w,b}分別為編碼層權(quán)值參數(shù)和偏置參數(shù),σ為非線性激活函數(shù),一般采用Sigmoid函數(shù)。

(10)

輸入到瓶頸層的特征,會進(jìn)一步降維。輸入自編碼器的多數(shù)類樣本數(shù)目為m1,少數(shù)類為n1,因?yàn)闃颖臼遣黄胶獾模谄款i層會在多數(shù)類樣本中抽樣,生成m1/n1個平衡的樣本矩陣。zM和zN分別代表多數(shù)類樣本和少數(shù)類樣本,在瓶頸層迭代m1/n1次后結(jié)束。KL散度本質(zhì)是對兩類數(shù)據(jù)分布差異的評估,在KL散度的激勵下,模型同時學(xué)習(xí)兩類樣本的特征,兩類特征會朝著樣本差異最大化的方向訓(xùn)練,最終生成分布差異更加鮮明的抽象特征,公式如式(11)

(11)

解碼階段即反編碼階段,將瓶頸層的抽象特征z重構(gòu)為原始輸入

y=gθ′(z)=σ′(w′z+b′)

(12)

y為輸出特征,θ′={w′,b′}為解碼層的權(quán)值參數(shù)和偏置參數(shù),σ為非線性激活函數(shù)。

重構(gòu)損失函數(shù)即交叉熵?fù)p失,并采用了L2正則化作為懲罰項(xiàng),防止過擬合。

如下

(13)

最小化交叉損失熵來調(diào)整網(wǎng)絡(luò)內(nèi)部的權(quán)值參數(shù)θ,θ′,即優(yōu)化目標(biāo)為

(14)

采用隨機(jī)梯度下降的方式對自編碼器參數(shù)進(jìn)行優(yōu)化,如下式

(15)

(16)

2.3 改進(jìn)的加權(quán)Bagging組合模型

Bagging作為一種典型的集成學(xué)習(xí)算法,在原始樣本中隨機(jī)采樣,對多個獨(dú)立的弱分類器進(jìn)行平行訓(xùn)練,然后利用子學(xué)習(xí)器的投票機(jī)制選出最終的結(jié)果。

結(jié)合2.2節(jié)的特征提取方法,將RUSBoost作為基分類器,利用Bagging思想對分類器進(jìn)行集成。散度自編碼器的特征在瓶頸層提取后,作為基分類器的訓(xùn)練集。

多數(shù)類樣本數(shù)量為m,少數(shù)類樣本數(shù)量為n,基分類器數(shù)目為k。在自編碼特征訓(xùn)練過程中,盡可能保留少數(shù)類的特征,避免自編碼器模型偏向于多數(shù)類。少數(shù)類樣本抽樣數(shù)目固定為n,多數(shù)類樣本每次抽樣2*m/k,生成數(shù)據(jù)集輸入到散度自編碼器訓(xùn)練。這樣最大限度保證了自編碼器能充分學(xué)習(xí)到少數(shù)類樣本的特性的同時,也盡量保留了多數(shù)類的特征信息。這樣反復(fù)有放回抽取k次,分別輸入k個基分類器進(jìn)行訓(xùn)練。

Bagging算法一般采用簡單多數(shù)投票策略,然而沒有考慮到各個基分類器分類性能的差異,不平衡樣本很容易造成在Bagging隨機(jī)抽樣的過程中數(shù)據(jù)集出現(xiàn)一定的差異,因此需要綜合各分類器的性能進(jìn)行加權(quán)處理。

本文以多數(shù)類和少數(shù)類召回率作為分類器性能的評價指標(biāo),召回率高的分類器即給與較高的權(quán)值,最后綜合基分類器給出加權(quán)投票結(jié)果。相對于原始投票法的硬閾值組合,最終輸出了一個加權(quán)投票概率,降低了單一分類器隨機(jī)性的影響。

ri表示單個基分類器的召回率,取兩類召回率的均值,TPR和TNR分別表示少數(shù)類和多數(shù)類的召回率

(17)

即每個模型的分配權(quán)值ηi為

(18)

RUSBoost子分類器Hi(x)∈{-1,1},1代表少數(shù)類樣本,-1代表多數(shù)類樣本,Bagging加權(quán)組合后的分類器模型為

(19)

最終的分類結(jié)果Result為

(20)

δ為分類閾值,大于閾值會被歸類到少數(shù)類。δ并不是一個定值,取值范圍一般在(-1,1),可以通過交叉驗(yàn)證對閾值進(jìn)行微調(diào)以達(dá)到較好的處理效果。關(guān)于δ取值的進(jìn)一步討論在第3章闡述。算法流程如圖2所示。

圖2 Bagging-RUSBoost分類算法流程圖

3 實(shí)驗(yàn)結(jié)果與分析

為了驗(yàn)證本文所提算法的先進(jìn)性,本文選取了UCI數(shù)據(jù)集和Fashion_M(jìn)NIST進(jìn)行實(shí)驗(yàn),選取了XGBoost,RUSBoost,AdaBoostRs[16](結(jié)合隨機(jī)子空間和SMOTE過采樣),F(xiàn)ocalBoost[17](利用Focalloss優(yōu)化權(quán)值更新)四種模型作為對照。對召回率、F1score、G-mean、Auc等性能指標(biāo)進(jìn)行了比較,并討論了閾值對模型的影響。

3.1 評價指標(biāo)

本文選取了不平衡分類常用的幾種評價指標(biāo),混淆矩陣如表1,召回率為樣本正確被分類的比例,TPR和TNR分別表示少數(shù)類和多數(shù)類召回率

表1 淆矩陣

(21)

TPV和TNV分別表示陽性精確率和陰性精確率

(22)

F1score是衡量精確率和召回率的分類指標(biāo)

(23)

G-mean是衡量分類器識別多數(shù)類和少數(shù)類精度的幾何平均值

(24)

Auc是其對應(yīng)的Roc曲線的面積,能很好度量分類器在面對不平衡數(shù)據(jù)的分類性能。

3.2 UCI實(shí)驗(yàn)

Bioassay是UCI的一個不平衡數(shù)據(jù)集,包含21個生物測定數(shù)據(jù)集,本文選取其中的AID362red,AID1608red兩個特征維度較高的數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),其具體信息如下:

表2 UCI數(shù)據(jù)集信息

在處理非圖片數(shù)據(jù)時,自編碼器采用全連接即可,在瓶頸層提取到最優(yōu)的特征表達(dá)去訓(xùn)練RUSBoost分類器,這里采用十折交叉驗(yàn)證去得到最優(yōu)的性能指標(biāo),閾值選取0.1,基分類器數(shù)目為10,單個分類器的敏感因子取0.2,實(shí)驗(yàn)結(jié)果如表3和表4。

表3 AID362red的五種性能指標(biāo)對比結(jié)果

表4 AID1608red的五種性能指標(biāo)對比結(jié)果

由表3和表4可知,新模型的多數(shù)類召回率與AdaBoostRS和FocalBoost相差不大,而在不平衡分類中也更關(guān)注少數(shù)類的分類指標(biāo)。新模型在少數(shù)類召回率更有優(yōu)勢,分別達(dá)到0.833和0.846。其余三種指標(biāo)也優(yōu)于對比模型,AUC分別達(dá)到了0.886和0.917,尤其在與單一RUSBoost模型的比較占據(jù)了全面優(yōu)勢,證明本模型在不平衡數(shù)據(jù)下是有明顯進(jìn)步的,改進(jìn)的加權(quán)Bagging是有效的。

3.3 Fashion_M(jìn)NIST實(shí)驗(yàn)

新模型在面對UCI的數(shù)據(jù)集時表現(xiàn)出了良好的分類效果,為了進(jìn)一步證明在圖片這種更高維的數(shù)據(jù)時,同樣能保持性能,本文選取了Fashion_M(jìn)NIST商品數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。Fashion_M(jìn)NIST有十類商品標(biāo)簽,相對于經(jīng)典的MNIST手寫數(shù)據(jù)集,F(xiàn)ashion_M(jìn)NIST的商品圖像訓(xùn)練更具挑戰(zhàn)性,分類難度也更大。為了全面證明模型的泛化能力,選取了兩種實(shí)驗(yàn)方案,為一對一和一對多。一對一為隨機(jī)選取兩類商品訓(xùn)練,多數(shù)類樣本量固定為3000,少數(shù)類分別選取30,25,20,15,10,5進(jìn)行訓(xùn)練,實(shí)驗(yàn)選取shirt和coat作為兩類樣本 ;一對多為隨機(jī)選取一類商品為少數(shù)類,剩余九類商品為多數(shù)類,樣本數(shù)量與一對一相同,選取dress作為少數(shù)類。

圖3 散度自編碼器兩種損失函數(shù)的變化

圖4 兩類訓(xùn)練集下算法的性能對比圖

在處理28×28的圖片數(shù)據(jù)時,自編碼器采用卷積結(jié)構(gòu),選取三層編碼層和三層解碼層,瓶頸層采用全連接層輸出100維數(shù)據(jù)特征。28×28維的原始輸入圖經(jīng)過編碼層的逐層抽象,會先轉(zhuǎn)換為1×1000的特征向量,在經(jīng)過Relu操作和進(jìn)一步降維,最終在瓶頸層輸出100維隱含特征表達(dá)。

自編碼的損失函數(shù)變化如圖3,可知重構(gòu)函數(shù)隨著迭代進(jìn)行逐步趨于0,而KL散度隨迭代次數(shù)增加逐步增大而穩(wěn)定,兩類特征差異隨訓(xùn)練是增大的,最終得到隱含層的兩類特征,是分布差異明顯的特征表達(dá),更有利于分類器的訓(xùn)練。

五種算法的表現(xiàn)如圖4,圖5,訓(xùn)練選取的多數(shù)類樣本固定為3000,橫坐標(biāo)代表訓(xùn)練的少數(shù)類樣本數(shù)目。圖4表示的兩類樣本的分類,而圖5代表多類中識別一類的實(shí)驗(yàn)結(jié)果。五張子圖分別對應(yīng)了多數(shù)類召回率,少數(shù)類召回率,F(xiàn)1score,G-mean,Auc。由圖4和圖5可知,五種分類器的多數(shù)類的召回率比較穩(wěn)定,且趨近于1。其余指標(biāo)下,對照實(shí)驗(yàn)的四組算法,XGBoost的分類性能相對要低一些,其它三種差異并不明顯,互有優(yōu)劣,在某些樣本集下略微重合。整體的分類效果隨著少數(shù)類樣本數(shù)目的降低而呈現(xiàn)下降趨勢。

而本文所提模型在所有樣本集下依然保持優(yōu)異的分類性能,尤其在少數(shù)類樣本減少到5時仍有0.5以上的少數(shù)類召回率,各項(xiàng)指標(biāo)優(yōu)勢更加明顯,證明模型在樣本極端少且高維的情況下,具有優(yōu)秀的特征學(xué)習(xí)能力,能學(xué)習(xí)到樣本的隱含特征表達(dá)。圖5實(shí)際上驗(yàn)證了樣本在復(fù)雜的噪聲背景下提取關(guān)鍵字的能力,雖然整體的召回率相較于圖4略有下降,但仍然保持較高的精度,在少數(shù)類樣本為10時,仍能保持0.6以上的召回率和接近0.8的AUC,證明了模型在面對不同的復(fù)雜數(shù)據(jù)集時,具有很強(qiáng)的泛化能力和較高的魯棒性。

圖5 多類訓(xùn)練集下算法的性能對比圖

3.4 算法分析

以上實(shí)驗(yàn)可以充分證明Bagging-RUSBoost優(yōu)于其它模型,本節(jié)對算法本身進(jìn)行更深一步的探究。

閾值δ的取值對Bagging組合模型是有影響的,因此閾值參數(shù)的選取極為重要。當(dāng)基分類器數(shù)目為10,選取UCI數(shù)據(jù)集對閾值的變化進(jìn)行討論,如圖6。

圖6 模型在不同閾值下的召回率表現(xiàn)

基分類器的輸出為{-1,1},因此閾值的相對取值范圍在[-1,1],通過多次實(shí)驗(yàn)可以發(fā)現(xiàn),當(dāng)閾值過大時,少數(shù)類的召回率會急劇下降;而閾值過低時,雖然少數(shù)類的召回率維持在較高水準(zhǔn),但是多數(shù)類性能卻會下降,閾值維持在[-0.1,0.1]之間時少數(shù)類和多數(shù)類召回率都相對良好,因此在選取閾值時要盡量保證兩類的召回率處于相對平衡的狀態(tài)。

Bagging-RUSBoost的時間復(fù)雜度為o(kn),k代表基分類器的數(shù)目,o(n)為單個基分類器的時間復(fù)雜度。由于單個分類器的訓(xùn)練樣本是隨機(jī)抽樣產(chǎn)生的,并在散度自編碼器進(jìn)行了特征降維,因此相對于傳統(tǒng)的強(qiáng)分類器,樣本規(guī)模和特征復(fù)雜度是降低的,因此分類器有較為良好的時間復(fù)雜度特性。在實(shí)際實(shí)驗(yàn)過程中,基分類器的數(shù)目要選取適當(dāng),數(shù)目過多往往會導(dǎo)致模型過擬合,準(zhǔn)確率下降,并且增加了算法的復(fù)雜度。

4 結(jié)論

本文結(jié)合特征層面和算法層面提出了一種基于Bagging思想的RUSBoost組合模型,并得出以下結(jié)論:

1) 針對數(shù)據(jù)分布極端不均衡的情況,本文在RUSBoost模型的基礎(chǔ)上,結(jié)合了樣本權(quán)重更新的歷史經(jīng)驗(yàn),提高少數(shù)類的錯分代價,在UCI兩組訓(xùn)練集少數(shù)類召回率達(dá)到了0.833和0.846,優(yōu)于經(jīng)典RUSBoost算法,降低了單分類器隨機(jī)性的影響。

2) 采用散度自編碼器處理高維數(shù)據(jù),瓶頸層增加的KL散度損失函數(shù)對兩類特征進(jìn)行了差異區(qū)分,使特征表達(dá)更加鮮明,圖4和圖5當(dāng)少數(shù)類減少到5時仍能保持0.5左右的召回率,證明了模型處理高維不平衡樣本的優(yōu)越性。

3) 通過Bagging組合對基分類器進(jìn)行了加權(quán)投票處理,當(dāng)分類閾值維持在[-0.1,0.1]時兩類召回率達(dá)到相對平衡。模型在多個數(shù)據(jù)集均保持了較好的性能,具有較強(qiáng)的泛化能力,為不平衡數(shù)據(jù)分類提供了一種新思路。

猜你喜歡
分類特征模型
一半模型
分類算一算
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
不忠誠的四個特征
分類討論求坐標(biāo)
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
抓住特征巧觀察
主站蜘蛛池模板: 日本午夜影院| 欧美成人免费| 91免费在线看| 性喷潮久久久久久久久| 再看日本中文字幕在线观看| 精品福利视频网| 精品91视频| 香蕉eeww99国产在线观看| 成人亚洲天堂| 五月激激激综合网色播免费| 欧美啪啪精品| 91小视频版在线观看www| 午夜性爽视频男人的天堂| 亚洲综合一区国产精品| 中文无码伦av中文字幕| 亚洲一区第一页| 亚洲第一国产综合| 日韩精品一区二区三区swag| 日本欧美中文字幕精品亚洲| 欧美色丁香| 丰满的熟女一区二区三区l| 国产高清免费午夜在线视频| 波多野结衣久久高清免费| 在线观看欧美精品二区| 成人免费午夜视频| 思思99热精品在线| 114级毛片免费观看| 啪啪免费视频一区二区| 六月婷婷精品视频在线观看 | 18禁色诱爆乳网站| 香蕉色综合| 免费啪啪网址| 97视频在线精品国自产拍| 国产一级一级毛片永久| 免费无码一区二区| 国产第一色| a级毛片毛片免费观看久潮| 一级爆乳无码av| 国产毛片不卡| 伊人丁香五月天久久综合| 国产成熟女人性满足视频| 久久综合九色综合97婷婷| 激情综合网激情综合| 日本三级黄在线观看| 精品一区国产精品| 看av免费毛片手机播放| 亚洲午夜国产精品无卡| 亚洲成人免费在线| 影音先锋亚洲无码| 波多野结衣久久高清免费| 在线无码九区| 国产真实乱子伦精品视手机观看 | 亚洲三级网站| 久久综合国产乱子免费| 亚洲精品人成网线在线| 777国产精品永久免费观看| 国产成人调教在线视频| 国产欧美日韩综合在线第一| 久久精品丝袜高跟鞋| 国产精品永久久久久| 欧美福利在线观看| 国产凹凸视频在线观看| 中国毛片网| 91色在线观看| 99尹人香蕉国产免费天天拍| 日韩av电影一区二区三区四区| 久久亚洲国产最新网站| 国产69精品久久久久孕妇大杂乱| 老色鬼久久亚洲AV综合| 国产女人综合久久精品视| 国内精品久久九九国产精品| 国产精品女熟高潮视频| 亚洲无码高清一区二区| 色成人亚洲| 香蕉视频在线精品| 久久久久久久久亚洲精品| 午夜在线不卡| 国产成人免费高清AⅤ| 亚洲国产欧美国产综合久久| 亚洲精品爱草草视频在线| 日本成人一区| 久久激情影院|