999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

差分隱私保護(hù)下的Adam優(yōu)化算法研究

2020-06-16 11:13:48李紅嬌
計算機(jī)應(yīng)用與軟件 2020年6期
關(guān)鍵詞:模型

李 敏 李紅嬌 陳 杰

(上海電力學(xué)院計算機(jī)科學(xué)與技術(shù)學(xué)院 上海 200090)

0 引 言

神經(jīng)網(wǎng)絡(luò)在圖像分類、語音分析和生物醫(yī)學(xué)等領(lǐng)域應(yīng)用廣泛并且取得了顯著的成果。但是用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)集通常可能包含各種各樣的敏感信息,特別是目前云存儲和云計算的發(fā)展使得大量數(shù)據(jù)存在隱私安全隱患。

目前,神經(jīng)網(wǎng)絡(luò)的優(yōu)化算法隱私泄露原因與保護(hù)方法主要有:(1) 實際訓(xùn)練中由于數(shù)據(jù)量不夠大導(dǎo)致模型易受到對抗攻擊而造成的隱私泄露。Reza等[1]在2015年提出了一種采用協(xié)作式方法來訓(xùn)練模型的數(shù)據(jù)隱私保護(hù)方法,即讓各個用戶分別在各自的數(shù)據(jù)集上訓(xùn)練深度學(xué)習(xí)模型,并且有的放矢地將各自的模型參數(shù)互相共享。(2) 利用算法的過擬合缺陷,通過梯度下降技術(shù)和置信度來重現(xiàn)模型訓(xùn)練的數(shù)據(jù)導(dǎo)致隱私泄露的模型反演攻擊[2]。Xie等[3]提出了使用同態(tài)加密數(shù)據(jù),即將數(shù)據(jù)加密后再進(jìn)行處理。Phan等[5]提出差分隱私自編碼(ε-differential private autoencoder),利用差分隱私理論來擾亂深度自編碼器的目標(biāo)函數(shù),在數(shù)據(jù)重建過程中添加噪聲從而保護(hù)數(shù)據(jù)。Shokri等[6]提出了基于分布式隨機(jī)梯度下降的隱私保護(hù)方法,該方法假設(shè)各方分別訓(xùn)練各自的模型,不共享數(shù)據(jù),僅在訓(xùn)練期間交換中間參數(shù)并且提供差分隱私保護(hù)。Abadi等[7]結(jié)合差分隱私理論提出了DP-SGD,優(yōu)點(diǎn)是在適當(dāng)?shù)碾[私預(yù)算內(nèi)提供了較好的隱私保護(hù)程度,缺點(diǎn)是噪聲對模型精度的影響較大。(3) 基于GAN的數(shù)據(jù)重現(xiàn)導(dǎo)致的隱私泄露。Papernot等[8]在2017年對保護(hù)訓(xùn)練數(shù)據(jù)隱私的機(jī)器學(xué)習(xí)模型進(jìn)行改進(jìn),提出了Teacher-student模型。通過學(xué)習(xí)不同敏感數(shù)據(jù)集來訓(xùn)練不公開的teacher模型,teacher模型再對公開的未標(biāo)記的非敏感數(shù)據(jù)進(jìn)行預(yù)測,用于訓(xùn)練student模型,student模型不依賴敏感數(shù)據(jù)集,即使攻擊者得到了student模型的參數(shù)也無法獲取敏感數(shù)據(jù)的信息。

為了在神經(jīng)網(wǎng)絡(luò)優(yōu)化算法的優(yōu)化過程中實現(xiàn)差分隱私保護(hù),本文提出差分隱私保護(hù)下的Adam優(yōu)化算法(DP-Adam)。結(jié)合差分隱私理論,在神經(jīng)網(wǎng)絡(luò)訓(xùn)練的反向傳播過程使用Adam優(yōu)化算法并且利用指數(shù)加權(quán)平均思想來實現(xiàn)對深度學(xué)習(xí)優(yōu)化算法的隱私保護(hù),不但提高了模型精度,而且其隱私保護(hù)效果更好。實驗表明,對于相同的隱私預(yù)算,隨著訓(xùn)練時間的增加,DP-Adam訓(xùn)練模型的精度優(yōu)于DP-SGD。除此之外,在達(dá)到同樣模型精度的條件下,DP-Adam所需要的隱私預(yù)算更小,即DP-Adam的隱私保護(hù)程度比DP-SGD更高。

1 背 景

1.1 差分隱私

Dwork[10]于2006年首次提出了差分隱私這一概念。其主要思想是如果某個數(shù)據(jù)記錄是否存在于數(shù)據(jù)集對于該數(shù)據(jù)集的查詢或計算結(jié)果幾乎沒有影響,那么該記錄就得到了差分隱私保護(hù)。因此,當(dāng)該記錄被加到數(shù)據(jù)集中時所造成的隱私泄露風(fēng)險在某個可接受的范圍內(nèi)時,攻擊者就無法獲取該記錄的準(zhǔn)確信息,從而該記錄得到保護(hù)。

定義1鄰近數(shù)據(jù)集[10]若存在兩個結(jié)構(gòu)和屬性相同的數(shù)據(jù)集D和D′,有且僅有一條記錄不同,則這兩個數(shù)據(jù)集稱為鄰近數(shù)據(jù)集。如表1所示,數(shù)據(jù)集d和d′是鄰近數(shù)據(jù)集。

表1 鄰近數(shù)據(jù)集d和d′

定義2ε-差分隱私[11]對于一個隨機(jī)算法M:D→R,兩個鄰近數(shù)據(jù)集d,d′∈D,且M的任意輸出S?R,若滿足以下條件:

Pr[M(d)∈S]≤eε·Pr·[M(d′)∈S]

(1)

則算法M滿足ε-差分隱私。式中:Pr表示概率;ε表示隱私保護(hù)預(yù)算,ε的值越小,隱私保護(hù)程度越高[12]。

從式(1)來看,隱私保護(hù)預(yù)算ε[13]表達(dá)的是算法M在鄰近數(shù)據(jù)集d和d′上得到相同結(jié)果的概率之比的對數(shù)值,作用是衡量算法M所提供的隱私保護(hù)水平。理論上,ε的取值越小,則提供的隱私保護(hù)水平越高。但是數(shù)據(jù)的可用性也會隨之降低。因此,ε的取值要平衡數(shù)據(jù)的隱私性和可用性。

定義3拉普拉斯噪聲機(jī)制[14]拉普拉斯噪聲機(jī)制的定義如下:

M(d)=f(d)+Lap(μ,b)

(2)

式中:位置參數(shù)μ,尺度參數(shù)為b的拉普拉斯分布Lap(μ,b)的概率密度函數(shù)如下:

(3)

當(dāng)添加位置參數(shù)μ=0,尺度參數(shù)b=Δf/ε的拉普拉斯噪聲時,式(2)則變?yōu)?

M(d)=f(d)+Lap(Δf/ε)

(4)

式中:敏感度Δf=|f(d)-f(d′)|;M是深度學(xué)習(xí)算法;f:D→R是分布函數(shù);Lap(Δf/ε)是服從尺度參數(shù)為Δf/ε的拉普拉斯分布。由圖1可知,ε越小,則b就越大,引入的噪聲就越大。

圖1 μ=0的拉普拉斯分布圖

性質(zhì)2并行組合性[15]設(shè)算法M1,M2,…,Mn,其隱私保護(hù)預(yù)算分別是ε1,ε2,…,εn,則對于不相交的數(shù)據(jù)集D1,D2,…,Dn,由這些算法組合成的算法M1(D1),M2(D2),…,Mn(Dn)提供(max εi)-差分隱私保護(hù)。

1.2 神經(jīng)網(wǎng)絡(luò)與Adam算法

神經(jīng)網(wǎng)絡(luò)是一種模仿動物神經(jīng)網(wǎng)絡(luò)行為特征進(jìn)行信息處理的數(shù)學(xué)算法模型,基本組成單元是神經(jīng)元。深度神經(jīng)網(wǎng)絡(luò)是由多層神經(jīng)元組成,其結(jié)構(gòu)如圖2所示,“○”代表神經(jīng)元,每一層神經(jīng)網(wǎng)絡(luò)都由若干個神經(jīng)元組成,xi代表輸入數(shù)據(jù)的特征向量,y代表輸出結(jié)果的預(yù)測值。隱藏層越多,神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)越復(fù)雜,訓(xùn)練得到的模型性能越好。因此,在訓(xùn)練超大的數(shù)據(jù)集和復(fù)雜度高的模型時,一般都需要構(gòu)建隱藏層數(shù)較多的神經(jīng)網(wǎng)絡(luò),但也要根據(jù)自身的研究目的設(shè)計合理的隱藏層數(shù)的神經(jīng)網(wǎng)絡(luò),否則會導(dǎo)致過擬合。

圖2 深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

定義4指數(shù)加權(quán)平均 指數(shù)加權(quán)平均是一種近似求平均的方法,應(yīng)用在很多深度學(xué)習(xí)[16]的優(yōu)化算法中,其核心表達(dá)式如下:

vt=β·vt-1+(1-β)θt

(5)

式中:t為迭代次數(shù);vt代表到第t次的平均值;θt表示第t次的值;β表示可調(diào)節(jié)的超參數(shù)。通過指數(shù)加權(quán)平均,各個數(shù)值的加權(quán)隨著t而指數(shù)遞減,越近的θt的加權(quán)越重,第t-1、t-2、…、1次的加權(quán)分別為β(1-β)、β2(1-β)、…、βt-1(1-β)。

Adam算法是目前神經(jīng)網(wǎng)絡(luò)優(yōu)化算法中優(yōu)秀的算法之一,是傳統(tǒng)隨機(jī)梯度下降的優(yōu)化算法。隨機(jī)梯度下降在訓(xùn)練時保持單一學(xué)習(xí)率更新網(wǎng)絡(luò)參數(shù),學(xué)習(xí)率在訓(xùn)練過程中不改變,Adam通過計算梯度的一階和二階矩估計使得不同參數(shù)有獨(dú)自的自適應(yīng)學(xué)習(xí)率。Adam算法在實踐中性能優(yōu)異、相較于其他隨機(jī)優(yōu)化算法有很大優(yōu)勢。其偽代碼如下:

輸入:學(xué)習(xí)率α(默認(rèn)為0.001);矩估計的指數(shù)衰減速率β1和β2∈[0,1],建議分別默認(rèn)為0.9和0.999;用于數(shù)值穩(wěn)定的小常數(shù)δ,默認(rèn)為10-8;初始參數(shù)θ。

輸出:θ

初始化一階和二階矩變量s=0,r=0

初始化時間步t=0

While沒有達(dá)到停止準(zhǔn)則do

從訓(xùn)練集中采包含m個樣本{x(1),x(2),…,x(m)}的小批量,對應(yīng)目標(biāo)為y(i)。

t←t+1

更新有偏一階矩估計:s←β1s+(1-β1)g

更新有偏二階矩估計:r←β2r+(1-β2)g·g

應(yīng)用更新:θ←θ+Δθ

End while

2 差分隱私下的Adam優(yōu)化算法

2.1 DP-SGD算法

為了實現(xiàn)神經(jīng)網(wǎng)絡(luò)優(yōu)化算法的隱私保護(hù),Abadi等[7]提出了一種在優(yōu)化過程中實現(xiàn)差分隱私保護(hù)的方法——基于隨機(jī)梯度下降的差分隱私保護(hù)下的優(yōu)化算法(DP-SGD)。由于從數(shù)據(jù)的訓(xùn)練到模型的生成完全可以依賴計算梯度的過程實現(xiàn),因此,該方法通過在隨機(jī)梯度下降的過程中結(jié)合差分隱私理論給梯度添加噪聲來實現(xiàn)差分隱私保護(hù)。在每一個訓(xùn)練步驟t中,計算具有采樣概率L/n的隨機(jī)樣本Lt的梯度并通過l2范數(shù)來約束梯度,再給約束后的梯度添加噪聲,最后更新參數(shù)θt+1。其偽代碼如下:

參數(shù):學(xué)習(xí)率αt,樣本容量L,預(yù)設(shè)的梯度閾值C

隨機(jī)初始化θ0

fort∈[T] do

選取采樣概率L/n的隨機(jī)樣本Lt

/*計算梯度*/

fori∈Lt,計算gt(xi)=▽θtFxi(θt)

/*約束梯度*/

/*加噪聲*/

/*更新參數(shù)*/

Output:θT

DP-SGD方法通過在隨機(jī)梯度下降的過程中添加噪聲解決了算法在優(yōu)化過程中的隱私泄漏問題。實驗表明:(1) 在適當(dāng)?shù)碾[私預(yù)算內(nèi),DP-SGD提供了較好的隱私保護(hù)水平。(2) Δf/ε越小,模型預(yù)測的精度越高,即加入的噪聲越小,模型的精度越高。

但是,DP-SGD方法存在一個缺陷,即所添加的噪聲對模型精度的影響較大。以圖3中的A區(qū)域為例,由于每次添加的噪聲都是符合某一分布的隨機(jī)數(shù)字,這就導(dǎo)致每一次隨機(jī)添加的噪聲極有可能分布在A區(qū)域的兩側(cè)。根據(jù)DP-SGD的實驗結(jié)論分析可知,隨機(jī)噪聲盡量地分布在A區(qū)域會提高模型的精度。

圖3 Laplace分布

2.2 DP-Adam算法

為了實現(xiàn)對神經(jīng)網(wǎng)絡(luò)優(yōu)化算法的隱私保護(hù)而提出了差分隱私下的Adam優(yōu)化算法研究(DP-Adam)。Adam是一種性能優(yōu)秀的梯度下降算法,將其與差分隱私結(jié)合,在神經(jīng)網(wǎng)絡(luò)反向傳播的Adam梯度下降更新參數(shù)過程中加入滿足差分隱私的拉普拉斯噪聲,從而達(dá)到在神經(jīng)網(wǎng)絡(luò)優(yōu)化算法的優(yōu)化過程中進(jìn)行隱私保護(hù)的目的。相比于DP-SGD方法,該方法在滿足同等隱私預(yù)算的情況下模型的精度更高,而且在模型達(dá)到同樣精度要求下所需要的隱私預(yù)算更小,即隱私保護(hù)程度更高。DP-Adam算法的主要步驟如下:

Step1計算每一次梯度下降時權(quán)重和偏置的梯度:

(6)

Step2加入拉普拉斯噪聲:

(7)

Step3使用Adam優(yōu)化方法迭代更新參數(shù):

(8)

(9)

(10)

(11)

(12)

如圖3所示,當(dāng)b=Δf/ε越小時,拉普拉斯噪聲分布越集中于A區(qū)域(μ=0附近)。DP-SGD[7]的實驗結(jié)果表明,Δf/ε越小,模型的精度越高,即加入的噪聲分布離μ=0越近,模型的精度越高。

對于同一數(shù)據(jù)集,敏感度Δf是相同的,隱私預(yù)算ε決定了訓(xùn)練模型的隱私保護(hù)程度和預(yù)測結(jié)果的準(zhǔn)確性,當(dāng)ε設(shè)置相同時,DP-SGD方法在梯度下降第t次更新參數(shù)時加入的噪聲為:

N=(1-β)Lap(Δf/ε)[t]

(13)

可知,第t次梯度下降參數(shù)加入的噪聲僅與第t次加入的隨機(jī)噪聲相關(guān),與前t-1次加入的隨機(jī)噪聲無關(guān)。根據(jù)拉普拉斯概率分布可知,所添加的噪聲是滿足該拉普拉斯分布的隨機(jī)數(shù),無法保證添加噪聲盡量分布在A區(qū)域(μ=0附近)。

DP-Adam算法在梯度下降第t次更新參數(shù)時加入的噪聲為:

(14)

第t次梯度下降時參數(shù)加入的噪聲為本次添加的隨機(jī)噪聲和前t-1次加入噪聲的指數(shù)加權(quán)平均。因此,DP-Adam方法加入的噪聲由于指數(shù)加權(quán)平均的限制,很明確地使噪聲分布有更大概率分布在A區(qū)域(μ=0附近),也就是在敏感度Δf和隱私預(yù)算ε一定的情況下,DP-Adam方法加入的隨機(jī)噪聲參數(shù)b=Δf/ε更小。因此,在隱私保護(hù)程度相同時,DP-Adam的模型精度更高。DP-Adam算法如下:

參數(shù):步長α(默認(rèn)為0.001)。隨機(jī)選取的樣本規(guī)模L,用于數(shù)值穩(wěn)定的小常數(shù)δ,默認(rèn)為10-8。矩估計的指數(shù)衰減速率β1和β2∈[0,1],建議分別默認(rèn)為0.9和0.999。

輸出:θ

隨機(jī)初始化w、b

初始化一階和二階矩變量s=0、r=0

初始化時間步t=0

Whilet∈[T] do

隨機(jī)選取樣本Lt,采樣概率為q=L/t

/*計算梯度*/

對于i∈Lt,計算gt(xi)←▽θtL(wt,bt,xi)

/*加噪*/

/*計算加噪后的平均梯度*/

t←t+1

應(yīng)用更新:w←w+Δw,b←b+Δb

End while

由式(2)和式(4)可知,算法中加入的拉普拉斯噪聲的尺度參數(shù)b=Δf/ε,在同一個實驗中加入的是一個參數(shù)確定的拉普拉斯噪聲分布,即μ和b是確定的某兩個值,同一實驗的敏感度Δf也是確定的。因此,在同一實驗中ε的值也是確定的,根據(jù)b=Δf/ε,我們可以得到ε=Δf/b。

3 實 驗

本文選取了機(jī)器學(xué)習(xí)常用的兩種用于圖片識別的數(shù)據(jù)集MINIST和CIFAR-10。MNIST數(shù)據(jù)集包括60 000個樣本的手寫數(shù)字圖片訓(xùn)練集和10 000個樣本的手寫數(shù)字圖片測試集,其中手寫數(shù)字圖片為28×28像素的灰度圖像。CRFAR-10數(shù)據(jù)集包含10種不同物品分類的彩色圖片,訓(xùn)練集有50 000個樣本,測試集有10 000個樣本。實驗對比了DP-Adam方法與文獻(xiàn)[7]提出的DP-SGD方法在兩種數(shù)據(jù)集上的結(jié)果。

實驗環(huán)境:CPU為Inter Core I7-7500 3.70 GHz,內(nèi)存16 GB,GPU為Nvidia GeForce GTX1060(6 GB)。

3.1 MINIST

圖4為MNIST數(shù)據(jù)集在不同隱私預(yù)算下的訓(xùn)練模型的精度,ε表示隱私預(yù)算的大小、epoch為訓(xùn)練的輪數(shù)。如圖4(a)所示,ε較小時(即噪聲規(guī)模較大)兩種方法的模型精度均受到噪聲影響較大,但DP-Adam方法的模型精度明顯更高。隨著ε的增大,精度逐漸增加。在訓(xùn)練的穩(wěn)定時期,DP-Adam的模型精度達(dá)到99%,而DP-SGD僅有89%。相同ε下,DP-Adam方法的準(zhǔn)確率受到噪聲的影響始終小于DP-SGD方法。此外,當(dāng)兩種方法的模型精度相同時,DP-Adam使用的隱私預(yù)算明顯小于DP-SGD,即DP-Adam的隱私保護(hù)性能更好。圖4(b)-(d)為三種不同隱私預(yù)算下,訓(xùn)練輪數(shù)epoch與模型精度的變化關(guān)系曲線,可以看出兩種方法訓(xùn)練時間接近,但DP-Adam方法精度更高。當(dāng)訓(xùn)練達(dá)到穩(wěn)定的狀態(tài)時,DP-Adam算法分別在添加大噪聲(ε=0.5)、中等噪聲(ε=1)以及小噪聲(ε=2)時的模型精度是90%、95%和99%,而DP-SGD算法達(dá)到的精度分別是80%、82%和87%。

(a) accuracy vs.ε

(b) ε=0.5(large noise)

(c) ε=1(middle noise)

(d) ε=2(small noise)

3.2 CIFAR-10

圖5為CIFAR-10數(shù)據(jù)集在不同隱私預(yù)算下的訓(xùn)練模型的精度。圖5(a)中,隨著ε增大(噪聲規(guī)模減小),兩種方法的模型精度均逐漸上升。在訓(xùn)練的穩(wěn)定時期,DP-Adam的模型精度達(dá)到87%,而DP-SGD僅有75%。在同等噪聲規(guī)模下,DP-Adam方法的模型精度均高于DP-SGD。此外,當(dāng)兩種方法的模型精度相同時,DP-Adam使用的隱私預(yù)算明顯小于DP-SGD,即DP-Adam的隱私保護(hù)性能更好。圖5(b)-(d)為三種不同隱私預(yù)算下,訓(xùn)練輪數(shù)epoch與模型精度的變化關(guān)系曲線,可以看出兩種方法訓(xùn)練時間接近,但Adam方法的模型精度更高。當(dāng)訓(xùn)練達(dá)到穩(wěn)定的狀態(tài)時,DP-Adam算法分別在添加大噪聲(ε=1)、中等噪聲(ε=2.5)以及小噪聲(ε=6)時的模型精度為73%、78%和88%,而DP-SGD算法達(dá)到的精度分別是67%、73%和77%。

(a) accuracy vs.ε

(b) ε=1(large noise)

(c) ε=2.5(middle noise)

(d) ε=6(small noise)

4 結(jié) 語

本文提出了差分隱私保護(hù)下的Adam深度學(xué)習(xí)算法研究。該方法結(jié)合差分隱私理論在深度學(xué)習(xí)訓(xùn)練過程的反向傳播時使用Adam優(yōu)化算法,并且利用Adam算法的指數(shù)加權(quán)平均思想降低了添加噪聲對模型精度的影響。采用Adam優(yōu)化算法,第t次梯度下降時參數(shù)加入的噪聲為本次添加的隨機(jī)噪聲和前t-1次加入噪聲的指數(shù)加權(quán)平均,這使得在相同敏感度Δf和隱私預(yù)算ε下,DP-Adam方法加入的隨機(jī)噪聲比起DP-SGD方法加入的隨機(jī)噪聲更集中分布在μ=0的區(qū)域,進(jìn)而使得隨機(jī)噪聲的參數(shù)b=Δf/ε變小。通過理論與實驗得出結(jié)論:1) 在同等的隱私保護(hù)程度下,DP-Adam方法的模型精度明顯高于DP-SGD;2) DP-Adam的隱私保護(hù)性能更好。

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機(jī)模型
提煉模型 突破難點(diǎn)
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 亚洲一级毛片| 国产一级毛片在线| 91精品专区国产盗摄| 黄色网址手机国内免费在线观看| 久久综合九色综合97网| 亚洲无码37.| 美女内射视频WWW网站午夜| 麻豆精品视频在线原创| 国产亚洲男人的天堂在线观看| 久久久久久午夜精品| 欧美精品亚洲精品日韩专区va| 亚洲最新地址| 鲁鲁鲁爽爽爽在线视频观看| 久久这里只有精品66| 日韩小视频在线播放| 亚洲资源站av无码网址| 国产剧情一区二区| a级毛片免费看| AV在线麻免费观看网站| 国产精品免费久久久久影院无码| 国产日韩欧美精品区性色| 精品国产中文一级毛片在线看 | 亚洲天堂成人在线观看| 成人免费网站久久久| 91小视频在线| 国产丝袜无码精品| 亚洲精品无码AV电影在线播放| 国产成人亚洲精品蜜芽影院| 国产成人精彩在线视频50| 色综合手机在线| 国产一区二区人大臿蕉香蕉| 思思热在线视频精品| www.狠狠| 男女男精品视频| 丁香婷婷久久| 青草精品视频| 国产成人精品视频一区二区电影| 国产青青草视频| 国产亚洲精品97AA片在线播放| 亚洲国产综合第一精品小说| 国产玖玖视频| 青青热久麻豆精品视频在线观看| 欧美日一级片| 女人18毛片一级毛片在线| 久久精品只有这里有| 国产精品极品美女自在线网站| 国产主播一区二区三区| 国产精品三级专区| 色吊丝av中文字幕| 99久久人妻精品免费二区| 欧美高清国产| 一区二区三区国产精品视频| 国产特级毛片| 成人字幕网视频在线观看| 五月天丁香婷婷综合久久| 国产日韩欧美黄色片免费观看| 亚洲精品第1页| 国产在线精品香蕉麻豆| 中文字幕丝袜一区二区| 四虎成人免费毛片| 久久成人国产精品免费软件 | 一级爱做片免费观看久久| 亚洲精品中文字幕无乱码| 久久香蕉国产线| jizz在线免费播放| 91精品啪在线观看国产60岁| 国产亚洲精久久久久久无码AV| 97免费在线观看视频| 丝袜亚洲综合| 亚洲一区波多野结衣二区三区| 欧美在线精品怡红院| 亚洲综合专区| 久久精品视频亚洲| 国产欧美日韩视频怡春院| 天天躁狠狠躁| 久久五月视频| 亚洲一区二区精品无码久久久| 亚洲天堂网在线播放| 97视频精品全国在线观看| 国产在线自乱拍播放| 99爱视频精品免视看| 97se亚洲综合在线韩国专区福利|