999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于雙對抗機制的圖像攻擊算法

2021-11-18 02:18:56黃靜琪賈西平陳道鑫柏柯嘉廖秀秀
計算機工程 2021年11期
關鍵詞:分類效果模型

黃靜琪,賈西平,陳道鑫,柏柯嘉,廖秀秀

(廣東技術師范大學計算機科學學院,廣州 510665)

0 概述

深度學習是學習樣本數據的內在規律和表示層次的算法,在學習過程中獲得的信息對文字、圖像和聲音等數據的解釋具有很大的幫助[1]。由于深度學習系統的訓練過程和訓練模型一般是封閉的,而訓練數據集和預測數據需要與用戶交互,因此容易受到未知惡意樣本攻擊[2]。如果在訓練數據集中出現惡意樣本,則稱之為投毒攻擊;如果在預測數據中出現惡意樣本,則稱之為對抗攻擊[3]。對抗攻擊利用對抗樣本擾亂分類器的分類,使模型預測錯誤,從而破壞模型可用性。對抗樣本是在原始樣本中添加擾動而產生的,通過人類肉眼觀看和原始樣本基本沒有區別。對抗攻擊的難點在于攻擊成功率和擾動之間的平衡。一般地,擾動越大,攻擊成功率越高,但是攻擊樣本與原始樣本的視覺差異越明顯,反之亦然。

GOODFELLOW 等[4]提出快速梯度標志攻擊(Fast Gradient Sign Method,FGSM)方法,通過在梯度方向上添加增量來產生擾動,然后對原始圖像添加擾動生成對抗樣本,使網絡產生誤分類。SU 等[5]提出基于差分進化生成單像素的對抗性擾動,目的是通過改變輸入圖像的一個像素值,達到在最小攻擊信息的條件下對更多類型的網絡進行欺騙。MOOSAVI-DEZFOOLI 等[6]設計對 于任意 給定的DNN 分類器都可實現圖像攻擊的擾動,生成的擾動僅與模型本身相關,具有較小的范數,在不改變圖像本身結構的情況下,能使分類器以較大概率分類錯誤,從而實現對于DNN 的攻擊,同時這些擾動對人類肉眼而言幾乎不可察覺。SZEGEDY 等[7]將神經網絡做出誤分類的最小擾動求解方程轉化成凸優化過程,尋找最小損失函數的添加項,使得對圖像添加小量的人類察覺不到的擾動,便可達到誤導神經網絡分類的效果。XIAO 等[8]等提出一種通過學習來逼近原始實例的分布和生成對抗實例的AdvGAN 算法。一旦生成器訓練完成,該算法就可以有效地使用所有原始實例來產生對抗性干擾實例,從而潛在地促進防御的對抗性訓練。AdvGAN 攻擊算法在公共MNIST 攻擊挑戰中獲得第一名,加速了對抗樣本的產生,生成的樣本更加自然[9],并且受到了研究人員的廣泛關注。

針對圖像攻擊,可以構建魯棒的分類器或者防御模型,使其在輸入攻擊圖像時也能實現分類正確。防御模型基本原理分為兩種:一種是從分類器本身出發進行防御,即訓練更加魯棒的分類器;另一種是對輸入的攻擊圖像做一定的預處理后再傳給分類器,目的是盡可能減少攻擊噪聲。DZIUGAITE 等[10]通過圖像壓縮技術去除圖像攻擊所添加的抽象擾動,將圖像復原為沒有擾動的圖像,從而達到防御效果。通過實驗發現,該方法在少量擾動的情況下,防御效果較好,但隨著擾動的增加,難以解決神經網絡的安全風險問題。LUO 等[11]提出一種基于中央凹機制的防御方法來防御生成的對抗擾動。ROSS等[12]使用輸入梯度正則化訓練模型,使其具有平滑的輸入梯度和較少的極值,同時對預測分布與真實分布之間散度的敏感性進行適當懲罰,這樣小的對抗擾動就不會對輸出具有顯著影響,提高了對抗攻擊魯棒性。LI 等[13]用變分 自編碼 器(Variational Auto-Encoder,VAE)訓練模型,通過對實例壓縮來提取符合分布的數據特征,然后根據數據特征進行解壓縮還原成實例。在壓縮和解壓縮過程中,VAE 能夠過濾許多擾動信息,實現對攻擊的防御。DUBEY等[14]假設對抗性擾動使圖像遠離圖像流形,通過對包含大量圖像的海量數據庫的最近鄰搜索,建立一種針對對抗圖像的成功防御機制,使圖像近似投射回圖像流形。LIU 等[15]提出一種基于感知哈希的防御方法,通過比較圖像的相似性來破壞擾動產生過程,從而達到防御目的。基于卷積稀疏編碼,SUN等[16]在輸入圖像和神經網絡的第一層之間引入稀疏變換層,并構造一個分層的準自然圖像空間。該空間逼近自然圖像空間,同時消除了對抗性擾動。吳立人等[17]在基于動量的梯度迭代攻擊算法[18]的基礎上,加入動量因子,使攻擊在損失函數的梯度方向上快速迭代,穩定更新,有效地避免了局部最優。

現有圖像攻擊算法多數較為脆弱,只要對攻擊圖像做適當處理,就能使攻擊模型的攻擊性能大幅下降,導致圖像攻擊失效[19]。本文在AdvGAN 算法的基礎上,針對現有圖像攻擊在VAE 防御下攻擊不穩定的問題,提出AntiVAEGAN 算法,以生成對抗網絡的訓練方式,訓練得到一種抵抗VAE 防御的AntiVAEGAN 模型。在AntiVAEGAN 算法的基礎上,進一步提出改進的對抗攻擊算法VAEAdvGAN,以解決防御能力提升時攻擊不穩定的問題。

1 抵抗VAE防御的對抗攻擊算法AntiVAEGAN

1.1 AntiVAEGAN 算法原理

AntiVAEGAN 算法結構如圖1 所示,主要由以下部分組成:

圖1 AntiVAEGAN 算法結構Fig.1 Structure of AntiVAEGAN algorithm

1)生成器G。G的主要作用是根據輸入原始實例x,生成一個擾動G(x),添加到實例x上,組成攻擊圖像x′(x′=x+G(x))。

2)鑒別器D。D的主要作用是判別輸入的數據是生成的攻擊圖像還是原始圖像,將x+G(x)和x輸入到鑒別器進行判別訓練。鑒別器有助于促進生成器生成與原始圖像無法區分的攻擊圖像。

3)被攻擊的圖像分類模型C。C代表實驗中被攻擊的圖像分類模型。

4)VAE 防御模 型Origin_vae。Origin_vae 的 主要作用是對輸入數據進行特征提純處理。輸入數據經過Origin_vae 模型編碼和解碼處理后會過濾掉大部分擾動,留下原始圖像特征。引入Origin_vae有助于促進生成器生成具備反VAE 防御的攻擊實例。

5)圖像分類模型VAE_Classifier。輸入數據經過Origin_vae處理后,輸入到圖像分類模型Classifier,從而達到防御效果。

6)計算擾動均值的Mean_perturb。Mean_perturb用于計算生成擾動G(x)的均值并度量生成攻擊圖像的隱蔽性。

鑒別器D的目標是區分原始實例x和生成實例:

原始實例x是真實數據集下的一個樣本,區分原始實例和生成實例有助于生成器生成與原始實例接近的攻擊實例。

假設D(x)和D()分別表示鑒別器鑒別原始數據和生成數據的預測值,Pt和Pf分別表示數據判別為真和假的標簽,則二分類交叉熵損失函數表示如下:

對抗神經網絡的損失函數可用式(3)和式(4)表示,它們的作用分別是反向傳播優化鑒別器和生成器。

將x+G(x)輸入圖像分類模型Classifier 后,用r表示Classifier 正確分類的概率,o表示除r之外其他類中最大的概率。欺騙圖像分類模型Classifier 的損失函數表示如下:

其 中:Ld=r-o;max(0,Ld)>0 表示攻 擊失敗,max(0,Ld)=0 表示攻擊成功。因此,Ladv有助于生成器生成能夠欺騙圖像分類模型的擾動圖像。

在x+G(x)輸入Origin_vae 后,將其輸出作為圖像分類模型Classifier 的輸入,vvae_r表示圖像分類模型Classifier 輸出的概率分布中正確分類的概率,vvae_o表示除vaer以外其他類中最大的概率。Origin_vae模型的損失函數表示如下:

其中:max(0,Lvae_d)>0 表示攻擊失敗,max(0,Lvae_d)=0表示攻擊成功。因此,Lvae有助于生成器生成能夠抵抗防御的擾動圖像。

G(x)擾動的均值損失函數表示如下:

假設LG代表Ladv、Lvae、Lp線性匯總的損失函數,α、β、λ表示權重,使用LG損失函數進行反向傳播,優化生成器。LG損失函表示如下:

1.2 AntiVAEGAN 算法流程

AntiVAEGAN 算法流程如圖2 所示,其中,j表示第j輪迭代,i表示第i張圖像,m表示數據集中用于訓練的圖像總數;n表示模型訓練的最大迭代次數。具體步驟如下:

圖2 AntiVAEGAN 算法流程Fig.2 Procedure of AntiVAEGAN algorithm

步驟1通過對原始圖像進行大小調整和中心裁剪,得到統一大小的訓練圖像。

步驟2建立生成網絡,將訓練圖像輸入生成網絡,生成攻擊圖像。

步驟3建立判別網絡,與生成網絡形成Gener‐ator-Discriminator 對抗訓練。將訓練圖像和攻擊圖像輸入判別網絡進行判別,將判別損失結果用于優化生成網絡和判別網絡。

步驟4建立圖像分類模型Classifier,建立Classifier 與Origin_vae 防御模型的組合圖像分類模型VAE_Classifier,將生成網絡生成攻擊圖像分別輸入這兩個模型,將攻擊損失結果用于優化生成網絡。

步驟5將以上步驟進行多次迭代,利用Gener‐ator-Discriminator 對抗訓練方法訓練生成網絡,訓練得到AntiVAEGAN 攻擊模型。

步驟6在攻擊模型中輸入測試數據集,將生成的攻擊數據集分別攻擊圖像分類模型和添加防御模型的圖像分類模型,統計實驗數據。

1.3 AntiVAEGAN 算法評價

利用攻擊數據集中的樣本對圖像分類模型進行攻擊,統計圖像分類模型正確分類的樣本數目,進而計算圖像分類準確率和攻擊成功率。

圖像分類準確率指模型正確分類的樣本數占攻擊數據集樣本總數的比例maccuracy,計算公式如下:

其中:mnum表示模型正確分類數;dnum表示攻擊數據集樣本總數。

攻擊成功率指模型錯誤分類的樣本數占攻擊數據集樣本總數的比例asuccess_rate,計算公式如下:

2 改進的對抗攻擊算法VAEAdvGAN

2.1 VAEAdvGAN 算法原理

VAEAdvGAN 算法借鑒GAN 對抗訓練結構,衍生出另一個對抗模型——生成器和VAE 防御模型的對抗模型,以Generator-Discriminator 與Generator-VAE 雙對抗結構進行訓練,從而對抗提升防御模型的防御能力與攻擊模型的攻擊能力。VAEAdvGAN算法結構如圖3所示。VAEAdvGAN 算法在AntiVAEGAN 算法的基礎上,添加了Further_vae 防御模型,用于與生成器對抗訓練,動態提升Further_vae 的防御能力。

圖3 VAEAdvGAN 算法結構Fig.3 Structure of AVEAdvGAN algorithm

對抗訓練Generator-VAE 的損失函數表示如下:

2.2 VAEAdvGAN 算法流程

VAEAdvGAN算法流程如圖4所示,具體步驟如下:

圖4 VAEAdvGAN 算法流程Fig.4 Procedure of VAEAdvGAN algorithm

步驟1通過對原始圖像進行大小調整和中心裁剪,得到統一大小的訓練圖像。

步驟2建立生成網絡與防御網絡Further_vae,使用AntiVAEGAN 攻擊模型和Origin_vae 防御模型分別對生成網絡和防御網絡進行初始化。

步驟3將訓練圖像輸入生成網絡,生成攻擊圖像。

步驟4建立判別網絡,對訓練圖像和攻擊圖像進行判別,與生成網絡形成對抗訓練,將判別損失結果用于優化生成網絡和判別網絡。

步驟5將訓練圖像和攻擊圖像輸入Further_vae防御網絡,與生成網絡形成對抗訓練,將防御損失用于優化防御網絡。

步驟6建立圖像分類模型Classifier以及Classifier與Further_vae 防御模型的組合圖像分類模型Fur_VAE_Classifier,將生成網絡生成的攻擊圖像分別輸入這兩個模型,將攻擊損失結果用于優化生成網絡。

步驟7通過以上步驟,以生成器與鑒別器、生成器與VAE 雙對抗訓練方法訓練生成網絡,以生成器與VAE 對抗訓練方法訓練防御網絡,訓練得到攻擊模型VAEAdvGAN 和防御模型Further_vae。

步驟8在攻擊模型中輸入測試數據集,將生成的攻擊數據集分別攻擊圖像分類模型和添加防御模型的圖像分類模型,統計實驗數據。

3 實驗結果與分析

3.1 實驗環境和數據集

實驗硬件環境為64 位Linux 操作系統、16 GB 內存、Intel i7-7800X CPU、3.5 GHz×12 主頻、GeForce GTX 1080 Ti GPU。系統運行于PyTorch 0.4 深度學習框架,使用Python 3.6 版本。

實驗數據集包括28像素×28像素的黑白MNIST數據集[20]和32 像素×32 像素的彩色GTSRB 數據集[21]。MNIST 數據集的訓練集有50 000 張圖像,由250 個不同人手寫的數字構成,測試集有10 000 張圖像,使用具有4 層卷積層的10 分類神經網絡作為圖像分類模型。GTSRB 數據集是一個德國交通標志檢測數據集,包含43 種交通信號,訓練集有39 209 張圖像,測試集有12 630 張圖像,使用vgg16[22]作為圖像分類模型。

3.2 實驗效果對比

圖5和圖6分別是使用AntiVAEGAN和VAEAdvGAN攻擊模型對MNIST 數據集的攻擊效果。圖7 和圖8 分別是使用AntiVAEGAN 和VAEAdvGAN 攻擊模型對GTSRB 數據集的攻擊效果。由上述結果可以看出,原始交通標志圖像遭到攻擊后,圖像中出現了一定的干擾信息,但這些干擾信息基本不影響人眼對標志的判別,但卻能成功欺騙分類網絡。另外,與AntiVAEGAN算法相比,VAEAdvGAN 算法產生的干擾信息看起來更為復雜。

圖5 AntiVAEGAN 對MNIST 數據集的攻擊效果Fig.5 Attack effects of AntiVAEGAN on MNIST dataset

圖6 VAEAdvGAN 對MNIST 數據集的攻擊效果Fig.6 Attack effects of VAEAdvGAN on MNIST dataset

圖7 AntiVAEGAN 對GTSRB 數據集的攻擊效果Fig.7 Attack effects of AntiVAEGAN on GTSRB dataset

圖8 VAEAdvGAN 對GTSRB 數據集的攻擊效果Fig.8 Attack effects of VAEAdvGAN on GTSRB dataset

3.3 分類準確率對比

使用M1 表示MNIST 數據集的圖像分類模型,M2 表示M1 與Origin_vae 防御模型的組合圖像分類模型,M3 表示M1 與Further_VAE 結合的圖像分類模型。MNIST 數據集分別在無攻擊、FGSM[4]攻擊、AdvGAN 攻擊、AntiVAEGAN 攻擊、VAEAdvGAN 攻擊后的分類準確率對比如表1 所示。由表1 可以看出,M1 圖像分類模型在FGSM 攻擊下分類準確率下降到 27.96%,而在AdvGAN、AntiVAEGAN 和VAEAdvGAN 攻擊下分類準確率明顯下降,從無攻擊的99.00%降到不到4.00%,表明FGSM 攻擊算法效果一般,而其他3 種攻擊算法效果較好。對M2 圖像分類模型,無攻擊的分類準確率為98.00%,AdvGAN 攻擊效果不佳,攻擊后分類準確率下降不明顯,為19.35 個百分點,FGSM 攻擊有一定效果,分類準確率下降了69.68 個百分點,AntiVAEGAN 和VAEAdvGAN 攻擊效果非常明顯,分類準確率大幅下降。對M3 圖像分類模型,AdvGAN 攻擊效果非常差,AntiVAEGAN 攻擊效果也一般,而VAEAdvGAN和FGSM 攻擊使得分類準確率下降較多,攻擊效果較好。

表1 MNIST 數據集分類準確率對比Table 1 Comparison of classification accuracy of MNIST dataset %

使用G1 表示GTSRB 數據集的圖像分類模型,G2表示G1 與Origin_vae 防御模型的組合圖像分類模型,G3 表示M1 與Further_VAE 結合的圖像分類模型。GTSRB 數據集分別在無攻擊、FGSM 攻擊、AdvGAN 攻擊、AntiVAEGAN 攻擊、VAEAdvGAN 攻擊后的分類準確率對比如表2 所示。由表2 可以看出,G1 圖像分類模型在各種攻擊下的分類準確率都明顯下降,其中FGSM攻擊效果最差,而AntiVAEGAN 和VAEAdvGAN 攻擊效果較好。對G2 圖像分類模型,無攻擊的分類準確率為79.52%,AdvGAN 攻擊效果最差,VAEAdvGAN 和FGSM 攻擊效果次之,AntiVAEGAN 攻擊效果最好。對G3 圖像分類模型,AdvGAN 攻擊效果很差,AntiVAEGAN 攻擊效果也一般,而FGSM 和VAEAdvGAN 攻擊使得分類準確率下降最多,攻擊效果較好。

表2 GTSRB 數據集分類準確率對比Table 2 Comparison of classification accuracy of GTSRB dataset %

3.4 攻擊成功率對比

MNIST 數據集分別在FGSM 攻擊、AdvGAN 攻擊、AntiVAEGAN 攻擊、VAEAdvGAN 攻擊后的攻擊成功率對比如表3 所示。由表3 可以看出,FGSM 對M1 和M2圖像分類模型的攻擊成功率都在89%以上,但對M3分類模型的攻擊成功率一般,只有42.73%。AdvGAN對M1 圖像分類模型的攻擊成功率為96.94%,但對M2圖像分類模型的攻擊成功率僅為21.35%,對M3 圖像分類模型的攻擊成功率更低,低至9.12%。這表明AdvGAN 的攻擊不穩定,在VAE 防御模型的防御下,AdvGAN 的攻擊被大幅抵消。AntiVAEGAN 對M1 圖像分類模型的攻擊成功率為96.45%,與AdvGAN 的攻擊成功率僅相差0.49 個百分點,但對M2 圖像分類模型的攻擊成功率高達96.33%,是AdvGAN 攻擊成功率的4 倍多,攻擊效果明顯更好。AntiVAEGAN 對M3 圖像分類模型的攻擊成功率也較差,僅為23.93%,但比AdvGAN 的9.12%好。VAEAdvGAN 對M1 圖像分類模型的攻擊成功率為96.03%,與AdvGAN 和AntiVAEGAN 相差不多,對M2 圖像分類模型的攻擊成功率為93.95%,比AntiVAEGAN 的攻擊成功率低了2.38 個百分點,但仍遠高于AdvGAN 的21.35%,對M3圖像分類模型的攻擊成功率為58.94%,是AntiVAEGAN的2 倍多。

表3 MNIST 數據集攻擊成功率對比Table 3 Comparison of attack success rate of MNIST dataset %

GTSRB數據集分別在FGSM 攻擊、AdvGAN攻擊、AntiVAEGAN 攻擊、VAEAdvGAN 攻擊后的攻擊成功率對比如表4 所示。由表4 可以看出,對G1 圖像分類模型,FGSM、AdvGAN、AntiVAEGAN、VAEAdvGAN的攻擊成功率分別為89.51%、92.54%、94.35%、94.84%,AntiVAEGAN 和VAEAdvGAN 的攻擊成功率高于AdvGAN,更高于FGSM。對G2 和G3 圖像分類模型,FGSM 和AdvGAN 的攻擊成功率都明顯低于AntiVAEGAN 和VAEAdvGAN,AntiVAEGAN 的攻擊成功率更高。對G3 圖像分類模型,AdvGAN 攻擊成功率最低,FGSM 和AntiVAEGAN 的攻擊成功率差不多,VAEAdvGAN 的攻擊成功率最高。

表4 GTSRB 數據集攻擊成功率對比Table 4 Comparison of attack success rate on GTSRB dataset %

綜合以上實驗數據可以看出,在無防御的情況下(如M1 和G1 圖像分 類模型),AntiVAEGAN 和VAEAdvGAN 幾乎能達到和AdvGAN、FGSM 一樣的攻擊效果。在VAE 防御下,AdvGAN 攻擊成功率大幅下降,但AntiVAEGAN 攻擊仍然相對穩定,攻擊效果比AdvGAN 更好。這說明AntiVAEGAN 能成功攻擊具有VAE防御的分類器,攻擊成功率較高,攻擊性能更穩定,魯棒性更強。Further_vae 防御模型通過對抗訓練,提升了防御能力,隨著Further_vae 模型防御能力的提升,對抗促進了VAEAdvGAN 攻擊模型攻擊能力的進一步提升。因此,VAEAdvGAN 攻擊效果比AdvGAN 更好,且在大部分情況下優于AntiVAEGAN。

4 結束語

本文為解決現有圖像攻擊算法在VAE 防御下攻擊效果不穩定的問題,提出AntiVAEGAN 算法,利用生成對抗網絡訓練的方式訓練得到一種抵抗VAE 防御的AntiVAEGAN 模型。針對防御模型防御能力提升時攻擊效果不穩定的問題,進一步提出VAEAdvGAN 算法,以生成器與鑒別器、生成器與VAE 雙對抗訓練的方式訓練得到VAEAdvGAN 模型。在不同數據集上的實驗結果表明,本文提出的圖像攻擊算法提高了圖像攻擊的魯棒性和成功率。但由于圖像攻擊算法生成的擾動不夠隱蔽,后續將對此做進一步優化,在保證算法攻擊成功率與魯棒性的同時,盡可能提升攻擊隱蔽性。

猜你喜歡
分類效果模型
一半模型
按摩效果確有理論依據
分類算一算
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
分類討論求坐標
迅速制造慢門虛化效果
數據分析中的分類討論
抓住“瞬間性”效果
中華詩詞(2018年11期)2018-03-26 06:41:34
教你一招:數的分類
主站蜘蛛池模板: 亚洲另类国产欧美一区二区| 无码免费视频| 免费午夜无码18禁无码影院| 91最新精品视频发布页| 日韩 欧美 国产 精品 综合| aⅴ免费在线观看| 久久大香伊蕉在人线观看热2| 久久精品aⅴ无码中文字幕| 亚洲欧洲国产成人综合不卡| 在线视频亚洲欧美| 91蜜芽尤物福利在线观看| AV片亚洲国产男人的天堂| 熟女视频91| 伊人久久婷婷| 成人第一页| 91麻豆精品国产高清在线 | 99视频在线观看免费| 午夜精品久久久久久久无码软件 | 国产伦片中文免费观看| 精品国产免费观看一区| 国产欧美日韩另类精彩视频| 午夜精品福利影院| 一级黄色欧美| 亚洲国产亚洲综合在线尤物| 欧美在线中文字幕| 毛片在线看网站| 日本一区二区不卡视频| 88av在线看| 亚洲综合亚洲国产尤物| 亚洲中文精品久久久久久不卡| 亚洲不卡网| 欧美亚洲国产精品久久蜜芽| 亚洲欧美日韩中文字幕一区二区三区| 国产美女无遮挡免费视频网站 | 国产成人精品2021欧美日韩 | 成人午夜视频在线| 青青操国产视频| 久久精品这里只有国产中文精品| 青青青草国产| 国产18在线播放| 狠狠色香婷婷久久亚洲精品| 亚洲欧美不卡| 97在线免费| 欧美日韩国产一级| 四虎在线高清无码| 亚洲精品老司机| 中文字幕亚洲精品2页| 福利小视频在线播放| 国产美女精品一区二区| 亚洲国产精品美女| 国产欧美日韩va| 日本福利视频网站| 亚洲精品无码成人片在线观看| 国产在线观看91精品亚瑟| 精品福利视频网| 亚洲,国产,日韩,综合一区| 日韩无码精品人妻| 亚洲va在线∨a天堂va欧美va| 丁香五月亚洲综合在线| 亚洲专区一区二区在线观看| 天堂成人av| 欧美国产菊爆免费观看| 白浆视频在线观看| 久久人妻系列无码一区| 亚洲国产天堂久久综合| 国产十八禁在线观看免费| 中文无码精品A∨在线观看不卡 | 国产精品美女网站| 久久99蜜桃精品久久久久小说| 国产偷倩视频| 99久久精品免费观看国产| 成人福利视频网| yjizz视频最新网站在线| 精品久久人人爽人人玩人人妻| 精品久久久久久中文字幕女| 在线欧美一区| 色综合久久无码网| 久久夜色精品国产嚕嚕亚洲av| 国产精品精品视频| 精品三级网站| 99无码熟妇丰满人妻啪啪| 午夜啪啪网|