999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于條件信息卷積生成對抗網絡的圖像識別

2020-07-17 08:20:08林蔚天
計算機工程與應用 2020年14期
關鍵詞:信息模型

李 鑫,焦 斌,林蔚天

1.上海電機學院 電氣學院,上海 201306

2.上海電機學院 繼續教育學院,上海 200240

1 引言

生成對抗網絡(Generative Adversarial Network,GAN)是Goodfellow等在2014年提出的一種生成模型[1],該生成模型與傳統生成模型的區別在于其包含了生成網絡和判別網絡兩部分,生成網絡和判別網絡是一種對抗博弈的關系[2]。GAN思想源于零和博弈,當一方的利益增加時,另一方的利益就會隨之減少。引用到生成對抗網絡中,生成網絡利用輸入的初始數據經過數據擬合生成盡量逼真的數據,而判別網絡的作用是將擬合生成的“假數據”和“真實數據”進行對比,最終判別生成數據的真實性,同時生成網絡繼續利用判別網絡的結果優化生成網絡各項參數,最終兩個網絡實現納什均衡[3]。圖像識別現有方法如卷積神經網絡(Convolutional Neural Networks,CNN)等已經有很高的識別率,但這些方法依賴大量數據并且收斂速度較慢[4]。本文結合條件生成對抗網絡、信息最大化生成對抗網絡與深度卷積網絡提出帶有條件的信息最大化深度卷積生成對抗網絡模型(Conditional-Info-DCGAN,C-Info-DCGAN),利用該模型提取的特征用于圖像識別。實驗結果表明,該方法能夠提高訓練收斂速度,并有效提高圖像識別的準確率。

2 生成對抗網絡原理

生成式對抗網絡是一種深度學習模型,是近年來無監督學習最具前景的方法之一。基本模型是通過框架中兩個模塊:生成模型(Generative Model,G)和判別模型(Discriminative Model,D)的互相博弈學習生成以假亂真的數據樣本[5]。原始生成對抗網絡中的兩個模型不一定是神經網絡,只要是能夠達到生成數據和判斷真偽功能的網絡都可以,但是經過長期大量的實驗,把深度神經網絡作為G和D是最常見且效果最好的。GAN運行過程中,首先給生成網絡一個隨機噪聲數據x作為輸入值,通過G生成盡量像真實數據的“假數據”G(z),判別網絡負責判別生成數據的真假,并把判別結果反饋給生成網絡,G以此來優化網絡參數,最終生成讓判別網絡判斷不出真假的數據。GAN的流程圖如圖1所示[6]。

GAN核心原理的算法描述如下:

在生成網絡給定的情況下,優化判別網絡和判別網絡是一個二分類模型,訓練過程如式(1)所示:

式中,x表示真實樣本;z表示輸入生成模型中的隨機噪聲;D(x)表示判別模型判斷輸入樣本為真實樣本的概率;G(z)表示生成模型接受隨機噪聲后生成的樣本;Pdata(x)表示真實數據分布;Pz(z)表示生成數據分布。判別模型的目的是能夠準確判斷出輸入樣本的真實性,也就是使D(x)無限接近1,D(G(z))無限接近于0,此時V(D,G)變大,即求maxD。生成模型的目的是生成更接近真實的樣本,也就是使D(G(z))無限接近于1,此時V(D,G)變小,即求 minG[7]。

GAN相對于其他生成網絡能夠產生更好的數據樣本,但是其還存在許多問題亟待解決,比如GAN模型訓練難以達到穩定、生成網絡和判別網絡難以達到納什均衡等。

3 改進生成對抗網絡設計

為了應對原始GAN難以穩定等問題,近些年許多學者在其基礎上進行了改進與優化,其中條件生成對抗網絡和信息最大化生成對抗網絡在解決原始網絡存在的部分問題中具有很大貢獻。

3.1 條件生成對抗網絡

條件生成對抗網絡(Condition al Generative Adversarial Nets,CGAN)是在GAN的基礎上加上了條件信息,如果生成網絡和判別網絡都適用于某些額外的條件c,例如類別標簽,那么可以通過將c附加到輸入層中輸入到生成器和判別網絡中進行調節,可以指導數據生成過程。CGAN把純無監督的GAN變成有監督模型的一種改進,這種改進被證明非常有效,并廣泛應用于后續的工作中[8]。

在生成網絡中,輸入噪聲的同時輸入相應條件c,而真實數據x和條件c作為判別網絡的輸入。其目標函數V(D,G)如式(2)所示:

生成網絡和判別網絡都增加了額外信息,在生成模型中,噪聲z和條件信息y構成隱層表征,對抗訓練框架在隱層表征的組成方式方面相當靈活。

3.2 信息最大化生成對抗網絡

InfoGAN發布于NIPS2016,解決了控制生成數據語義特征的問題,GAN模型使用不受任何限制的噪聲信號z作為輸入,因此生成網絡只能以一種高度混亂的方式使用噪聲,導致噪聲z中獨立的維度與數據的語義特征不對應[9]。InfoGAN提供了解決方案,即分解輸入噪聲為兩個部分。其中,z作為不可壓縮的噪聲源,c作為潛在的部分,對數據分布潛在結構進行導向,而生成器輸出為G(z,c)。原始GAN模型中相當于通過公式忽視了輸入類別信息c,本文方法提出c和G(z,c)之間應該有高度共同的特征。其目標函數V(D,G)如式(3)所示:

3.3 改進生成對抗網絡

在圖像識別技術領域,缺少訓練樣本、圖像分類識別率低等問題亟待解決,而生成對抗網絡是解決這些問題的一個熱門方向[10],但是現有的網絡模型還難以很好地解決這些問題,因此,本文基于現有的GAN網絡,提出了一種條件信息最大化生成對抗網絡(C-Info-GAN),該網絡模型能夠很好地解決圖像識別領域的問題[11]。

圖2 C-Info-GAN結構圖

C-Info-GAN模型還是基于生成網絡和判別網絡相互博弈的思想,但是生成網絡的輸入不僅是噪聲信號,而是包括三部分,噪聲數據、潛在隱含信息、類別信息,三者組合作為生成網絡的初始輸入,輸出“假數據”G(z,c,l);判別網絡的輸入包括兩部分,一部分是生成的“假數據”,另一部分是包含類別信息的真實數據,判別網絡通過對兩個輸入進行對比處理,判斷生成數據的真假,并將判斷結果的損失值反饋給生成網絡和判別網絡,優化網絡各項參數。

除此之外,為了更好地利用類別信息和潛在隱含信息,增加一個Q網絡,該網絡與判別網絡的權值共享,輸入數據為G(z,c,l),利用Q網絡的深度卷積網絡和相適應的判別器,完成對類別信息和潛在隱含信息的分類處理,并將兩者的損失值反饋給生成網絡和判別網絡,以此不斷優化,最終生成以假亂真的樣本數據。當模型訓練完成之后,為了實現圖像識別同時簡化網絡結構的目的,還是以Q網絡作為圖像識別網絡,將生成數據按照一定比例補充到原始訓練數據集中,對原始數據進行數據增強,隨著補充數據量的增加,識別網絡的準確率也會增加。C-Info-GAN的結構圖如圖2所示。

3.4 深度卷積生成對抗網絡

深度卷積生成對抗網絡(DCGAN)主要是在生成網絡和判別網絡中引入深度卷積的結構,從而利用深度卷積網絡的強大特征提取能力來提升整體模型的效果[12]。

相較于原始GAN,DCGAN具有很多特點:

(1)在生成網絡中使用反卷積網絡實現將輸入數據生成“假數據”的功能,在判別網絡中用卷積層代替池化層,并搭配合適的分類判別器。

(2)在網絡模型中,對于各個卷積層均采用批量歸一化,這樣使得初始化差問題得以解決,并保持網絡的傳播梯度,防止過擬合的現象。

(3)將卷積層作為生成網絡和判別網絡的輸出層,提高模型穩定性,但是卻減弱模型訓練的速度。

(4)生成網絡輸出層的激活函數使用Tanh函數,剩下的網絡使用ReLU激活函數;而判別網絡中均使用LeakyReLU激活函數[13]。

4 基于條件信息深度卷積生成對抗網絡的圖像識別

本文基于CGAN、InfoGAN和DCGAN網絡模型,結合為應對圖像識別領域的問題所做出的改進,設計出基于條件信息深度卷積生成對抗網絡(C-Info-DCGAN)模型,增加類別信息和潛在隱含信息作為輸入,并利用深度卷積網絡提高模型的特征提取能力,同時增加Q網絡完成對類別信息和潛在隱含信息的處理。

4.1 C-Info-DCGAN模型結構

C-Info-DCGAN的生成網絡結構如圖3所示,此處以MNIST數據集的28×28像素圖像為例,輸入數據由三部分組成,包括100維的滿足高斯分布的隨機噪聲、10維的類別標簽數據和10維潛在的隱含信息數據,其中10維類別信息表示0~9的10種手寫數字類別,10維隱含信息表示具有先驗概率分布的連續隨機變量,描述手寫數字的粗細、大小、長短等特征,三者連接在一起組成120維的輸入數據,接著利用兩個全連接層,依次將輸入數據擴展到1 044維和6 292維,然后為了適應接下來的反卷積網絡,將數據重置為(7,7,148)的三維張量,之后利用兩層反卷積層,將數據依次處理成(14,14,84)和(28,28,1)的三維張量,其中反卷積網絡的卷積核為4×4,步長為2,最后輸出(28,28,1)的生成數據。另外,與一般CGAN不同的是,為了加強類別信息和潛在隱含信息在訓練過程中的引導作用,在全連接層和反卷積層中這兩者并沒有參與運算,例如:100+10+10維的輸入,經過全連接層的處理并重置輸出為(7,7,128)+(1,1,20)=(7,7,148)。

圖3 C-Info-DCGAN生成網絡結構圖

C-Info-DCGAN的判別網絡結構如圖4所示,整體結構相當于生成網絡的逆過程,其中輸入包括生成的“假數據”和帶有類別信息的真實數據,利用判別網絡對其分別處理。以MNIST數據集為例,輸入28×28像素的圖像,然后利用兩層卷積層依次輸出為(14,14,64)、(7,7,128)的三維張量,其中卷積核為4×4步長為2;接著經過兩個全連接層將數據分別變成1 024維和100維,激活函數均使用Leaky_ReLU,最終輸出就是判斷輸入值真假的結果,具體網絡模型參數如表1所示。

圖4 C-Info-DCGAN判別網絡結構圖

表1 判別網絡模型參數

除了生成網絡和判別網絡之外,本文設計的模型中還加入了一個Q網絡,該網絡中除了輸出層以外的網絡結構均與判別網絡進行權值共享,輸入數據是生成的包含類別信息和潛在隱含信息的“假數據”,在Q網絡的最后一層利用分類器,對類別信息和隱含信息進行分類處理,輸出(2,10)的數據,其中包含10維的類別信息和10維的潛在隱含信息。Q網絡的結構圖如圖5所示。

圖5 Q網絡的結構圖

4.2 基于C-Info-DCGAN模型訓練和圖像識別

loss_dr表示判別網絡正確判斷真實數據類別的準確率,loss_df則是成功判斷生成數據類別的準確率,判別網絡損失值loss_disc取這兩者的平均值。生成網絡的損失值為自己輸出的假數據讓它在判別網絡中為真,定義為loss_g。在Q網絡中還有一部分損失函數,包括隱含信息的重構與初始隱含信息的誤差loss_con、真實的標簽與輸入真實樣本判別出的標簽交叉損失loss_cr、真實的標簽與輸入生成數據判別出的標簽交叉損失loss_cf,其中類別信息總損失loss_class取loss_cr和loss_cf的平均值。定義好后創建兩個優化器,將它們放到對應的優化器中。生成網絡損失函數Loss_G如式(4)所示。判別網絡和Q網絡損失函數Loss_D,Q如式(5)所示,其中m表示批量處理的樣本數量,gen_f表示生成樣本判別結果,y_real表示判別為真的標準結果,y_fake表示判別為假的標準結果,class_f表示對生成數據的分類結果,class_r表示對真實數據的分類結果,y表示真實數據的類別信息,con_f表示生成數據的隱含信息結果,z_con表示初始化的隱含信息,disc_f表示對生成數據的判別結果,disc_r表示對真實數據的判別結果,損失函數主要利用sigmoid的交叉熵思想。

Loss_G=loss_g+loss_class+loss_con=

將判別網絡的學習率設為0.000 01,將生成網絡的學習率設為0.000 1,這使得生成器有更快的進化速度來模擬真實數據,優化采用Adam方法。為了保持對抗訓練的平衡性,模型將判別網絡和生成網絡的更新速度比設置為1∶2,防止訓練梯度消失[14]。

本文將訓練好的C-Info-DCGAN應用到圖像識別領域中,選取Q網絡的部分結構(去除輸出層),并進行參數微調,在最后一個全連接層輸出n維數據(n為數據集類別數),然后再利用Softmax分類器完成分類識別[15]。與一般圖像分類方法不同的是,輸入的數據集并不是直接進行分類處理,而是經過基于C-Info-DCGAN模型的預訓練,使得在進行圖像識別的時候,除了有真實樣本外還有模型訓練生成的足夠以假亂真的“假數據”做支撐,起到數據增強的作用,從而獲得更多的圖像特征,實現更高的分類識別率。

5 實驗結果與分析

本文實驗環境為Intel?CoreTMi5-3230M CPU@2.6 GHz處理器,12.0 GHz運行內存(RAM),NVIDIAGeForceGT 740MGPU,整體模型是在Python的框架中利用TensorFlow平臺進行編程實現,實驗使用MNIST手寫數字集和CIFAR-10彩色圖片數據集。

5.1 MNIST實驗

MNIST手寫數字集中包含60 000張圖片,10個類別(0~9共10個數字),每類別包含6 000張圖片(5 000個訓練樣本,1 000個測試樣本),每張圖片為28×28像素的二值圖像[16]。

5.1.1 MNIST生成樣本

實驗中使用Adam模型優化,判別網絡的學習率設為0.000 01,生成網絡的學習率設為0.000 1,在生成網絡和判別網絡的每一個卷積層之后均使用批量歸一化操作,可以防止訓練時梯度消失,每一批次有64個樣本,其中訓練迭代次數與模型損失函數的關系如圖6~9所示。

圖6 MNIST數據集中loss_disc變化趨勢

圖7 MNIST數據集中loss_g變化趨勢

圖8 MNIST數據集中loss_class變化趨勢

圖9 MNIST數據集中loss_con變化趨勢

圖6 中表示判別網絡中正確判斷真實數據類別和生成數據準確率的平均值loss_disc,隨著訓練迭代次數的遞增而變化情況??梢詮淖兓厔輬D中看出,在訓練初期判別網絡的損失值較大模型不穩定,但是在訓練1 000次之后損失值的均值穩定保持在0.4左右。圖7表示生成網絡的損失值loss_g,訓練初期損失值相對穩定,隨著不斷訓練損失值保持在1.25左右。

圖8表示在Q網絡中真實標簽與輸入真實樣本判別的標簽的交叉損失loss_cr和真實標簽與輸入生成樣本判別的標簽的交叉損失loss_cf的平均值loss_class,隨著訓練次數增加損失值穩定保持在0.5左右。圖9表示潛在隱含信息損失值的變化趨勢,整體變化趨勢不明顯,始終在1.5上下??傮w來看,經過對抗訓練判別網絡、生成網絡和Q網絡損失值保持在一個穩定值。

圖10表示在不同的訓練迭代次數下生成網絡所輸出的“假數據”,圖中可以看出,從剛開始雜亂無章的隨機噪聲到可以隱約看出數字形狀,再到最后清楚顯示手寫數字圖,表明本文設計的C-Info-DCGAN網絡能夠很好地完成數據生成與數據增強的任務。

圖10 MNIST數據集生成樣本對比

5.1.2 MNIST分類結果

本模型利用Q網絡進行圖像分類,選取學習率為0.000 2的Adam優化器,為了縱向對比本文設計的CInfo-DCGAN模型在圖像識別方面的優勢,實驗另外訓練了一個CNN模型作為對比,其中本文方法中生成數據與原始數據按照1∶2的比例進行數據增強,兩種模型的類別信息損失值loss_class變化趨勢圖如圖11所示。從圖中可以看出隨著迭代次數增加,CNN模型損失值變化表明該模型不穩定,而C-Info-DCGAN模型的損失值略有起伏,但基本上保持一個穩定值。這是由于本文提出的分類模型利用對抗訓練能夠有效地提取數據特征和數據最強,在其他條件相同的情況下,本文方法比CNN方法更快收斂且模型更穩定。

圖11 MNIST數據集上loss_class變化趨勢圖

圖12 表示Q網絡中分類信息c和隱含信息l的準確率變化趨勢,因為判別網絡D和Q網絡結構基本相同且共享各項參數,所以只選取Q網絡的準確率,從圖12中可以看出,隨著迭代次數不斷增加準確率也都不斷增加,表示整個模型不斷優化完善。

圖12 MNIST上Q網絡的l和c準確率變化趨勢圖

本文提出的方法具有數據增強功能,為了充分體現其價值,實驗中將生成數據與原始數據按照不同比例組合作為訓練數據集。不同比例下本文方法的識別準確率如表2所示。從表2中可以看出,隨著生成數據在訓練集中所占比例的增加,模型識別率也不斷增加,說明本文方法確實可以達到增強數據和提高準確率的目的。

表2 不同補充數據比例下在MNIST上的識別率

除此之外,本實驗還選取了在網絡結構相似情況下基于SVM、PCA、CNN和RNN模型的圖像識別,對比這些方法和本文方法在圖像識別準確率方面的差別。各種方法在MNIST上的識別準確率對比如表3所示。從表3中可以看出,使用傳統的機器學習方法SVM和PCA準確率可以達到92%左右,而CNN和RNN等深度學習方法準確率更高,可以達到94%~97%,而本文模型隨著訓練迭代的增加,圖像識別的準確率可以穩定保持在98%左右。從以上的實驗中可以看出本文方法的可行性與優勢。

表3 不同方法在MNIST上的識別率

5.2 CIFAR-10實驗

CIFAR-10數據集由10個類的60 000個32×32像素的彩色圖像組成,其中包括50 000個訓練圖像和10 000個測試圖像。因為是彩色圖片集,所以每張樣本是(32,32,3)的3通道彩色圖[17]。

5.2.1 CIFAR-10生成樣本

在CIFAR-10數據集上的實驗,各項參數保持不變,圖13表示判別網絡中正確判斷真實數據類別和生成數據準確率的平均值,整體趨勢趨于平穩。雖然對抗訓練導致變化趨勢震蕩嚴重,但是在訓練達到1 000次之后損失值均值保持在一個固定值。圖14表示生成網絡輸出的損失值,前期變化較大,后期整體變化趨勢較平穩。圖15和圖16分別表示Q網絡中類別信息和潛在隱含信息的損失值,整體趨勢和判別網絡的變化相似,前期變化不大,后期緩慢下降震蕩嚴重但損失均值趨于平穩。

圖13 CIFAR-10數據集中loss_disc變化趨勢

圖14 CIFAR-10數據集中loss_g變化趨勢

圖15 CIFAR-10數據集中loss_class變化趨勢

圖16 CIFAR-10數據集中loss_con變化趨勢

圖17 表示在CIFAR-10數據集中不同迭代次數下實驗生成樣本的對比,可以看出從開始的雜亂無章,逐漸有了圖形的輪廓,但是總體而言,生成效果比在MNIST數據集的生成效果差一些。

5.2.2 CIFAR-10分類結果

圖17 CIFAR-10數據集的生成樣本對比

在CIFAR-10數據集中同樣是選取CNN模型與本文方法進行對比實驗,本文方法中生成數據與原始數據還是按照1∶2的比例進行數據增強,圖18表示在CIFAR-10數據集中CNN和C-Info-DCGAN兩種方法損失值隨著訓練次數增加的變化趨勢,可以看出兩種方法的損失值都趨近于一個較小的穩定值,但是從訓練的前半段可以看出CNN的起始損失值較大,且達到穩定的時間比本文方法要長,這主要是因為本文方法中訓練樣本是在對抗網絡中預先處理,并把生成的樣本作為補充數據提高訓練速度。

圖18 CIFAR數據集上loss_class變化趨勢

圖19 表示這兩種方法在圖像分類準確性方面的表現,可以看出由于本文方法數據預先訓練,所以分類訓練開始的準確性就非常高,而CNN方法需要一段時間的訓練來提升準確率,而且訓練過程中模型不穩定,準確率變化較大。

圖19 CIFAR數據集上準確率對比

本實驗中也將生成數據與原始數據按照不同比例組合作為訓練數據集。不同比例下本文方法的識別準確率如表4所示。從表4與表2對比可以看出,在CIFAR中的準確率要低于MNIST數據集,但是準確率依然是隨著生成數據在訓練集中所占比例的增加而增加。

表4 不同補充數據比例下在CIFAR上的識別率

除此之外,本實驗中同樣選取了一些傳統的圖像識別方法與本文方法進行分類準確性對比,從表5與表3對比看出,因為CIFAR-10上圖片的復雜性,導致準確率相對低一些,但是縱向比較各種方法的準確性發現,本文方法的準確率依然可達88%,說明本文方法在更加復雜樣本中的表現依然具有很大的優勢與可行性。

表5 各種方法在CIFAR上的準確率對比

6 結束語

本文基于條件生成對抗網絡和信息最大化生成對抗網絡,提出了改進的帶有條件信息最大化生成對抗網絡(C-Info-GAN),充分發揮類別信息和潛在隱含信息對對抗訓練的引導作用,從而加速訓練和提高生成數據的準確性。同時在網絡結構中結合深度卷積網絡,加強網絡對特征提取的能力,從而提出能夠用于圖像識別的C-Info-DCGAN方法。為了驗證該方法的可行性,本文通過在MNIST和CIFAR數據集上進行仿真實驗。實驗結果表明,相對于傳統的圖像分類方法,本文方法提高模型的收斂速度,在分類準確率方面也具有明顯優勢,所以證明本文提出的帶有條件的信息最大化深度卷積生成對抗網絡在圖像識別領域具有可行性,接下來將針對模型訓練后期對抗訓練導致的震蕩問題進行深入研究。

猜你喜歡
信息模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
一個相似模型的應用
信息
建筑創作(2001年3期)2001-08-22 18:48:14
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 制服丝袜在线视频香蕉| 91精品专区| 国产又色又爽又黄| 蜜芽国产尤物av尤物在线看| 国产精品无码翘臀在线看纯欲| 99热这里只有精品国产99| 亚洲欧美另类久久久精品播放的| 99中文字幕亚洲一区二区| 国产成人a毛片在线| 麻豆精品在线播放| 日本一区二区三区精品国产| 国产精品私拍99pans大尺度| 亚洲不卡影院| 久久99国产综合精品1| 欧美一级在线看| 久久a级片| 国产乱码精品一区二区三区中文 | 日本一区高清| 无码日韩精品91超碰| 国产91色在线| 99久久精品无码专区免费| 亚洲浓毛av| 国产精品 欧美激情 在线播放| 红杏AV在线无码| 欧美性久久久久| 夜夜高潮夜夜爽国产伦精品| 久久婷婷色综合老司机| 亚洲一道AV无码午夜福利| 专干老肥熟女视频网站| 全免费a级毛片免费看不卡| 色网在线视频| 在线观看av永久| 国产精品成人不卡在线观看| 秋霞一区二区三区| 99这里只有精品在线| 亚洲欧美极品| 欧美一级夜夜爽| 国产精品视频白浆免费视频| 亚洲一区波多野结衣二区三区| 午夜福利免费视频| 日韩不卡免费视频| 五月天香蕉视频国产亚| 五月婷婷综合色| 国产亚洲精品yxsp| 丰满人妻中出白浆| 777国产精品永久免费观看| 亚洲色图欧美视频| 亚洲av无码专区久久蜜芽| 1024你懂的国产精品| 婷婷六月在线| 亚洲日本精品一区二区| 久久国产黑丝袜视频| 欧美三级日韩三级| 国产经典在线观看一区| 18禁影院亚洲专区| 日韩欧美国产另类| 亚洲AV无码不卡无码| 亚洲一区第一页| 国产精品3p视频| 女人18毛片久久| 免费高清a毛片| 国产清纯在线一区二区WWW| 国产精品欧美激情| 日韩资源站| 视频二区中文无码| 99热在线只有精品| 国产成在线观看免费视频| 亚洲国产欧美国产综合久久| 91福利免费| 国产精品无码AV片在线观看播放| 亚洲欧美日韩精品专区| 亚洲中文字幕久久无码精品A| 亚洲αv毛片| 色成人综合| 国内自拍久第一页| 欧美人与牲动交a欧美精品| 2021亚洲精品不卡a| 日韩中文精品亚洲第三区| 亚洲香蕉伊综合在人在线| 久久免费视频播放| 亚洲动漫h| 日本国产精品|