999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

端到端增強(qiáng)特征神經(jīng)網(wǎng)絡(luò)的視頻表情識(shí)別

2019-10-16 00:59:00曹雪虹
關(guān)鍵詞:特征模型

陳 樂,童 瑩,陳 瑞,曹雪虹

(1.南京郵電大學(xué) 通信與信息工程學(xué)院,南京 210003;2.南京工程學(xué)院 信息與通信工程學(xué)院,南京 211167)

表情是人類情緒的直觀反應(yīng),多指面部肌肉及五官形成的狀態(tài),表情識(shí)別作為人機(jī)交互重要的一環(huán)一直是計(jì)算機(jī)視覺的重要研究課題之一。隨著計(jì)算機(jī)技術(shù)的進(jìn)步、大數(shù)據(jù)時(shí)代的到來以及 GPU 等電腦硬件的發(fā)展,表情識(shí)別在軟硬件上都得到了長足的發(fā)展,相應(yīng)的研究機(jī)構(gòu)與表情數(shù)據(jù)庫以及新的算法越來越多。

在傳統(tǒng)機(jī)器學(xué)習(xí)表情識(shí)別領(lǐng)域,特征提取是人臉表情識(shí)別中最核心的部分,從圖片中提取出人臉的有用信息能很大程度上影響最終表情識(shí)別的準(zhǔn)確率。傳統(tǒng)的特征提取方法使用手工制作的特征,如局部二值模式(LBP)[1]、Gabor特征[1],用于表示圖像的離散余弦變換以及線性預(yù)測編碼系數(shù)(LPC)等[2]。影響表情識(shí)別率高低的另一關(guān)鍵是如何選取合適的分類器對特征進(jìn)行分類。分類算法常見的有SVM分類算法[3]、K-NN分類算法[4]、Adaboost分類算法等[5]。以上傳統(tǒng)機(jī)器學(xué)習(xí)算法經(jīng)過不斷發(fā)展,目前已經(jīng)相對成熟。

近年來,深度學(xué)習(xí)憑借優(yōu)良的信息處理能力及在分類、識(shí)別、目標(biāo)檢測等方面取得的重大突破,成為國內(nèi)外人工智能領(lǐng)域的研究熱點(diǎn)。在表情識(shí)別研究中,深度學(xué)習(xí)也表現(xiàn)出了出色的性能,不僅有更強(qiáng)的特征提取能力,而且對光照、姿態(tài)、遮擋物等干擾場景下的表情識(shí)別率更好。其中基于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)的方法[6-8]在眾多計(jì)算機(jī)視覺任務(wù)中取得了突破,這些方法也成為表情識(shí)別中的入門解決方案。Moez Baccouche[9]第一個(gè)提出依賴深度卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)特征來代替手工特征。Emoti W表情識(shí)別競賽15年的冠軍Anbang Yao[2]構(gòu)建了多個(gè)卷積網(wǎng)絡(luò)模型,闡明了人臉各個(gè)區(qū)域的表情特征與表情識(shí)別的相關(guān)性。基于卷積神經(jīng)網(wǎng)絡(luò)在單張圖片的表情識(shí)別上優(yōu)良的表現(xiàn),Pooya Khorrami[10]考慮使用深度學(xué)習(xí)對視頻進(jìn)行情感識(shí)別。由于在連續(xù)的視頻數(shù)據(jù)上卷積神經(jīng)網(wǎng)絡(luò)無法提取視頻片段中的連續(xù)時(shí)間信息及運(yùn)動(dòng)特征,他們第一次提出了卷積神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)相結(jié)合,取得了比單純CNN模型更好的效果。Huai-Qian Khor[11]提出了一種豐富長期循環(huán)卷積網(wǎng)絡(luò)(enriched long-term recurrent convolutional network,ELRCN)用于微表情識(shí)別,通過在空間和時(shí)間維度上堆疊輸入數(shù)據(jù)來增強(qiáng)對人臉特征的提取。

本文受ELRCN啟發(fā),結(jié)合深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)和長短期記憶網(wǎng)絡(luò)(long short-term memory,LSTM),在AFEW(acted facial expressionsinthewild)[12]數(shù)據(jù)集上對連續(xù)幀中人臉進(jìn)行表情識(shí)別。由于ELRCN框架中CNN與LSTM模型獨(dú)立進(jìn)行訓(xùn)練,最終的分類結(jié)果無法影響CNN模型的權(quán)重更新,于是使用keras深度學(xué)習(xí)庫復(fù)現(xiàn)了ELRCN論文中的框架,并在此基礎(chǔ)上提出了一種端到端特征增強(qiáng)的CNN-LSTM混合網(wǎng)絡(luò),最終在實(shí)驗(yàn)分析后得到了更好的效果。

1 數(shù)據(jù)集

人類表情有明確的分類是在20世紀(jì)70年代,Ekman和Friesen[13]對現(xiàn)代人臉表情識(shí)別做了開創(chuàng)性的工作,他們研究了人類的6種基本表情(即高興、悲傷、驚訝、恐懼、憤怒、厭惡),確定識(shí)別對象的類別,并系統(tǒng)地建立了有上千幅不同表情的人臉表情圖像數(shù)據(jù)庫。隨后他們又在此基礎(chǔ)上通過大量研究,建立不同的臉部肌肉運(yùn)動(dòng)與相應(yīng)的面部表情映射關(guān)系,提出基于面部運(yùn)動(dòng)單元(44個(gè)運(yùn)動(dòng)單元)的面部表情編碼系統(tǒng)(facial action coding system,FACS)[14]。

本文使用數(shù)據(jù)集AFEW,它取材自從不同電影收集的剪輯視頻,其中包含自發(fā)的表情、各種頭部姿勢、遮擋和照明等各種現(xiàn)實(shí)場景,相對于實(shí)驗(yàn)室控制的采集數(shù)據(jù)存在著許多挑戰(zhàn)性的問題。AFEW中每個(gè)視頻分配1個(gè)表情標(biāo)簽(圖1),其表情種類除了6種基本表情外,還有一類中性無表情類(neutral)。該數(shù)據(jù)集有3個(gè)子集:訓(xùn)練集(773個(gè)視頻)、驗(yàn)證集(371個(gè)視頻)和測試集(653個(gè)視頻),為保證互不相關(guān),3個(gè)集取材的電影和演員互斥。數(shù)據(jù)集還提供了每個(gè)視頻對應(yīng)的剪切人臉圖片、LBP特征信息和人臉面部關(guān)鍵點(diǎn)信息。SFEW(static facial expressionsinthe wild)[15]數(shù)據(jù)集是通過基于面部點(diǎn)聚類計(jì)算關(guān)鍵幀從AFEW數(shù)據(jù)集中提取靜態(tài)幀組成的,標(biāo)簽和分集方式相同,必要時(shí)可以作為AFEW的輔助數(shù)據(jù)集。本文主要關(guān)注CNN-LSTM網(wǎng)絡(luò)框架的優(yōu)化,直接使用數(shù)據(jù)集自身提供的連續(xù)視頻幀的人臉剪輯圖片作為訓(xùn)練數(shù)據(jù),并未做進(jìn)一步的圖像處理。圖1中,每行表示1種情緒。

2 CNN-LSTM網(wǎng)絡(luò)

2.1 CNN提取人臉特征

卷積神經(jīng)網(wǎng)絡(luò)近年來在視覺識(shí)別任務(wù)上取得了巨大的成功,其中包括經(jīng)典的CNN包括AlexNet[6]、VGG[7]、GoogLeNet[16]和ResNet[17-19]。訓(xùn)練一個(gè)好的網(wǎng)絡(luò)模型需要大量的數(shù)據(jù),這些經(jīng)典網(wǎng)絡(luò)框架都有開源且在各種大數(shù)據(jù)訓(xùn)練集上訓(xùn)練好的模型權(quán)重,把預(yù)訓(xùn)練好的的模型權(quán)重作為后續(xù)研究者的初始模型參數(shù)大大節(jié)約了重新訓(xùn)練模型的時(shí)間。Yin Fan[18]在選擇表情識(shí)別CNN框架時(shí),對已經(jīng)預(yù)訓(xùn)練的經(jīng)典框架(GoogLeNet、VGG-16、ResNet等)進(jìn)行了實(shí)驗(yàn)對比,發(fā)現(xiàn)在人臉數(shù)據(jù)集上預(yù)訓(xùn)練的VGG-16-Face模型有著最高的準(zhǔn)確率。本文框架中的CNN部分也采用經(jīng)典的VGG-16-Face模型,如圖2所示。

圖1 AFEW數(shù)據(jù)集的7種情緒

圖2 端到端VGG-16部分模型

圖2中①處是對卷積層輸出進(jìn)行池化、拉伸后連接輸出為4 096的全連接層;②處是輸出為4 096的全連接層。VGG-16模型由牛津大學(xué)VGG組提出,該網(wǎng)絡(luò)在2014年的 ILSVRC localization and classification 兩個(gè)問題上分別取得了第1名和第2名的網(wǎng)絡(luò)架構(gòu),證明了增加網(wǎng)絡(luò)的深度能一定程度地影響網(wǎng)絡(luò)的性能。VGG-16擁有5段卷積,每段內(nèi)有2~3個(gè)卷積層,同時(shí)每段尾部會(huì)連接1個(gè)最大池化層用來縮小圖片尺寸。每段內(nèi)的卷積核數(shù)量一樣,越靠后的段的卷積核數(shù)量越多。在有些卷積組中會(huì)出現(xiàn)連續(xù)的幾個(gè)卷積層堆疊,2個(gè)3×3的卷積層串聯(lián)相當(dāng)于1個(gè)5×5的卷積層,即一個(gè)像素會(huì)跟周圍5×5的像素產(chǎn)生關(guān)聯(lián),感受野大小為5×5,既可以保證感受視野,又能減少卷積層的參數(shù)。由于數(shù)據(jù)量較少,為降低模型的過擬合問題,全連接層后面加入了丟失層(dropout),丟失率設(shè)為50%,使得模型中的神經(jīng)網(wǎng)絡(luò)單元在訓(xùn)練過程時(shí)按照一定概率暫時(shí)從網(wǎng)絡(luò)中丟棄。

2.2 LSTM模型

CNN處理單幀圖片時(shí)十分有效,但面對視頻幀這種時(shí)序數(shù)據(jù),其中的幀間的時(shí)序關(guān)系、運(yùn)動(dòng)信息等時(shí),循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural networks,RNN)則更加有效。RNN模型的循環(huán)特性使得它允許信息保留一段時(shí)間,但隨著序列的增長,前后幀間隔增大,梯度爆炸和梯度消失使得RNN無法捕獲這種長期依賴。

圖3 LSTM記憶單元

為了解決上述問題,研究人員提出了許多解決辦法,其中應(yīng)用最廣泛的是門限RNN(gated RNN),而LSTM就是門限RNN中最著名的一種。LSTM最早由Sepp Hochreiter和Jürgen Schmidhuber提出,它能夠處理長期依賴關(guān)系的問題。LSTM記憶的單元包含3個(gè)門:遺忘門、輸入門和輸出門,如圖3所示。LSTM通過這3個(gè)門實(shí)現(xiàn)信息的保護(hù)和控制。LSTM記憶單元的數(shù)學(xué)公式如下:

it=σ(Wxi+Whiht-1+bi)

(1)

ft=σ(Wxfxt+Whfht-1+bf)

(2)

ot=σ(Wxoxt+Whht-1+bo)

(3)

gt=tanh(Wxcxt+Whcht-1+bc)

(4)

ct=ft⊙ct-1+it⊙gt

(5)

hto=ttan h⊙(ct)

(6)

其中:

σ(x)=(1+e-x)-1

(7)

(8)

記憶單元中的關(guān)鍵是細(xì)胞狀態(tài)Ct,首先遺忘門控制著細(xì)胞狀態(tài)中的信息選擇性遺忘,其次輸入門決定把哪些新的信息加入細(xì)胞狀態(tài),最后輸出門決定輸出的信息,并輸出信息ht和當(dāng)前的細(xì)胞狀態(tài)ct傳送給下一個(gè)LSTM記憶單元。在本模型中連續(xù)的人臉特征序列順序輸入LSTM,記憶單元中的細(xì)胞狀態(tài)不斷更新記錄人臉特征序列中的有用信息,序列結(jié)束后輸出給下一層網(wǎng)絡(luò)。

圖4所示為端到端增強(qiáng)特征神經(jīng)網(wǎng)絡(luò)模型。根據(jù)LSTM的結(jié)構(gòu)特性要求輸入需為序列信息,同時(shí)要實(shí)現(xiàn)端到端的模型需要CNN模型部分提供不少于2個(gè)連續(xù)人臉特征。設(shè)計(jì)該模型每次輸入為n幀連續(xù)人臉圖像,每張人臉圖像共用相同的CNN權(quán)重進(jìn)行特征提取。由于每次輸入多張人臉圖像增加了模型的復(fù)雜度和參數(shù)量,為避免訓(xùn)練時(shí)出現(xiàn)內(nèi)存溢出的問題,最終n設(shè)置為10,并且為擴(kuò)增訓(xùn)練數(shù)據(jù)強(qiáng)化模型學(xué)習(xí),同一個(gè)視頻中的子視頻段與前后視頻段有5幀的重合。如圖2所示,CNN部分輸出為長度4 096的特征向量,則第1層LSTM輸入數(shù)據(jù)維度為(10,4 096)。

圖4 端到端增強(qiáng)特征神經(jīng)網(wǎng)絡(luò)模型

針對LSTM網(wǎng)絡(luò)部分,對單層和雙層LSTM進(jìn)行實(shí)驗(yàn)比對,發(fā)現(xiàn)在本數(shù)據(jù)集上雙層的效果更好。同時(shí),對比了多組LSTM層的輸出長度,最終設(shè)定LSTM輸出長度為2 048。對于3層及以上的LSTM模型效果,由于本實(shí)驗(yàn)室深度學(xué)習(xí)主機(jī)的硬件水平有限,故暫未驗(yàn)證其有效性。

作為端到端模型,VGG-16連接雙層LSTM使得網(wǎng)絡(luò)加深,而神經(jīng)網(wǎng)絡(luò)的加深會(huì)導(dǎo)致信息的損耗等問題。著名的ResNet[21]網(wǎng)絡(luò)在神經(jīng)網(wǎng)絡(luò)中增加直連通道在一定程度上解決了信息損耗的問題。本文據(jù)此提出了增強(qiáng)特征的方法,把CNN模型提取的人臉特征再次傳輸?shù)降?層LSTM(如圖4所示),以保證人臉特征信息的完整性,與第1層LSTM的輸出融合再次通過LSTM層進(jìn)行特征精煉。實(shí)驗(yàn)結(jié)果證明了該方法的可行性。

3 實(shí)驗(yàn)分析

3.1 實(shí)驗(yàn)條件

實(shí)驗(yàn)硬件設(shè)備為搭載2塊1080TiGPU的深度學(xué)習(xí)主機(jī),Ubuntu 16.04 Linux系統(tǒng),CNN-LSTM模型使用基于Tensorflow的Keras平臺(tái)搭建訓(xùn)練。VGG-16模型預(yù)加載VGG-16-FACE權(quán)重。訓(xùn)練數(shù)據(jù)取自AFEW數(shù)據(jù)集提供的視頻幀人臉圖像,由于該數(shù)據(jù)集源自Emotiw競賽,其中的測試集視頻并沒有對應(yīng)的表情標(biāo)簽,所以訓(xùn)練過程中把訓(xùn)練集按照8:2分為訓(xùn)練集和驗(yàn)證集,把驗(yàn)證集作為實(shí)驗(yàn)的測試集。

3.2 實(shí)驗(yàn)樣本分析

圖5中展示了AFEW數(shù)據(jù)集的復(fù)雜性和多樣性。第1行是AFEW數(shù)據(jù)集中人物面部特征較為清晰連貫的人臉圖像,與CK+等拍攝自環(huán)境可控的實(shí)驗(yàn)室的數(shù)據(jù)集樣本類似。但AFEW數(shù)據(jù)集取材自接近無約束現(xiàn)實(shí)場景的影視資源,視頻中的人臉存在著不同的旋轉(zhuǎn)角度、由運(yùn)動(dòng)造成的模糊、光照下的陰影或過曝、攝影手法產(chǎn)生的模糊、各種遮擋等,而且影視劇中人臉表情也更加自然多樣,如圖6中的第2~3行。復(fù)雜多樣的實(shí)驗(yàn)樣本增加了提取人臉特征的難度,也使得模型的學(xué)習(xí)速度大大降低。同時(shí),訓(xùn)練集包含了773個(gè)視頻片段,相對于深度網(wǎng)絡(luò)中的巨量參數(shù),訓(xùn)練模型時(shí)需要關(guān)注過擬合的問題。本模型中主要使用丟失層(dropout layer),加載預(yù)訓(xùn)練權(quán)重且只訓(xùn)練全連接層和LSTM層權(quán)重。

圖5 AFEW數(shù)據(jù)集的復(fù)雜性和多樣性

3.3 實(shí)驗(yàn)結(jié)果

3.3.1評分標(biāo)準(zhǔn)

F1評分是分類問題的一個(gè)衡量標(biāo)準(zhǔn),常用于多分類問題的競賽。它是精確率(precision)和召回率(recall)的調(diào)和平均數(shù),最大為1,最小為0。

(9)

(10)

(11)

其中:TP(true positive)為預(yù)測正確的個(gè)數(shù);FP(false positive)為把其他類錯(cuò)誤預(yù)測為本類的個(gè)數(shù);FN(false negative)為本類預(yù)測錯(cuò)誤的個(gè)數(shù)。

準(zhǔn)確率(accuray)也是一種常用的分類評判標(biāo)準(zhǔn):

(12)

其中TN(true negative)為其他類預(yù)測正確的個(gè)數(shù)。

3.3.2VGG-16與LSTM獨(dú)立訓(xùn)練

實(shí)驗(yàn)中VGG-16與LSTM獨(dú)立訓(xùn)練。VGG-16獨(dú)立訓(xùn)練時(shí),預(yù)加載VGG-16-FACE模型權(quán)重,在圖2模型尾部加上softmax層進(jìn)行最后的分類,每一幀圖片的表情標(biāo)簽與視頻的標(biāo)簽相同。訓(xùn)練完成后,去除最后1層softmax層,以第2個(gè)全連接層輸出作為LSTM輸入,在LSTM模型中繼續(xù)訓(xùn)練。考慮到數(shù)據(jù)集樣本數(shù)量不大,訓(xùn)練LSTM模型時(shí),每10幀作為一個(gè)小片段,即前文圖4中所說的n設(shè)為10,步長為5向后依次取10幀作為輸入。LSTM模塊訓(xùn)練完成后,按照訓(xùn)練時(shí)的順序,依次把驗(yàn)證集數(shù)據(jù)送入VGG-16和LSTM模型,由LSTM給出測試結(jié)果。

表1為獨(dú)立訓(xùn)練時(shí)對LSTM調(diào)整的各個(gè)模型的測試結(jié)果,其中VGG-16未做調(diào)整,前2個(gè)模型為1層LSTM,且LSTM層輸出分別為長度3 000、2 048的特征向量。根據(jù)實(shí)驗(yàn)結(jié)果,兩層LSTM層比單層效果更好,且在準(zhǔn)確率相差不大的情況下,VGG-16-LSTM(2 048,2 048)模型效果最佳。此時(shí),并沒有圖5中的增強(qiáng)特征部分。

表1 VGG與LSTM獨(dú)立訓(xùn)練最終結(jié)果

3.3.3端到端VGG-16-LSTM模型

如圖4所示,在獨(dú)立訓(xùn)練CNN-LSTM模型的基礎(chǔ)上先后搭建端到端和端到端增強(qiáng)特征的模型進(jìn)行比對。訓(xùn)練時(shí)以10幀連續(xù)面部圖像為單位,固定LSTM模塊部分為2層LSTM(2 048,2 048)。

為了驗(yàn)證端到端增強(qiáng)特征的有效性,將本文算法與ELRCN進(jìn)行比較,實(shí)驗(yàn)結(jié)果如表2所示。表2中,第1~2行為ELRCN在雙層模型上得到的2條最優(yōu)結(jié)果,第3行為端到端未加增強(qiáng)特征的結(jié)果,第4行為端到端增強(qiáng)特征模型的結(jié)果。由此可見,本文提出的端到端的模型效果明顯,準(zhǔn)確率介于ELRCN模型2次最優(yōu)結(jié)果之間,但F1分?jǐn)?shù)均高于ELRCN模型,端到端增強(qiáng)模型的F1分?jǐn)?shù)高于ELRCN兩個(gè)模型,分別為0.02和0.069。對比表1中非端到端的最終結(jié)果,端到端和端到端增強(qiáng)特征也有著明顯的提升。最終預(yù)測結(jié)果的混淆矩陣如表3所示。

表2 端到端VGG-16-LSTM模型優(yōu)化結(jié)果

表3 增強(qiáng)端到端模型在測試集上的預(yù)測結(jié)果

4 結(jié)束語

本文提出一種視頻人臉表情識(shí)別的模型,將VGG-16和LSTM連接組合對AFEW數(shù)據(jù)集中連續(xù)視頻幀的人物進(jìn)行表情識(shí)別,并嘗試多種組合方式提升識(shí)別準(zhǔn)確率,比較其在測試集上的F1分?jǐn)?shù)和準(zhǔn)確率,證明了雙層LSTM和增強(qiáng)特征的可行性。由于本數(shù)據(jù)集不同于常用的實(shí)驗(yàn)室采集的數(shù)據(jù)集,存在較多遮擋、光線、面部角度等因素干擾,甚至數(shù)據(jù)集提供的剪切人臉圖像存在部分誤剪(非人臉及臉部不完整),因此今后的工作將會(huì)在人臉識(shí)別和數(shù)據(jù)預(yù)處理的基礎(chǔ)上繼續(xù)優(yōu)化模型,以得到更好的視頻表情識(shí)別模型。

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線三等角』
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
不忠誠的四個(gè)特征
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
主站蜘蛛池模板: 亚洲性色永久网址| 国产爽妇精品| 欧美在线网| 无码国内精品人妻少妇蜜桃视频| 亚洲精品欧美重口| 内射人妻无套中出无码| 亚洲一区网站| 波多野结衣久久精品| 永久在线播放| 久久国产拍爱| 亚洲自偷自拍另类小说| 久久免费成人| 亚洲男人在线| 高清不卡一区二区三区香蕉| 99热国产这里只有精品9九 | 婷婷六月在线| 欧美日韩午夜| 国产SUV精品一区二区| 一本大道香蕉久中文在线播放 | 国产一级二级在线观看| 日韩在线成年视频人网站观看| 成色7777精品在线| 亚洲第一黄片大全| 国产91麻豆视频| 国产不卡国语在线| 亚洲男人天堂2020| 亚洲Aⅴ无码专区在线观看q| 粉嫩国产白浆在线观看| 久久精品丝袜| 国产永久在线视频| 69免费在线视频| 99草精品视频| 国产欧美精品一区aⅴ影院| 久久99热这里只有精品免费看| 国内精品手机在线观看视频| 国产成人乱无码视频| 东京热av无码电影一区二区| 国产麻豆va精品视频| 国产综合日韩另类一区二区| 亚洲a级毛片| 国产男女XX00免费观看| 91麻豆精品国产高清在线| 国产成人a毛片在线| 国产免费精彩视频| 国产成熟女人性满足视频| 成人在线观看一区| 狠狠色丁香婷婷| 久久精品女人天堂aaa| 色偷偷综合网| 欧美高清三区| 91久久精品国产| 欧美成a人片在线观看| 人人爽人人爽人人片| 国精品91人妻无码一区二区三区| 亚洲AⅤ综合在线欧美一区| 欧美国产精品不卡在线观看| 91视频青青草| 黄色网址手机国内免费在线观看| 欧美人人干| 国产成人在线小视频| 久久久久久久久久国产精品| 88av在线| 亚洲精品另类| 欧美成人免费一区在线播放| 国产成人精品18| 亚洲第一中文字幕| 国产亚洲精品资源在线26u| 不卡网亚洲无码| 国产99精品久久| 2021国产在线视频| 91成人在线观看| 91精品国产自产91精品资源| 五月综合色婷婷| 高清免费毛片| 一级片一区| 天堂网亚洲系列亚洲系列| 中文成人无码国产亚洲| 最新国产在线| 亚洲第一黄片大全| 99精品热视频这里只有精品7| 中文字幕色站| 九九九精品成人免费视频7|