999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于雙路細(xì)化注意力機(jī)制的圖像描述模型①

2020-05-22 04:47:58叢璐文
關(guān)鍵詞:單詞機(jī)制特征

叢璐文

(中國石油大學(xué)(華東)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,青島 266580)

1 引言

圖像描述是計(jì)算機(jī)視覺領(lǐng)域與自然語言處理領(lǐng)域交叉的一項(xiàng)基本任務(wù),該任務(wù)是給定一張圖像,產(chǎn)生一句對(duì)應(yīng)的自然語言描述,并且具有廣泛的應(yīng)用,例如為視覺有障礙的人提供幫助,人機(jī)交互和視覺助手等.然而,用自然流暢的句子描述圖像內(nèi)容對(duì)機(jī)器來說是一項(xiàng)具有挑戰(zhàn)性的任務(wù).它要求圖像描述模型不僅識(shí)別圖像中的顯著對(duì)象,而且識(shí)別這些對(duì)象之間的關(guān)系,并使用自然語言來表達(dá)語義信息.隨著深度學(xué)習(xí)的興起,基于深度學(xué)習(xí)的圖像描述模型逐漸發(fā)展起來.但是目前的大部分圖像描述方法都只采用了單一的注意力機(jī)制,并且圖像特征中存在冗余和不相關(guān)的信息,這些信息會(huì)誤導(dǎo)注意力計(jì)算過程,使解碼器生成錯(cuò)誤的句子.本文針對(duì)上述問題,提出了一種新的基于雙路細(xì)化注意力機(jī)制的圖像描述模型,該模型首先使用Faster RCNN[1]目標(biāo)檢測(cè)算法提取圖像區(qū)域特征,然后使用空間注意力機(jī)制關(guān)注包含顯著對(duì)象的區(qū)域,同時(shí)利用通道注意力機(jī)制關(guān)注顯著的隱藏單元,該隱藏單元包含與預(yù)測(cè)單詞更相關(guān)的語義信息.在計(jì)算注意力權(quán)重時(shí),首先對(duì)解碼器的隱藏狀態(tài)應(yīng)用卷積運(yùn)算來過濾掉不相關(guān)的信息.其次,將經(jīng)過注意力機(jī)制的特征輸入到特征細(xì)化模塊過濾掉其中的冗余信息,并將這些細(xì)化的特征合并到模型中.這樣,這些特征在語義上與圖像內(nèi)容更加相關(guān).

2 相關(guān)工作

近年來,深度學(xué)習(xí)取得了重大進(jìn)展,研究者們提出了多種基于深度學(xué)習(xí)的圖像描述模型.Vinyals 等[2]提出了基于編碼器-解碼器的圖像描述模型,該模型借鑒了機(jī)器翻譯中常用的編碼器-解碼器架構(gòu),與機(jī)器翻譯不同的是,該模型使用卷積神經(jīng)網(wǎng)絡(luò)(Inception 網(wǎng)絡(luò)模型[3])作為編碼器提取圖像特征,使用長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(LSTM)[4]作為解碼器生成句子.但是,該模型僅在第一步使用圖像特征,而在隨后的生成步驟中不使用圖像特征.Wu 等[5]首先利用經(jīng)過微調(diào)的多標(biāo)簽分類器來提取圖像中的屬性信息,作為指導(dǎo)信息來指導(dǎo)模型生成描述,提高了性能.Yao 等[6]首先利用經(jīng)過多示例學(xué)習(xí)方法預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)提取圖像中的屬性信息,同時(shí)使用卷積神經(jīng)網(wǎng)絡(luò)提取圖像特征,并且設(shè)計(jì)了5 種架構(gòu)來找出利用這兩種表示的最佳方式以及探索這兩種表示之間的內(nèi)在聯(lián)系.

強(qiáng)化學(xué)習(xí)的相關(guān)方法也被引入圖像描述任務(wù)中.Ranzato 等[7]提出了一種直接優(yōu)化模型評(píng)價(jià)標(biāo)準(zhǔn)的方法,該方法利用了策略梯度方法來解決評(píng)價(jià)標(biāo)準(zhǔn)不可微且難以應(yīng)用反向傳播的問題.通過使用蒙特卡羅采樣方法來估計(jì)預(yù)期的未來回報(bào),該模型使得訓(xùn)練階段更加高效和穩(wěn)定.Rennie 等[8]提出了一種SCST 訓(xùn)練方法,該方法基于策略梯度強(qiáng)化學(xué)習(xí)算法,并且使用模型自身解碼生成的描述作為基準(zhǔn),提高了訓(xùn)練過程的穩(wěn)定性,SCST 訓(xùn)練方法顯著地提高了圖像描述模型的性能并且在一定程度上解決了圖像描述模型訓(xùn)練階段與測(cè)試階段不匹配的問題.

受人類視覺系統(tǒng)中存在的注意力機(jī)制的啟發(fā),Xu 等[9]首次將注意力機(jī)制引入到圖像描述模型中.在解碼階段的每個(gè)時(shí)刻,模型會(huì)根據(jù)解碼器的隱藏狀態(tài)來計(jì)算圖像不同位置特征的權(quán)重.這些權(quán)重衡量了圖像區(qū)域和下一個(gè)生成的單詞之間的相關(guān)性.You 等[10]提出了一種新的語義注意機(jī)制,該方法首先會(huì)提取出圖像的屬性信息,在模型生成描述的每個(gè)時(shí)刻,選擇最終要的屬性信息為模型提供輔助信息.Lu 等[11]提出了一種自注意力機(jī)制,該機(jī)制利用哨兵位置的概念,當(dāng)模型生成與圖像內(nèi)容無關(guān)的單詞時(shí),會(huì)將注意力放在哨兵位置上,以提高模型生成描述的準(zhǔn)確性.Chen 等[12]提出了結(jié)合空間注意力與通道注意力的圖像描述模型,與之相比,本文使用的是經(jīng)過細(xì)化的空間注意力與通道注意力,同時(shí)本文還使用Faster R-CNN提取空間區(qū)域特征,特征更加細(xì)化.

3 模型

如圖1所示,本文模型包含5 個(gè)基本組件:編碼器、空間注意力機(jī)制、通道注意力機(jī)制、特征細(xì)化模塊和解碼器.模型的整個(gè)流程如圖2所示.首先,編碼器使用Faster R-CNN 目標(biāo)檢測(cè)算法提取圖像區(qū)域特征.然后,在每個(gè)時(shí)刻,空間注意力機(jī)制與通道注意力機(jī)制分別計(jì)算對(duì)應(yīng)的特征權(quán)重,特征細(xì)化模塊通過過濾冗余和不相關(guān)的圖像特征來細(xì)化經(jīng)過權(quán)重修正的空間圖像特征和通道圖像特征.在經(jīng)過細(xì)化的圖像特征的指導(dǎo)下,解碼器在每個(gè)時(shí)刻生成一個(gè)單詞.

3.1 編碼器

本文使用Faster R-CNN 目標(biāo)檢測(cè)算法提取圖像區(qū)域特征.Faster R-CNN 引入了區(qū)域建議網(wǎng)絡(luò)(Region Proposal Network,RPN),提高了目標(biāo)檢測(cè)的準(zhǔn)確率.首先將圖像輸入到卷積神經(jīng)網(wǎng)絡(luò)中,將高層卷積特征輸入到RPN 中得到建議區(qū)域,然后再對(duì)建議區(qū)域與高層卷積特征共同使用感興趣區(qū)域池化,得到大小相同的特征圖(14×14),然后將這些特征圖輸入到另一個(gè)卷積神經(jīng)網(wǎng)絡(luò)中,將得到的特征經(jīng)過平均區(qū)域池化即可得到對(duì)應(yīng)的區(qū)域特征,最后利用非極大值抑制過濾掉置信度不高的區(qū)域.最終可以得到L個(gè)不同區(qū)域的特征,將這些特征集合到一起,記作A,如式(1)所示.每個(gè)區(qū)域的特征包含D個(gè)通道.

全局圖像特征可以用局部特征的平均來近似,如式(2)所示.

隨后,將局部圖像特征與全局圖像特征分別輸入到單層感知機(jī)內(nèi),并且使用ReLU作為激活函數(shù),將這些特征投影到維度d的空間中.

式中,Wa與Wb是待學(xué)習(xí)參數(shù),L個(gè)區(qū)域圖像特征組成局部圖像特征Q={qi,···,qL}.

圖1 整體框架

圖2 解碼器結(jié)構(gòu)

3.2 空間注意力模型

空間注意力機(jī)制廣泛用于圖像描述任務(wù).遵循編碼器-解碼器結(jié)構(gòu)的傳統(tǒng)模型僅使用全局圖像特征.基于空間注意力機(jī)制的模型更加關(guān)注圖像中的顯著區(qū)域,并且能夠捕捉顯著區(qū)域的更多細(xì)節(jié).當(dāng)生成與圖像中物體相關(guān)的單詞時(shí),空間注意力模型可以增加其對(duì)圖像相應(yīng)區(qū)域的權(quán)重.本文模型也采用了空間注意力機(jī)制.

如圖2所示,給定局部區(qū)域特征Q∈Rd×L與解碼器的當(dāng)前時(shí)刻的隱藏狀態(tài)ht∈Rd,模型首先對(duì)隱藏狀態(tài)進(jìn)行卷積操作,過濾掉其中的不相關(guān)的信息,隨后將這些信息輸入到單層感知機(jī)中,然后利用Softmax 函數(shù)計(jì)算圖像中L個(gè)區(qū)域的注意力分布.計(jì)算過程如下列公式所示:

其中,Conv是包含一個(gè)卷積層的塊,卷積層后面跟隨ReLU激活函數(shù).1T是所有元素都為1 的向量.Wqs,Wss∈RL×d、whs∈RL是待學(xué)習(xí)的權(quán)重參數(shù).αt∈RL是圖像中L個(gè)區(qū)域的注意力分布.所關(guān)注的局部圖像特征Vt可以通過以下方式計(jì)算:

與文獻(xiàn)[11]相同,本文也使用解碼器的當(dāng)前時(shí)刻隱藏狀態(tài)而不是上一時(shí)刻的隱藏狀態(tài)來計(jì)算對(duì)局部圖像特征的空間注意力.

3.3 通道注意力模型

Zhou 等[13]發(fā)現(xiàn)每個(gè)隱藏單元可以與不同的語義概念對(duì)齊.然而,在基于空間注意力的模型中,通道特征是相同的,忽略了語義差異.如圖2所示,本文同時(shí)也采用了通道注意力機(jī)制.將局部區(qū)域特征Q∈Rd×L與解碼器的當(dāng)前時(shí)刻的經(jīng)過卷積的隱藏狀態(tài)輸入單層感知機(jī)中,隨后用Softmax函數(shù)計(jì)算局部圖像特征在通道上的注意力分布:

其中,whc∈Rd,Wqc∈Rd×L,Wsc∈Rd×d為待學(xué)習(xí)的權(quán)重參數(shù).1T是所有元素都為1 的向量.βt∈Rd是局部圖像特征中隱藏單元上的注意力分布.基于通道注意力的通道局部圖像特征Ut可以由式(11)計(jì)算獲得.

其中,Qi表示每個(gè)區(qū)域特征中第i個(gè)通道組成的向量.

在解碼生成描述的每個(gè)時(shí)刻,βti確定了第i個(gè)通道特征與生成的下一個(gè)單詞之間的相關(guān)性.

3.4 特征細(xì)化模塊

通常提取到的圖像特征中會(huì)包含一些冗余或與生成描述不相關(guān)的特征.為了減少這些特征的影響,本文設(shè)計(jì)了一個(gè)特征細(xì)化模塊來細(xì)化圖像特征,過濾掉冗余的和不相關(guān)的特征.如圖2所示,該模塊使用單層LSTM 作為細(xì)化模塊.LSTM 被命名為特征細(xì)化LSTM.在計(jì)算關(guān)注的局部圖像特征Vt和關(guān)注的通道圖像特征Ut之后,首先通過單層感知器將這些圖像特征投影到相同的維度d.然后,將這些圖像特征輸入到細(xì)化LSTM,并通過n個(gè)時(shí)間步長(zhǎng)來細(xì)化圖像特征.最后,得到細(xì)化的關(guān)注空間圖像特征和細(xì)化的關(guān)注通道圖像特征:

其中,Wvd∈Rd×d和Wud∈Rd×L是待學(xué)習(xí)的權(quán)重參數(shù).本文使用共享參數(shù)的特征細(xì)化LSTM,以降低訓(xùn)練過程中的存儲(chǔ)成本.

3.5 解碼器

LSTM 通常用于現(xiàn)有的圖像描述模型中,因?yàn)長(zhǎng)STM 在對(duì)長(zhǎng)期依賴關(guān)系建模方面具有強(qiáng)大的力量.本文遵循常用的LSTM 結(jié)構(gòu),基本LSTM 塊中的門控單元和存儲(chǔ)單元定義如下:

其中,xt、ft、it、ot、ct、ht分別是時(shí)刻t的輸入向量、遺忘門、輸入門、輸出門、存儲(chǔ)單元和隱藏狀態(tài).yt?1是前一個(gè)單詞的單熱向量,具有字典大小的維度.We是單詞嵌入矩陣.[·;·]是 兩個(gè)向量的拼接.xt是詞向量和全局圖像特征的組合.σ (·)是Sigmoid 非線性激活函數(shù),t anh(·)是 雙曲正切激活函數(shù).⊙ 表示元素乘法.

通過使用隱藏狀態(tài)ht、細(xì)化的關(guān)注局部圖像特征、細(xì)化的通道關(guān)注局部圖像特征,當(dāng)前時(shí)刻生成的單詞條件概率分布可由式(19)計(jì)算.

本文訓(xùn)練過程的第一個(gè)階段使用交叉熵?fù)p失函數(shù)作為目標(biāo)函數(shù)進(jìn)行訓(xùn)練,如式(20)所示,第二個(gè)階段使用SCST 訓(xùn)練方法,目標(biāo)函數(shù)如式(21)所示.

式中,y?t,y?1,···,y?t?1表 示參考描述中的單詞序列,y1:T表示單詞序列(y1,y2,···,yT)的縮寫

在訓(xùn)練過程中,將參考描述的單詞序列輸入到模型中,可以得到每個(gè)時(shí)刻預(yù)測(cè)的單詞概率分布,隨后計(jì)算目標(biāo)函數(shù),進(jìn)行優(yōu)化.

在推理過程中,選擇每個(gè)時(shí)刻概率最大的單詞作為生成的單詞或者使用集束搜索(beam search),每次選擇概率最大的前k個(gè)單詞作為候選,最終輸出聯(lián)合概率最大的描述作為最終的描述結(jié)果.

4 實(shí)驗(yàn)分析

4.1 實(shí)驗(yàn)數(shù)據(jù)集與評(píng)價(jià)標(biāo)準(zhǔn)

本文模型在用于圖像描述的MS COCO 數(shù)據(jù)集[14]上進(jìn)行實(shí)驗(yàn).COCO 數(shù)據(jù)集包含82 783 張用于訓(xùn)練的圖像、40 504 張用于驗(yàn)證的圖像和40 775 張用于測(cè)試的圖像.它還為在線測(cè)試提供了一個(gè)評(píng)估服務(wù)器.本文使用文獻(xiàn)[15]中的數(shù)據(jù)劃分,該數(shù)據(jù)劃分中包含5000 張用于驗(yàn)證的圖像,5000 張用于測(cè)試的圖像,其余圖像用于訓(xùn)練.

為了驗(yàn)證本文模型生成描述的質(zhì)量,并與其他方法進(jìn)行比較,本文使用了廣泛使用的評(píng)價(jià)指標(biāo),包括BLEU[16]、METEOR[17]、ROUGE-L[18]和CIDEr[19].本文使用文獻(xiàn)[20]提供的評(píng)估工具來計(jì)算分?jǐn)?shù).BLEU 分?jǐn)?shù)衡量生成的句子和參考句子之間的n-gram 精度.ROUGE-L 分?jǐn)?shù)測(cè)量生成的句子和參考句子之間最長(zhǎng)公共子序列(LCS)的F-Score.METEOR 評(píng)分通過添加生成的句子和參考句子之間的對(duì)應(yīng)關(guān)系,與人類的評(píng)價(jià)標(biāo)準(zhǔn)更加相關(guān).與上述指標(biāo)不同,CIDEr 評(píng)分是為圖像描述設(shè)計(jì)的.它通過計(jì)算每個(gè)n-gram 的TF-IDF 權(quán)重來測(cè)量生成描述與參考描述之間的一致性.

4.2 實(shí)現(xiàn)細(xì)節(jié)

首先將COCO 數(shù)據(jù)集中所有的描述轉(zhuǎn)換成小寫并且將描述的最大長(zhǎng)度設(shè)置為15.如果描述的長(zhǎng)度超過15,則會(huì)截?cái)嘀髥卧~.本文過濾掉訓(xùn)練集中出現(xiàn)不到5 次的所有單詞,并且增加了四個(gè)特殊的單詞.“”表示句子的開頭,“”表示句子的結(jié)尾,“”表示未知單詞,而“”是填充單詞.經(jīng)過這樣的處理以后,得到的字典長(zhǎng)度為10 372.

本文將LSTM 的隱藏單元的數(shù)量設(shè)置為512,隨機(jī)初始化詞嵌入向量,而不是使用預(yù)訓(xùn)練的詞嵌入向量.我們使用Adam 優(yōu)化器[21]來訓(xùn)練本文的模型.在使用交叉熵訓(xùn)練的階段,基礎(chǔ)學(xué)習(xí)率設(shè)置為5 ×10?4,并且使用1 ×10?6的重量衰減,批大小設(shè)置為256,每三輪學(xué)習(xí)率衰減0.8 倍.訓(xùn)練輪次的最大數(shù)量被設(shè)置為30.在SCST 訓(xùn)練階段,選擇交叉熵訓(xùn)練階段CIDEr 得分最高的模型作為初始模型,學(xué)習(xí)率固定為5 ×10?5,訓(xùn)練輪次設(shè)置成40.整個(gè)訓(xùn)練過程在一個(gè)NVIDIA TITAN X 圖形處理器上需要大約50 小時(shí).本文的模型使用Pytorch深度學(xué)習(xí)框架實(shí)現(xiàn).

4.3 實(shí)驗(yàn)對(duì)比方法介紹

Goole NIC[2]使用編碼器-解碼器框架,使用卷積神經(jīng)網(wǎng)絡(luò)作為編碼器,使用LSTM 作為解碼器.

Hard-Attention[9]將空間注意力機(jī)制引入圖像描述模型,根據(jù)解碼器的狀態(tài)動(dòng)態(tài)地為圖像不同區(qū)域的特征分配權(quán)重.

MSM[6]共同利用了圖像屬性信息與圖像全局特征.

AdaAtt[11]使用了自適應(yīng)注意力機(jī)制,如果要生成的單詞與圖像內(nèi)容無關(guān),則注意力放在一個(gè)虛擬的“哨兵”位置上.

文獻(xiàn)[22]中的模型使用了視覺屬性注意力并且引入了殘差連接.

Att2all[8]首次提出并使用了SCST 訓(xùn)練方法.

SCA-CNN[12]同時(shí)使用了空間與通道注意力.

4.4 實(shí)驗(yàn)分析

如表1所示,與SCA-CNN 模型相比,本文模型使用的雙路細(xì)化注意力以及空間區(qū)域特征對(duì)生成圖像描述有著更強(qiáng)的指導(dǎo)作用.相較于只是用單一空間注意力機(jī)制的Hard-Attention 模型、AdaAtt 模型、文獻(xiàn)[21]中的模型、Att2all 模型相比,本文模型使用的雙路細(xì)化注意力機(jī)制,可以生成更加緊湊,冗余信息更少的特征,并且除了在空間位置上施加注意力,也在通道上施加注意力,使得模型可以更好地利用與生成描述相關(guān)地特征.

表1 本文模型與經(jīng)典算法比較

為研究本文中不同模塊的有效性,設(shè)計(jì)了不同的模型進(jìn)行比較,實(shí)驗(yàn)結(jié)果見表2.基準(zhǔn)模型為只使用Faster R-CNN 目標(biāo)檢測(cè)算法提取圖像區(qū)域特征,不使用注意力機(jī)制與特征細(xì)化模塊,表中的“X”表示該模型在基準(zhǔn)模型的基礎(chǔ)上使用該模塊.從表2中可見,空間注意力機(jī)制、通道注意力機(jī)制、特征細(xì)化模塊都可提高模型性能.同時(shí)使用兩種注意力機(jī)制的模型3 相較于只使用一種注意力機(jī)制的模型2 與模型1,性能有進(jìn)一步的提高,證明本文提出的雙路注意力機(jī)制的有效性.模型5、模型6、本文算法在模型1、模型2、模型3 的基礎(chǔ)上增加了特征細(xì)化模塊,最終模型性能也有提高,證明了特征細(xì)化模塊的有效性.

表2 本文模型不同模塊效果比較

5 結(jié)論與展望

本文提出了一種新的基于雙路細(xì)化注意力機(jī)制的圖像描述模型.本文模型整合了空間注意力機(jī)制和通道注意力機(jī)制.首先使用卷積運(yùn)算來過濾隱藏狀態(tài)的不相關(guān)信息,然后計(jì)算注意力.為了對(duì)減少關(guān)注圖像特征中的冗余和不相關(guān)特征的影響,本文設(shè)計(jì)了一個(gè)特征細(xì)化模塊來細(xì)化關(guān)注圖像特征,使關(guān)注圖像特征更加緊湊和有區(qū)分度.為了驗(yàn)證本文模型的有效性,我們?cè)贛S COCO 數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,本文提出模型性能優(yōu)越.

猜你喜歡
單詞機(jī)制特征
單詞連一連
如何表達(dá)“特征”
不忠誠的四個(gè)特征
自制力是一種很好的篩選機(jī)制
文苑(2018年21期)2018-11-09 01:23:06
看圖填單詞
抓住特征巧觀察
破除舊機(jī)制要分步推進(jìn)
注重機(jī)制的相互配合
打基礎(chǔ) 抓機(jī)制 顯成效
中國火炬(2014年4期)2014-07-24 14:22:19
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 欧美午夜在线观看| 亚洲人成网线在线播放va| 亚洲综合香蕉| 欧美色视频日本| igao国产精品| 国产成人亚洲欧美激情| 欧美精品成人一区二区在线观看| 无码精品一区二区久久久| 性视频一区| 免费看久久精品99| 亚洲精品另类| 国产精品美女网站| 亚洲美女高潮久久久久久久| 国产欧美网站| 欧美亚洲中文精品三区| 国产区网址| 亚洲免费毛片| 国产福利免费在线观看| 欧美色伊人| 国产在线一区视频| 亚洲无码日韩一区| 国产成人91精品| 嫩草在线视频| 天堂在线www网亚洲| 丰满人妻久久中文字幕| www.国产福利| 欧美五月婷婷| 高清国产va日韩亚洲免费午夜电影| 亚洲视频四区| 狠狠综合久久| 国产一区免费在线观看| 成年女人a毛片免费视频| 欧美特黄一级大黄录像| 国产麻豆福利av在线播放| 亚洲日韩在线满18点击进入| 色视频国产| swag国产精品| 国产亚洲精品97AA片在线播放| 亚洲愉拍一区二区精品| 日韩精品亚洲精品第一页| a国产精品| 国产剧情一区二区| 亚洲成在线观看| a级毛片网| 女人毛片a级大学毛片免费 | 免费观看亚洲人成网站| 亚洲欧美日本国产专区一区| 在线另类稀缺国产呦| 一级毛片免费高清视频| 亚洲欧洲日本在线| 国产在线一区视频| 中国一级特黄视频| 亚洲精品天堂在线观看| 亚洲 欧美 偷自乱 图片| 国产亚洲欧美在线中文bt天堂| 在线无码九区| 成人夜夜嗨| 国产精品大白天新婚身材| 青青青国产精品国产精品美女| 国产在线一区二区视频| av午夜福利一片免费看| 又黄又爽视频好爽视频| 国产精品理论片| 国产一级在线播放| 国产精品夜夜嗨视频免费视频| 成人韩免费网站| 九九久久精品国产av片囯产区| 9999在线视频| 国产成人a在线观看视频| 91久久夜色精品国产网站| 欧洲亚洲欧美国产日本高清| 国产精品人成在线播放| 免费国产不卡午夜福在线观看| 黄色福利在线| 日韩a级毛片| 欧美日韩中文国产va另类| 91精品国产福利| 福利视频久久| 久久久久亚洲AV成人网站软件| 欧美精品H在线播放| 视频二区亚洲精品| 国产亚洲精品资源在线26u|