999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于注意力機(jī)制和擴(kuò)張解碼改進(jìn)的語(yǔ)義分割研究

2022-12-11 09:42:50曹玉峰高建瓴陳楠
關(guān)鍵詞:語(yǔ)義特征信息

曹玉峰,高建瓴,陳楠

(貴州大學(xué) 大數(shù)據(jù)與信息工程學(xué)院,貴陽(yáng) 550025)

0 引言

近年來(lái),語(yǔ)義分割已成為計(jì)算機(jī)視覺[1]和機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)基本研究課題,同時(shí)也已成為備受各方關(guān)注的學(xué)術(shù)熱點(diǎn)之一。目前的研究指出,為圖像的每個(gè)像素分配單獨(dú)的類別標(biāo)簽是構(gòu)建復(fù)雜機(jī)器人系統(tǒng)(例如無(wú)人駕駛汽車和家用機(jī)器人)的重要步驟。語(yǔ)義分割的最簡(jiǎn)單定義是像素級(jí)標(biāo)記。因此,認(rèn)為僅查找場(chǎng)景中包含的類標(biāo)簽是遠(yuǎn)遠(yuǎn)不夠的。類標(biāo)簽應(yīng)根據(jù)上下文而變化。例如,在無(wú)人駕駛汽車中,像素標(biāo)簽可以是人、道路、汽車等。

目前,人們對(duì)語(yǔ)義分割的興趣日益濃厚,隨著當(dāng)代人工智能技術(shù)的不斷發(fā)展,在各種計(jì)算機(jī)視覺前沿理論研究體系中,圖像語(yǔ)義分割已經(jīng)漸漸成為最核心基礎(chǔ)的部分,在諸多領(lǐng)域有著廣泛的應(yīng)用。例如,在醫(yī)療影像領(lǐng)域,圖像語(yǔ)義分割能夠分割出細(xì)節(jié)信息,使醫(yī)生能夠從圖像中更清晰地了解到病人的身體信息,為醫(yī)生診斷病情提供幫助。在拍照時(shí),語(yǔ)義分割方法能夠精準(zhǔn)地識(shí)別臉部輪廓信息,輔助人臉美化算法,釋放人類愛美的天性。在自動(dòng)駕駛中,圖像語(yǔ)義分割能夠幫助汽車識(shí)別場(chǎng)景中的道路、障礙物等信息并精確定位,確保汽車行駛安全。但仍需指出的是,到目前為止,語(yǔ)義分割技術(shù)仍然面臨重大挑戰(zhàn),主要表現(xiàn)為如下3 點(diǎn):

(1)由于各個(gè)光照、拍攝距離等各方面的差異,同樣的物體在圖像中表現(xiàn)出來(lái)的特征信息可以有極大差異,而且每個(gè)物體都存在被其他物體遮擋或割裂等現(xiàn)象,因此想要進(jìn)行正確的語(yǔ)義信息標(biāo)記難度較大。

(2)圖像內(nèi)容各不相同,且變化各異,較為復(fù)雜,相同的物體在圖像中可能表現(xiàn)不同種情況,而不同類別的物體表現(xiàn)出來(lái)又可能極度相似。

(3)在現(xiàn)實(shí)場(chǎng)景中,圖像中經(jīng)常出現(xiàn)一些比較繁雜且凌亂的背景,這對(duì)于進(jìn)行圖像語(yǔ)義分割也是一大難點(diǎn)。

針對(duì)復(fù)雜場(chǎng)景中目標(biāo)分割精度不高的問題,本文提出一種基于注意力機(jī)制[2]的目標(biāo)分割方法。結(jié)合注意力機(jī)制,自適應(yīng)地學(xué)習(xí)特征圖通道之間的關(guān)系。強(qiáng)調(diào)有用信息,抑制冗余信息,提高了特征圖的判別能力。實(shí)驗(yàn)結(jié)果表明,與同類算法相比,該算法具有較好的分割效果,并顯著提高了分割效率。同時(shí)在Fast-SCNN 網(wǎng)絡(luò)的解碼器部分對(duì)圖像信息還原時(shí),由于過度壓縮圖像信息,在圖像信息還原過程中許多特征細(xì)節(jié)信息將會(huì)丟失,導(dǎo)致最后得到的分割效率不高,因此在解碼器部分進(jìn)行一定的改進(jìn),使用擴(kuò)張解碼[3],捕獲更為豐富的多尺度信息,得到更密集的特征信息和更大的感受野,有效提升網(wǎng)絡(luò)模型的分割精度。

1 語(yǔ)義分割相關(guān)模型

2014年,定義提出了一個(gè)全卷積網(wǎng)絡(luò)(Fully Convolutional Networks,F(xiàn)CN)[4],該網(wǎng)絡(luò)可以接受任意大小的圖像輸入,避免了采用像素塊帶來(lái)的重復(fù)存儲(chǔ)和計(jì)算的問題。

2015年,Hyeonwoo 等人[5]提出的Deconvnet 對(duì)分割的細(xì)節(jié)處理強(qiáng)于FCN,位于低層的filter 能捕獲目標(biāo)的形狀信息,位于高層的filter 能夠捕獲特定類別的細(xì)節(jié)信息,分割效果更好,但其對(duì)細(xì)節(jié)的處理難度較大。

2016年,劍橋大學(xué)團(tuán)隊(duì)基于FCN 設(shè)計(jì)了一種卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)SegNet[6],使用去池化對(duì)特征圖進(jìn)行上采樣,在分割中保持細(xì)節(jié)的完整性;去掉全連接層,使其擁有較少的參數(shù)。但當(dāng)對(duì)低分辨率的特征圖進(jìn)行去池化時(shí),會(huì)忽略鄰近像素的信息,導(dǎo)致精度不高。

2017年,TN Kipf 利用GCN[7]模型,提出了帶有大維度卷積核的編碼器-解碼器結(jié)構(gòu),使其提取出來(lái)的特征較為優(yōu)秀。但卻具有較多的參數(shù),從而導(dǎo)致計(jì)算復(fù)雜度較高。

2019年,提出了具有自注意力機(jī)制的雙注意網(wǎng)絡(luò)DANet[8]。在傳統(tǒng)的FCN 上附加2 種注意力模塊,分別模擬空間和通道維度中的語(yǔ)義相互依賴性,有助于提高分割結(jié)果的精度。

因此,網(wǎng)絡(luò)模型在具有較好實(shí)時(shí)性的同時(shí),還能使分割精度也得以提升,仍然亟待進(jìn)一步的探討。受two-branch 結(jié)構(gòu)和encoder-decoder 網(wǎng)絡(luò)啟發(fā)的Fast-SCNN[9]網(wǎng)絡(luò),可用于高分辨率(1 024×2 048)圖像上的實(shí)時(shí)語(yǔ)義分割任務(wù)。

2 本文網(wǎng)絡(luò)模型與結(jié)構(gòu)

2019年,提出了一種快速語(yǔ)義分割網(wǎng)絡(luò)Fast-SCNN,該模型適用于低存儲(chǔ)的嵌入式設(shè)備上的高效計(jì)算,相較于其他語(yǔ)義分割模型,不僅計(jì)算速度快,計(jì)算精度也不低,該優(yōu)勢(shì)可以滿足在交通場(chǎng)景上語(yǔ)義分割的實(shí)時(shí)性和準(zhǔn)確性。

但Fast-SCNN 網(wǎng)絡(luò)在解碼器部分進(jìn)行圖像信息還原時(shí),由于網(wǎng)絡(luò)結(jié)構(gòu)的問題,導(dǎo)致圖像信息壓縮過度,在圖像信息還原過程中許多特征細(xì)節(jié)信息丟失,導(dǎo)致最后得到的分割效率不高,因此本文在解碼器部分進(jìn)行一定的改進(jìn),使用擴(kuò)張解碼[3],利用3 個(gè)擴(kuò)張卷積密集連接到一起,捕獲更為豐富的多尺度信息,得到更密集的特征信息和更大的感受野,有效提升網(wǎng)絡(luò)模型的分割精度。同時(shí),本文還使用了CBAM 注意力模塊(Convolutional Block Attention Module),用于抑制關(guān)注一些不重要的信息通道,降低了時(shí)間復(fù)雜度,從而提高了識(shí)別效率。

2.1 Fast-SCNN 網(wǎng)絡(luò)介紹

Fast-SCNN 受雙分支結(jié)構(gòu)和傳統(tǒng)的編碼解碼結(jié)構(gòu)的啟發(fā),基于一個(gè)編碼器解碼器結(jié)構(gòu)通過學(xué)習(xí)下采樣,利用全局特征提取器進(jìn)行特征提取,在特征融合階段通過一個(gè)二次線性插值進(jìn)行一次上采樣,繼而和學(xué)習(xí)下采樣輸出的結(jié)果直接相加后,再次通過特征融合,最后進(jìn)行像素點(diǎn)的分類,用于完成高分辨率(1 024×2 048)圖像上的實(shí)時(shí)語(yǔ)義分割任務(wù)。Fast-SCNN 的整體網(wǎng)絡(luò)架構(gòu)如圖1 所示。由圖1 可知,該網(wǎng)絡(luò)整體上主要由4 部分組成:學(xué)習(xí)下采樣模塊、全局特征提取器、特征融合模塊和分類器,所有模塊都采用深度可分離卷積構(gòu)建。對(duì)此擬做闡釋分述如下。

圖1 Fast-SCNN 網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Fast-SCNN network structure

(1)學(xué)習(xí)下采樣模塊。在學(xué)習(xí)下采樣模塊中,采用了3 層的結(jié)構(gòu)。只使用了3 層來(lái)確保低級(jí)特征共享的有效性和高效實(shí)施。第一層是標(biāo)準(zhǔn)卷積層(Conv2D),其余兩層是沿深度可分離的卷積層(DSConv)。學(xué)習(xí)下采樣模塊中所有3 層都使用了步長(zhǎng)為2、卷積核大小為3×3 的卷積層,每一個(gè)卷積層后都會(huì)緊接著一個(gè)BN層和一個(gè)ReLU激活函數(shù)。

(2)全局特征提取器。全局特征提取器模塊旨在捕獲用于圖像分割的全局上下文。在傳統(tǒng)的深度分支中,其輸入圖像的分辨率一般很低,而全局特征提取器的輸入是在經(jīng)過學(xué)習(xí)下采樣模塊處理后所得到的特征圖。當(dāng)輸入和輸出大小相同時(shí),通過殘差連接,以及使用了高效的深度可分離卷積,從而減少了參數(shù)和浮點(diǎn)運(yùn)算的數(shù)量。此外,在末尾添加了一個(gè)金字塔池模塊(PPM),以聚合基于不同區(qū)域的上下文信息。

(3)特征融合模塊。通過簡(jiǎn)單地融合不同分支的特征以確保有效性。或者可以運(yùn)行時(shí)以性能為代價(jià)使用更復(fù)雜的特征融合模塊(例如Bisenet),以達(dá)到更高的精度。

(4)分類器。在分類器中,采用了2 個(gè)深度可分離卷積和逐點(diǎn)卷積。在特征融合模塊后增加數(shù)層可以提高準(zhǔn)確率。在訓(xùn)練期間使用了Softmax來(lái)進(jìn)行損耗的運(yùn)算。

2.2 Fast-SCNN 網(wǎng)絡(luò)的改進(jìn)

Fast-SCNN 模型中也存在著一些缺點(diǎn)和不足,圖像最終分割的效果與感受野大小有明顯的差距,需要增大感受野,原模型中還存在一些信息冗余,會(huì)導(dǎo)致模型計(jì)算速度較慢,因此想要獲得更好的效果,必須對(duì)其進(jìn)行優(yōu)化。本文對(duì)Fast-SCNN 網(wǎng)絡(luò)從以下2 個(gè)方面進(jìn)行改進(jìn)。

(1)改進(jìn)解碼器:在解碼器部分進(jìn)行一定的改進(jìn),使用擴(kuò)張解碼,利用3 個(gè)擴(kuò)張卷積密集連接到一起,捕獲更為豐富的多尺度信息,得到更密集的特征信息和更大的感受野,有效提升網(wǎng)絡(luò)模型的分割精度。

(2)增加注意力模塊:使用了CBAM 注意力模塊(Convolutional Block Attention Module)用于抑制關(guān)注一些不重要的信息通道,降低了時(shí)間復(fù)雜度,提高了識(shí)別效率。

2.2.1 擴(kuò)張解碼

本文使用3 個(gè)不同擴(kuò)張率(2、3、5)的擴(kuò)張卷積連接起來(lái)進(jìn)行卷積操作,為了獲取到更加豐富的多尺度信息,進(jìn)行更為密集的采樣以及獲取到更大的感受野。

本文使用的擴(kuò)張解碼是將3 個(gè)擴(kuò)張卷積兩兩連接到一起,一開始輸入的特征映射被傳輸?shù)侥K中的各個(gè)擴(kuò)張卷積上作為輸入,每一個(gè)擴(kuò)張卷積的輸出都作為此后的擴(kuò)張卷積的輸入,最終,將所有卷積層的輸出級(jí)聯(lián)到一起作為結(jié)果輸出。該擴(kuò)張卷積有著更大、也更為密集的空間采樣。擴(kuò)張解碼結(jié)構(gòu)如圖2 所示。

圖2 擴(kuò)張解碼模塊結(jié)構(gòu)圖Fig.2 Structure diagram of extended decoding module

傳統(tǒng)特征提取的步驟可概述為:首先,對(duì)特征圖進(jìn)行下采樣操作來(lái)獲取到分辨率較低的特征圖;然后,進(jìn)行普通卷積操作來(lái)提取圖像特征;最后,再進(jìn)行一次上采樣操作,該操作主要作用是恢復(fù)特征圖像的分辨率,并將其輸出。而本文使用的擴(kuò)張解碼可以直接應(yīng)用于高分辨率的輸入圖片,獲取更大的感受野,使用更為密集的采樣方式來(lái)獲取到更多的空間細(xì)節(jié)信息。

2.2.2 注意力機(jī)制

CBAM 注意力機(jī)制具有輕量性和通用性的優(yōu)點(diǎn),在前饋卷積式神經(jīng)網(wǎng)絡(luò)中,該模塊的應(yīng)用更高效簡(jiǎn)潔。CBAM 包含2 個(gè)獨(dú)立的子模塊:通道注意力模塊(Channel Attention Module,CAM)和空間注意力模塊(Spartial Attention Module,SAM),分別進(jìn)行通道與空間上的注意力操作。CBAM 注意力機(jī)制如圖3 所示。

圖3 CBAM 注意力機(jī)制模型結(jié)構(gòu)Fig.3 CBAM model structure of attention mechanism

CBAM 整體結(jié)構(gòu)為:輸入特征圖后,卷積層輸出的結(jié)構(gòu)首先要通過一個(gè)通道注意力模塊,將輸出進(jìn)行加權(quán)后,再通過一個(gè)空間注意力模塊,最后則進(jìn)行一次加權(quán)得到完整的輸出特征圖。

通道注意力模塊(Channel Attention Module,CAM)[10]如圖4 所示,將輸入特征圖分別經(jīng)過全局最大池化和全局平均池化,再將輸出結(jié)果送入一個(gè)2 層神經(jīng)網(wǎng)絡(luò)(MLP)。經(jīng)過MLP 處理后,獲得的結(jié)果將由逐個(gè)元素依次進(jìn)行加和操作,并經(jīng)Sigmoid激活操作,生成最終輸出的通道注意力特征圖。將所獲得的特征圖與初始輸入的特征圖的所有元素逐個(gè)進(jìn)行乘法運(yùn)算作為Spatial attention 的輸入特征。

圖4 通道注意力模塊Fig.4 Channel Attention Module(CAM)

空間注意力(Spartial Attention Module,SAM)模塊[11]如圖5 所示,將通道注意力模塊的輸出作為空間注意力的輸入,輸入特征經(jīng)過一次最大池化后,再經(jīng)一次平均池化,得到2 個(gè)特征圖,然后將這2 個(gè)特征圖通道拼接起來(lái),隨后經(jīng)過一個(gè)7×7 的卷積核對(duì)通道進(jìn)行降維處理,使通道數(shù)量變成一個(gè),接著又通過Sigmoid激活函數(shù)將其激活,最后直接輸出空間注意力特征。

圖5 空間注意力模塊Fig.5 Spatial Attention Module(SAM)

綜上所述,本文結(jié)合擴(kuò)張解碼和注意力機(jī)制對(duì)Fast-SCNN 模型進(jìn)行改進(jìn),獲得更好的語(yǔ)義分割效果,通過改進(jìn)提升了分割精度和效率。改進(jìn)后的整體網(wǎng)絡(luò)模型結(jié)構(gòu)如圖6 所示。本文使用的擴(kuò)張解碼以DDModule 命名。

圖6 改進(jìn)后的整體網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.6 Overall network structure diagram after improvement

改進(jìn)后的特點(diǎn)及優(yōu)勢(shì)可闡釋如下:

(1)使用擴(kuò)張解碼,增大感受野,獲得更豐富的的特征信息,提高了分割精度。

(2)引入CBAM 注意力機(jī)制,減少對(duì)冗余信息的關(guān)注,減少計(jì)算量。提高了分割效率。

3 實(shí)驗(yàn)結(jié)果與分析

3.1 數(shù)據(jù)集

Cityscapes 數(shù)據(jù)集、即城市景觀數(shù)據(jù)集,是一個(gè)道路場(chǎng)景分割中常用的大型公開數(shù)據(jù)集,其中包含從50 個(gè)不同城市的街景中記錄的各種立體視頻序列,除了更大的20 000 個(gè)弱注釋幀之外,還有高質(zhì)量的5 000 幀像素級(jí)注釋。數(shù)據(jù)集中包括8 個(gè)類別。這八個(gè)大類涵蓋了19 個(gè)子類別。常用的19 個(gè)語(yǔ)義類別是:道路(Road)、人行道(Sidewalk)、建筑物(Building)、墻壁(Wall)、柵欄(Fence)、欄桿(Pole)、交通燈(Traffic light)、交通標(biāo)志(Traffic sign)、草 叢(Vegetation)、地 面(Terrain)、天 空(Sky)、行人(Person)、騎行者(Rider)、汽車(Car)、卡車(Truck)、公交車(Bus)、火車(Train)、摩托車(Motorcycle)、自行車(Bicycle)。

3.2 評(píng)價(jià)標(biāo)準(zhǔn)

本文選用MIoU(Mean Intersection over Union)語(yǔ)義分割評(píng)價(jià)指標(biāo),表示平均交并比,即數(shù)據(jù)集上每一個(gè)類別的IoU值的平均。

以Cityscapes 為例,共包含19 個(gè)類別,分別對(duì)每個(gè)類別求IoU。研究推得的MIoU的計(jì)算公式為:

其中,k表示類別;(k +1)表示加上背景類;i表示真實(shí)值;j表示預(yù)測(cè)值。

此外,選用像素精度(PA)描述圖像像素的準(zhǔn)確度,選用平均像素精度(MPA)對(duì)改進(jìn)實(shí)驗(yàn)加以評(píng)定,此處需用到的公式可寫為:

3.3 實(shí)驗(yàn)環(huán)境

參數(shù)設(shè)置:初始學(xué)習(xí)率為0.001,動(dòng)量為0.9,權(quán)重衰減0.000 5,批尺寸4,選擇擴(kuò)張率為(2,3,5)的擴(kuò)張解碼。具體的環(huán)境硬件以及軟件配置見表1。

表1 實(shí)驗(yàn)環(huán)境配置Tab.1 Experimental environment configuration

3.4 實(shí)驗(yàn)結(jié)果

使用擴(kuò)張率分別為(1,1,1)、(2,3,5)、(3,4,5)的擴(kuò)張解碼在Cityscapes 數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),驗(yàn)證不同擴(kuò)張率對(duì)擴(kuò)張解碼性能的影響,實(shí)驗(yàn)結(jié)果見表2。

表2 擴(kuò)張解碼對(duì)比實(shí)驗(yàn)Tab.2 Contrast experiment of extended decoding

在擴(kuò)張率為(2,3,5)下具有比擴(kuò)張率(1,1,1)更高的MIoU,且比擴(kuò)張率為(3,2,5)的計(jì)算速度快,綜上所述研究選擇擴(kuò)張率為(2,3,5)的擴(kuò)張解碼。

將Fast-SCNN 網(wǎng)絡(luò)模型的淺層特征提取解碼結(jié)構(gòu)改為擴(kuò)張解碼的網(wǎng)絡(luò)命名為EFast-SCNN。并將加入CBAM 注意力機(jī)制的網(wǎng)絡(luò)模型與原Fast-SCNN 和EFast-SCNN 進(jìn)行對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果見表3。

表3 引入注意力機(jī)制對(duì)比實(shí)驗(yàn)Tab.3 A comparative experiment introducing attention mechanism

從表3 的實(shí)驗(yàn)結(jié)果可看出將解碼器結(jié)構(gòu)改為擴(kuò)張解碼后的EFast-SCNN 網(wǎng)絡(luò)在Cityscapes 上較原Fast-SCNN 網(wǎng)絡(luò)的MIoU值提升了7.45%,再加入CBAM 注意力模塊后又提升了5.04%,像素精度(PA)和平均像素精度(MPA)都有顯著增加,證明了改進(jìn)后的分割效果得到了提升,由于模型復(fù)雜度的提高,使得改進(jìn)網(wǎng)絡(luò)在單張圖像上的處理時(shí)間較原網(wǎng)絡(luò)有所增加,但加入輕量化注意力模塊后有效緩解了該問題。綜合前述分析可知,在大幅提升分割精度的同時(shí),也不影響模型分割的實(shí)時(shí)性,證明了改進(jìn)是有效的。

將改進(jìn)后的DFast -SCNN+CBAM 模型在Cityscapes 數(shù)據(jù)集上得到的結(jié)果進(jìn)行可視化分析,如圖7 所示。

圖7 改進(jìn)模型在Cityscapes 數(shù)據(jù)集上結(jié)果可視化Fig.7 Visualization of results of the improved model on Cityscapes datasets

4 結(jié)束語(yǔ)

本文分析討論了CBAM 注意力模塊,通過實(shí)驗(yàn)選擇出擴(kuò)張率最合適的擴(kuò)張解碼,在此基礎(chǔ)上,提出了基于注意力機(jī)制的改進(jìn)方案,進(jìn)行實(shí)驗(yàn),滿足了當(dāng)下在實(shí)際環(huán)境中道路場(chǎng)景的分割準(zhǔn)確率和實(shí)時(shí)性的需求,證明改進(jìn)后網(wǎng)絡(luò)的有效性和可行性。但仍有改進(jìn)的空間,未來(lái)會(huì)在輕量化網(wǎng)絡(luò)的改進(jìn)上繼續(xù)研究。

猜你喜歡
語(yǔ)義特征信息
語(yǔ)言與語(yǔ)義
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
“上”與“下”語(yǔ)義的不對(duì)稱性及其認(rèn)知闡釋
認(rèn)知范疇模糊與語(yǔ)義模糊
展會(huì)信息
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
語(yǔ)義分析與漢俄副名組合
主站蜘蛛池模板: 日本少妇又色又爽又高潮| 72种姿势欧美久久久久大黄蕉| 无码福利日韩神码福利片| 在线一级毛片| 毛片卡一卡二| 亚洲欧美日本国产综合在线| 国产成人精品在线1区| 92午夜福利影院一区二区三区| 激情综合网址| 91人妻在线视频| 欧美在线天堂| 久久精品这里只有国产中文精品| 日韩成人午夜| 99热国产在线精品99| 国产人人射| 日本人真淫视频一区二区三区| 国产在线98福利播放视频免费| 毛片网站免费在线观看| 伊人激情综合网| 18禁黄无遮挡免费动漫网站| 亚洲娇小与黑人巨大交| 美女扒开下面流白浆在线试听| 亚洲综合香蕉| 日韩高清一区 | 黄色片中文字幕| 欧美不卡视频在线| 国产亚洲男人的天堂在线观看| 片在线无码观看| 91精品伊人久久大香线蕉| www.亚洲天堂| 超碰免费91| 一级成人a做片免费| 国产一级视频在线观看网站| 欧美人与动牲交a欧美精品| 欧美在线导航| 中国美女**毛片录像在线| 小蝌蚪亚洲精品国产| 国产极品粉嫩小泬免费看| 伊人福利视频| 国产精品亚洲一区二区三区z| 欧美性色综合网| 2021无码专区人妻系列日韩| 国产成人精品优优av| 国产jizz| 影音先锋丝袜制服| 大乳丰满人妻中文字幕日本| 女人18毛片一级毛片在线| 国产精品第一区| 欧美精品高清| yy6080理论大片一级久久| 国产网站免费观看| 伊人久久婷婷| 亚洲精品国偷自产在线91正片| 全部免费毛片免费播放| 亚洲另类第一页| 漂亮人妻被中出中文字幕久久| 日本AⅤ精品一区二区三区日| 欧美一区福利| 国产欧美视频综合二区| 免费高清a毛片| 国产福利小视频高清在线观看| 丰满人妻中出白浆| 成人午夜免费观看| 最新国产高清在线| 黄色网址免费在线| 欧美一级特黄aaaaaa在线看片| 国产精品亚洲va在线观看| 亚洲av成人无码网站在线观看| 五月激情婷婷综合| 香蕉综合在线视频91| 毛片网站在线播放| 日韩精品成人在线| 永久在线精品免费视频观看| 欧美日本视频在线观看| 欧美国产综合色视频| 欧美一级高清免费a| 一级做a爰片久久毛片毛片| 久久精品国产一区二区小说| 四虎国产精品永久在线网址| 无码一区二区三区视频在线播放| 一区二区偷拍美女撒尿视频| 一级爱做片免费观看久久|