999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

用于復(fù)雜場(chǎng)景裂縫分割的多層次特征提取算法

2022-10-24 04:48:28劉清華呂偉才韓雨辰徐錦修
無線電工程 2022年10期
關(guān)鍵詞:特征模型

劉清華,呂偉才*,仲 臣,韓雨辰,徐錦修

(1.安徽理工大學(xué) 空間信息與測(cè)繪工程學(xué)院,安徽 淮南 232001;2.安徽理工大學(xué) 礦區(qū)環(huán)境與災(zāi)害協(xié)同監(jiān)測(cè)煤炭行業(yè)工程研究中心,安徽 淮南 232001;3.安徽理工大學(xué) 礦山采動(dòng)災(zāi)害空天地協(xié)同監(jiān)測(cè)與預(yù)警安徽普通高校重點(diǎn)實(shí)驗(yàn)室,安徽 淮南 232001)

0 引言

裂縫是結(jié)構(gòu)最常出現(xiàn)的病害之一,且為結(jié)構(gòu)的安全性和耐久性提供了重要的信息,因此對(duì)于裂縫的檢測(cè)具有重要意義。目前,對(duì)于結(jié)構(gòu)表面裂縫主要依靠人工肉眼識(shí)別記錄,人工方法存在著諸如人力成本高、危險(xiǎn)系數(shù)大、效率較低和受人為影響大等弊端[1]。因此,借助計(jì)算機(jī)視覺技術(shù)實(shí)現(xiàn)對(duì)于裂縫的自動(dòng)識(shí)別有著較大的實(shí)際需要。

目前,基于計(jì)算機(jī)視覺的裂縫識(shí)別算法主要分為2類:一類基于傳統(tǒng)圖像處理技術(shù);另一類基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)。

傳統(tǒng)圖像處理需要先對(duì)圖像進(jìn)行預(yù)處理,即對(duì)輸入的圖像進(jìn)行灰度化處理后通過濾波和增強(qiáng)等操作使圖像特征較為明顯平滑后,借助圖像分割或邊緣檢測(cè)來進(jìn)行裂縫的識(shí)別。Wu等[2]提出了基于小波變換的提取方法,相比于以往方法可以更好地獲取裂縫的信息,但由于小波變換的各向異性,無法很好地處理斷裂較多或曲率較大的裂紋。李海豐等[3]設(shè)計(jì)了一種基于動(dòng)態(tài)閾值的機(jī)場(chǎng)路面裂縫識(shí)別算法,主要依據(jù)裂縫的深度與形態(tài)信息進(jìn)行提取,克服了機(jī)場(chǎng)存在的震動(dòng)強(qiáng)烈導(dǎo)致噪聲較多的情況。傳統(tǒng)圖像處理方法雖然也能獲得較高的準(zhǔn)確度,但往往只適用于特定情況,在更換場(chǎng)景或數(shù)據(jù)集后檢測(cè)效果很差。

基于CNN進(jìn)行檢測(cè)是現(xiàn)在較為熱門的方向,相較于傳統(tǒng)方法,CNN抗噪聲能力較強(qiáng),且由于其多層次卷積學(xué)習(xí)的特性使得其適用性較強(qiáng)。王丹等[4]通過將FCN-8s網(wǎng)絡(luò)原有的dropount層刪除,添加BN層及PReLu層,與條件隨機(jī)場(chǎng)(CRF)結(jié)合實(shí)現(xiàn)了多尺度的裂縫感知并獲得了較為理想的結(jié)果,平均交并比(mean Intersection over Union,mIoU)達(dá)到80.3%。Qiao等[5]改進(jìn)了U-Net的初始模塊且增加了空間金字塔池化模塊,使得其在自有數(shù)據(jù)集上進(jìn)行訓(xùn)練后對(duì)混凝土橋梁裂縫的識(shí)別準(zhǔn)確率較U-Net有11%的提升。Wu等[6]提出了多形狀對(duì)象分割的網(wǎng)絡(luò)模型,通過對(duì)全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Network,F(xiàn)CN)結(jié)構(gòu)進(jìn)行改良,使其對(duì)圖像的底部細(xì)節(jié)獲取增強(qiáng),能更好地識(shí)別細(xì)小物體的裂縫情況。Dais等[7]將FCN[8]結(jié)合遷移學(xué)習(xí),將U-Net與MobileNet結(jié)合后在復(fù)雜場(chǎng)景下的識(shí)別準(zhǔn)確率可以達(dá)到95%。但由于各類結(jié)構(gòu)裂縫產(chǎn)生原理不一、形態(tài)多樣,目前采用CNN進(jìn)行裂縫識(shí)別的方法大多只針對(duì)于單一類型,在更換不同數(shù)據(jù)集進(jìn)行測(cè)試后結(jié)果往往達(dá)不到最優(yōu)理想狀態(tài)。

綜上所述,本文提出了一種能夠提取多層次特征并與引導(dǎo)濾波(Guided Filter,GF)[9]相結(jié)合的算法對(duì)裂縫進(jìn)行識(shí)別與分割,通過實(shí)驗(yàn)對(duì)比驗(yàn)證了改進(jìn)后算法相對(duì)于經(jīng)典CNN算法精度有較大提高。

1 算法框架

本文算法流程如圖1所示,對(duì)輸入圖像進(jìn)行圖像預(yù)處理,未進(jìn)行標(biāo)注的圖像進(jìn)行手動(dòng)標(biāo)注生成Ground Truth后進(jìn)入網(wǎng)絡(luò)進(jìn)行分割;網(wǎng)絡(luò)每個(gè)卷積層生成特征圖,各側(cè)輸出層將生成的特征圖保留并輸出;將上采樣獲得的各層特征映射通過Concat融合獲得融合特征,再應(yīng)用引導(dǎo)濾波進(jìn)行去噪細(xì)化,通過Softmax層預(yù)測(cè)得到對(duì)每個(gè)像素按固定閾值預(yù)測(cè)的標(biāo)簽,最終輸出預(yù)測(cè)結(jié)果圖。

圖1 算法流程Fig.1 Algorithm flow chart

VGG[10]網(wǎng)絡(luò)有著優(yōu)異的特征提取能力,本文算法采用以VGG16為主體框架的HED[11]作為基礎(chǔ),對(duì)其進(jìn)行一定改進(jìn)來提高分割精準(zhǔn)度及適用性,具體改進(jìn)如下:

(1) 在基礎(chǔ)VGG16的基礎(chǔ)上添加3個(gè)卷積層改為VGG19,提升網(wǎng)絡(luò)深度,在計(jì)算量相差不大的情況下獲取更為詳細(xì)的細(xì)節(jié),卷積核尺寸為3×3,最大池化層核尺寸為2×2。

(2) 在卷積單元與線性修正單元(Rectified Linear Unit,ReLU)[12]間添加批歸一化(Batch Normalization,BN)[13]單元,BN單元可以加快模型的收斂速度,且可以緩解深層網(wǎng)絡(luò)中梯度彌散的問題,提高模型的精度。

(3) 在學(xué)習(xí)階段改良損失函數(shù),以緩解負(fù)像素?cái)?shù)量遠(yuǎn)大于正像素?cái)?shù)量的情況。

(4) 將引導(dǎo)濾波層與CNN進(jìn)行端到端的連接,采用引導(dǎo)濾波對(duì)分割結(jié)果進(jìn)行去噪細(xì)化,獲取更為精確的邊緣信息及分割結(jié)果。

本文采用了多場(chǎng)景不同分類數(shù)據(jù)集進(jìn)行訓(xùn)練,其中包括:① 路面[14-15]和橋梁[16]裂縫的開源數(shù)據(jù)集;② 單反、手機(jī)拍攝的墻體裂縫數(shù)據(jù)集,并在多數(shù)據(jù)集上獲得了較為理想的結(jié)果。

2 HED網(wǎng)絡(luò)改進(jìn)算法

2.1 HED網(wǎng)絡(luò)模型

整體嵌套邊緣檢測(cè)(Holistically-nested Edge Detection,HED)網(wǎng)絡(luò)由Xie等[11]在2015年提出,以VGG16網(wǎng)絡(luò)為基礎(chǔ)(VGG16結(jié)構(gòu)如圖2所示),保留VGG網(wǎng)絡(luò)出色的特征提取能力的同時(shí)去除全連通層及第5池化層,并將輸出層與卷積層相連,對(duì)獲取的各層特征進(jìn)行輸出,HED網(wǎng)絡(luò)示意如圖3所示。

圖2 VGG16網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 VGG16 network structure

圖3 HED網(wǎng)絡(luò)示意Fig.3 HED network structure

全連通層的去除使模型可以對(duì)任意大小的圖片進(jìn)行訓(xùn)練和預(yù)測(cè),同時(shí)減少了訓(xùn)練所需的參數(shù),顯著降低了訓(xùn)練所需的時(shí)間以及模型的大小和計(jì)算量,且對(duì)精度影響忽略不計(jì)。去除最后一個(gè)最大池化層增大了特征圖的感受野,使得特征圖分辨率較低的問題得到了改善。

由于CNN的特性,低層卷積所獲取的特征具有更高的分辨率以及更清晰的邊緣細(xì)節(jié),但由于經(jīng)過的卷積較少,其噪聲更多且分割性不足;高層特征具有更強(qiáng)的語義分割信息且抗噪能力更強(qiáng),但由于經(jīng)過多層池化后分辨率較低,分割細(xì)節(jié)不足。HED網(wǎng)絡(luò)通過將每層卷積獲取的特征圖輸出,并在側(cè)輸出層對(duì)特征信息加以深度監(jiān)督,在最后以Concat融合,使最后得到的結(jié)果與不同層的結(jié)果連接起來,低層信息與高層信息實(shí)現(xiàn)互補(bǔ),達(dá)到優(yōu)化邊緣的目的。

2.2 改進(jìn)模型結(jié)構(gòu)

本文算法結(jié)構(gòu)如圖4所示,算法以VGG19網(wǎng)絡(luò)作為基礎(chǔ),使用VGG19的前16個(gè)卷積層作為基礎(chǔ)卷積層,增加BN單元,去除全連通層及第5池化層。去除全連通層可以使模型訓(xùn)練所需的參數(shù)及訓(xùn)練時(shí)間顯著降低,且對(duì)精度的影響可以忽略不記;第5層池化后輸出面太小,輸出的預(yù)測(cè)特征圖過于模糊,無法生成精細(xì)的預(yù)測(cè)結(jié)果,不利于邊緣的定位。每個(gè)卷積層由卷積單元、BN單元及ReLU組成,卷積單元產(chǎn)生特征映射;ReLU計(jì)算激活函數(shù)Max(0,x)使網(wǎng)絡(luò)可以學(xué)習(xí)非線性任務(wù)。去除第5池化層后,池化由4個(gè)最大池化層完成,每個(gè)階段的最大池化都在部分卷積層(包括Conv1_2,Conv2_2,Conv3_4和Conv4_4)之后進(jìn)行,通過2 pixel×2 pixel的最大池化來減小平面的大小,這樣可以減少網(wǎng)絡(luò)的參數(shù)且可以提高平移不變性。側(cè)輸出層為每層卷積層所得到的特征圖組成,除第一側(cè)輸出層外,其余側(cè)輸出層后均添加反卷積層對(duì)特征圖的平面大小進(jìn)行上采樣,使其與輸入圖像相同。隨著側(cè)輸出層變小、接收?qǐng)龀叽缱兇螅罱K輸出層獲得多尺度、多層次的特征。

圖4 算法結(jié)構(gòu)Fig.4 Algorithm structure diagram

對(duì)于CNN所獲取的特征圖,低層特征對(duì)裂縫邊緣的分割更為清晰,但對(duì)噪聲很敏感;高層特征抗噪能力較強(qiáng),但分割邊緣較模糊。每層卷積層輸出圖像如圖5所示。本文通過線性融合不同階段的特征來解決這個(gè)問題,以第一側(cè)輸出層(Conv1_2所輸出的側(cè)輸出層)為導(dǎo)向圖,結(jié)合Concat融合后獲取融合特征圖進(jìn)行引導(dǎo)濾波,去除了低層特征中含有的噪聲且良好地保留了識(shí)別的裂縫區(qū)域,實(shí)現(xiàn)較為精細(xì)的預(yù)測(cè)。

圖5 各卷積層輸出圖像示例Fig.5 Output images of each convolution layer

模型結(jié)構(gòu)的各層細(xì)節(jié)如圖6所示,各卷積層核大小均為3,步數(shù)為1;最大池化層核大小為2,步數(shù)為2;側(cè)輸出層核大小為1,步數(shù)為1;接收?qǐng)龊舜笮?n+1,步數(shù)為2n。

圖6 卷積網(wǎng)絡(luò)模型細(xì)節(jié)Fig.6 Details of convolutional network model

2.3 損失函數(shù)

對(duì)于本文模型,S={(In,Yn),n=1,2,…,N}為輸入訓(xùn)練集,圖像樣本In={ij(n),j=1,2,…,|In|}為原始輸入圖像,Yn={yj(n),j=1,2,…,|In|},Yj(n)∈{0,1},由于本文獨(dú)立考慮每個(gè)圖像,在隨后的公式中刪除了下標(biāo)n使表示更為簡(jiǎn)單。目標(biāo)是建立一個(gè)可以生成接近于Ground Truth的裂縫特征圖,使用DSN監(jiān)督側(cè)輸出層,每個(gè)側(cè)輸出層與一個(gè)分類器相關(guān)聯(lián),權(quán)重w={w(1),w(2),…,w(M)}(M為側(cè)輸出層的層數(shù),本文取M=4),W為網(wǎng)絡(luò)所有參數(shù)。側(cè)輸出層損失函數(shù)Lside:

(1)

式中,P(m)為第m側(cè)輸出層的預(yù)測(cè)結(jié)果;αm為各側(cè)輸出層的損失權(quán)值,依據(jù)訓(xùn)練效果進(jìn)行調(diào)整。

在模型訓(xùn)練中,設(shè)定的交叉熵函數(shù)Δ為:

(2)

經(jīng)過各側(cè)輸出層預(yù)測(cè)圖進(jìn)行Concat融合生成最終特征圖,其融合損失Lfuse為:

(3)

綜上,總損失函數(shù)L為:

L=Lside(I,Y,W,w)+Lfuse(I,Y,W)。

(4)

3 多數(shù)據(jù)集對(duì)比實(shí)驗(yàn)

實(shí)驗(yàn)用GPU為Nvidia RTX 2070,系統(tǒng)環(huán)境為Windows10,Python3.6,Pytorch1.8.1。

3.1 數(shù)據(jù)集

實(shí)驗(yàn)采用了多場(chǎng)景不同分辨率的RGB圖像作為數(shù)據(jù)集進(jìn)行訓(xùn)練,圖像由手工標(biāo)注分割為二值圖像,用以評(píng)測(cè)精準(zhǔn)度指標(biāo)。墻面表面材質(zhì)光滑,混凝土及瀝青等材料表面較為粗糙且裂縫較大時(shí)往往伴隨有坑洞,所以多樣性的數(shù)據(jù)集可以增強(qiáng)模型的適用能力,在多方面的識(shí)別中取得較好的結(jié)果。

本文所采用數(shù)據(jù)集來自于路面、橋梁以及墻體裂縫等多個(gè)場(chǎng)景,包括混凝土、瀝青以及水泥等不同材質(zhì),如圖7所示。各類裂縫分辨率及數(shù)量等具體數(shù)據(jù)如表1所示。

圖7 數(shù)據(jù)集樣圖Fig.7 Sample dataset diagram

表1 數(shù)據(jù)集統(tǒng)計(jì)詳情Tab.1 Dataset statistics details

由于部分?jǐn)?shù)據(jù)集圖片數(shù)量較少,故采用數(shù)據(jù)增強(qiáng)的辦法,每張圖片每旋轉(zhuǎn)45°即可將數(shù)據(jù)集增加一倍,翻轉(zhuǎn)7次后可以得到比原先擴(kuò)大8倍的數(shù)據(jù)集以滿足模型需要。將數(shù)據(jù)集以6∶2∶2分為訓(xùn)練集、測(cè)試集和驗(yàn)證集用于識(shí)別模型訓(xùn)練和測(cè)試。

3.2 評(píng)價(jià)指標(biāo)

3.2.1 模型評(píng)價(jià)指標(biāo)

針對(duì)模型預(yù)測(cè)精準(zhǔn)度的評(píng)價(jià),本文選取語義分割模型常用的精準(zhǔn)率-回歸率曲線(Precision-Recall Curve)作為評(píng)價(jià)指標(biāo),其計(jì)算方式為:

(5)

(6)

式中,TP為正確分類的正像素;FP為錯(cuò)誤分類的正像素;FN為錯(cuò)誤分類的負(fù)像素。

精準(zhǔn)率-召回率曲線如圖8所示,多用于在深度學(xué)習(xí)中評(píng)判模型的性能。

圖8 精準(zhǔn)率-召回率曲線Fig.8 Precision-Recall (PR) curve

由圖8可以看出,隨著召回率的增加,添加引導(dǎo)濾波的模型在后期優(yōu)于未添加濾波的模型,且添加引導(dǎo)濾波后的加權(quán)調(diào)和平均值F也大于未添加濾波的原模型,證明了添加引導(dǎo)濾波對(duì)模型性能的提升。

3.2.2 分割結(jié)果評(píng)價(jià)

針對(duì)分割結(jié)果的評(píng)價(jià),選取mIoU和每秒鐘可處理幀數(shù)(Frames Per Second,F(xiàn)PS)這2種指標(biāo)作為評(píng)價(jià)標(biāo)準(zhǔn),同時(shí)這2種指標(biāo)也是當(dāng)前語義分割方向較常采用的標(biāo)準(zhǔn)度量指標(biāo)。

mIoU通過計(jì)算真實(shí)值和預(yù)測(cè)值的交并集之比來評(píng)價(jià)算法精度,即:

(7)

式中,k為類別個(gè)數(shù);θij為原本屬于第i類結(jié)果卻被分到第j類的像素的數(shù)量。

FPS用于評(píng)價(jià)算法計(jì)算的速度,計(jì)算公式為:

(8)

式中,N為圖像數(shù)量;Tj為處理第j張圖像的時(shí)間。

3.3 實(shí)驗(yàn)結(jié)果及精度分析

為了驗(yàn)證深度學(xué)習(xí)算法對(duì)傳統(tǒng)計(jì)算機(jī)視覺算法的優(yōu)越性,選取AutoCrack[17]網(wǎng)絡(luò)作為對(duì)比算法之一;為了驗(yàn)證本文算法在精度及運(yùn)算速度上的優(yōu)越性,選取U-Net[18]和SegNet[19]網(wǎng)絡(luò)加以優(yōu)化后作為對(duì)比算法;同時(shí),為了驗(yàn)證引導(dǎo)濾波對(duì)計(jì)算的優(yōu)化,將算法原始結(jié)果及加入引導(dǎo)濾波后的結(jié)果也作為對(duì)比之一加入對(duì)比評(píng)價(jià)。各算法預(yù)測(cè)結(jié)果對(duì)比如圖9所示。

圖9 算法預(yù)測(cè)結(jié)果對(duì)比Fig.9 Comparison of algorithm prediction results

由于本文數(shù)據(jù)集場(chǎng)景復(fù)雜,實(shí)驗(yàn)檢驗(yàn)精度時(shí)將數(shù)據(jù)集圖片分開檢測(cè)后混合檢測(cè),以獲得每種算法在獨(dú)立數(shù)據(jù)集及混合數(shù)據(jù)集上的檢測(cè)精度,具體精度評(píng)價(jià)如表2所示。由于本文數(shù)據(jù)集分辨率差異較大,導(dǎo)致識(shí)別時(shí)所耗費(fèi)時(shí)間差異較大,故在計(jì)算處理速度時(shí)將不同數(shù)據(jù)集分開評(píng)價(jià)后混合評(píng)價(jià),處理速度對(duì)比評(píng)價(jià)如表3所示。

由圖9、表2和表3可以看出,本文算法相較目前其余算法具有一定的優(yōu)越性。相較于傳統(tǒng)視覺方法精度及處理速度有明顯提升,且分割的連續(xù)性有較大優(yōu)勢(shì);相較于U-Net算法,本文算法在處理速度相近的同時(shí)分割精度提升較大,對(duì)噪聲的抵抗性更好;相較于SegNet算法,本文算法在處理速度及分割精度方面均有較大提升,且分割邊緣更為明確;對(duì)于未進(jìn)行濾波的分割結(jié)果,僅犧牲了很少的效率就得到了更為精準(zhǔn)且貼近Ground Truth的分割圖像,且邊緣更為清晰。

表2 分割精度評(píng)價(jià)表Tab.2 Segmentation precision evaluation sheet

表3 處理速度評(píng)價(jià)表Tab.3 Processing speed evaluation sheet

4 結(jié)束語

本文通過對(duì)HED網(wǎng)絡(luò)進(jìn)行改進(jìn),在多個(gè)數(shù)據(jù)集上進(jìn)行訓(xùn)練及測(cè)試,最終在單獨(dú)數(shù)據(jù)集和混合數(shù)據(jù)集上均驗(yàn)證了本文算法在分割精準(zhǔn)度和速度上的優(yōu)勢(shì)。由對(duì)比結(jié)果可以看出,本文算法在針對(duì)高分辨率的圖像時(shí)有明顯的精度優(yōu)勢(shì),并且引導(dǎo)濾波的加入可以在處理速度影響不大的情況下將分割精度提升約6%。綜上所述,本文算法在多種數(shù)據(jù)集上的處理結(jié)果都具有優(yōu)勢(shì),可以適用于多種場(chǎng)景下裂縫分割任務(wù),尤其適用于高分辨率圖像進(jìn)行分割識(shí)別;且由于算法特性,日后可將其應(yīng)用于高分辨率的遙感影像中,可以在保證較快處理速度的同時(shí)取得較高的準(zhǔn)確率。

猜你喜歡
特征模型
一半模型
抓住特征巧觀察
重要模型『一線三等角』
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
不忠誠的四個(gè)特征
抓住特征巧觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
主站蜘蛛池模板: 午夜毛片免费看| 国产精品2| 国产剧情国内精品原创| 五月天综合婷婷| 久久久久久久97| 成人蜜桃网| 亚洲精品视频在线观看视频| 欧美日韩动态图| 亚洲黄网视频| 国产成人久久综合一区| 区国产精品搜索视频| 中文字幕调教一区二区视频| 亚洲色大成网站www国产| 国产成人三级| 亚洲国产91人成在线| 99久久亚洲综合精品TS| 国产精彩视频在线观看| 少妇精品在线| 91欧美亚洲国产五月天| 老司机久久99久久精品播放| 红杏AV在线无码| 国产剧情一区二区| 国产亚洲精| 亚洲第一中文字幕| 999国内精品视频免费| 嫩草影院在线观看精品视频| 久久精品无码国产一区二区三区| 中文国产成人精品久久| 日韩精品欧美国产在线| 91成人在线免费视频| 亚洲精品第一在线观看视频| 国产自视频| 亚洲天堂网视频| 一区二区三区国产| 久久国产免费观看| 国产精品久久久久久搜索| 亚洲欧洲日韩久久狠狠爱| 99青青青精品视频在线| 久草中文网| 国产青榴视频| 欧美成人精品在线| 茄子视频毛片免费观看| 影音先锋丝袜制服| 午夜在线不卡| 精品无码国产一区二区三区AV| 日本一本在线视频| a级免费视频| 久久精品aⅴ无码中文字幕| 国产精品永久久久久| 特级aaaaaaaaa毛片免费视频| 亚洲综合中文字幕国产精品欧美 | 91黄视频在线观看| 久久亚洲国产最新网站| 国产午夜看片| 超清无码熟妇人妻AV在线绿巨人| 中文字幕人成乱码熟女免费| 日韩激情成人| 在线观看av永久| 先锋资源久久| 国产在线精品人成导航| 欧美日韩久久综合| 日本高清免费一本在线观看 | 亚洲国产91人成在线| 波多野结衣一二三| 黄网站欧美内射| 一本色道久久88| 试看120秒男女啪啪免费| 日韩欧美亚洲国产成人综合| 国产精品视频第一专区| 亚洲毛片网站| 成年免费在线观看| 国产一级小视频| 欧美日韩午夜| 国产精品无码制服丝袜| 亚洲 成人国产| 午夜毛片免费看| 亚洲区一区| 国产精品人莉莉成在线播放| 五月婷婷综合网| 色婷婷电影网| 尤物精品国产福利网站| 无码福利视频|