999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLOv8-OCR的井下人員檢測(cè)算法

2024-09-16 00:00:00倪云峰霍潔侯穎王靜郭蘋
無線電工程 2024年8期

關(guān)鍵詞:目標(biāo)檢測(cè);YOLOv8:光學(xué)字符識(shí)別;反光號(hào)碼牌;注意力機(jī)制

0引言

煤炭工業(yè)對(duì)我國(guó)國(guó)民經(jīng)濟(jì)快速發(fā)展具有基礎(chǔ)性作用。2022年中國(guó)擁有的煤炭?jī)?chǔ)量約占世界總量的15.1%,居世界第三位,僅次于美國(guó)和俄羅斯。煤炭產(chǎn)量比上年增長(zhǎng)7.9%,超過全球煤炭總產(chǎn)量的50.8%,消費(fèi)量比上年增長(zhǎng)0.6%,達(dá)到了161.10 EJ(占比為27%),位居世界第一。

在我國(guó),煤礦環(huán)境錯(cuò)綜復(fù)雜,一旦發(fā)生事故就會(huì)造成重大的經(jīng)濟(jì)損失以及人員的傷亡。因此,對(duì)井下工作人員的嚴(yán)格保護(hù)變得至關(guān)重要。通常,井下許多重點(diǎn)安全區(qū)域都是以人員監(jiān)控管理為主。由于我國(guó)很多煤礦工人在井下穿著統(tǒng)一的安全帽和工作服,一旦發(fā)生事故,難以確定受害者的身份以及位置,對(duì)后續(xù)的救援增加了困難,因此,改善井下人員的著裝對(duì)防范安全事故有著至關(guān)重要的作用。本文創(chuàng)新性地將行人屬性應(yīng)用到井下,將反光號(hào)碼牌貼在安全帽和工作服上作為屬性進(jìn)行識(shí)別。安全帽和工作服上的反光號(hào)碼牌在井下昏暗環(huán)境中容易被攝像頭捕捉,從而提高井下人員的人身安全。近年來,隨著視頻監(jiān)控系統(tǒng)的普及,基于圖像處理的著裝識(shí)別技術(shù)得到快速發(fā)展。但是,復(fù)雜的背景干擾和非剛性的人體結(jié)構(gòu)特點(diǎn)使得直接從原圖提取著裝特征的方法效果不佳。因此,大多數(shù)現(xiàn)有的識(shí)別算法依賴基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法。

圖像的目標(biāo)檢測(cè)是對(duì)目標(biāo)進(jìn)行識(shí)別然后框出目標(biāo)所在位置。目前的煤礦井下人員檢測(cè)方法主要以深度學(xué)習(xí)的目標(biāo)檢測(cè)為框架,包括R-CNN和Y0L0系列兩大類。R-CNN主要針對(duì)候選區(qū)域進(jìn)行分類回歸,檢測(cè)精度高;Y0L0系列則通過處理整個(gè)圖像而不需要復(fù)雜的設(shè)計(jì)來優(yōu)先考慮更快的檢測(cè)。

因此,為提高人員在井下昏暗環(huán)境的檢測(cè)性能,本文采用改進(jìn)的Y0L0v8算法對(duì)井下人員進(jìn)行檢測(cè),首先,本文創(chuàng)新性地將行人屬性應(yīng)用到工地場(chǎng)景,將反光號(hào)碼牌貼在安全帽和工作服上作為屬性進(jìn)行識(shí)別,之后收集井下環(huán)境的圖片,通過圖片的預(yù)處理構(gòu)建對(duì)應(yīng)的井下數(shù)據(jù)集,在Y0L0v8基礎(chǔ)上替換了FReLU激活函數(shù),解決了激活函數(shù)中的空間不敏感問題,使普通的卷積也具備捕獲復(fù)雜的視覺布局能力,使模型具備像素級(jí)建模的能力。除此之外,還引入注意力機(jī)制,使得精確度提高。然后對(duì)識(shí)別的號(hào)碼牌區(qū)域用光學(xué)字符識(shí)別(Optical Character Recogni-tion,OCR)技術(shù)對(duì)區(qū)域的數(shù)字進(jìn)行識(shí)別。根據(jù)訓(xùn)練及驗(yàn)證數(shù)據(jù)集的劃分,評(píng)估不同算法下的檢測(cè)性能,與傳統(tǒng)算法YOLOv8進(jìn)行性能對(duì)比,提高了精度與速度,以及模型魯棒性,應(yīng)用性能更優(yōu)。

1Y0L0v8算法原理

Y0L0v8算法是由Ultralytics于2023年發(fā)布的Y0L0系列最新模型,Y0L0v8的一個(gè)關(guān)鍵特性是可擴(kuò)展性。它被設(shè)計(jì)為一個(gè)框架,支持所有以前版本的Y0L0,可以輕松地在不同版本之間切換并比較它們的性能。除了可擴(kuò)展性之外,Y0L0v8還包括許多其他創(chuàng)新,使其廣泛應(yīng)用在對(duì)象檢測(cè)和圖像分割任務(wù)上,包括新的骨干網(wǎng)絡(luò)、新的無錨網(wǎng)絡(luò)檢測(cè)頭和新的損失函數(shù)功能。Y0L0v8非常高效,可以實(shí)現(xiàn)從CPU到GPU的運(yùn)行。Y0L0v8的骨干部分與Y0L0v5基本相同,基于CSP思想,將C3模塊替換為C2f模塊。C2f模塊借鑒了YOLOv7中的ELAN思路,將C3和ELAN結(jié)合在一起組成了C2f模塊,使Y0L0v8在保證自身質(zhì)量輕的同時(shí)可以獲得更豐富的梯度流信息。在骨干末端,仍然使用最流行的快速空間金字塔池化(Spatial Pyramid Poo-ling-Fast,SPPF)模塊,依次傳遞3個(gè)大小為5×5的Maxpools,然后將每一層進(jìn)行串聯(lián),這樣既保證了不同尺度下物體的精度,同時(shí)又保證了物體的輕量化。在頸部,YOLOv8使用的特征融合方法仍然是PAN-FPN,加強(qiáng)了不同尺度下特征層信息的融合和利用。Y0L0v8的作者使用了2個(gè)上采樣和多個(gè)C2f模塊以及最終解耦的頭部結(jié)構(gòu)來組成頸部模塊。在Y0L0x中,頭部解耦的想法被Y0L0v8用于頸部的最后一部分。它將置信度和回歸盒結(jié)合起來,達(dá)到了一個(gè)新的精度水平。對(duì)于正樣本和負(fù)樣本分配,Y0L0v8算法使用任務(wù)對(duì)齊單階段目標(biāo)檢測(cè)(Task-aligned One-stage Object Detection,TOOD)的分酉己器,根據(jù)分類和回歸的加權(quán)得分選擇正樣本。

Y0L0v8支持所有版本的Y0L0,可以在不同版本之間隨意切換,還可以在各種硬件平臺(tái)(CPU-GPU)上運(yùn)行,具有很強(qiáng)的靈活性。Y0L0v8網(wǎng)絡(luò)架構(gòu)如圖1所示。

2改進(jìn)模型

2.1引入卷積注意力模塊注意力機(jī)制

注意力機(jī)制最初應(yīng)用于計(jì)算機(jī)視覺以模擬人類視覺注意力處理。起源于2014年Google Deep-Mind團(tuán)隊(duì),此后在各種深度學(xué)習(xí)領(lǐng)域得到了廣泛應(yīng)用,例如自然語言處理、對(duì)象檢測(cè)和語義分割。通過將注意力機(jī)制納入目標(biāo)檢測(cè)中,模型可以專注于圖像中的關(guān)鍵信息,過濾掉不相關(guān)的數(shù)據(jù),從而優(yōu)化計(jì)算資源并提高小目標(biāo)的檢測(cè)性能。本文將卷積塊注意力模塊(Convolutional Block AttentionModule.CBAM)引入圖2所示的黃色位置。

CBAM結(jié)構(gòu)由通道注意力模塊和空間注意力模塊組成,如圖3所示。通道注意力側(cè)重于識(shí)別具有特定目標(biāo)特征的相關(guān)通道,而空間注意力則強(qiáng)調(diào)空間域內(nèi)的關(guān)鍵信息。通過將網(wǎng)絡(luò)的注意力引導(dǎo)到感興趣的區(qū)域,這些機(jī)制增強(qiáng)了特征提取,特別是對(duì)于表面字符等小目標(biāo),從而顯著提高了檢測(cè)精度和整體模型性能。通道和空間注意力模塊與卷積層的集成通過自適應(yīng)調(diào)整進(jìn)一步優(yōu)化特征圖,過程如下:

通道注意力模塊通過輸入,分別通過多層感知機(jī)(Multi-Layer Perception,MLP)對(duì)MLP輸出的特征進(jìn)行逐元素求和運(yùn)算,生成最終的通道關(guān)注特征圖。對(duì)其與輸入特征圖進(jìn)行乘法運(yùn)算,生成空間注意力模塊所需的輸入特征。該過程表示如下:

空間注意力模塊使用上述注意輸出的特征圖作為該模塊的輸入特征圖。將特征與模塊輸入相乘,生成最終生成的特征圖。該過程表示如下:

2.2替換激活函數(shù)

通過保留基本特征并消除冗余,激活函數(shù)有效地映射激活的神經(jīng)元特征,從而增強(qiáng)卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的表達(dá)能力,在整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)中也起到了重要作用。目標(biāo)檢測(cè)常用的激活函數(shù)包括Sigmoid、tanh、ReLU、PReLU和Mish,都有助于網(wǎng)絡(luò)的非線性能力。然而,這些函數(shù)有一個(gè)共同的局限性:只激活單個(gè)特征點(diǎn),而不考慮上下文信息,導(dǎo)致激活域大小固定為1X1,并且對(duì)整體圖像信息的關(guān)注有限。

針對(duì)此問題,香港理工大學(xué)于2020年提出一種專門用于圖像識(shí)別Funnel激活函數(shù)(FReLU)。本文將激活函數(shù)中的Sigmoid-Weighted Linear Unit(SiLU)替換為FReLU的模塊稱為CBF模塊,如圖4所示。FReLU是一種專用于視覺任務(wù)的激活函數(shù),增加了空間條件來擴(kuò)展ReLU和PReLU。FReLU提出的二維漏斗樣激活函數(shù),通過在ReLU激活函數(shù)中加入漏斗條件T(x),將二維漏斗樣激活函數(shù)擴(kuò)展到2D。只引入少量的計(jì)算和過擬合風(fēng)險(xiǎn)來激活網(wǎng)絡(luò)中空間不敏感的信息,以改善視覺任務(wù)。該過程表示如下:

激活特性分析:FReLU激活函數(shù)中(激活特性如圖5所示),在進(jìn)行非線性激活時(shí),max()函數(shù)給了網(wǎng)絡(luò)模型是否關(guān)注空間信息的2種選擇,當(dāng)卷積的結(jié)果T(x)更大時(shí),模型將關(guān)注到更多的空間信息而不再是單個(gè)特征點(diǎn)。

通過分析可以看出,采用FReLU激活函數(shù)進(jìn)行模型搭建將使模型有更廣的激活域,同時(shí)增強(qiáng)對(duì)空間信息捕獲能力。

2.30CR

OCR技術(shù)的發(fā)展得益于計(jì)算機(jī)視覺、深度學(xué)習(xí)和自然語言處理等領(lǐng)域的進(jìn)步。現(xiàn)代0CR系統(tǒng)通?;谏疃葘W(xué)習(xí)模型,如CNN和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN),這些模型能夠更好地捕捉字符的特征和上下文信息,提高識(shí)別準(zhǔn)確性和魯棒性。字符識(shí)別就是對(duì)分割的字符一個(gè)個(gè)進(jìn)行識(shí)別,一般分為模板匹配法與神經(jīng)網(wǎng)絡(luò)2種算法。模板匹配計(jì)算目標(biāo)圖像與每個(gè)模板圖像之間的距離,并根據(jù)相似度對(duì)它們進(jìn)行排序,最相似的模板代表識(shí)別出的字符。然而,該算法需要結(jié)構(gòu)良好的字符,并且容易受到角度變化和拉伸引起的扭曲的影響。相比之下,神經(jīng)網(wǎng)絡(luò)利用字符間特征來實(shí)現(xiàn)魯棒識(shí)別,能夠從不同類型的噪聲干擾中提取不變特征,即使在處理變換后的目標(biāo)字符圖像時(shí)也表現(xiàn)出很強(qiáng)的適應(yīng)性。因此,本文在識(shí)別過程中采用Easy0CR,從預(yù)處理階段得到的增強(qiáng)圖像中讀出數(shù)字。

Easy 0CR是一種支持70多種語言的0CR方法,如漢語、英語和印地語等。0CR是基于ResNet、長(zhǎng)短期記憶(Long Short Term Memory,LSTM)和連接時(shí)間分類(Connectionist Temporal Classification,CTC)模型的字符識(shí)別。Easy 0CR有3個(gè)主要組件,網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。①特征提取,對(duì)ResNet模型進(jìn)行特征提取訓(xùn)練。②序列標(biāo)記,采用LSTM算法。③基于CTC進(jìn)行解碼。在識(shí)別過程中利用了EasyOCR的Readtext功能。簡(jiǎn)單0CR的主要特點(diǎn)是從圖像中讀取字母和數(shù)字,并返回其所在位置的坐標(biāo)。

3實(shí)驗(yàn)過程

3.1實(shí)驗(yàn)環(huán)境

本實(shí)驗(yàn)所用計(jì)算機(jī)操作系統(tǒng)為Windows 11 64位,處理器型號(hào)為i7-12700H,顯卡型號(hào)為NVIDIAGeForce RTX 3060 Ti,內(nèi)存8GB。以PyTorch框架:為基礎(chǔ),編程環(huán)境為Python 3.8。

3.2數(shù)據(jù)集和預(yù)處理

為驗(yàn)證本文井下人員著裝號(hào)碼牌檢測(cè)方法的有效性,利用自建井下數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),共采集1 830張圖片,標(biāo)簽包括號(hào)碼牌0~9,分別代表張某(0)、王某(1)、李某(2)、劉某(3)、陳某(4)、楊某(5)、趙某(6)、周某(7)、吳某(8)、許某(9)。為滿足數(shù)據(jù)集的多樣化要求并提高模型的穩(wěn)健性,選擇3種圖像處理技術(shù)擴(kuò)大數(shù)據(jù)集的廣度和深度,從而增強(qiáng)模型的彈性,包括水平翻轉(zhuǎn)以引入方向不變性、添加隨機(jī)高斯噪聲以提高針對(duì)相機(jī)失真的魯棒性,以及隨機(jī)亮度調(diào)整以模擬同一位置的照明條件的變化。

擴(kuò)充后的數(shù)據(jù)集共有8581張圖片,并將數(shù)據(jù)集圖片按照7:2:1的比例劃分為訓(xùn)練集、測(cè)試集和驗(yàn)證集。

3.3訓(xùn)練模型

本文數(shù)據(jù)集來源于自建井下數(shù)據(jù)集,其中圖像為某煤礦井下圖片,分辨率均為2048pixel×2048pixel。數(shù)據(jù)集中有近8580張圖片,對(duì)圖片中的人員號(hào)碼牌進(jìn)行標(biāo)注,共包含10個(gè)類別。共計(jì)訓(xùn)練集6000張,測(cè)試集1700張。數(shù)據(jù)中使用0~9的標(biāo)簽代替人員信息。采用PyTorch框架對(duì)本文改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行訓(xùn)練學(xué)習(xí)。訓(xùn)練過程中每批次圖像為32張,模型在數(shù)據(jù)集中循環(huán)訓(xùn)練300次,學(xué)習(xí)率為0.0001。如果3個(gè)連續(xù)循環(huán)訓(xùn)練損失不下降,將學(xué)習(xí)率降低10倍。如果10個(gè)連續(xù)循環(huán)訓(xùn)練參數(shù)不下降,結(jié)束訓(xùn)練過程。

圖7是使用Y0L0v8進(jìn)行檢測(cè)的結(jié)果,其中對(duì)帶有2、3、5、6、9號(hào)碼牌的井下人員檢測(cè)率達(dá)到了90%以上(9號(hào)碼牌的檢測(cè)準(zhǔn)確率最高為94.5%,0號(hào)碼牌的測(cè)試準(zhǔn)確率僅為71.2%)。

圖8是使用YOLOv8+CBAM+CBF進(jìn)行檢測(cè)的結(jié)果,其中對(duì)帶有1、2、3、5、6、8、9號(hào)碼牌的井下人員檢測(cè)率達(dá)到了90%以上(6號(hào)碼牌的檢測(cè)準(zhǔn)確率最高為97.9%,0號(hào)碼牌的測(cè)試準(zhǔn)確率僅為76.6%)。

4實(shí)驗(yàn)結(jié)果分析

4.1評(píng)價(jià)指標(biāo)

為了驗(yàn)證模型有效性和檢測(cè)效果,選取平均精度均值(mean Average Precision,mAP)、召回率(Re-call,R)、準(zhǔn)確率(Precision,P)和每幀推理時(shí)間作為評(píng)價(jià)指標(biāo)。

4.2反光號(hào)碼牌區(qū)域檢測(cè)效果驗(yàn)證

本文首先驗(yàn)證提出的模型在進(jìn)行號(hào)碼牌牌檢測(cè)時(shí)的有效性。為了進(jìn)一步驗(yàn)證上述改進(jìn)方法的效果,進(jìn)行了消融實(shí)驗(yàn),結(jié)果如圖9和表1所示。由于本文主要針對(duì)YOLOv8網(wǎng)絡(luò)進(jìn)行改進(jìn),實(shí)驗(yàn)選取YOLOv8網(wǎng)絡(luò)作為對(duì)比基準(zhǔn)。可以看出,為提高YOLOv8網(wǎng)絡(luò)的精度,引入了CBAM注意力機(jī)制模塊,模型準(zhǔn)確率從85.2%提高到89.7%,提高了4%。然而,這一改進(jìn)使得召回率下降了6%。召回率的下降可歸因于通道注意力和空間注意力機(jī)制的引入,增加了網(wǎng)絡(luò)的深度。因此,當(dāng)在神經(jīng)網(wǎng)絡(luò)的較低層學(xué)習(xí)相似的物體時(shí),判別性特征變得不那么突出,導(dǎo)致檢測(cè)到物體但分類不正確,從而降低召回率。盡管如此,平均精度還是提高了近1%,證明了改進(jìn)模型的有效性。引入CBF模塊后,進(jìn)一步提升了網(wǎng)絡(luò)性能,準(zhǔn)確率由89.7%提高至90.6%,使得最終檢測(cè)結(jié)果更準(zhǔn)確。相較于原YOLOv8網(wǎng)絡(luò),YOLOV8+CBAM+CBF模型模型的準(zhǔn)確率由85.2%提高至91.2%,召回率較原網(wǎng)絡(luò)沒有變化,平均精度提升了2.7%。進(jìn)一步提高了模型的準(zhǔn)確性并證明了其有效性。

4.3反光號(hào)碼牌識(shí)別效果驗(yàn)證

結(jié)合YOLOv8+CBAM+CBF和Easy OCR的識(shí)另IJ網(wǎng)絡(luò),在自建數(shù)據(jù)集上與傳統(tǒng)字符識(shí)別算法EasyPR進(jìn)行對(duì)比測(cè)試,結(jié)果如圖10和表2所示。

實(shí)驗(yàn)結(jié)果表明,在自建數(shù)據(jù)集上,本文提出的基于YOLOV8的OCR井下人員識(shí)別算法準(zhǔn)確率達(dá)到了93.2%,較Easy PR算法詞準(zhǔn)確率提高了16%。而檢測(cè)一張2048pixelx2 048 pixel圖片僅用時(shí)24.4ms,符合實(shí)時(shí)檢測(cè)的時(shí)間要求。

從圖10和表2結(jié)果可以看出,本文采用先檢測(cè)人員著裝號(hào)碼牌的區(qū)域,然后在該區(qū)域上對(duì)數(shù)字進(jìn)行識(shí)別,其虛報(bào)率(偽號(hào)碼牌占有效總號(hào)碼牌的比例)和漏檢率有很大改善,去除了不少干擾,為后續(xù)的字符識(shí)別節(jié)約了時(shí)間(即阻止了偽號(hào)碼牌進(jìn)入字符識(shí)別模型)。

井下人員反光號(hào)碼牌檢測(cè)結(jié)果如圖11所示,檢測(cè)結(jié)果用矩形框表示,框上是識(shí)別的類別標(biāo)簽和相應(yīng)的概率。通過對(duì)比看出,圖11(a)中YOLOv8模型對(duì)煤礦昏暗背景下的小目標(biāo)檢測(cè)能力較差;圖11(b)中的改進(jìn)模型對(duì)以上問題都有明顯改善,進(jìn)一步證明了改進(jìn)模型的有效性和實(shí)用性。

5結(jié)束語

針對(duì)煤礦人員在井下惡劣環(huán)境的檢測(cè)效果,本文創(chuàng)新性地將行人屬性應(yīng)用到煤礦場(chǎng)景下,以提高檢測(cè)性能。針對(duì)井下小目標(biāo)檢測(cè)率低的缺點(diǎn),采用注意力模型,提高了網(wǎng)絡(luò)對(duì)不同尺度的特征提取能力;然后通過引入視覺激活模塊提高了模型檢測(cè)準(zhǔn)確率;最后對(duì)檢測(cè)到的號(hào)碼牌區(qū)域用字符識(shí)別技術(shù)對(duì)區(qū)域的數(shù)字進(jìn)行識(shí)別,進(jìn)一步提高了模型的檢測(cè)精度。實(shí)驗(yàn)結(jié)果表明,本文算法與原算法相比能夠更有效地應(yīng)對(duì)井下環(huán)境中的光照變化和干擾因素并且滿足實(shí)時(shí)檢測(cè)的要求。

主站蜘蛛池模板: 亚洲国产欧美中日韩成人综合视频| 日韩精品久久久久久久电影蜜臀| 亚洲AV无码久久精品色欲 | 99偷拍视频精品一区二区| 在线毛片免费| 毛片大全免费观看| 亚洲国产亚洲综合在线尤物| 国产白浆在线| 日韩毛片视频| 国产乱人伦AV在线A| 亚洲天堂日韩在线| 亚洲av日韩av制服丝袜| www.youjizz.com久久| 伊人久久久久久久久久| 亚洲男人在线| 一级黄色网站在线免费看| 激情无码字幕综合| 亚洲熟女中文字幕男人总站| 亚洲天堂免费| 在线日韩日本国产亚洲| 制服丝袜一区| 亚洲欧美日本国产综合在线| 欧美成人亚洲综合精品欧美激情| 国产免费好大好硬视频| 亚洲高清资源| 一级成人a毛片免费播放| 日韩成人在线网站| 亚洲男人的天堂在线观看| 国产日韩丝袜一二三区| 日本欧美成人免费| 中文字幕在线一区二区在线| 青青草一区| 国产乱人伦精品一区二区| 无码专区在线观看| 国产三级成人| 在线无码av一区二区三区| 国产传媒一区二区三区四区五区| 欧美在线天堂| 欧美成人国产| 国产成人精品一区二区| 扒开粉嫩的小缝隙喷白浆视频| 少妇精品网站| 亚洲欧洲日韩久久狠狠爱 | 国产成人精品综合| 欧美色亚洲| 成年片色大黄全免费网站久久| 91精品国产无线乱码在线| 女人av社区男人的天堂| 国产精品专区第一页在线观看| 亚洲国产中文欧美在线人成大黄瓜| 亚洲成人一区二区三区| 免费看av在线网站网址| 五月六月伊人狠狠丁香网| 国产情精品嫩草影院88av| 欧美综合一区二区三区| 亚洲αv毛片| 国产亚洲精品自在久久不卡 | 国产成人高清精品免费软件 | 亚洲国产在一区二区三区| 91免费国产在线观看尤物| 激情综合五月网| 亚洲综合18p| av天堂最新版在线| 92午夜福利影院一区二区三区| 91娇喘视频| 伊人网址在线| 国产精品欧美激情| 欧美成人一级| 色播五月婷婷| 四虎影院国产| 青青草国产精品久久久久| 91成人精品视频| 91香蕉视频下载网站| 97人妻精品专区久久久久| 91午夜福利在线观看精品| 91精品国产一区| 看国产一级毛片| 国产成人超碰无码| 91无码人妻精品一区| 永久在线播放| 丁香五月激情图片| 精品国产91爱|