999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于視覺顯著性的SAR遙感圖像NanoDet艦船檢測方法

2022-01-08 05:37:36劉方堅
雷達學報 2021年6期
關鍵詞:檢測方法模型

劉方堅 李 媛

①(中國科學院空天信息創(chuàng)新研究院 北京 100190)

②(北京理工大學機電學院 北京 100081)

1 引言

目前,合成孔徑雷達(Synthetic Aperture Radar,SAR)圖像受到越來越廣泛的關注。因其具有全天時、全天候的工作特性,且不易受天氣變化影響,特別對于變幻莫測的海洋場景具有良好的適應性[1,2]。其應用范圍廣泛,在軍事應用、海洋交通管理、油污勘探以及漁業(yè)管理等領域均發(fā)揮出良好作用[3]。

然而,基于SAR圖像的艦船目標檢測依然面臨很多困難。例如,海浪和雜波產生出較強的回波信號[4],特別對于小型船只存在較大的干擾問題。并且由于SAR是相干系統(tǒng),具有斑點噪聲的固有特性。因此,如何減少干擾因素影響是提升檢測精確度的關鍵。同時,隨著技術發(fā)展日益成熟,對圖像處理任務的實時性要求也日漸增高[5]。艦船檢測一般包括圖像預處理、特征提取和模型預測3個主要步驟[6]。在研究早期階段,大多數方法集中于提升網絡的特征提取能力,旨在通過獲取更多且更精細的特征提升網絡對目標的檢測性能。但不可忽略的是,高質量的圖像是獲取良好處理結果的基礎。因此,圖像預處理操作依然十分重要。

由于遙感圖像具有復雜的空間結構和多樣化場景,因此不同圖像需要不同的預處理操作[7,8],如閾值分割、圖像增強和聚類處理等。而對于艦船目標檢測任務,海面背景下的艦船目標具有顯著特性。因此,降低背景復雜度,提升目標顯著性能夠獲得更優(yōu)質的圖像樣本,進而能夠獲取更準確的檢測結果。2007年,侯小迪等人[9]提出了譜殘余(Spectral Residual,SR)顯著性檢測算法,通過將輸入圖像轉換的頻譜域進行殘差計算,從而獲取最大變化區(qū)域為顯著性區(qū)域。該方法實現簡單,檢測速度快且效果良好。在文獻[10]中,作者設計了一種上下文感知顯著性探測器(Context-Aware Saliency Detector,CASD)。其設計思想主要考慮到對象上下文特征與對象本身同樣重要。即圖像中的某一特征既要與鄰域特征存在區(qū)別,也要與全局特征存在區(qū)別。該方法對于背景較為復雜的場景具有較好的顯著性檢測效果。同時,Liu等人[11]提出一種新穎的顯著性檢測方法——顯著樹。該方法能夠對區(qū)域和像素級顯著性圖進行分層表示,生成高質量的顯著性圖。各類方法有各自的優(yōu)勢,均能夠對增強目標特征提供一定的幫助。

近些年,卷積神經網絡(Convolutional Neural Network,CNN)以其強大的自主學習能力和特征捕獲能力得到了越來越廣泛的關注[12]。現有基于神經網絡的目標檢測方法一般可以分為一階段法和兩階段法[13]。其中,兩階段法由兩個級聯網絡構成,前者用于生成目標候選框,后者判斷是否存在目標。2014年,基于區(qū)域的卷積神經網絡方法[13](Regionbased CNN,R-CNN)被提出,首次將深度學習方法引入目標檢測中。相較于Hog特征結合SVM分類器等典型方法,其結果有較大精確度提升。空間金字塔池化網絡[14](Spatial Pyramid Pooling Net,SPPNet)引入了金字塔池化層,以使網絡能夠適應任意尺寸圖像輸入。此后,涌現出許多有效改進算法如Fast RCNN[15],Faster RCNN[16],Mask RCNN[17]以及PANet[18]等,加快了檢測速度,并提升了檢測精確度。2020年,CBNet[19]網絡架構被提出,它通過復合連接多個骨干網絡形成更加強大的復合主干網絡。實驗表明,將其集成到Mask RCNN等網絡中能夠顯著提高檢測性能。

此外,Redmon等人[20]于2016年提出首個一階段目標檢測算法YOLO(You Only Look Once)。它通過將檢測問題轉化為回歸分類問題,能夠有效避免生成候選區(qū)域的耗時,大大提升了檢測速度。但同時,放棄候選區(qū)域選取也使檢測精確性在一定程度下降。因此,針對該問題,多種優(yōu)化算法被提出。其中,SSD[21]算法通過提取不同尺度特征圖以及采用不同尺度的先驗框等改進方法,實現了更高的目標檢測性能。同時,改進的YOLOv2—YOLOv4[22–24]系列算法也使目標檢測方法進一步得到發(fā)展。除此之外,2020年Ultralytics等人在YOLOv4的基礎上提出具有更高速度優(yōu)勢的YOLOv5,暫無論文發(fā)表。實驗證明該方法具有與YOLOv4相當的檢測效果,其檢測速度令人驚艷。

在實際應用過程中,不僅需要高檢測準確度還需要絕對的實時性。因此,輕量化網絡模型成為一大研究熱點。2016年,SqueezeNet[25]小型CNN架構模型被提出,通過壓縮再擴展模塊,有效降低卷積計算量。MobileNet系列將原卷積操作優(yōu)化為深度可分離卷積,提升了卷積計算效率。Shuffle-Net系列則更進一步,提出了通道混洗方法,避免了大量冗余計算。在此基礎上,NanoDet[1]通過集成多種優(yōu)秀輕量化方法得到一個兼顧精度、速度和體積的模型,能夠滿足應用實時性要求。

綜上所述,本文提出一種基于NanoDet和顯著性的SAR圖像艦船檢測方法,如圖1所示。針對復雜背景干擾和檢測耗時問題,提出相應的改進方法。首先,依據不同場景圖像灰度直方圖特征,通過自動聚類的方式劃分出不同類別,以便可以通過不同操作實現不同類別的針對性預處理,降低方法泛化性要求,以獲得更加精確的處理結果。其次,使用SR和CASD不同顯著性區(qū)域檢測方法獲取顯著性圖像,并與原圖疊加,以增加目標顯著性。最后,將處理后的圖像塊送入調整后的NanoDet模型進行網絡訓練,以獲取高精確度、近實時的目標檢測模型。

圖1 系統(tǒng)整體流程示意圖Fig.1 Schematic diagram of the overall system process

2 預處理方法實現

本文的預處理模塊主要分為兩部分,依據各圖像場景特征,完成基于自動聚類的圖像場景類別劃分;利用不同顯著性檢測方法檢測不同類別場景顯著性區(qū)域。通過對圖像樣本進行預處理,實現各場景類別針對性地顯著目標增強,提高了用于艦船檢測任務的圖像樣本質量。

2.1 基于密度峰值聚類的場景劃分

自動聚類是一種可用于數據類別劃分的簡單、快速、有效的方式。對于SAR圖像,其成像原理使其具有不受云霧干擾的特性,因此其主要場景分為海上場景和近岸場景。同時,SAR圖像灰度信息直接反映了不同物體后向散射強度信息,通常來說表面越粗糙的物體反射強度越大,則圖像中灰度值越高,顏色越亮。海上場景整體灰度值較低,背景灰暗,目標突出;近岸場景因存在較大范圍地物,灰度值高且存在地物紋理特征。因此,將圖像灰度值轉化為一維向量并將其作為聚類元素。通過自動聚類算法,依據不同場景下SAR圖像灰度特征的不同,完成場景類別的劃分。在本文中,聚類處理之前通常將圖像裁切成512×512大小,從而轉化成相同維數的一維向量完成類別劃分。實現過程如圖1紅色虛線框所示。

假設圖像數據塊轉化的一維向量表示為x[x0,x1,...,xn?1]T,其中n表示圖像塊大小。首先通過曼哈頓距離[26]等距離計算公式完成向量xi和xj的相似度sij計算,表示為

再依據以上結果計算兩個關鍵因子:各聚類元素的局部密度ρ和到聚類中心距離δ。其中,第i個數據點的局部密度ρi為

其中,當m<0時,φ(m)1;當m0時,φ(m)0,c是相似性截止閾值。局部密度ρi被視為與點xi相似的,在c相似度范圍內點的數量。而到聚類中心距離δi表示為點xi與其他密度更高點xj之間的最小距離。

循環(huán)計算所有樣本點向量的局部密度和距離構造決策圖,越靠近右上角的孤立的點被認為是聚類中心點。計算過程中也可依據密度與距離的乘積大于設定閾值ρ ?δ >k的判定條件完成聚類中心查找。其中,k值僅用于劃分出決策圖中的獨立中心點,在某范圍內變化不會對結果產生影響。最后,通過計算各樣本點到各聚類中心的距離遠近,完成類別劃分。

2.2 不同場景下的顯著性檢測方法

不同場景圖像包含不同特征,因此需要針對性的方法以達到良好顯著性檢測結果。對于海上場景圖像,基于譜殘差的顯著性檢測方法容易使大型船只出現邊緣顯著性,而非整個艦船區(qū)域的顯著表示。而由于近岸場景存在復雜的地物紋理信息,上下文感知顯著性檢測器難以獲取最佳顯著性區(qū)域。因此,本文選擇上下文感知方法用于海上場景,而選用譜殘差方法用于近岸場景。

譜殘差方法主要在頻域完成計算。首先,將圖像通過傅里葉變換映射到頻域中,并提取其幅度和相位響應。

其中,F表示傅里葉變換,A和P分別表示所獲取的幅度譜和相位譜。然后對其做log變換,得到log頻譜。并計算兩者之差,即為頻域下的顯著性目標。

其中,h表示均值濾波器,r表示所得殘差譜。最后,將殘差譜r和相位譜p通過逆傅里葉變換轉化回時域,再通過非線性濾波器得到顯著性圖。

上下文感知方法不同于其他顯著性檢測方法,能夠檢測出代表場景的顯著性區(qū)域。它主要依據4個原則完成顯著性檢測:局部低層次特征、全局特征、視覺特征和高層次特征。首先,將圖像分成多個子塊,將目標塊pi與Lab顏色空間中其他塊pj進行比較。若pi塊與其他塊的差異越大,顯著性越明顯。計算公式為

其中,dc是歐式顏色距離,dp是歐式空間距離,c為常數參量。因此,可以獲得與pi距離最小的前N(通常取N為65)個圖像塊。且通過計算其與圖像塊pi的差異,顯著性公式定義為

另一方面,N能夠調節(jié)顯著性區(qū)域范圍,適當調整能夠有效提升檢測效果。同時,多尺度結果平均值能夠增強顯著性圖像對比度。使R{r1,r2,r3,...,rM}表示圖像塊pi所需尺度集合。則多尺度顯著性結果增強方法可表示為

此外,還需對以上結果進行上下文校正。設置一個閾值,若某像素顯著性超過該閾值,則認為該像素屬于顯著性區(qū)域。顯著性區(qū)域外像素的顯著性值則通過計算其與最近顯著區(qū)像素的加權歐氏距離獲得,表示為

其中,df(i)為像素i與最近顯著像素之間的歐式距離。該步能增加顯著目標鄰域顯著值,降低背景區(qū)域顯著值,從而提升顯著性檢測效果。

3 優(yōu)化的NanoDet模型

NanoDet模型是一個開源的實時檢測模型,它能夠提供不亞于YOLO系列目標檢測算法的檢測性能,實現更快處理。同時,其網絡簡單,模型參數少,更方便訓練和模型移植。

3.1 標準NanoDet網絡結構

該模型基于一階段的檢測算法完成模型搭建,主要包含3部分:骨干網絡backbone,Neck模塊和檢測頭Head,如圖1藍色虛線框所示。骨干網絡為ShuffleNetV2 1.0x,并刪除最后卷積層,抽取8,16和32倍下采樣特征作為下層輸入。Neck模塊由優(yōu)化后的極小PAN構成,只包含自上而下和自下而上兩條通路。其中,僅包含由骨干網絡特征提取后的1×1卷積完成通道維度對齊,采用插值算法完成上、下采樣,并通過相加實現多尺度特征圖融合,如圖2所示。

圖2 極小PAN結構Fig.2 Structure diagram of minimize PAN

檢測頭選取FCOS系列檢測頭并進行優(yōu)化,放棄共享權重,依然使用不同卷積組完成各層特征提取。同時,將原有的組歸一化(Group Normalization)方式改回批量歸一化(Batch Normalization),選擇深度可分離卷積替換普通卷積,并減少了回歸分類過程中卷積核數量和卷積通道數。最大程度降低計算復雜度,實現輕量化網絡模型,其結構如圖3所示。

圖3 FCOS檢測頭結構圖Fig.3 Structure diagram of FCOS detection head

最后,使用GFocalloss去點FCOS中的中心分支,解決了其在輕量化模型上難以收斂的問題,并省去該部分卷積計算開銷。本文在此基礎上對NanoDet進行了參數調整,增加了數據增強方法,使檢測準確性進一步提升。這些優(yōu)化策略使得NanoDet不僅能夠實現良好的檢測效果,還能夠有效減少模型體積,節(jié)約運行時間。

3.2 NanoDet網絡優(yōu)化

由于實際應用場景中往往存在不同尺寸目標,特別是小尺寸目標容易受噪聲和其他地物干擾,從而使得檢測模型容易出現誤差。針對該問題,本文對NanoDet網絡模型進行了優(yōu)化調整。借鑒了TridentNet[27]的三叉戟結構,將NanoDet中下采樣第4層特征圖通過多尺度空洞卷積實現。空洞卷積計算空洞卷積計算時在卷積核元素中間加入不同數量的空洞,空洞率不同卷積核的尺寸也就不同。因此,加入空洞卷積能夠擴大網絡的感受野,捕獲多尺度的上下文信息,且不需要引入額外的參數。3個分支其他結構相同,差別在于卷積空洞率不同,其結構如圖4所示。不同的卷積操作使得網絡能夠捕獲不同尺度的特征信息,因此能夠更精確的檢測不同尺度大小的目標。

圖4 多尺度特征提取示意圖Fig.4 Schematic diagram of multi-scale feature extraction

4 實驗驗證

本文實驗硬件平臺為Intel?CoreTMi7-97 CPU@3.60 GHz×8,64 G內存計算機,使用GeForce RTX 2080Ti GPU高性能圖形處理器完成加速運算。軟件環(huán)境為Linux平臺,操作系統(tǒng)為Ubuntu18.04.5 LTS。軟件環(huán)境基于Anaconda平臺安裝使用,并基于深度學習框架Pytorch[28]構建網絡模型,使用Python完成程序編寫。同時,使用CUDA 10軟件包實現程序加速。在本實驗中,設置檢測閾值IoU為0.5,即當檢測框與真值框重疊區(qū)域超過兩者并集區(qū)域的50%時,認為該框檢測正確。

4.1 實驗數據

本文實驗基于國內公開SAR數據集SSDD和AIR-SARship-2.0實現。其中,SSDD數據集共包含1160張不同尺寸的SAR圖像,共有2358個艦船目標。其中,艦船的最大尺寸為211×298像素,最小尺寸為7×7像素。該數據集已包含正確標注信息[29,30],且可以通過其中多分辨率、多場景圖像實現對艦船檢測模型性能的有效驗證。AIR-SARship-2.0數據集來源于高分三號衛(wèi)星,共包含300幅圖像,分辨率包括1 m和3 m,圖像尺寸為1000×1000像素。同時,該數據集中包括不同的成像模式和極化模式,不同尺寸和形狀的艦船目標,且覆蓋多種場景圖像,為驗證艦船檢測方法性能提供了可靠保證。

4.2 訓練策略與評價指標

實驗過程中,按照6:2:2的比例對訓練集、驗證集和測試集進行劃分。使用SGD優(yōu)化器完成網絡參數修正,共訓練70個epoch,并采用動態(tài)學習率調整訓練速度。同時,在訓練過程中使用Tensorboard工具監(jiān)控訓練結果參數,查看訓練情況,還可查看中間特征圖。每訓練10個epoch保存一次網絡模型,最終根據訓練結果選出最優(yōu)模型。

本文使用兩種評價指標完成實驗,包括傳統(tǒng)評價指標檢測率PD和虛警率PF,深度學習評價指標檢測精確度(Precision,Pr),召回率(Recall,Re)和平均精確度(mean Average Precision,mAP)值、曲線。評價指標中的常用概念表示如下:

(1) 真實的正例(True Positives,TP):被正確檢測出的艦船數目;

(2) 錯誤的正例(False Positives,FP):檢測出的虛警數目;

(3) 真實的負例(True Negatives,TN):真值為負例且被分為負例;

(4) 錯誤的負例(False Negatives,FN):漏檢的艦船數目。

因此,檢測率表示如下:

其中,GT (Ground Truth)為真實艦船總數。虛警率PF定義為

檢測精確度Precision定義為

召回率Recall定義為

平均精確度mAP定義為

其中,Pr(Re)為在不同的置信度閾值下,由檢測精確度和召回率所構造的曲線。

4.3 實驗結果分析

本文基于公開SAR圖像數據集SSDD和AIRSARship-2.0完成實驗。圖5展示了顯著目標增強預處理操作效果圖。與原圖對比,由于在SAR圖像中艦船相對海面背景具有顯著特征,因此在添加預處理操作后,能夠明顯增強目標與背景對比度。盡管在某些圖像中也包含了顯著的建筑目標,但并不影響突出顯示艦船目標,依然能夠對提升艦船檢測性能提供一定幫助。同時,表1中最后兩行為是否加入預處理操作的數值效果度量。可以看出,本文提出方法無論是檢測率、虛警率或平均精確度均有更好表現。圖6表示是否經過圖像預處理的檢測方法對比結果。其中,綠色框表示真值,橘色框表示檢測結果,藍色框表示漏警目標。可以看出,添加預處理方法后,能夠實現目標與背景的對比度增強并提升圖像質量,從而對于較小、較弱目標及密集排列目標等,能夠有效提升檢測性能。

圖5 添加預處理效果圖Fig.5 The result diagram of the preprocessing module

表1 基于全部實驗數據的不同方法檢測性能對比Tab.1 Comparison of detection performance of different methods based on all dataset

圖6 是否加入本文預處理方法檢測結果對比圖Fig.6 The result diagram of the ship detection method with the preprocessing module added or not

圖7和圖8分別為兩數據集部分樣本艦船檢測結果。由此可以直觀看出,本文所提出的方法在不同背景下,對不同尺度目標均能實現良好檢測。其中,測試集共包含459個目標,439個目標被準確測出,也同時產生了16個虛警目標。因此其檢測率為95.64%,虛警率為3.48%。深度學習領域中的評價指標,IoU閾值范圍在0.5~1.0時,mAP為92.49%。當IoU為0.5時,檢測精確度為95.47%。本質上,召回率應等于傳統(tǒng)評價指標中的檢測率,為95.64%。以上結果表明,本文所提出的方法能夠實現較好的檢測效果。

圖7 本文方法基于SSDD數據集的檢測結果圖Fig.7 The ship inspection result diagram based on SSDD dataset of the method proposed in this paper

圖8 本文方法基于AIR-SARship數據集的檢測結果圖Fig.8 The detection result diagram based on AIR-SARship dataset of our approach

為了進一步驗證檢測算法能力,本文將所提出方法與最新目標檢測方法:單階段的Yolov5,Yolov4[24],SSD[21]等,雙階段的Faster R-CNN[16],PANet[18],以及輕量化方法Yolov3-tiny[23],Yolov2-tiny[22]等方法進行了對比。圖9展示了本文方法與其他幾種經典方法的檢測對比結果。其中,綠框和紅框分別表示真值目標框和檢測結果框,而紅圈和藍圈分別表示虛警和漏警。可以看出,輕量化算法Yolov3-tiny的檢測結果中出現較多的虛警和漏警目標,而本文方法與Yolov5和PANet相比,具有相對更好的檢測性能,能夠實現良好的檢測效果。

圖9 不同方法檢測結果對比圖Fig.9 Comparison chart of detection results of different methods

此外,表1展示了實驗統(tǒng)計結果,對比了基于前述評價指標的各方法檢測性能數值。由此可得,在本文所提方法相較于NanoDet有較高的性能提升,因而文中所述優(yōu)化方法確實能夠實現提升目標檢測方法的性能。同時,本文所提方法檢測平均精確度比Yolov4高約4個百分點,比Yolov5和PANet提高約2個百分點,且相較于經典目標檢測方法Faster R-CNN,SSD以及其他輕量化方法等,本文提出方法能夠獲得更好的檢測效果。同時,表1中最后一列為512×512像素大小的圖像樣本檢測時間。對于SSDD數據集,每張圖像的尺寸大小不同,但均在512×512左右。本文實驗過程中,測試一張653×469大小的圖像需要6.19 ms,測試一張500×505大小的圖像需要5.04 ms。而對于AIRSARship數據集,每張圖像大小為1000×1000,測試一張圖像的時間為19.53 ms。因此,通過像素轉換,平均完成處理一張512×512像素的圖像需要5.22 ms。相較于目前優(yōu)秀檢測方法Yolov5,其檢測速度能夠達到其7倍左右。因此,本文所提方法不僅能夠實現良好檢測,且具有較高處理速度,能夠滿足實際應用中所需實時性要求,因此具有較高的實用價值。

圖10為基于SSDD數據集和AIR-SARship-2.0數據集訓練所得實驗結果。圖中線條為各方法的精度-召回率曲線,表示了整體網絡模型的檢測性能。該曲線覆蓋的面積越大,表示模型性能越好。由此可以看出,本文提出的方法具有與最新方法相當的檢測性能,但能獲得更快的處理速度。

圖10 不同方法精度-召回率曲線Fig.10 Precision-Recall curves of different methods.

5 結論

本文基于NanoDet與顯著性提出一種實時SAR圖像艦船檢測方法。在公開艦船檢測數據集上實驗表明,相較于其他方法,本文算法在保證具有較高檢測精確度的同時,也能有效降低檢測時間。且對于不同尺寸、形態(tài)的目標及不同環(huán)境背景下均能實現較好的檢測效果。該方法能夠適應各種實時性高的檢測應用任務,如緊急救援、實時目標監(jiān)控和軍事部署等。其具有較高的研究意義,并為未來的輕量化模型硬件移植打下基礎。

猜你喜歡
檢測方法模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應用
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
主站蜘蛛池模板: 久久无码高潮喷水| 亚洲国产欧洲精品路线久久| 久久久久亚洲精品成人网| 日韩福利在线视频| 天天综合色网| 97青草最新免费精品视频| 亚洲成肉网| 亚洲第一成网站| 免费观看国产小粉嫩喷水| 99ri精品视频在线观看播放| 免费观看无遮挡www的小视频| 婷婷综合亚洲| 亚洲成人在线免费| 色婷婷丁香| 免费看的一级毛片| 91美女视频在线观看| 中字无码精油按摩中出视频| 美女国内精品自产拍在线播放| 孕妇高潮太爽了在线观看免费| 国产91精品调教在线播放| 亚洲无码免费黄色网址| 女高中生自慰污污网站| 国产www网站| 狠狠色噜噜狠狠狠狠色综合久| 99久久国产精品无码| 久久综合结合久久狠狠狠97色| 99精品欧美一区| 丰满人妻久久中文字幕| 亚洲av日韩综合一区尤物| 久久这里只有精品8| 国产在线精彩视频二区| 欧类av怡春院| 国产免费人成视频网| 亚洲AV无码乱码在线观看代蜜桃| 国产一区免费在线观看| 国产成人综合日韩精品无码不卡 | 国产精品美女免费视频大全 | 2020国产免费久久精品99| 国产欧美高清| 久草青青在线视频| 欧美日本在线观看| 亚洲开心婷婷中文字幕| 国产在线自乱拍播放| 国产日本欧美亚洲精品视| 欧美国产另类| 久久一本日韩精品中文字幕屁孩| a国产精品| 第九色区aⅴ天堂久久香| 99久久99视频| 国产凹凸视频在线观看| 亚洲欧美成aⅴ人在线观看| 高潮毛片无遮挡高清视频播放| 日本欧美午夜| 国产在线麻豆波多野结衣| 国产精品成| 91福利片| a欧美在线| 国产精品福利导航| 中文字幕在线观| 久久综合一个色综合网| 国产乱人伦精品一区二区| 天天摸天天操免费播放小视频| 精品亚洲麻豆1区2区3区| 国产成人精品日本亚洲77美色| 国产日韩AV高潮在线| 91黄色在线观看| 无码内射中文字幕岛国片| 日韩大乳视频中文字幕| 亚洲欧美一区在线| 国产美女精品人人做人人爽| 3p叠罗汉国产精品久久| 青青极品在线| 婷婷综合缴情亚洲五月伊| 无码电影在线观看| 9999在线视频| 亚洲va视频| 亚洲国产综合精品中文第一| 国产在线自乱拍播放| 亚洲第一黄色网址| 手机在线免费不卡一区二| 中文字幕无码制服中字| 久久久久国产精品嫩草影院|