999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的尺度自適應(yīng)海面目標跟蹤算法

2021-01-16 03:34:20鐘雨軒岳琪琪李小毛
水下無人系統(tǒng)學(xué)報 2020年6期

吳 翔, 鐘雨軒, 岳琪琪, 李小毛

基于深度學(xué)習(xí)的尺度自適應(yīng)海面目標跟蹤算法

吳 翔1, 鐘雨軒2, 岳琪琪1, 李小毛1

(1. 上海大學(xué) 機電工程與自動化學(xué)院, 上海, 200444; 2. 上海大學(xué) 計算機工程與科學(xué)學(xué)院, 上海, 200444)

相比于普通場景的目標跟蹤, 無人艇海面目標跟蹤具有目標尺度變化大、目標抖動劇烈和視角變化大等獨特挑戰(zhàn)。針對此, 文中提出了基于深度學(xué)習(xí)的尺度自適應(yīng)海面目標跟蹤算法, 以樣本中心點是否落在真實目標框內(nèi)對樣本進行分類, 直接回歸中心點到目標框上下左右的距離預(yù)測目標框的位置和尺度。同時, 建立了海面目標跟蹤算法評估平臺, 以驗證所提算法的有效性。試驗結(jié)果表明, 文中算法相比基于錨框的算法跟蹤位置精度提升了4.8%, 成功率提升了11.49%, 有效解決了目標尺度自適應(yīng)問題。

無人艇; 尺度自適應(yīng); 深度學(xué)習(xí); 目標跟蹤

0 引言

無人艇是一種能夠自主航行的水面運動平臺, 在軍用和民用等領(lǐng)域都發(fā)揮著巨大作用。視覺感知是無人艇環(huán)境感知的重要組成部分, 能為無人艇提供豐富的海面目標外觀信息。海面目標跟蹤作為視覺感知的重要研究任務(wù), 對于海面目標行為分析等方面有著重要意義[1]。海面目標跟蹤任務(wù)的定義為: 根據(jù)海面圖像序列第1幀中海面目標的信息, 該任務(wù)負責(zé)在之后的每一幀圖像中定位出該目標[2-3]。不同于普通場景的目標跟蹤任務(wù), 海面目標跟蹤雖背景較為簡單, 但具有目標尺度變化大(見圖1)等特點。

圖1 目標尺度變化

目前較流行的目標跟蹤算法有基于相關(guān)濾波器跟蹤算法和基于孿生網(wǎng)絡(luò)跟蹤算法。基于相關(guān)濾波器跟蹤算法通過循環(huán)樣本集訓(xùn)練一個二維濾波器來尋找圖像中目標的位置, 并根據(jù)循環(huán)矩陣在傅里葉域?qū)腔男再|(zhì), 將復(fù)雜的時域運算轉(zhuǎn)化到傅里葉域元素間的點乘運算, 大大減少了運算量, 提高了跟蹤算法效率[4]。在基于相關(guān)濾波器的跟蹤算法中, 解決目標尺度問題的算法包括判別式尺度空間跟蹤(discriminative scale space tracking, DSST)算法[5]、多特征尺度自適應(yīng)(scale adaptive multiple feature, SAMF)算法[6]、核相關(guān)濾波器與檢測建議(kernelized correlation filter with detection proposal, KCFDP)算法[7]、可伸縮核相關(guān)濾波器(scalable kernel correlation filter, SKCF)算法[8]、積分邊界中心相關(guān)濾波器(integrating boun- dary and center correlation filter, IBCCF)算法[9]等, 該類目標跟蹤算法大部分使用手工特征, 或使用應(yīng)用于分類任務(wù)的預(yù)訓(xùn)練網(wǎng)絡(luò)提取特征, 無法形成端到端的訓(xùn)練。

2016年, Bertinetto等[10]首次將孿生網(wǎng)絡(luò)用于視覺目標跟蹤領(lǐng)域, 提出SiamFC跟蹤器, 該跟蹤器采用第1幀作為模板, 在后續(xù)幀中通過相似性匹配尋找目標位置, 通過采樣3種不同尺度樣本分別與模板幀作相似性匹配以獲得最佳尺度。Li等[11]將目標檢測領(lǐng)域的區(qū)域建議網(wǎng)絡(luò)(region proposal network, RPN)[12]引入到跟蹤器中, 提出SiamRPN跟蹤器, 該跟蹤器對每一個候選區(qū)域設(shè)置尺度以及長寬比不同的框, 將其稱為錨框(anchor), 對錨框進行分類和回歸, 更好地預(yù)測了目標尺度, 提高了跟蹤器的速度和定位精度。基于錨框的目標跟蹤算法雖然獲得了很好的效果, 但是其對尺度的預(yù)測效果受錨框的限制, 需要仔細調(diào)節(jié)與之相關(guān)的超參數(shù), 對于已經(jīng)訓(xùn)練好的網(wǎng)絡(luò), 錨框的尺寸和長寬比是固定的, 因此不適用于尺度變化較大的場景。

文中使用基于深度學(xué)習(xí)的算法, 能夠提取到特征表達能力更強且更適用于目標跟蹤任務(wù)的深度特征。同時, 文中提出的尺度自適應(yīng)目標跟蹤算法是不依賴于錨框的, 由候選區(qū)域的中心點是否在真實目標框(groundtruth, GT)內(nèi)判斷正負樣本, 然后直接回歸點到GT上下左右的距離, 更適用于海面目標尺度變化大的場景。同時, 為了驗證文中算法的有效性, 搭建了海面目標跟蹤算法評估平臺, 選取尺度變化大的視頻序列進行定性和定量分析, 試驗結(jié)果表明文中算法能夠更好的應(yīng)對目標大尺度變化。

1 方法提出

1.1 孿生網(wǎng)絡(luò)目標跟蹤算法

圖2 孿生網(wǎng)絡(luò)結(jié)構(gòu)圖

1.2 問題分析

將SiamRPN跟蹤器應(yīng)用于海面目標跟蹤數(shù)據(jù)集, 發(fā)現(xiàn)其表現(xiàn)效果并不好。在分析其原因之前, 首先簡單介紹SiamRPN跟蹤器的目標跟蹤過程。SiamRPN跟蹤器共有17×17個候選區(qū)域, 對于每一個候選區(qū)域設(shè)置尺度以及長寬比不同的錨框, 在訓(xùn)練過程中根據(jù)錨框與GT的交并比(intersection-over-union, IOU)大小對錨框分類, 設(shè)置分類標簽, 將與GT的IOU大于0.6的錨框設(shè)置為正樣本, 其余設(shè)置為負樣本, 最后再將錨框向GT回歸。如上所述, 基于錨框的目標跟蹤算法的訓(xùn)練過程注定其表現(xiàn)效果對錨框的尺寸、長寬比和數(shù)目非常敏感, 與錨框相關(guān)的超參數(shù)需要針對不同對象大小或長寬比進行仔細的調(diào)節(jié)。而且目標跟蹤的對象為視頻序列, 由于海面船只目標跟蹤數(shù)據(jù)集的特點, 即跟蹤的船只目標尺度在整個序列中變化較大, 注定錨框的設(shè)置不能很好地適應(yīng)每一幀目標。圖3是錨框與GT的可視化圖, 圖4表示海面目標數(shù)據(jù)集中一個尺度變化大的序列SingleShip05視頻中, 錨框與GT最大的交并比幀數(shù)的變化曲線圖, 從圖中可以看出, IOU值越大比例越少, 說明對于大多數(shù)圖像其錨框的設(shè)置并不是很合理, 也表明基于錨框的算法在處理形變較大的候選對象時比較困難, 而且設(shè)置的錨框數(shù)量越多, 網(wǎng)絡(luò)的維度也越大, 增加了計算量。文中提出的目標尺度自適應(yīng)算法是基于無錨框(anchor-free)的, 對候選區(qū)域的分類是基于點的, 可以保證正樣本的中心點一定落于GT內(nèi), 然后直接回歸點到目標框上下左右的距離來確定目標的位置和尺度, 更適用于海面目標大尺度變化的場景。

圖3 SingleShip05視頻中錨框與GT可視化圖

圖4 SingleShip05視頻中錨框與GT最大交并比變化曲線

1.3 尺度自適應(yīng)海面目標跟蹤算法

圖5 標簽設(shè)計示意圖

Fig. 5 Diagram of label design

1.3.1 網(wǎng)絡(luò)結(jié)構(gòu)

圖6 文中算法網(wǎng)絡(luò)結(jié)構(gòu)圖

1.3.2 損失

分類分支采用焦點損失(focal loss)[14], 表示為

回歸分支采用交并比損失(IOU loss), 表示為

總的損失為

1.3.3 網(wǎng)絡(luò)訓(xùn)練

如圖7所示, 上下2行對應(yīng)為1個訓(xùn)練圖像對, 每個圖像對都是從同一個視頻序列中隨機獲得。對圖像進行預(yù)處理, 第1行圖像大小為127 px×127 px, 第2行圖像大小為255 px×255 px, 若大小超過了原圖像的大小, 則用圖像紅綠藍三通道的平均像素值填充圖像。

圖7 訓(xùn)練圖像對

Fig. 7 Training image pairs

1.3.4 跟蹤過程

文中算法目標跟蹤過程的輸入與SiamFC相同。模板分支固定為第1幀, 因此只需要計算1次, 將當前幀搜索圖像塊輸入網(wǎng)絡(luò), 網(wǎng)絡(luò)前向傳播獲得分類和回歸的結(jié)果。將分類輸出和回歸輸出分別表示為

2 試驗與分析

2.1 目標跟蹤算法評估準則

以安裝在水面無人艇上的環(huán)境感知攝像機拍攝的真實圖像序列作為文中算法性能評估的測試數(shù)據(jù)集, 并按照OTB100目標跟蹤數(shù)據(jù)集[2-3]公開的統(tǒng)一標準進行人工標注。采集的海面數(shù)據(jù)集包含30個圖像序列, 其中包括目標被遮擋、目標平面外旋轉(zhuǎn)、目標超出視野、目標尺度變化和背光等情況。

基于上述測試數(shù)據(jù)定性分析文中算法的有效性, 定量評估文中算法的成功率和精確度。通常利用精確度和成功率曲線圖對跟蹤算法的性能進行排名, 用曲線與橫縱坐標所圍成的面積來量化表示, 其取值范圍為0~1, 越接近1代表算法的跟蹤效果越好。精確度曲線圖的橫坐標為中心距離閾值, 縱坐標為中心距離小于對應(yīng)橫坐標閾值幀數(shù)與視頻總幀數(shù)的比值。中心距離定義為跟蹤算法得到的目標框的中心坐標與GT的中心坐標之間的歐式距離, 即

從式(10)可以看出, 精確度評估只考慮了目標框的位置而沒有考慮目標框的尺度, 常用于評估目標尺度固定的跟蹤算法的精度。因此進一步使用成功率曲線圖評估算法性能。成功率曲線圖的橫坐標為重疊率閾值, 縱坐標為重疊率超過對應(yīng)的橫坐標閾值的幀數(shù)與視頻總幀數(shù)的比值。重疊率數(shù)值越大表示計算結(jié)果越理想。

使用一次性通過評估(one-pass evaluation, OPE)和時間魯棒性評估(temporal robustness eva- luation, TRE)來評估文中算法的性能。OPE在視頻的第1幀利用真實的目標位置對跟蹤算法進行初始化, 使用跟蹤算法得到后續(xù)幀中目標的位置。TRE評估首先將整個跟蹤序列去除掉目標不存在的圖像幀, 然后將剩下的圖像幀平均分為若干段, 將每個時間段的初始位置設(shè)定為跟蹤的初始幀, 跟蹤器被初始化并運行直到序列結(jié)束。

2.2 試驗驗證

選擇SiamFC和SiamDW[15]2個跟蹤算法與文中算法進行對比(SiamDW算法在SiamRPN算法的基礎(chǔ)上對基礎(chǔ)特征提取網(wǎng)絡(luò)進行了改進, 與文中算法的基礎(chǔ)特征提取網(wǎng)絡(luò)相同, 因此選擇該算法進行對比)。圖8為不同目標跟蹤算法和GT的可視化結(jié)果, 圖中紅框表示GT; 黃框表示SiamFC算法的跟蹤結(jié)果; 綠框表示SiamDW算法的跟蹤結(jié)果; 藍框表示文中算法的跟蹤結(jié)果。從圖8第1、2行可以看出, 相較于SiamFC算法和SiamDW算法, 文中算法能夠較好地處理目標尺度由小變大和由大變小的情況, 且位置精度能夠得到保障。從第2行可以看出, 文中算法能夠很好地處理超出視野的情況, 而SiamFC這種通過尺度采樣預(yù)測目標最佳尺度的算法在超出視野的情況下尺度預(yù)測效果很差。

圖9為采用OPE評估的跟蹤算法精確度和成功率曲線, 其中圖9(a)為在30個海面目標跟蹤數(shù)據(jù)集上的評估結(jié)果, 圖9(b)為在挑選的目標尺度變化大的海面目標跟蹤數(shù)據(jù)集上的評估結(jié)果, 圖中SiamR表示文中算法。從圖9(a)中可以看出, 文中算法表現(xiàn)性能較好, 精確度達到87%, 成功率達到59.9%, 分別比SiamDW算法提升4.8%和11.49%。3種算法的精確度差別不大, 但在成功率方面SiamDW算法較低, 主要原因是對于目標大尺度變化情況, 基于錨框的目標跟蹤算法效果較差。從圖9(b)中可以看出, 在目標大尺度變化的數(shù)據(jù)集上, 文中算法比其他2種算法的效果提升更多, 也進一步證明了文中算法能夠更好地適應(yīng)海面目標尺度變化大的情況。

圖8 目標跟蹤效果可視化圖

圖10為在30個海面目標跟蹤數(shù)據(jù)集上通過時間魯棒性評估的跟蹤算法精確度和成功率曲線, 從圖中可以看出, 文中算法的魯棒性較好, 但與SiamFC算法的差距較小, 其主要原因是, 將圖像幀分為若干段后, 處于后面時間段的序列所包含的圖像幀較少, 在圖像幀較少的序列中目標尺度變化很小, 無法凸顯文中算法的優(yōu)越性。

圖9 OPE評估精確度和成功率曲線

Fig. 9 Precision and success rate curves of OPE

圖10 TPE評估精確度與成功率曲線

Fig. 10 Precision and sucess rate curves of TPE

3 結(jié)束語

基于深度學(xué)習(xí)的尺度自適應(yīng)海面目標跟蹤算法提出一種新的尺度自適應(yīng)方法, 該算法采用孿生網(wǎng)絡(luò)結(jié)構(gòu), 直接回歸候選區(qū)域中心點獲得最終目標框, 而不再依賴于錨框, 更適用于目標尺度變化較大的海面船只目標跟蹤。為了驗證文中算法的有效性, 在基于真實應(yīng)用場景建立的無人艇海面目標跟蹤測試序列中進行了定量和定性分析。試驗表明, 相比基于錨框的算法, 文中算法能夠更有效地解決海面目標跟蹤場景中目標尺度自適應(yīng)問題, 跟蹤精度達到87%, 跟蹤成功率達到59.9%。

[1] 彭艷, 陳加宏, 李小毛, 等. 時空上下文融合的無人艇 海面目標跟蹤[J]. 中國科學(xué): 技術(shù)科學(xué), 2018, 48(12): 1357-1372.

Peng Yan, Chen Jia-hong, Li Xiao-mao, et al. Sea Surface Object Tracking for USV with Spatio-Temporal Context

Fusion[J]. Scientia Sinica Technologica, 2018, 48(12): 1357-1372.

[2] Wu Y, Lim J, Yang M H. Online Object Tracking: a Benchmark[C]//IEEE Conference on Computer Vision and Pattern Recognition. Portland, OR, USA: IEEE, 2013: 2411-2418.

[3] Wu Y, Lim J, Yang M H. Object Tracking Benchmark[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1834-1848.

[4] Henriques J F, Caseiro R, Martins P, et al. High-Speed Tracking with Kernelized Correlation Filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 583-596.

[5] Danelljan M, Hager G, Khan F S, et al. Discriminative Scale Space Tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(8): 1561-1575.

[6] Li Y, Zhu J. A Scale Adaptive Kernel Correlation Filter Tracker with Feature Integration[C]//European Conference on Computer Vision. Zurich, Switzerland: ECCV, 2014: 254-265.

[7] Huang D, Luo L, Wen M, et al. Enable Scale and Aspect Ratio Adaptability in Visual Tracking with Detection Proposals[C]//Proceedings of the British Machine Vision Conference. Swansea, UK: BMVC, 2015.

[8] Montero A S, Lang J, Laganiere R. Scalable Kernel Correlation Filter with Sparse Feature Integration[C]//2015 IEEE International Conference on Computer Vision Workshop (ICCVW). Santiago, Chile: IEEE, 2015: 587- 594.

[9] Li F, Yao Y, Li P, et al. Integrating Boundary and Center Correlation Filters for Visual Tracking with Aspect Ratio Variation[C]//IEEE International Conference on Computer Vision. Shenzhen, China: IEEE, 2017: 2001-2009.

[10] Bertinetto L, Valmadre J, Henriques J F, et al. Fully- convolutional Siamese Networks for Object Tracking[C]// European Conference on Computer Vision. Amsterdam, Netherlands: ECCV, 2016: 850-865.

[11] Li B, Yan J, Wu W, et al. High Performance Visual Tracking with Siamese Region Proposal Network[C]// IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA: IEEE, 2018: 8971-8980.

[12] Ren S, He K, Girshick R, et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

[13] Tian Z, Shen C, Chen H, et al. FCOS: Fully Convolutional One-Stage Object Detection[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV). South Korea: IEEE, 2020.

[14] Lin T Y, Goyal P, Girshick R, et al. Focal Loss for Dense Object Detection[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2020, 42(2): 318-327.

[15] Zhang Z, Peng H. Deeper and Wider Siamese Networks for Real-Time Visual Tracking[EB/OL]. [2019-03-28]. https://arxiv.org/abs/1901.01660?context=cs.

1. 楊向鋒, 熊淑貞, 石磊. 聲自導(dǎo)魚雷目標跟蹤誤差仿真與分析[J]. 水下無人系統(tǒng)學(xué)報, 2020, 28(5).

2. 王香, 張永林. 基于RBF神經(jīng)網(wǎng)絡(luò)的AUV路徑跟蹤分數(shù)階滑模控制[J]. 水下無人系統(tǒng)學(xué)報, 2020, 28(3).

3. 霍宇彤, 郭晨, 于浩淼. 欠驅(qū)動AUV三維路徑跟蹤RBF神經(jīng)網(wǎng)絡(luò)積分滑模控制[J]. 水下無人系統(tǒng)學(xué)報, 2020, 28(2).

4. 程帥, 張秦南, 王立文. 一種機動目標運動要素估計算法[J]. 水下無人系統(tǒng)學(xué)報, 2020, 28(1).

5. 王斌, 溫泉, 范世東. 基于Huber M-CKF的UUV目標跟蹤算法[J]. 水下無人系統(tǒng)學(xué)報, 2020, 28(1).

6. 李鑫, 黃茹楠, 丁寧. 輸入受限的自主水下航行器自適應(yīng)反演控制[J]. 水下無人系統(tǒng)學(xué)報, 2019, 27(6).

7. 桑宏強, 于佩元, 孫秀軍. 基于航向補償?shù)乃禄铏C路徑跟蹤控制方法[J]. 水下無人系統(tǒng)學(xué)報, 2019, 27(5).

8. 杜金香, 許恒博, 祝鵬. 一種角度加權(quán)的最小二乘目標定位算法[J]. 水下無人系統(tǒng)學(xué)報, 2019, 27(5).

9. 姚金藝, 曾慶軍, 周啟潤, 等. 全驅(qū)動AUV系統(tǒng)路徑跟蹤設(shè)計與實現(xiàn)[J]. 水下無人系統(tǒng)學(xué)報, 2019, 27(4).

10. 李娟, 張建新, 楊莉娟, 等. 未知環(huán)境下UUV動態(tài)目標跟蹤導(dǎo)引方法[J]. 水下無人系統(tǒng)學(xué)報, 2019, 27(3).

11. 張思宇, 何心怡, 張馳, 等. 水下多目標跟蹤技術(shù)現(xiàn)狀與展望[J]. 水下無人系統(tǒng)學(xué)報, 2018, 26(6).

Scale Adaptive Sea Surface Target Tracking Algorithm Based on Deep Learning

WU Xiang1, ZHONG Yu-xuang2*, YUE Qi-qi1, LI Xiao-mao1

(1. School of Mechatronic Engineering and Automation, Shanghai University, Shanghai 200444, China; 2. School of Computer Engineering and Science, Shanghai University, Shanghai 200444, China)

Compared with target tracking in common scenes, sea surface target tracking presents unique challenges such as changes in the target scale and perspective as well as intense dithering of targets.Accordingly, a scale-adaptive sea surface target tracking algorithm based on deep learning is proposed. The algorithm classifies samples according to whether the central point of the sample falls to the ground truth and then regresses the distances from the target location to the four sides of the bounding box to predict the position and scale of the target.An evaluation platform for the sea surface target tracking algorithm is also establishedto verify the effectiveness of the proposed algorithm. Experimental results show that compared with the anchor-based algorithm, the tracking accuracy of the proposed algorithm is improved by 4.8% and its success rate is improved by 11.49%, thus effectively solving the problem of target scale adaptation.

unmanned surface vessel; scale adaptation; deep learning; target tracking

吳翔, 鐘雨軒, 岳琪琪, 等. 基于深度學(xué)習(xí)的尺度自適應(yīng)海面目標跟蹤算法[J]. 水下無人系統(tǒng)學(xué)報, 2020, 28(6): 618-625.

U664.82; TP273.2

A

2096-3920(2020)06-0618-08

10.11993/j.issn.2096-3920.2020.06.005

2020-10-15;

2020-12-02.

國家重點研發(fā)計劃資助項目(2017YFC0806700); 科技部重點研發(fā)計劃項目(No.2018YFF0103400); 上海市科學(xué)技術(shù)委員會科研計劃項目(No.17DZ1205001)

吳 翔(1991-), 男, 在讀碩士, 初級工程師, 主要研究方向為無人艇自動控制.

(責(zé)任編輯: 陳 曦)

主站蜘蛛池模板: 手机在线看片不卡中文字幕| 99热这里只有精品5| 91久久夜色精品| 四虎成人在线视频| 免费国产无遮挡又黄又爽| 精品无码视频在线观看| 亚洲国产精品人久久电影| 国产又粗又爽视频| 免费大黄网站在线观看| 久久这里只有精品国产99| 日本欧美一二三区色视频| 狠狠躁天天躁夜夜躁婷婷| 永久天堂网Av| 成年午夜精品久久精品| 国产一区二区三区免费| 亚洲欧洲日韩综合| 国产在线精品人成导航| 欧美成人午夜影院| 国产一区二区免费播放| 99在线观看国产| 国产综合色在线视频播放线视| 亚洲欧美不卡中文字幕| 波多野结衣第一页| 欧美一级黄片一区2区| 四虎永久在线| 亚洲一级无毛片无码在线免费视频| 国产综合欧美| 国产成人高清精品免费软件| 色婷婷在线播放| 99热这里只有精品在线播放| 99久久免费精品特色大片| 五月婷婷精品| 九色综合视频网| 婷五月综合| 国产精品免费久久久久影院无码| 国产成人精品视频一区视频二区| 99免费视频观看| 午夜a级毛片| 午夜视频免费试看| 国产成人艳妇AA视频在线| 欧美性色综合网| 四虎成人免费毛片| 久久免费看片| 国产91色| 中文成人无码国产亚洲| 亚洲侵犯无码网址在线观看| 国产精品99一区不卡| 99精品热视频这里只有精品7| 欧美国产精品不卡在线观看| 亚洲色偷偷偷鲁综合| 免费人成网站在线高清| 国产噜噜在线视频观看| 国产亚洲美日韩AV中文字幕无码成人 | 91久久国产成人免费观看| 五月婷婷伊人网| 久久久成年黄色视频| 国产自在自线午夜精品视频| 91在线精品免费免费播放| 亚洲天堂视频在线播放| 九色综合视频网| 91视频日本| 亚洲国产清纯| 国产精品久久久免费视频| 日韩欧美网址| 免费在线看黄网址| 国产毛片基地| 熟女成人国产精品视频| 在线免费亚洲无码视频| 成人国产精品一级毛片天堂| 四虎影院国产| 国产丝袜无码精品| 久青草免费在线视频| 91麻豆久久久| 99这里只有精品6| 国产欧美视频综合二区| 看你懂的巨臀中文字幕一区二区 | 99成人在线观看| 亚洲成人手机在线| 亚洲国产成人自拍| 国产视频一二三区| 无码啪啪精品天堂浪潮av| 日韩高清一区 |