999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進YOLOv8的遙感圖像檢測算法

2024-07-20 00:00:00程換新矯立浩駱曉玲于沙家
無線電工程 2024年5期

摘 要:針對目前遙感圖像目標檢測算法中存在的誤檢、漏檢和檢測精度低等問題,提出了一種改進YOLOv8 的遙感圖像檢測算法。在主干網絡中引入注意力機制EMA 到C2f 模塊,以提高模型對多尺度目標的特征提取能力;在頸部網絡中提出Slim-PAN 結構,以減少模型計算量;使用WIOU 損失函數代替CIOU 損失函數,以提升模型的檢測精度。通過在DIOR 和RSOD 遙感數據集上的實驗結果表明,改進后的算法與原YOLOv8 算法相比,mAP 分別提升了1. 5% 和2. 3% ,計算量降低了0. 3 GFLOPs,改進算法在不增加計算量的同時能提高檢測精度,證明了改進算法的有效性和先進性。

關鍵詞:遙感圖像;目標檢測;YOLOv8;注意力機制

中圖分類號:TP391. 9 文獻標志碼:A 開放科學(資源服務)標識碼(OSID):

文章編號:1003-3106(2024)05-1155-07

0 引言

遙感圖像是指通過衛星、飛機或其他傳感器從遙遠地面獲取的圖像數據。伴隨著科技的不斷進步和應用需求的不斷增加,遙感圖像在精準農業、地質災害檢測、城市規劃和軍事國防等多個領域都起到了重要作用[1]。對于遙感圖像而言,這些圖像中的目標通常分布密集、尺度差異顯著,而且還會受光照、天氣和其他建筑的影響,檢測背景十分復雜,從而給檢測過程帶來一定的影響[2]。因此,降低誤檢率和漏檢率是此領域亟需解決的問題[3]。

目前,基于深度學習的目標檢測算法根據有無候選區域分為2 類:一類是以R-CNN 系列(R-CNN[4]、Faster R-CNN[5]和Cascade R-CNN[6])為代表的雙階段目標檢測算法;另一類是以YOLO[7]系列(YOLOv3[8]、YOLOv5 和YOLOv6[9])、SSD[10]、Cascade retinanet[11]和CenterNet[12]等為代表的單階段目標檢測算法。單階段目標檢測算法得到了更廣泛的應用是由于它具有更快的識別速度。國內外已有很多學者使用單階段目標檢測算法在遙感圖像檢測領域取得了顯著的成績,Hou 等[13]將MS Trans-former 模塊與CBAM 注意力機制引入YOLOv5 中,形成新的R-YOLO 網絡,提高了對遙感目標的檢測精度。張上等[14]設計了一種能重構特征提取與特征融合的LUSS-YOLO 網絡結構,使其能夠提高檢測精度。Wan 等[15]將多層特征金字塔、多檢測頭策略和混合注意力模塊放入到YOLOv5 中,形成新的YOLOHR 網絡,提高了對光學遙感目標的檢測精度。

雖然上述研究已經找到了有效的方法來提高遙感圖像檢測的準確性,但由于遙感圖像中目標尺度變化范圍大且分布密集,容易出現漏檢、誤檢等情況,并且對于目標的特征提取能力不足,導致檢測精度不高[16]。針對上述問題,本文以YOLOv8n 作為基線網絡,進行了一系列改進和優化。首先,在主干特征提取網絡中將注意力機制EMA[17]引入到C2f模塊中,構成C2f_EMA 模塊,以提升網絡對遙感目標的注意力;其次,在特征融合網絡中提出了SlimPAN 結構,在保證準確性的前提下,降低了計算量;使用WIOU[18]損失函數替換原網絡中的CIOU[19]損失函數,以提高檢測框的定位能力;最后,在DIOR[20]和RSOD[21]公開數據集上進行實驗,結果表明改進后的算法對分布密集且尺寸差異明顯的遙感目標具有良好的檢測效果。

1 YOLOv8 算法

YOLOv8 模型是由Ultralytics 團隊在2023 年1 月提出,本文選擇以YOLOv8n 網絡模型為基本框架,其模型結構如圖1 所示,主要包括輸入端、主干網絡、頸部網絡和頭部模塊。

輸入端:通過Mosaic 數據增強對圖片進行隨機選擇、拼接和旋轉等操作,使模型能夠更好地適應真實世界的復雜場景,具有更好的魯棒性和泛化能力,進而提高模型在復雜背景下對目標的檢測能力。

主干網絡:主要由Conv 模塊、C2f 模塊、SPPF模塊組成。通過Conv 模塊可以改變圖像的分辨率和通道數,實現更好的特征提取;C2f 模塊的核心思想是通過結合全局語義信息和局部目標信息來更好地理解圖像,并使目標檢測器更關注有意義的區域;SPPF 模塊能在同尺度上對特征進行池化,以允許網絡在不同大小的輸入圖像上執行目標檢測,從而提高模型的感受野和魯棒性。

頸部網絡:用于將來自不同層次或不同尺度的特征圖進行融合,以提高模型在多尺度場景下的性能,這種融合機制可以提高模型的感受野,使得模型更適應于處理多尺度的輸入圖像,從而增強了模型的魯棒性和泛化能力。

頭部模塊:采用解耦頭結構,將分類和檢測頭分離,同時將錨框換成了無錨框,減少了設計復雜性,提高了位置精度和模型的泛化能力,使其變得更加靈活。

2 改進YOLOv8n 算法

本文以YOLOv8n 為基線模型,使用C2f_EMA模塊替換原始主干網絡中的部分C2f 模塊,提出Slim-PAN 結構替換原始頸部網絡中的PAN 結構,最后采用WIOU 作為邊界框損失函數。改進后的網絡結構如圖2 所示。

2. 1 EMA 模塊

EMA 模塊是一種新的跨空間學習的高效多尺度注意力模塊,它能夠在保留每個通道上信息的同時將注意力放在感興趣的位置,其結構如圖3 所示。

具體流程如下:首先,對于任何給定的輸入特征映射X,將跨通道維度方向X 劃分為G 個子特征,接下來利用2 條1×1 分支和一條3 ×3 分支來提取分組特征圖的注意力權重描述符。在1×1 分支中,通過2 個一維全局平均池化操作對通道進行編碼,再連接2 個編碼特征之后采用1×1 卷積生成2 個并行的一維特征編碼向量并分別送入Sigmoid 函數中。然后通過簡單的乘法將每個組內的通道注意力圖合并,以實現不同通道之間的交互特征。在3×3 分支中,采用3×3 的卷積操作旨在捕獲局部不同通道的互動特征,從而擴大特征空間。其次,引入了2 個張量。在1×1 分支中,用二維全局平均池化進行全局空間信息編碼,注意在通道特征聯合激活機制前,將最小支路的輸出直接轉化為對應的維度形狀。隨后用自然非線性函數Softmax 來擬合以上的線性變換。通過將并行處理后的輸出與矩陣點積相乘,來獲得一個空間注意力圖。在3×3 分支中,原理與1×1 分支相同。最后,將每組內的輸出特征映射相加,從而生成2 個空間注意力權重值的集合,隨后使用Sigmoid 函數和簡單的乘法操作,使得EMA 的最終輸出與X 的大小相同。

通過將EMA 模塊引入到C2f 中,使模型更加關注于目標區域位置信息,以提高對目標區域的檢測精度,其結構如圖4 所示。Sigmoid 函數和簡單的乘法操作,使得EMA 的最終輸出與X 的大小相同。

通過將EMA 模塊引入到C2f 中,使模型更加關注于目標區域位置信息,以提高對目標區域的檢測精度,其結構如圖4 所示。

2. 2 SlimPAN 結構

遙感圖像通常從無人機、飛機等輕量化設備中獲取,參數量和計算量較大的網絡模型在這些邊緣設備中難以應用,因此本文提出了一種由GSConv[22]和VoVGSCSP[22]構成的輕量化SlimPAN結構。

為了使深度可分離卷積的結果盡可能地近似標準卷積,標準卷積和深度可分離卷積可以聯合使用,將普通卷積、深度可分離卷積混合起來,得到GSConv,其結構如圖5 所示。

具體操作如下:首先,將輸入的圖片進行標準卷積操作,得到通道數為c2 / 2 的特征圖A,接著對特征圖A 進行深度可分離卷積操作,得到通道數為c2 / 2 的特征圖B。然后將特征圖A、B 進行連接,形成特征圖C。最后,將特征圖C 進行混洗操作,得到最后的輸出特征圖。從圖5 可以看出,GSConv 的計算成本約為Conv 的一半,但對模型的貢獻與標準卷積相當。基于GSConv 設計了GSbottleneck 模塊,并在此基礎上使用單階段聚合方法設計了跨階段局部網絡模塊VoVGSCSP,在降低了計算量和復雜度的同時保持了足夠的精度。其中,GS bottleneck 的結構如圖6 所示,VoVGSCSP 的結構如圖7 所示。

2. 3 損失函數

在原YOLOv8n 網絡中,計算預測框的坐標損失所采用的是CIOU 損失函數,其計算公式如下:

式中:wgt、hgt 表示真實框的寬和高,w、h 表示預測框的寬和高,ρ2(b,bgt )表示預測框與真實框中心點之間的歐式距離,IoU 表示真實框與預測框交并比,C表示預測框與真值框的最小外接矩陣的對角線長度,α 表示權重,v 表示衡量長寬比一致性的參數。

雖然CIOU 在DIOU 的懲罰項基礎上添加了一個影響因子αν,但是,當影響因子中的v = 0 時,此時長寬比的懲罰項為0,于是提出單調靜態聚焦機制,引入WIOU 損失函數。其計算公式如下:

式中:Wg、Hg 表示最小包圍框的寬和高,r 表示梯度增益。

3 實驗

3. 1 實驗環境及參數設置

實驗環境為64 位Windows 11 操作系統下搭建的Pytorch 2. 0. 1 深度學習框架,Python3. 8 以及CU-DA 11. 7 編程軟件。計算機CPU 為AMD Ryzen 97945HX,GPU 為NVIDIA GeForce RTX 4060,顯存為8 GB,內存為16 GB,訓練選用的batch-size 為8,epochs 為200。

3. 2 數據集

為驗證算法的可行性,本文在DIOR 遙感數據集和RSOD 遙感數據集進行實驗。其中,DIOR 數據集是一個用于光學遙感圖像目標檢測的大規模基準數據集。該數據集包含23 463 張圖像和192 472 個實例,涵蓋20 個對象類。RSOD 數據集是一個開放的、用于遙感圖像目標檢測的公開數據集,該數據集包含946 張圖像和6 950 個實例,包括4 個對象類。這4 個對象類是飛機、操場、立交橋和油箱,其中由于操場圖像中包含40 張無標注圖像,本文只使用149 張標注過的操場圖像。在實驗中,按照7 ∶ 2 ∶ 1的比例隨機的將數據分成訓練集、驗證集和測試集,以進行實驗。

3. 3 性能評價指標

實驗評價指標采用精密度(Precision,P)、回收率(Recall,R)、平均測量精度(mAP)、浮點運算次數(Giga Floating-point Operations Per Second,GFLOPs)對改進后的網絡進行評估。P、R、mAP 計算如下:

式中:TP 表示模型預測為正向的正樣本,FP 表示模型預測為正向的負樣本,FN 表示模型預測為負向的正樣本,即漏檢數;APi 表示對數據集中的某一種類別求平均精度,k 表示數據集中所有類別的數目。

3. 4 消融實驗

為了分析每個模塊對原網絡的作用和有效性,通過設計4 組消融實驗來分別評估使用C2f_EMA模塊、Slim-PAN 結構、WIOU 損失函數對YOLOv8n的改進效果,結果如表1 所示。分析表1 實驗數據可知,原YOLOv8n 的P、R、mAP、GFLOPs 分別為89% 、79. 3% 、85. 5% 、8. 9。加入C2f_EMA 模塊后,R 和mAP 均有不同程度的提升,說明C2f_EMA 模塊有助于更好地聚焦于網絡關注的地方,從而克制對無關的背景信息的關注。用SlimPAN 結構改進PAN結構,減少了計算量的同時使得P 提高了0. 2% ,R 提高了0. 8% ,mAP 提高了0. 8% ,說明SlimPAN 結構能在實現輕量化的同時提高準確率、召回率和平均精度均值;用WIOU 損失函數替換CIOU 損失函數,P 下降了0. 8% ,R 提高了1. 7% ,mAP 提高了1. 2% ,說明WIOU 損失函數以降低準確率為代價大大提升了召回率和平均精度均值;同時添加C2f_EMA 模塊、Slim-PAN 結構以及WIOU 損失函數后,P 提高了0. 5% ,R 提高了1. 2% ,mAP 提高了1. 5% ,GFLOPs減少了0. 3,取得了最優改進。

3. 5 對比實驗

為了證明所提模型的優勢,在其余所有條件都不變的前提下,利用DIOR 公開遙感數據集在YOLOv3、YOLOv5、YOLOv6、YOLOv8n 以及改進的YOLOv8n 網絡進行了對比試驗,結果如表2 所示。

從表2 可以看出,YOLOv8n 網絡的P、R、mAP指標要明顯優于其他經典YOLO 模型,而改進的YOLOv8n 網絡在計算量低于原YOLOv8n 網絡的前提下,其P、R、mAP 均有不同程度的提升,既實現了網絡的輕量化又提升了對遙感圖像中目標的檢測精度,證明了本文改進方法的有效性。

為了充分反映本文方法的適用性,設置相同的訓練參數,將改進后的YOLOv8n 網絡在RSOD 數據集上進行實驗,結果如表3 所示。

分析表3 實驗數據可知,改進YOLOv8n 網絡的P 提高了0. 4% ,R 提高了5. 3% ,mAP 提高了2. 3% ,計算量GFLOPs 減少了0. 3,證明了本文改進方法的適用性。

本文對DIOR 數據集中檢測效果具有代表性的幾類場景進行改進前后檢測效果的可視化效果進行了展示,如圖8 所示。其中,圖8 (a)1、圖8 (a)3、圖8(b)1、圖8 (b)3、圖8 (c)1、圖8 (c)3 為原YOLOv8n 算法檢測效果圖,圖8 (a)2、圖8 (a)4、圖8(b)2、圖8(b)4、圖8(c)2、圖8(c)4 為改進后的YOLOv8n 算法檢測效果圖。由圖8(a)1、圖8(a)2 的檢測效果可知,在待檢測目標分布密集且尺度變化范圍大的情況下,改進后的算法有效地解決了對于紅框處海港的漏檢問題并且提升了對海港這種大目標的檢測精度。由圖8(a)3、圖8(a)4 的檢測效果可知,在背景復雜且待檢測目標尺度變化范圍大的情況下,改進后的算法有效地解決了對于紅圈處車輛的漏檢。由圖8(b)1、圖8(b)2 的檢測效果對比可知,在待檢測目標分布密集的情況下,原始YOLOv8n 算法錯誤地將房屋陰影處識別為車輛,而改進后的YOLOv8n 算法有效地解決了誤檢問題。由圖8(b)3、圖8(b)4 的檢測效果對比可知,在待檢測目標分布密集且尺度變化范圍大的情況下,改進后的算法完美地解決了對于天橋這種大目標的誤檢。圖8(c)1、圖8(c)2、圖8(c)3、圖8(c)4 的檢測結果表明,在背景復雜且目標尺度變化范圍大的情況下,改進后的算法相比原始YOLOv8n 算法檢測精度更高,檢測效果更好。總體上來說,改進后的算法既解決了目標被漏檢或誤檢的問題又提升了檢測精度,體現了該算法的有效性。

4 結束語

針對復雜背景下遙感圖像目標分布密集、尺度變化范圍較大的檢測難題,將注意力機制EMA 引入到主干網絡部分C2f 模塊中,從而加強網絡在復雜背景下對目標的注意力;提出了Slim-PAN 的結構,使不同尺度之間的特征相互融合,既實現了網絡的輕量化又提升了對遙感目標的檢測精度;使用WIOU 損失函數來替換原網絡中的CIOU 損失函數,解決了當預測框與真實框重合時懲罰項失靈的問題,提高了定位框的準確度。在DIOR 數據集和RSOD 數據集上進行實驗,改進后的YOLOv8n 網絡比原YOLOv8n 網絡的準確率、召回率、平均精度均值分別提高了0. 5% 和0. 4% 、1. 2% 和5. 3% 、1. 5%和2. 3% ,且計算量GFLOPs 降低了0. 3,證明了改進算法既具有適用性又具有有效性。鑒于DIOR 數據集和RSOD 數據集主要包含白天或晴天的遙感圖像,晚上、霧天和雨天等惡劣天氣環境下的圖像很少,因此未來將在惡劣天氣下收集相關遙感圖像并加入DIOR 和RSOD 數據集中,以增強網絡在惡劣環境下的魯棒性和泛化性。

參考文獻

[1] 李阿標,郭浩,戚暢,等. 復雜背景下遙感圖像密集目標檢測[J]. 計算機工程與應用,2023,59(8):247-253.

[2] 余俊宇,劉孫俊,許桃. 融合注意力機制的YOLOv7 遙感小目標檢測算法研究[J]. 計算機工程與應用,2023,59(20):167-175.

[3] 付涵,范湘濤,嚴珍珍,等. 基于深度學習的遙感圖像目標檢測技術研究進展[J]. 遙感技術與應用,2022,37(2):290-305.

[4] GIRSHICK R,DONAHUE J,DARRELL T,et al. Rich Feature Hierarchies for Accurate Object Detection and Se-mantic Segmentation[C]∥Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition.Columbus:IEEE,2014:580-587.

[5] GIRSHICK R. Fast RCNN [C ]∥ Proceedings of theIEEE International Conference on Computer Vision. Santiago:IEEE,2015:1440-1448.

[6] CAI Z W,VASCONCELOS N. Cascade RCNN:Delvinginto High Quality Object Detection[C]∥ Proceedings ofthe IEEE Conference on Computer Vision and PatternRecognition. Salt Lake City:IEEE,2018:6154-6162.

[7] REDMON J,DIVVALA S,GIRSHICK R,et al. You OnlyLook Once:Unified,Realtime Object Detection [C]∥Proceedings of the IEEE Conference on Computer Visionand Pattern Recognition (CVPR ). Las Vegas:IEEE,2016:779-788.

[8] REDMON J,FARHADI A. YOLOv3:An Incremental Improvement[EB / OL]. (2018 - 04 - 08)[2023 - 09 - 04].https:∥arxiv. org / abs / 1804. 02767.

[9] LI C Y,LI L L,JIANG H L,et al. YOLOv6:A Singlestage Object Detection Framework for Industrial Applications[J]. (2022 - 09 - 07 )[2023 - 12 - 04 ]. https:∥arxiv. org / abs / 2209. 02976.

[10] LIU W,ANGUELOV D,ERHAN D,et al. SSD:Single ShotMultibox Detector[C]∥Computer VisionECCV 2016:14thEuropean Conference. Amsterdam:ECCV,2016:21-37.

[11] ZHANG H K,CHANG H,MA B P,et al. Cascade Retinanet:Maintaining Consistency for Singlestage ObjectDetection[J]. (2019-07-16)[2023 -09 -04]. https:∥arxiv. org / abs / 1907. 06881.

[12] DUAN K W,BAI S,XIE L X,et al. Centernet:KeypointTriplets for Object Detection [C]∥ Proceedings of theIEEE / CVF International Conference on Computer Vision.Seoul:IEEE,2019:6568-6577.

[13] HOU Y J,SHI G,ZHAO Y X,et al. RYOLO:A YOLObased Method for Arbitraryoriented Target Detection inHighresolution Remote Sensing Images [J ]. Sensors,2022,22(15):5716.

[14] 張上,張岳,王恒濤,等. 輕量化無人機遙感圖像小目標檢測算法[J]. 無線電工程,2023,53(10):2329-2336.

[15] WAN D H,LU R S,WANG S L,et al. YOLOHR:Improved YOLOv5 for Object Detection in HighresolutionOptical Remote Sensing Images [J ]. Remote Sensing,2023,15(3):614.

[16] 梁秀滿,賈梓涵,于海峰,等. 基于改進YOLOv7 的無人機圖像目標檢測算法[J / OL]. (2023 -10 -17)[2023 -12 - 04 ]. http:∥ kns. cnki. net / kcms / detail / 13. 1097.TN. 20231013. 1804. 010. html.

[17] OUYANG D L,HE S,ZHANG G Z,et al. Efficient Multiscale Attention Module with Crossspatial Learning[C]∥ICASSP 2023 - 2023 IEEE International Conference onAcoustics,Speech and Signal Processing (ICASSP ).Rhodes Island:IEEE,2023:1-5.

[18] TONG Z J,CHEN Y H,XU Z W,et al. WiseIoU:Bounding Box Regression Loss with Dynamic FocusingMechanism[EB / OL]. (2023 -01 -24)[2023 -12 -04].https:∥arxiv. org / abs / 2301. 10051.

[19] ZHENG Z H,WANG P,REN D W,et al. Enhancing Geometric Factors in Model Learning and Inference for ObjectDetection and Instance Segmentation [J ]. IEEETransactions on Cybernetics,2021,52(8):8574-8586.

[20] LI K,WAN G,CHENG G,et al. Object Detection inOptical Remote Sensing Images:A Survey and a NewBenchmark[J]. ISPRS Journal of Photogrammetry andRemote Sensing,2020,159:296-307.[21] LONG Y,GONG Y P,XIAO Z F,et al. 。Accurate ObjectLocalization in Remote Sensing Images Based on Convolutional Neural Networks[J]. IEEE Transactions on Geoscience and Remote Sensing,2017,55(5):2486-2498.

[22] LI H L,LI J,WEI H B,et al. Slimneck by GSConv:ABetter Design Paradigm of Detector Architectures for Autonomous Vehicles[EB / OLJ]. (2022 - 08 - 17)[2023 -12-04]. https:∥arxiv. org / abs / 2206. 02424.

作者簡介

程換新 男,(1966—),博士,教授,碩士生導師。主要研究方向:人工智能、先進控制、機器視覺。

矯立浩 男,(1999—),碩士研究生。主要研究方向:人工智能、深度學習、目標檢測。

(*通信作者)駱曉玲 女,(1966—),博士,教授,碩士生導師。主要研究方向:過程裝備自動化的優化設計。

于沙家 女,(1986—),碩士,講師。主要研究方向:人工智能、先進控制技術。

基金項目:國家自然科學基金(62273192)

主站蜘蛛池模板: 亚洲人成电影在线播放| 亚洲精品777| 成人伊人色一区二区三区| 亚洲swag精品自拍一区| 成人午夜免费观看| 亚洲无码高清一区| 亚洲欧美自拍中文| 国产欧美精品一区aⅴ影院| 2020精品极品国产色在线观看 | 亚洲欧美不卡视频| 欧美成人一级| 成人在线观看一区| 日本手机在线视频| 国产免费a级片| 一级一级一片免费| 国产不卡在线看| 国产91久久久久久| 囯产av无码片毛片一级| 亚洲国产天堂在线观看| 精品伊人久久久香线蕉| 欧美激情第一区| 国产麻豆精品手机在线观看| 日本午夜三级| 114级毛片免费观看| 日韩毛片免费观看| 国产精品55夜色66夜色| 亚洲精品无码成人片在线观看| 日本福利视频网站| 免费毛片全部不收费的| 又黄又湿又爽的视频| 国产精品黄色片| 午夜毛片福利| 第一页亚洲| 成人毛片在线播放| 好吊妞欧美视频免费| 国产欧美视频一区二区三区| 久久久波多野结衣av一区二区| 五月综合色婷婷| 99这里只有精品在线| 伊人久久大香线蕉aⅴ色| 国产日韩欧美视频| 97视频免费在线观看| 欧美成a人片在线观看| 四虎成人精品在永久免费| 99热这里都是国产精品| 婷婷色丁香综合激情| 亚洲三级视频在线观看| 亚洲第一成人在线| 国产精品林美惠子在线观看| 女人18毛片水真多国产| 激情综合激情| 色悠久久综合| 综合色区亚洲熟妇在线| 免费看a毛片| 第一页亚洲| 伊人成人在线| 亚洲第一中文字幕| 91精品久久久无码中文字幕vr| 最新加勒比隔壁人妻| 久久综合丝袜日本网| 国产免费好大好硬视频| 老色鬼欧美精品| 欧美日韩另类在线| 亚洲天堂网在线视频| 人妻21p大胆| 伊人色在线视频| 狠狠色噜噜狠狠狠狠色综合久| 欧美日韩免费| 国产在线观看99| 午夜视频免费试看| 性激烈欧美三级在线播放| 国产无码制服丝袜| h视频在线播放| 国产又大又粗又猛又爽的视频| 亚洲欧美综合在线观看| 亚洲精品综合一二三区在线| 久久无码av一区二区三区| 蜜桃臀无码内射一区二区三区 | 亚瑟天堂久久一区二区影院| 97国产精品视频自在拍| 一本视频精品中文字幕| 特级欧美视频aaaaaa|