999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于衛星遙感影像的茶園精準識別研究

2025-06-27 00:00:00李冬雪李峰趙夢潔丁兆堂馬青平
山東農業科學 2025年4期
關鍵詞:語義模型

Research on Accurate Identification of Tea Gardens Based on Satellite Remote Sensing Images

Li Dongxue',Li Feng2, Zhao Mengjie',Ding Zhaotang3,Ma Qingping'(1. Collge of Agriculture and Biology, Liaocheng University, Liaocheng 2520oo, China;2. Shandong Climate Center, Jinan 250031,China ;3. Tea Research Institute, Shandong Academy of Agricultural Sciences, Jinan 25010o, China)

AbstractDue to the complex and varied textural features and spatial distribution characteristics of tea garden in satelite remote sensing images,it is a challenge to effectively recognize tea garden using traditional methods.Therefore,this study was aimed to achieve precise identification of tea gardens through satelite remote sensing images combined with high-precision semantic segmentation technology.Firstly,according to the satelite images of Rizhao City,the Labelme tool was utilized to accurately annotate the textural information of tea gardens and construct a dataset of tea garden remote sensing images.Based on this dataset,seven semantic segmentation models such as Vgg-unet, Resnet5O-unet and Segformer_b2 were trained using data augmentation techniques for precise identification of tea gardens.The results indicated that among the seven models,Segformer_b2 showed the best property with accuracy of 91.29% ,recall rate of 91.09% ,mean intersection over union(mIoU)of 84.45% and F1-score of 91.20% for tea garden remote sensing image segmentation. To further enhance the performance of the Segformer_b2 model in identifying tea gardens,the multi-head context attention(MCA)mechanism was introduced,and strided convolution was integrated to enhance the model's ability to capture key textural features of tea gardens and its perception and processing capabilities for local details in the images.The improved Segformer-b2 model exhibited enhanced performance in tea garden remote sensing image segmentation with accuracy increased to 91.31% ,recall rate increased to 92.97% ,mIoU increased to 85.87% ,and F1-score increased to 92.12% ,which could achieve the high precision and efficiency identification of tea gardens remote sensing images.This study could not only provide strong support for future precise identification and management of tea gardens,but also showcase the potential of satelite remote sensing technology in the agricultural field.

KeywordsSatellite remote sensing images; Tea garden recognization; Semantic segmentation model

遙感技術具有信息獲取迅速、觀測范圍廣等優點,在資源普查、土地利用規劃、環境監測等領域得到廣泛應用[1-4]。當前,我國茶園面積廣,但茶園信息化管理仍面臨諸多挑戰,如傳統的茶園識別與面積提取往往依賴于人工實地測量和經驗判斷,存在工作量大、成本高、精度低等問題。因此,利用衛星遙感和深度學習技術實現茶園的自動化提取和監測,對于提高茶園管理效率、降低管理成本具有重要意義。

深度學習中的語義分割是計算機視覺研究中的一項基礎但又具有挑戰性的任務[5],語義分割方法可以更好地應用于影像分析、機器視覺識別、視頻監控以及農業生態監測等實際任務[6]。目前,語義分割技術已經在多個領域廣泛應用[7-8] ODong等為應對城市遙感圖像語義分割的類不平衡挑戰,提出DenseU-Net架構與MFB_F損失函數相結合的方法,這提高了對小目標類的識別能力。Li等[10]提出了一種改進的Segformer 網絡,使得算法能夠有效地篩選建筑物的正面信息。沈駿翱等[]利用深度神經網絡識別高分辨率遙感影像信息,同時引入注意力模塊,建立了比現有的U-Net、SegNet、DeeplabV3+等多個模型具有更高準確率、更快預測速度的全新深度語義分割模型Samp;CMNet,用于高分辨率遙感圖像水體提取任務。Wang等[12]提出一種基于DFANet優化的圖像語義分割方法,提高了遙感圖像多類別區域的高效精準識別。Zhang等[13]設計的低空遙感農田圖像語義分割網絡,以IResNet為編碼器核心,強化了特征提取,提升了農田作物與空位的分割精度。

在茶園識別提取中,Chen等[14]利用機器學習分類器支持向量機和隨機森林提取茶園分布,總體準確率分別為 90.79% 和 89.42% ;Yao 等[15]提出R-CNN模型預測茶園的空間分布,結果顯示F1分數和平均交并比( ΠmIoU )分別為 88.5% 和79.3% ,同時發現茶園邊界容易與其他地物混合,從而導致茶園分類錯誤。盡管現有方法在茶園遙感監測中取得了一定的成果,但仍存在茶園與其他地物錯分、識別準確率較低等問題。因此,本研究基于日照市的衛星遙感影像,選用 ΔVgg-unet 、Resnet50-unet和Segformer_b2等7種經典語義分割模型進行訓練,首先從中篩選出最適合茶園識別提取的模型,然后引人MCA(Multi-headCon-textAttention)注意力機制,并融合條形卷積(Stri-dedConvolution)對選定模型進行改進,以提高模型對茶園關鍵紋理特征的捕獲能力和對圖像局部細節的感知和處理能力,從而為實現茶園的精準識別和茶園面積的準確提取提供良好的技術支持。

材料與方法

1.1 研究區域概況及數據獲取

本研究區域選在山東省東南部的日照市L (35°04~36°25N,118°35~119°39E) ,其總面積約為5 358.57km2 。日照市地形多樣,自南向北依次展現出山區、丘陵、平原的過渡特征,其中山區和丘陵地帶占據較大比例,這為茶樹等特色農作物的種植提供了得天獨厚的土壤和氣候條件。

本研究選擇日照市2022年9月—2023年8月共計12個月的Planet3B遙感影像以及Google高清影像作為數據源,數據大小共有5.15GB。

Planet3B影像是由Planet公司提供的正射級數據產品,該產品經過傳感器、輻射定標和正射校正等處理,地面分辨率為 3m ,以GeoTIFF格式提供,包含多波段反射率圖像及相應的元數據,構成完整的影像數據集。Google高清影像數據通過谷歌地球(https://earth.google.com/web/)平臺獲取。

在ArcGIS軟件中利用系統工具箱SpatialAnalystTools.tbx中的影像分割與分類工具導出深度學習的訓練數據,切片大小設置為1024像素 ×1024 像素,導出格式為png,共切出7635張圖片,然后在Labelme軟件中對茶園進行標注,共標注了1916張茶園。將數據集裁剪好后按照9:1劃分為訓練集、驗證集,對訓練集數據進行在線增強,通過隨機變換如平移、旋轉等形成新的訓練數據,從而間接提高數據的多樣性和模型的泛化能力。

1.2 實驗參數設置與模型訓練

使用Intel@ CoreTM i5-9300H CPU @ 2.40GHz搭配NVIDIA GeForceGTX1660 Ti 顯存的GPU,在Windows11操作系統下配置深度學習環境,借助 Anaconda 軟件平臺建立虛擬環境,并選用Py-Torch 框架和 PyCharm Community Edition 2024.1.1版本,對 Vgg-unet、Resnet5O-unet、Mobilenet-psp-net、Resnet5O - pspnet、Mobilenet_Deeplabv3 + !Xception_deeplabv3 + 和Segformer_b2共7種經典語義分割模型進行訓練,選擇性能最高的模型進行改進。7種經典語義分割模型的具體信息見表1。

1.3 改進Segformer_b2模型對茶園進行提取識別

針對篩選出的高性能Segformer_b2模型進行改進:首先,為了增強模型的紋理特征提取能力,引入MCA機制,以捕捉茶園圖像中從微觀細節到宏觀結構的各種特征,進而更精確地識別茶園邊界和內部結構;其次,為了進一步提升模型的空間感知能力,融合條形卷積到Segformer_b2模型中,以增強模型對茶園區域內部紋理和形狀特征的感知,有效捕捉圖像中的長距離依賴關系,幫助模型更好地理解茶園區域的連續性和一致性;最后,為了平衡茶園識別任務中正負樣本和難易樣本之間的權重,改進了DiceLoss和FocalLoss的混合損失函數,以優化模型對茶園區域的分割精度。

表17種經典語義分割模型介紹及工作原理對比

在模型訓練完成后,利用mIoU、精確率(Pre-cision)、召回率(Recall)和F1分數(F1-score)進行性能評估,一般來說,值越高模型的性能越好[16]。其計算公式如下:

式中,TP、FP、FN、TN依次表示正確識別數目、錯誤識別數目、目標類被識別成其他類的數目、正確識別其他類的數目[17];P表示精確率;R表示召回率;F1表示F1分數。

2 結果與分析

2.1 7種經典語義分割模型在茶園識別中的性能比較

用7種不同經典語義分割模型對茶園遙感影像數據集進行訓練,從損失函數(Loss)的變化曲線(圖1)來看,Mobilenet-pspnet和Mobilenet_Deeplabv3 + 模型在整個訓練過程中呈現出較大的波動,表明這兩個模型在訓練過程中穩定性較差。相比之下, ΔVgg-unet 和Resnet50-unet 模型在前半段波動較大,但隨后逐漸趨于平穩,顯示出較好的訓練穩定性。Resnet50-pspnet 和 Xception-deeplabv 3+ 模型在第60個訓練輪次(Epoch)后逐漸收斂,loss值穩定在 0.10~0.15 之間,表明這兩個模型在訓練后期具備較好的收斂性。而 Seg-former_b2模型在整個訓練過程中波動較小,訓練過程平穩,顯示出優越的擬合效果。

進一步分析mIoU的變化曲線(圖2),發現Vgg-unet、Resnet5O-unet 和 Xception-deeplabv. 3+ 模型在前60個Epoch中mloU曲線趨勢不穩定,波動較大,但在80個Epoch后逐漸趨于平穩,并達到約 80% 的水平。Mobilenet-pspnet 和 Res-net50-pspnet模型在前40個Epoch內表現相對平穩,但在隨后的20個Epoch中出現了不同程度的波動,其中 Mobilenet-pspnet 的波動幅度超過10% ,而Resnet50-pspnet的波動幅度較小,最終 兩者均穩定在 80% 左右。Mobilenet_Deeplabv3 + 和Segformer_b2模型在整個驗證過程中均表現出 穩定的mIoU變化曲線,表明其性能更加優越

觀察7種語義分割模型在茶園識別提取中的效果(圖3), ΔVgg-unet 和Resnet50-unet模型對茶園存在一定程度的錯分且茶園邊緣分割較粗糙;Resnet5O-pspnet 和 Xception-deeplabv 3+ 模型對茶園邊緣分割較平滑,但也存在少量的茶園錯分;Mobilenet-pspnet和Mobilenet_Deeplabv3 + 模型對茶園邊界的分割較粗糙,且對小范圍茶園的提取不精細;Segformer_b2模型也存在少量茶園邊緣識別不準確的現象,但總體而言,其邊緣分割效果相較于其他模型更為平滑和精細,能夠準確捕捉到茶園與周圍環境的細微差別,從而在邊緣處實現更清晰的分割。相比而言,Segformer_b2模型在茶園識別中的效果最好,

圖1" 7種經典模型的訓練曲線變化對比

性能指標對比結果(表2)表明,Segformer_b2模型的精確率、召回率、茶園IoU(tea-IoU)、背景IoU( BG-IoU )、mIoU和F1分數最高,分別是91.29% 、91. 09% ! 74.00% 、95. 00% ! 84.45% 和91.20% ,展現出了最優的綜合性能。表明 Segformer_b2模型在茶園圖像語義分割任務中不僅具有較高的準確性,而且能夠較為全面地識別出圖像中的各類語義區域

圖2" 7種經典模型訓練過程中的平均交并比變化對比"
標題
表2" 7種語義分割模型性能評價指標對比
注:Tea-IoU、BG-IoU、mIoU分別是茶園交并比、背景交并比、平均交并比,下同。

綜合以上分析,Segformer_b2模型在7種經典語義分割模型中脫穎而出,不僅在訓練過程中展現出優異的穩定性,而且在mIoU指標上也取得了顯著的優勢。因此,本研究選用該模型進行改進優化,以滿足基于衛星遙感影像精準識別茶園的需求。

2.2 改進Segformer_b2模型在茶園識別中的性能分析

為進一步提高茶園識別的準確度,本研究引入MCA機制及融合條形卷積對Segformer_b2模型進行改進,同時改進DiceLoss和Focal Loss的混合損失函數。Segformer_b2模型改進前后的結構見圖4。

圖4Segformer_b2模型改進前(a)后(b)的結構對比

改進前后的模型性能對比結果(表3)顯示,在茶園識別的語義分割任務中,引入MCA機制和融合條形卷積后,Segformer_b2_MCA_SC模型的mIoU和F1分數均獲得一定程度的提升,分別由84.45% 和 91.20% 提升至 85.58% 和 91.94% ,表明模型在識別茶園區域時能夠更好地捕捉茶園與背景之間的邊界。改進后的最終模型Segformer_b2_all_mixloss精確率、召回率、 Ω.Tea-IoUΩ,BG-IoU. mloU、F1分數均較Segformer_b2有明顯提升,分別達到 91.31% 1 92.97% ! 76.00% ! 96. 00% !85.87% 、 92.12% ,表明模型能對難以分類的樣本給予更多關注,從而更全面地覆蓋目標區域,減少識別錯誤和遺漏。

同時,觀察訓練曲線(圖5)和mIoU(圖6)發現,改進前后的模型訓練損失(trainloss)均隨著迭代次數的增加而逐漸下降,表明模型在逐步收斂。相較于原始Segformer_b2,引入MCA機制(Segformer_b2_MCA)或融合條形卷積(Segformer_b2_SC)的模型訓練損失下降更快,表明這些機制有助于模型更快地收斂;同時引入MCA機制和融合條形卷積的模型(Segformer_b2_MCA_SC)訓練損失下降最為迅速,證實了兩者結合的優勢;而進一步改進損失函數后的Segformer_b2_all_mixloss模型訓練損失下降得迅速且平穩,表明改進損失函數對模型訓練過程有一定的優化作用。所有模型的mIoU均隨著迭代次數的增加而逐漸提高,表明模型的分割性能在逐步增強。相較于 Seg-former_b2,引入MCA機制或融合條形卷積的模型的mIoU均有所提高,表明這些改進機制對模型性能有正面影響;同時引人MCA機制和融合條形卷積的模型mIoU進一步提升,證實了兩者結合的協同作用;改進后的Segformer_b2_all_mixloss的mIoU最高,表明引人MCA機制、融合條形卷積和改進損失函數對模型性能提升作用最好,在訓練效率和分割性能上均達到了最優。

表3改進Segformer_b2模型性能評價指標對比
圖5改進Segformer_b2模型訓練過程中的訓練曲線變化對比

通過對比改進前的Segformer_b2與改進后的Segformer_b2_all_mixloss模型在茶園特征提取任務中的分割結果(圖7),可以清晰地看到,通過引入MCA機制,紅色區域被進一步細分為多個子區域,顯示出MCA機制在細節處理上的優勢;融合條形卷積后,在保持地形整體結構的基礎上對地形進行了更為精細的分割,紅色區域的形狀和大小更加接近原始圖像中的地形特征,顯著提升了茶園分割的精度;改進損失函數之后的圖像則表現出更全面的分割效果,茶園與其他地物的邊界更為清晰。具體而言,改進后的Segformer_b2_all_mixloss模型在茶園邊界識別和形狀捕捉上更為準確,使得茶園邊界更加平滑連貫,減少了鋸齒狀和斷裂的現象,同時茶園與背景區域的界限也更加清晰,有效減少了錯分和漏分的問題。可見,改進后的模型在茶園邊緣處理、小目標檢測以及復雜背景下茶園識別等方面表現出明顯提升效果。

圖6改進Segformer_b2模型訓練過程中的平均交并比變化對比
圖7Segformer_b2模型改進前后的茶園識別結果對比

3討論與結論

為了解決茶園面積提取困難與提高茶園管理的問題,本研究提出一種基于衛星遙感影像結合高精度語義分割的茶園識別方法,

首先,本研究對7種經典語義分割模型進行性能測試,結果表明, ΔVgg-unet 在處理復雜場景如茶園圖像時,其特征提取能力可能受限于VGG網絡的較淺層次,導致在細節保留和邊緣分割上略顯不足,進而出現錯分和漏分現象。Resnet50-unet通過引入殘差學習機制,有效緩解了深層網絡訓練中的梯度消失問題,增強了網絡對復雜特征的提取能力,因此在整體分割準確率上有所提升,但仍未能在小范圍茶園提取中達到理想效果。Mobilenet-pspnet因結構簡化而犧牲了部分細節捕捉能力,導致分割結果不夠精細。Xception-deeplabv 3+ 則結合了Xception 模塊的高效深度可分離卷積和DeepLab系列的空間金字塔池化(SPP)技術,雖然在許多場景中表現出色,但在茶園的小范圍精細分割上,可能因模型設計側重點不同而未能完全發揮其優勢。Segformer_b2模型在茶園圖像語義分割任務中表現最為出色,主要由于該模型利用Transformer強大的全局上下文建模能力,有效捕捉圖像中的長距離依賴關系,這對于識別茶園這類具有連續性和廣泛分布特征的語義區域尤為重要[18];同時,Segformer通過輕量級的解碼器設計,保持了較高的計算效率,使得模型能夠在保證精度的同時實現較快的推理速度。因此,選用Segformer_b2作為原始模型。

鑒于Segformer_b2模型仍然存在少量茶園邊緣識別不準確的現象,本研究在該模型中引入MCA機制,以使模型能更精準地捕捉茶園區域的關鍵紋理特征,從而提高茶園識別的準確性和魯棒性;同時,融合條形卷積操作,優化模型對圖像局部細節的感知和處理能力,進一步提升分割效果;此外,改進混合DiceLoss和FocalLoss損失函數,有效應對類別不平衡問題,進一步提高模型的整體性能。結果表明,改進后的Segformer all_mixloss模型的茶園識別準確性明顯提高,精確率、召回率、mIoU和F1分數分別由 91.29% !91.09%.84.45%.91.20% 提升至 91.31%.92.97% 85.87%.92.12% ,在識別衛星遙感影像中的茶園尤其小范圍茶園提取中,展現出了較高的精度和魯棒性,可為茶園管理、產量預測以及資源優化配置等提供技術支撐

綜上所述,通過對 Segformer_b2 模型進行一系列改進,包括引入MCA機制、融合條形卷積以及改進DiceLoss和FocalLoss的混合損失函數,成功地提升了模型的訓練穩定性和識別性能表現,為后續的茶園管理與分析提供了更為可靠的數據支持。改進后的Segformer_b2_all_mixloss模型在茶園遙感圖像語義分割任務中展示出強大的特征提取和上下文理解能力,能夠更全面地識別出圖像中的各類語義區域,包括茶園的邊界、內部紋理以及與其他地物的區分。但仍需正視當前研究中存在的一些問題,例如如何進一步提高模型在復雜場景下的泛化能力、如何更好地處理遙感圖像中的噪聲和干擾等,因此未來研究中可以探索新的圖像預處理技術、更優化的算法以及更高效的特征提取方法等,以進一步降低噪聲干擾,提高圖像質量,進而提高茶園遙感影像識別的準確性和效率。另外,本研究數據采用的是 3m 分辨率的衛星影像,未來可以考慮采用更高分辨率的衛星影像進行研究

參考文獻:

[1]Enoguanbhor E C,Gollnow F,Nielsen JO,et al. Land cover change in the Abuja city-region,Nigeria:integrating GIS and remotely sensed data to support land use planning[J]. Sustainability,2019,11(5):1313.

[2] YaoH,QinRJ,ChenXY.Unmannedaerial vehicleforremote sensingapplications:a review[J].Remote Sensing,2O19,11 (12) :1443.

[3] LiJ,Pei YQ,Zhao S H,et al.A review of remote sensing for environmental monitoring in China[J]. Remote Sensing,2020, 12(7) :1130.

[4] MohanrajanSN,Loganathan A,ManoharanP.SurveyonLand Use/Land Cover(LU/LC) change analysis in remote sensing and GIS environment:techniques and challenges[J]. Environmental Scienceand Pollution Research International,2O20,27 (24):29900-29926.

[5] JingL L,Chen YC,Tian YL. Coarse-to-fine semantic segmentation from image-level labels[J]. IEEE Transactions on Image Processing,2019,29:225-236.

[6] 李旭青,吳冬雪,王玉博,等.基于改進HRNet的遙感影像 冬小麥語義分割方法[J].農業工程學報,2024,40(3): 193-200.

[7] 張羽豐,楊景,鄧寒冰,等.基于RGB和深度雙模態的溫室 番茄圖像語義分割模型[J].農業工程學報,2024,40(2): 295-306.

[8] 王嫣然,陳清亮,吳俊君.面向復雜環境的圖像語義分割方 法綜述[J].計算機科學,2019,46(9):11.

[9] Dong R S,Pan X Q,Li F Y. DenseU-Net-based Semantic segmentation of small objects in urban remote sensing images[J]. IEEEAccess,2019,7:65347-65356.

[10]LiML,Rui J,YangSK,etal.Method ofbuildingdetection in optical remote sensing images based on segformer[J]. Sensors, 2023,23(3):1258.

[11]沈駿翱,馬夢婷,宋致遠,等.基于深度學習語義分割模型 的高分辨率遙感圖像水體提取[J].自然資源遙感,2022, 34(4) :129-135.

[12]Wang Z,Guo JX,Huang WZ,et al.High-resolution remote sensing image semantic segmentation based on a deep feature aggregation network[J].Measurement Science and Technology,2021,32:095002.

[13] Zhang X X,Yang Y H,Li Z Y,et al.An improved encoder-decoder network based on strip pool method applied to segmentationof farmland vacancy field[J].Entropy,2021,23(4) :435.

[14]Chen PP,Zhao C J,Duan D D,et al. Extracting tea plantations incomplex landscapes using Sentinel-2 imagery and machine learning algorithms[J]. Community Ecology,2022,23:163- 172.

[15]Yao Z X,Zhu X C,Zeng Y,et al.Extracting tea plantations from multitemporal Sentinel-2 images based on deep learning networks[J].Agriculture,2023,13(1):10.

[16]Wang L,Wang C L,Sun Z Q,et al. An improved Dice loss for pneumothorax segmentation by mining the information of negativeareas[J].IEEEAccess,2020,8:167939-167949.

[17]王鴻雁,車向紅,徐辛超,等.利用DeepLabv3 + 模型提取分 析街景圖像綠視率:以北京三環內為例[J].測繪通報, 2024(3):88-94.

[18]張久丹,王浩宇,李均力,等.基于改進D-UNet模型的典型 洪泛濕地信息提取[J].遙感學報,2025,29(1):300-313.

猜你喜歡
語義模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
語言與語義
3D打印中的模型分割與打包
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
認知范疇模糊與語義模糊
“深+N季”組配的認知語義分析
當代修辭學(2011年6期)2011-01-29 02:49:50
語義分析與漢俄副名組合
外語學刊(2011年1期)2011-01-22 03:38:33
主站蜘蛛池模板: aⅴ免费在线观看| 亚洲天堂网在线视频| 一级香蕉人体视频| 亚洲精品欧美日韩在线| 国产小视频免费观看| 亚洲嫩模喷白浆| 欧美一级99在线观看国产| 在线观看国产精品第一区免费 | 天天摸天天操免费播放小视频| 亚洲人在线| 在线播放精品一区二区啪视频| 日韩精品一区二区三区视频免费看| 亚洲天堂视频网站| 极品国产在线| 人人看人人鲁狠狠高清| 亚洲高清中文字幕| 九九热视频精品在线| 久久综合国产乱子免费| 国产丝袜啪啪| 久久黄色一级视频| 精品91视频| 麻豆精品视频在线原创| 国产精品无码影视久久久久久久| 亚洲成在线观看| 老司机久久精品视频| 中文字幕在线观看日本| 成人在线综合| a级毛片免费看| 久久婷婷国产综合尤物精品| 欧美亚洲第一页| 欧美色综合网站| 国产男女免费视频| 2024av在线无码中文最新| 国产精品自在拍首页视频8| 国产精品亚欧美一区二区| 国产一区二区三区精品欧美日韩| 精品综合久久久久久97超人该| 国产超薄肉色丝袜网站| 久久夜夜视频| 久热精品免费| 欧美成人综合视频| 欧美A级V片在线观看| 91综合色区亚洲熟妇p| 亚洲国产一区在线观看| 免费国产一级 片内射老| 国产福利小视频高清在线观看| 国产无码高清视频不卡| 久久综合亚洲色一区二区三区| 国产成人综合日韩精品无码不卡 | 亚洲欧美国产视频| 亚洲一级无毛片无码在线免费视频| 人人妻人人澡人人爽欧美一区| 无码区日韩专区免费系列| 成人国产一区二区三区| 欧美视频在线播放观看免费福利资源| 日本成人精品视频| 91精品国产自产在线观看| 久久亚洲美女精品国产精品| 久久亚洲国产一区二区| 666精品国产精品亚洲| 91在线精品免费免费播放| 久久国产黑丝袜视频| 亚洲中文字幕在线一区播放| 国产9191精品免费观看| 亚洲欧美人成人让影院| 天堂va亚洲va欧美va国产 | 97超爽成人免费视频在线播放| 毛片手机在线看| 久青草网站| 亚洲Av激情网五月天| 亚洲欧美日韩视频一区| 精品综合久久久久久97超人| 亚洲天堂.com| 一本大道香蕉高清久久| 美女亚洲一区| 99性视频| 精品国产www| 老司国产精品视频91| 日本人又色又爽的视频| 一本色道久久88综合日韩精品| 国产黑人在线| 在线五月婷婷|