999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLO v8的番茄葉片病害檢測算法

2024-10-31 00:00:00許悅陳琳
江蘇農業科學 2024年17期

摘要:針對番茄葉的各類病斑難以區分、識別效率低等問題,提出一種基于YOLO v8s網絡改進的病害檢測算法BKW-YOLO v8s。首先,將主干網絡中的Conv和C2f分別用KWConv和重新設計的C2f_KW模塊代替,將KernelWarehouse卷積模塊與主干網絡原有的Bottleneck結構相融合,提高了模型的計算效率。其次,為了有效地提升神經網絡表征能力,引入將通道層次與空間層次并聯且加權融合的BAM注意力機制,使模型在不同的圖像上都能取得良好的效果,更具有適應性。最后對模型的損失函數進行優化,使模型能更加準確地處理不同目標之間的差異,從而獲得分類性能的提升。通過在番茄葉病害數據集上進行試驗,結果表明,改進后的BKW-YOLO v8s算法與傳統的YOLO v8s相比,準確率提升了2.8百分點、召回率提升了3.0百分點、mAP@50提升了2.8百分點、達到92.0%,且計算量降低了33%。本研究改進后的模型在番茄葉片圖像的病害檢測方面具有更高的準確度和穩定性,不僅能夠更準確地定位和識別目標,而且有效地降低了漏檢和誤檢率。本研究所提方法不僅優化了資源利用效率,也為番茄葉病害的檢測提供了有力的技術支持,對未來提高番茄生產率具有重要意義。

關鍵詞:YOLO v8s;KWConv;KernelWarehouse卷積;BAM;損失函數;番茄葉病害

中圖分類號:S126;TP391.41 文獻標志碼:A

文章編號:1002-1302(2024)17-0192-08

收稿日期:2024-02-27

基金項目:國家科技重大專項(編號:2021DJ1006);新疆自治區創新人才建設專項自然科學計劃(編號:2020D01A132)。

作者簡介:許 悅(2000—),女,湖北仙桃人,碩士研究生,研究方向為目標檢測。E-mail:786038203@qq.com。

通信作者:陳 琳,博士,教授,研究方向為網絡技術及智慧城市應用、多目標系統優化、巖心顆粒提取與屬性分析。E-mail:chenlin@yangtzeu.edu.cn。

農作物病害是我國主要農業災害之一,一直是制約著農業高產量、高效益持續發展的主要因素之一。番茄作為我國農業領域中一項至關重要的經濟作物,其產量需求正呈現逐年增長的態勢。然而,由于番茄病害的頻發,導致作物產量顯著下降,給我國的農業經濟帶來了不容忽視的巨大損失。因此,番茄病害的早期診斷與防治是促進番814d222b92441fd4fbb6a5c1e56d4e5a茄高產的必要條件。快速、準確的番茄病蟲害檢測對提高番茄的生產率是非常必要的。感染病害的植物通常會呈現顯著的癥狀或損傷。然而,專業診斷培訓投入大、時間長、成本高昂,并且無論是農民還是專家,他們在鑒別陌生或者不常見的病蟲害時,準確率偏低。為了應對這些挑戰,利用圖像處理識別技術基于作物葉、莖、花和果實的圖像,可以快速而準確地識別作物疾病,從而降低生產成本。

20世紀80年代,國外學者引入數字圖像處理和計算機視覺技術,在植物病害診斷領域進行了廣泛研究。他們的工作從簡單的圖像預處理開始,逐漸深入到病斑的特征提取、分割,以及不同病害的準確識別,這一領域的研究范圍逐漸擴大[1-2]。近年來,國內也有許多學者研究了植物病害檢測方法[3]。在番茄葉片病害檢測方面,賈兆紅等提出了基于Res2Net和雙線性注意力的番茄病害識別方法,通過多尺度特征和注意力機制,提高網絡的細粒度表征能力,該方法對于14類番茄葉片的不同程度病害的檢測準確率高達86.89%[4]。周巧黎等為實現番茄病害實時無損檢測,選用輕量級卷積神經網絡 MobileNet v3,引入空洞卷積、感知機結構和GLU激活函數優化模型,能夠實時檢測病害且識別效果較好[5]。Sardogan等提出了一種結合CNN與學習矢量量化的番茄葉病檢測與分類技術,可以有效識別4種不同類型的番茄葉部病害[6]。蔣清健等以卷積神經網絡為基礎提出多尺度卷積神經網絡算法,使用不同卷積核以增加感受視野和提取不同層次特征,識別準確率較高[7]。儲鑫等以改進的YOLO v4算法輕量化為檢測算法,該模型在平均識別精確度、速度以及參數內存大小方面均有較大的提升,但僅有1 000張測試集圖,沒有充足的訓練樣本,魯棒性得不到保證[8]。Liu等在YOLO v3算法基礎上進行改進,運用圖像金字塔技術,實現了對番茄病蟲害的多尺度特征檢測,從而實現了對病蟲害的快速分類以及具體位置的精確識別[9],成功突破了在自然環境下對番茄病蟲害圖像進行識別的關鍵技術。

針對番茄葉病害的檢測與識別算法研究已有一定成果,且識別精度和準確率較高,但上述方法主要聚焦于對整張圖像的番茄葉片進行病害檢測,并沒有對具體病斑進行精準識別定位。YOLO v8作為YOLO系列最新推出的單階段檢測算法,模型大小和性能做到了很好的平衡[10-13]。所以本研究選用YOLO v8s網絡針對番茄葉的具體病斑定位識別進行算法的改進和優化。使用plantvillage數據集中的部分數據進行試驗,以期在計算量減少的前提下,提升對番茄葉病斑識別的檢測精度。

1 材料與方法

1.1 試驗環境及參數設置

試驗在Windows 10系統上運行,搭載Intel Core i5-13490F CPU 2.50 GHz,NVIDIA GeForce RTX 3080顯卡,內存為10 GB。使用python語言編寫算法,訓練時batch size設置為32,epoch設置為200,初始學習率為0.01。輸入圖像尺寸為640像素×640像素。試驗時間為2023年9月至2023年12月,試驗地點為湖北省荊州市長江大學計算機科學學院。

1.2 數據集的獲取以及預處理

本研究采用的試驗數據集來源于網上公開的plantvillage數據集,從中選取6類數據,包括早疫病、斑枯病、葉霉病、斑點病、瘡痂病和晚疫病,總共1 800張。接著,采用labelimg對這6類基礎數據集進行細致標注,確保每個病斑都被精確標注。按 8 ∶2 的比例劃分為訓練集和驗證集并運用數據增強對其進行擴充試驗。如圖1所示,總共生成了 5 400 張圖片。將增強后的數據集進行訓練能有效改善模型的性能和魯棒性。

1.3 評價指標

在目標檢測任務中,預測目標物體時有4種情況:TP和TN表示正確預測的情況,其中TP表示正確檢測到目標物體,TN表示正確地將非目標物體分類為非目標物體。FP和FN表示錯誤的情況,其中FP表示將非目標物體錯誤地預測為目標物體,FN表示未能正確檢測到目標物體。

基于以上4種預測情況,本研究將使用準確率、召回率、mAP@50 、mAP@50~95、模型計算量以及F1分數曲線作為評價指標。其中準確率P定義為正確預測為正例的樣本數與所有預測為正例樣本數之間的比值。公式如下:

P=TPTP+FP。(1)

召回率R表示在所有真實正例樣本中,模型能夠正確預測為正例的比例。公式如下:

R=TPTP+FN。(2)

mAP@50和mAP@50~95:mAP@50表示在IoU閾值為50%時的平均精度均值;而mAP@50~95則表示在IoU閾值從50%到95%范圍內的平均精度均值。計算方式如下:

mAP@50=1n∑ni=1Pi=1nP1+1nP2+…+1nPn;(3)

mAP@50=1C∑Ck=1mAP@50k;(4)

mAP@50~95=110mAP@50+110mAP@55+…+110mAP@95。(5)

F1分數曲線是準確率P和召回率R的調和平均值,公式如下:

F1=2×P×RP+R。(6)

1.4 研究方法

1.4.1 YOLO v8網絡模型概述

YOLO v8是由Ultralytics研發的檢測算法,可用于目標檢測、圖像分類等任務。YOLO v8的核心網絡結構包含主干網絡、頸部網絡和頭部網絡三大組成部分。YOLO v8的主干網絡、頸部網絡部分參考了YOLO v7 ELAN的設計思想,將YOLO v5中的C3模塊替換成C2f模塊并調整了通道數,C2f是由C3和ELAN結合組成的模塊,梯度流更加豐富。頭部網絡部分使用了將分類和檢測頭分離的解耦頭結構和無錨框。Loss計算包括2個分支:BCE Loss分類分支和Distribution Focal Loss+CIoU Loss回歸分支。本研究將基于YOLO v8s模型進行算法優化。

1.4.2 BKW-YOLO v8s算法

針對基準模型YOLO v8s對番茄葉病害檢測準確率低、計算量大等問題,本研究提出了一種基于BKW-YOLO v8s的番茄葉病害識別模型。BKW-YOLO v8s的網絡結構如圖2所示,主要有3個改進部分。

為了在優化模型性能的同時降低計算成本,將主干網絡中的Conv和C2f分別用KWConv和全新設計的C2f_KW模塊代替[14]。為了有效提高神經網絡表征能力,在主干網絡與頸部網絡之間引入BAM注意力機制,并且開銷可以忽略不計。為了提高對圖像的處理能力,引入了具有明智的梯度增益分配策略的WIoU損失函數。本研究方法在降低計算成本的同時,確保了更高的檢測性能,從而在對番茄葉病斑的識別任務中展現出了卓越的能力。

1.4.3 KernelWarehouse模塊

在目標檢測任務中,背景干擾往往是一個不可忽視的挑戰。為了使模型能夠更好地應對復雜的場景和目標,進而提升檢測的準確性,本研究將KernelWarehouse[15]卷積引入主干網絡。KernelWarehouse是由Intel在2023年8月提出的通用動態卷積形式,它可以在參數效率和表示能力之間取得良好的權衡。KernelWarehouse方法的示意圖見圖3,它有3個關鍵組件,即內核分區、倉庫共享和一個新的注意力函數NAF。

內核分區和倉庫共享:KernelWarehouse首先將ConvNet的任意常規卷積層的靜態核W按順序劃分為m個不相交且具有相同維度的核單元w1,w2,…,wm,內核分區可以定義為:

W=w1∪w2∪…∪wm,j,j∈(1,2,…,m),wi∩wj=。(7)

核分區后,處理核單元w1,w2,…,wm作為“局部核”,并定義一個包含n個相同維數的核單元的“倉庫”E=(e1,e2,…,en),其中e1,e2,…,en的尺寸和w1,w2,…,wm相同。然后基于預定義的“倉庫”將每個核單元計算為線性混合物wi。將m個核單元w1,w2,…,wm表示為:

wi=αi1e1+αi2e2+…+αinen,i∈(1,…,m)。(8)

式中:αi1e1,αi2e2,…,αinen是由以輸入x為條件的注意力模塊(x)生成的標量注意力。最后,靜態核W被按順序組裝其相應的m個線性混合物所取代。倉庫共享的主要目標是通過顯式增強連續卷積層之間的參數依賴關系,進一步提高KernelWarehouse的參數效率和表征能力。

注意力函數:第2層FC并行生成的m組n個特征logits,由注意力函數集逐集歸一化。對于靜態內核W中的第i個內核單元,將第2層FC生成的n個特征logits設為zi1,zi2,…,zin,新的注意力函數定義為:

αij=(1-τ)zij∑np=1zip+τβij,j∈(1,2,…,n)。(9)

式中:τ是在早期訓練階段從1線性地降低到0的一個溫度參數;zij∑np=1zip是一個歸一化函數,它可以產生具有負注意力輸出的結果;βij是一個二進制值(0或1),用于初始化注意力。

為了使番茄葉病害識別具有更好的效果,本研究在主干網絡中引入KWConv將Conv替換,同時利用KernelWarehouse卷積的思想,設計一個全新的模塊C2f_KW,如圖4所示,C2f_KW是運用KW Bottleneck結構替換C2f模塊中的Bottleneck結構。如圖5所示,KW Bottleneck結構可以增強上下文的依賴性,提高網絡的學習能力。通過對全局信息的綜合利用,模型能夠高效融合多尺度特征,在目標檢測和定位任務中,展現出了更高的精準度。

1.4.4 BAM模塊

由于本研究使用的數據集的圖像中,多種病害特征并不容易區分,為了有效提高神經網絡表征能力和感受野處理能力,在主干網絡和頸部網絡之間引入了BAM模塊[16],也稱為瓶頸注意力模塊,有效提升了對病害特征識別的效果。BAM模塊可以以端到端的方式與任何前饋卷積神經網絡集成,運用特征通道和空間路徑2條獨立路徑,分別進行注意力的推斷和映射。通過加強重要通道和空間位置的特征響應,使模型在不同的圖像上都能取得良好的效果,更具有適應性。BAM模塊與CBAM模塊非常相似,都是運用了雙通道注意力,不同點在于CBAM是將2個注意力串聯,而BAM則是將2個注意力的輸出分別通過相乘的方式進行融合,從而得到最終的輸出[17]。BAM的整體結構如圖6所示。

對于輸入特征圖F∈RC×H×W,BAM推斷出一個3D注意圖M(F)∈RC×H×W,細化后的特征圖 計算公式如下:

F′=F+FM(F)。(10)

式中:表示逐元素乘法。BAM模塊由通道注意力和空間注意力2個分支構成。通道注意力分支首先對每個通道的特征圖執行全局平均池化操作,接下來采用了一個帶隱藏層的多層感知器(MLP),并附加了一個批量歸一化(BN)層,對空間分支的輸出進行了尺度校準。以下是通道注意力的具體計算方式:

MC(F)=BN{MLP[AvgPool(F)]}

=BN{W1[W0AvgPool(F)+b0]+b1}。(11)

空間注意力分支采用ResNet提出的“瓶頸結構”,節省了參數量和計算開銷[18]。首先通過對特征圖F∈RC×H×W進行1×1卷積,整合通道信息后,使用2個3×3的擴展卷積以提取和融合圖像中豐富的上下文信息,最終再利用一個1×1卷積層將處理后的特征圖轉化為一個R1×H×W空間注意力圖。以下是空間注意力的具體計算方式:

MS(F)=BN〔f1×13{f3×32[f3×31(f1×10(F))]}〕。(12)

2個注意力分支的結合:從2個注意分支中獲取通道注意MC(F)和空間注意MS(F)后,將兩者擴展到C×H×W,進行元素相加組合實現有效的梯度流動,再采用一個Sigmoid函數來獲得最終的3D注意映射M(F)。

由于BAM模塊在突破模型瓶頸、增強神經網絡表征能力方面表現出色,所以本研究將BAM模塊引入到主干網絡,讓主干網絡向下傳遞更有效的關鍵信息,提升對病害特征識別的效果。

1.4.5 IoU損失函數的優化

原始YOLO v8模型的回歸損失是 DFL Loss+CIoU Loss,但CIoU在關注邊界框坐標和類別誤差時,忽視了不同目標的難度與重要性差異。為了克服這一不足,WIoU損失函數[14]引入了目標的困難程度權重,以更加準確地處理不同目標之間的差異[19]。這一改進有助于提升模型在目標檢測中的表現。然而,對于低質量樣本,其相關的幾何度量往往對模型產生過度懲罰,影響泛化能力。為此,WIoU基于距離度量設計了距離注意力,形成了雙層注意力機制,并在WIoU v1版本中實現了這一改進,其公式如下:

LWIoU v1=RWIoULIoU。(13)

其中:

RWIoU=exp(x-xgt)2+(y-ygt)2[(Wg)2+(Hg)2]*。(14)

在WIoU損失函數中,通過特定的調整,對于普通質量的錨框,LIoU將被顯著放大以引起更多關注;而對于高質量的錨框,RWIoU則會被降低,尤其是在錨框與目標框高度重合時,減少了對中心點距離的關注。為了進一步優化模型的分類性能,降低簡單示例對損失值的貢獻,參考Focal Loss設計了一種單調聚焦機制,即WIoU v2,其公式如下:

LWIoU v2=L*IoULIoUγLWIoU v1,γ>0。(15)

式中:LIoU能夠確保梯度增益r=L*IoULIoUγ得以維持在一個較高水平,從而有效避免了訓練后期可能出現的收斂速度放緩的問題。

本研究選用WIoU v2損失函數代替CIoU并與DFL Loss結合為最終的回歸損失,能夠增強對圖像處理的能力,從而提升模型的性能。

2 結果與分析

2.1 損失函數試驗

WIoU損失函數有3個版本,對3個版本在相同試驗環境下依次進行試驗,結果如表1所示。

試驗結果表明,WIoU v2改進模型取得效果最優,與原模型的損失函數相比,準確率和召回率皆提高了1.4百分點,mAP@50提高了1.2百分點,mAP@50~95提高了0.4百分點。WIoU v2能有效降低簡單示例對損失值的貢獻,使得模型能夠聚焦于困難示例,獲得性能的提升。因此,本研究選用WIoU v2損失函數代替CIoU并進行后續改進試驗。

2.2 消融試驗

為了驗證BKW-YOLO v8s模型改進的各個模塊以及最終組合的有效性,設計消融試驗將3種模塊改進的不同組合在相同的數據集和參數設置下進行對比,以保證試驗的公正性。

試驗結果表明,與原始YOLO v8s相比,同時引入KW模塊、BAM Attention和WIoU損失函數的BKW-YOLO v8s模型,經過200輪迭代訓練在準確率、召回率、mAP@50和mAP@50~95這4個重要指標上分別提高了2.8、3.0、2.8、2.1百分點,計算量降低了33%(表2)。不僅節省資源消耗,還使各項指標均創新高。這表明本研究的改進算法BKW-YOLO v8s在實際應用中取得了顯著效果。

2.3 對比試驗

為了評估所提算法BKW-YOLO v8s相對于當前熱門的病害檢測模型的優越性[20],本研究將在相同的試驗條件(統一的配置和相同的數據集以及相同的參數設置)下,對比本研究算法與YOLO v3-tiny、YOLO v5s、YOLO v7以及YOLO v8s的差異(表3)。并比較它們的F1分數曲線(圖7)。

由圖7和表3可知,改進后的算法BKW-YOLO v8s與以上其他主流的病害檢測模型相比,具有較高的準確率、召回率和平均精度以及F1分數表現。它在設計上充分考慮了模型的復雜度和計算效率之間的平衡,以提供良好的性能和實用性。

2.4 檢測結果

為了更直觀地展示BKW-YOLO v8s算法的有效性,本研究將YOLOv5s、YOLOv8s以及BKW-YOLO v8s算法在6類番茄葉病害圖片上的檢測結果進行對比,見圖8。檢測結果體現了不論是小尺寸的目標還是具有復雜形狀的目標,改進后的模型都能夠更好地區分它們,實現更精確的目標檢測。斑點病的病害特征不明顯,容易出現漏檢,而改進后的模型能夠檢測出不明顯的特征,這表明本研究所提出的模型具有更強的上下文感知能力和特征融合能力。其中對葉霉病的檢測,YOLO v5s和YOLO v8s都出現了在同一個目標周圍生成了多個重疊的邊界框的情況,而改進后的模型成功解決了多個重疊邊界框的問題。通過精確的位置預測和目標分類,模型能夠準確地定位和識別目標。綜上所述,改進后的BKW-YOLO v8s模型在目標檢測方面展現出卓越的性能。通過特征融合、上下文感知和抑制干擾能力的提升, 該模型能夠更準確地定位和識別目標,在目標檢測任務上表現出更高的準確性和魯棒性。并且在目標檢測中不再出現多個重疊邊界框的情況,實現了更精確、更清晰的檢測結果,使整體的檢測性能和效果都得到了提升。

3 討論與結論

本研究針對番茄葉片的各類病斑識別正確率、效率低的問題,提出一種在計算量和準確率方面取得較好的平衡的BKW-YOLO v8s模型,在卷積塊和損失函數上對原模型做了改進。試驗后發現,改進后的模型通過優化邊界框生成和后處理策略,成功解決了多個重疊邊界框的問題,目標檢測的準確度和穩定性均實現了顯著的提升。對比原 YOLO v8s 模型分別在準確率和平均精度上都提升了2.8百分點,召回率提升了3.0百分點。這驗證了改進后的方法能夠更準確地定位和識別目標,有效地降低了漏檢和誤檢率。本研究對YOLO v8s模型的改進取得了一定的成果,并在番茄葉病害檢測任務中展現了優越性能。這些積極的成果將為目標檢測的未來發展提供強有力的支持,并為實際應用提供更準確、高效的解決方案。

參考文獻:

[1]Morbekar A,Parihar A,Jadhav R. Crop disease detection using YOLO[C]//2020 international conference for emerging technology (INCET). Belgaum:IEEE,2020:1-5.

[2]Azath M,Zekiwos A. Deep learning-based image processing for cotton leaf disease and pest diagnosis[J]. Journal of Electrical and Computer Engineering,2021,2021:1-10.

[3]袁霖潔,谷志新,高 丹,等.基于Faster R-CNN的玉米病蟲害識別算法研究[J]. 林業機械與木工設備,2023,51(3):58-61.

[4]賈兆紅,張袁源,王海濤,等. 基于Res2Net和雙線性注意力的番茄病害時期識別方法[J]. 農業機械學報,2022,53(7):259-266.

[5]周巧黎,馬 麗,曹麗英,等. 基于改進輕量級卷積神經網絡MobileNet v3的番茄葉片病害識別[J]. 智慧農業(中英文),2022,4(1):47-56.

[6]Sardogan M,Tuncer A,Ozen Y. Plant leaf disease detection and classification based on CNN with LVQ algorithm[C]//2018 3rd international conference on computer science and engineering (UBMK). Sarajevo:IEEE,2018:382-385.

[7]蔣清健,姚 勇,王亞玲,等. 基于多尺度卷積神經網絡算法的番茄葉片病害識別[J]. 江蘇農業科學,2023,51(15):211-216.

[8]儲 鑫,李 祥,羅 斌,等. 基于改進YOLO v4算法的番茄葉部病害識別方法[J]. 江蘇農業學報,2023,39(5):1199-1208.

[9]Liu J,Wang X W. Tomato diseases and pests detection based on improved YOLO v3 convolutional neural network[J]. Frontiers in Plant Science,2020,11:898.

[10]Redmon J,Farhadi A. YOLO v3:an incremental improvement[J].

arXiv preprint arXiv:1804.02767,2018.

[11]Bochkovskiy A,Wang C Y,Liao H Y M. YOLO v4:optimal speed and accuracy of object detection[J]. arXiv preprint arXiv:2004.10934,2020.

[12]Li C,Li L,Jiang H,et al. YOLO v6:a single-stage object detection framework for industrial applications[J]. arXiv preprint arXiv:2209.02976,2022.

[13]Wang C Y,Bochkovskiy A,Liao H Y M. YOLO v7:trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,2023:7464-7475.

[14]Ale L H,Sheta A,Li L Z,et al. Deep learning based plant disease detection for smart agriculture[C]//2019 IEEE Globecom Workshops (GC Wkshps). Waikoloa HI:IEEE,2019:1-6.

[15]Li C,Yao A. KernelWarehouse:towards parameter-efficient dynamic convolution[J]. arXiv preprint arXiv:2308.08361,2023.

[16]Park J,Woo S,Lee J Y,et al. Bam:bottleneck attention module[J]. arXiv preprint arXiv:1807.06514,2018.

[17]Woo S,Park J,Lee J Y,et al. CBAM:convolutional block attention module[M]//Lecture notes in computer science.Cham:Springer International Publishing,2018:3-19.

[18]He K M,Zhang X,Ren S Q,et al. Deep residual learning for image recognition[J]. arXiv:1512.03385.

[19]Tong Z,Chen Y,Xu Z,et al. Wise-IoU:bounding box regression loss with dynamic focusing mechanism[J]. arXiv preprint arXiv:2301.10051,2023.

[20]Ahmed S. Analysis of the performance of YOLO models for tomato plant diseases identification[M]//Computer vision and machine learning in agriculture(volume 3). Singapore:Springer Nature Singapore,2023:115-129.

主站蜘蛛池模板: 国产成人91精品免费网址在线| 日韩123欧美字幕| 日韩精品毛片| 99国产精品免费观看视频| 亚洲精品在线影院| 最近最新中文字幕免费的一页| 精品国产www| 熟女成人国产精品视频| 爱爱影院18禁免费| 成人精品区| 麻豆国产在线观看一区二区| 波多野结衣中文字幕久久| 亚洲男人天堂久久| 亚洲欧洲自拍拍偷午夜色无码| 手机永久AV在线播放| 亚洲视频黄| 亚洲一级毛片免费观看| 国产极品美女在线播放| 亚洲熟妇AV日韩熟妇在线| 免费视频在线2021入口| 97超碰精品成人国产| 爽爽影院十八禁在线观看| 国产成人1024精品| www中文字幕在线观看| 国产无码网站在线观看| 欧美一级在线播放| 91在线无码精品秘九色APP| 精品久久综合1区2区3区激情| 成人在线综合| 国模私拍一区二区| 精品久久久无码专区中文字幕| 中文字幕在线日本| 97久久免费视频| 成人福利在线观看| 99免费视频观看| 精品成人一区二区三区电影| 动漫精品中文字幕无码| 亚洲欧美日韩动漫| 国产亚洲精品精品精品| 毛片久久网站小视频| 亚洲一区二区三区麻豆| 国产一在线观看| 国产精品私拍在线爆乳| 日本三级黄在线观看| 欧美日韩综合网| 国产99视频免费精品是看6| av一区二区三区在线观看| 国产成人91精品| 久久一级电影| 亚洲欧美另类日本| 这里只有精品在线| 国产在线一区二区视频| 超级碰免费视频91| 成人亚洲视频| 亚洲色图在线观看| 亚洲av综合网| 高清无码不卡视频| 中文字幕1区2区| 国内精品91| 亚洲中文字幕久久精品无码一区| 伊人91视频| 中文字幕亚洲综久久2021| 亚洲日本在线免费观看| 996免费视频国产在线播放| 无码啪啪精品天堂浪潮av| 久久综合色播五月男人的天堂| 综合天天色| 91小视频版在线观看www| 亚洲美女AV免费一区| 亚洲九九视频| 99re在线视频观看| 国产精品久线在线观看| 日韩精品久久无码中文字幕色欲| 国产精品观看视频免费完整版| 老司国产精品视频| 婷婷色中文| 伊人久久久大香线蕉综合直播| 亚洲综合激情另类专区| 欧美人与性动交a欧美精品| 亚洲欧洲日韩国产综合在线二区| 日本在线欧美在线| 激情综合网址|