999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于強(qiáng)化學(xué)習(xí)的滲透路徑推薦模型

2022-07-05 08:24:10趙海妮焦健
計(jì)算機(jī)應(yīng)用 2022年6期
關(guān)鍵詞:利用動作模型

趙海妮,焦健*

基于強(qiáng)化學(xué)習(xí)的滲透路徑推薦模型

趙海妮1,2,焦健1,2*

(1.北京信息科技大學(xué) 計(jì)算機(jī)學(xué)院,北京 100101; 2.網(wǎng)絡(luò)文化與數(shù)字傳播北京市重點(diǎn)實(shí)驗(yàn)室(北京信息科技大學(xué)),北京 100101)(*通信作者電子郵箱jiaojian@bistu.edu.cn)

滲透測試的核心問題是滲透測試路徑的規(guī)劃,手動規(guī)劃依賴測試人員的經(jīng)驗(yàn),而自動生成滲透路徑主要基于網(wǎng)絡(luò)安全的先驗(yàn)知識和特定的漏洞或網(wǎng)絡(luò)場景,所需成本高且缺乏靈活性。針對這些問題,提出一種基于強(qiáng)化學(xué)習(xí)的滲透路徑推薦模型QLPT,通過多回合的漏洞選擇和獎勵反饋,最終給出針對滲透對象的最佳滲透路徑。在開源靶場的滲透實(shí)驗(yàn)結(jié)果表明,與手動測試的滲透路徑相比,所提模型推薦的路徑具有較高一致性,驗(yàn)證了該模型的可行性與準(zhǔn)確性;與自動化滲透測試框架Metasploit相比,該模型在適應(yīng)所有滲透場景方面也更具靈活性。

滲透測試;強(qiáng)化學(xué)習(xí);Q學(xué)習(xí);策略規(guī)劃

0 引言

滲透測試是一種通過執(zhí)行受控攻擊來評估計(jì)算機(jī)系統(tǒng)或網(wǎng)絡(luò)安全性的方法,是安全測試的最常用形式之一。該過程涉及對系統(tǒng)的任何潛在漏洞的主動分析,這些漏洞可能是由不良或不正確的系統(tǒng)配置、已知和未知的硬件或軟件缺陷、過程中的操作弱點(diǎn)或技術(shù)對策引起的。這種分析是從潛在攻擊者的角度進(jìn)行的,涉及主動利用安全漏洞[1]。

目前的滲透測試主要是通過人工分析判斷來組合各個(gè)滲透活動,從而達(dá)到滲透的目的。因此,滲透測試的結(jié)果往往取決于執(zhí)行者的個(gè)人能力和經(jīng)驗(yàn),人工的方法也使得整個(gè)滲透過程的時(shí)間周期過長,成本較高。滲透測試自動化能夠有效降低人工成本[2],其中如何實(shí)現(xiàn)自動化生成滲透路徑是整個(gè)測試自動化過程迫切需要解決的問題。

文獻(xiàn)[3]中提出了一種技術(shù)用于攻擊圖生成與分析;文獻(xiàn)[4]中通過前向廣度優(yōu)先搜索策略產(chǎn)生滲透攻擊圖,然后深度優(yōu)先遍歷滲透攻擊圖生成滲透測試方案;文獻(xiàn)[5]中通過使用攻擊圖尋找漏洞之間的關(guān)聯(lián),從而挖掘潛在攻擊路徑;文獻(xiàn)[6-7]中提出了一個(gè)基于邏輯的網(wǎng)絡(luò)安全分析器MulVAL,它是一個(gè)多層次的推理系統(tǒng),能將安全因素轉(zhuǎn)換為網(wǎng)絡(luò)模型,違反安全策略時(shí)會給出攻擊路徑。

隨著網(wǎng)絡(luò)規(guī)模的增大,攻擊圖中會存在大量冗余節(jié)點(diǎn),不利于測試人員與系統(tǒng)管理人員進(jìn)行安全分析[4],近年來機(jī)器學(xué)習(xí)的興起為解決滲透測試問題提供了新的思路。文獻(xiàn)[8]中設(shè)計(jì)和實(shí)現(xiàn)了基于機(jī)器學(xué)習(xí)算法對SQL注入流程檢測的系統(tǒng);文獻(xiàn)[9]中設(shè)計(jì)了基于XGBoost(eXtreme Gradient Boosting)算法和C-GRU(Convolutional neural network-Gated Recurrent Unit)深度學(xué)習(xí)模型的跨站腳本攻擊檢測方法;文獻(xiàn)[10]中從Web文檔和URL中提取特征,使用樸素貝葉斯算法及支持向量機(jī)(Support Vector Machine, SVM)算法對跨站腳本攻擊進(jìn)行分類。上述研究的對象是具體漏洞,因此無法解決整個(gè)滲透測試過程中存在的動態(tài)和不確定性問題。

近年來,有研究將滲透測試過程形式化為部分可觀測的馬爾可夫決策過程(Partially Observable Markov Decision Processes, POMDP)。文獻(xiàn)[11]中通過知識推理減少測試過程中掃描動作的使用,依靠POMDP實(shí)現(xiàn)對單個(gè)機(jī)器的有效攻擊,通過攻擊組合實(shí)現(xiàn)對整個(gè)網(wǎng)絡(luò)的攻擊。

馬爾可夫決策過程的研究為強(qiáng)化學(xué)習(xí)奠定了基礎(chǔ)。如圖1強(qiáng)化學(xué)習(xí)的過程,其核心是學(xué)習(xí)“做什么才能使數(shù)值化的收益信號最大化”[12]。為了獲得最大的收益,強(qiáng)化學(xué)習(xí)智能體更加傾向于選擇在過去有效產(chǎn)生過收益的動作;但是為了發(fā)現(xiàn)這些動作,往往需要嘗試從未選擇過的動作,因此智能體必須開發(fā)已有的經(jīng)驗(yàn)來獲取收益,同時(shí)也要進(jìn)行試探,使得未來可以獲得更好的動作選擇空間。在實(shí)際滲透測試過程中,針對特定服務(wù)中漏洞的利用和技術(shù)的選擇通常需要反復(fù)的嘗試,并以此不斷積累滲透經(jīng)驗(yàn),所以滲透測試的過程比較適合轉(zhuǎn)化為強(qiáng)化學(xué)習(xí)的過程。

圖1 強(qiáng)化學(xué)習(xí)過程

近幾年也有不少學(xué)者將強(qiáng)化學(xué)習(xí)應(yīng)用到滲透測試過程中。文獻(xiàn)[13]中提出了一個(gè)自主的安全分析和滲透測試框架,將生成的攻擊圖轉(zhuǎn)換為攻擊狀態(tài)與分析日志數(shù)據(jù)得到的威脅信息一并輸入到強(qiáng)化學(xué)習(xí)計(jì)劃生成器,生成器使用DQN(Deep Q Network)算法確定執(zhí)行測試的最佳計(jì)劃,但是需要首先生成網(wǎng)絡(luò)的攻擊圖。文獻(xiàn)[14]中使用強(qiáng)化學(xué)習(xí)訓(xùn)練智能體,以使其可以發(fā)現(xiàn)系統(tǒng)中的敏感文件和網(wǎng)絡(luò)缺陷。文獻(xiàn)[15]中將滲透測試過程轉(zhuǎn)換為POMDP,并將其中的漏洞利用過程建立為強(qiáng)化學(xué)習(xí)模型,認(rèn)為將其嵌入自動化滲透測試框架或系統(tǒng)中,比如Metasploit[16],將提高測試質(zhì)量與持久性;但是POMDP計(jì)算復(fù)雜度高,只適用于中小型網(wǎng)絡(luò)。文獻(xiàn)[17]中提出了一種基于網(wǎng)絡(luò)信息增益的攻擊規(guī)劃算法,并利用網(wǎng)絡(luò)信息構(gòu)建回報(bào)函數(shù),指導(dǎo)智能體從入侵者角度發(fā)現(xiàn)隱藏的攻擊路徑,選擇最佳響應(yīng)操作;但是由于追求每次操作的最大信息增益,將會出現(xiàn)一系列局部最優(yōu)的路徑組合并不是全局最優(yōu)滲透路徑的情況。

綜上所述,使用強(qiáng)化學(xué)習(xí)解決滲透測試問題仍處于研究初級階段,針對當(dāng)前研究存在的問題,本文基于強(qiáng)化學(xué)習(xí)提出了QLPT(Q Learning Penetration Test)模型,將滲透測試中的漏洞選擇過程轉(zhuǎn)換為強(qiáng)化學(xué)習(xí)的動作選擇過程。該模型不需要借助攻擊圖生成狀態(tài)-漏洞信息,而是利用Q學(xué)習(xí)使模型通過多回合的利用、探索與獎勵形成完備的狀態(tài)-漏洞Q表,在訓(xùn)練完成之后可以根據(jù)每個(gè)狀態(tài)選擇對應(yīng)最佳漏洞從而達(dá)到推薦最佳滲透路徑的效果。

1 模型構(gòu)建

1.1 參數(shù)定義

為構(gòu)建模型,首先定義建模涉及的元素,如表1所示。

表1 主要符號及其含義

表2 系統(tǒng)訪問權(quán)限說明

1.2 模型組成

QLPT模型主要由漏洞選擇、漏洞利用、獎勵值轉(zhuǎn)換、Q學(xué)習(xí)、狀態(tài)-漏洞Q表和狀態(tài)更新等模塊組成(表3),模型訓(xùn)練過程如圖2所示。

表3 QLPT內(nèi)部模塊功能說明

圖2 QLPT訓(xùn)練流程

2 Q學(xué)習(xí)模塊設(shè)計(jì)

Q學(xué)習(xí)[19-20]是一種無模型強(qiáng)化學(xué)習(xí)的形式,其目標(biāo)是學(xué)習(xí)如何將狀態(tài)映射到行動,以便在未知環(huán)境中最大化數(shù)字獎勵信號。在Q學(xué)習(xí)中,待學(xué)習(xí)的動作價(jià)值函數(shù)采用了對最優(yōu)動作價(jià)值函數(shù)*的直接近似作為學(xué)習(xí)目標(biāo),而與用于生成智能體決策序列軌跡的行動策略無關(guān)。

式(3)可以表達(dá)狀態(tài)-動作對的值與其后繼狀態(tài)-動作對之間的關(guān)系,Q學(xué)習(xí)使用式(3)來估計(jì)每個(gè)狀態(tài)-動作對:

由于滲透過程中出現(xiàn)的狀態(tài)及動作是離散和有限的,這些狀態(tài)-動作對可以用表格形式表示,所以將其放在表格中形成了Q表。其中所有狀態(tài)-動作對在初始化時(shí)都被賦予一個(gè)初始值,在學(xué)習(xí)過程中每次收到一個(gè)獎勵時(shí),相關(guān)的狀態(tài)-動作值將被依據(jù)貝爾曼方程(4)更新:

在模型開始學(xué)習(xí)之前,根據(jù)模型輸入的滲透對象狀態(tài)集與可利用漏洞集對狀態(tài)-漏洞Q表進(jìn)行初始化,此時(shí)表中的狀態(tài)-漏洞期望收益值都為0;在模型開始學(xué)習(xí)之后,每個(gè)回合的學(xué)習(xí)過程中,Q學(xué)習(xí)模塊將根據(jù)獎勵值更新Q表中的相應(yīng)期望收益值;經(jīng)過多個(gè)回合的選擇與獎勵,Q表中的值將會趨于穩(wěn)定,意味著此時(shí)的漏洞選擇是利用先前的經(jīng)驗(yàn)信息得到的。

本文根據(jù)Q學(xué)習(xí)理論提出了QLPT模型的訓(xùn)練算法,如下:

3 實(shí)驗(yàn)與驗(yàn)證

3.1 實(shí)驗(yàn)過程

為驗(yàn)證本文模型,構(gòu)建實(shí)驗(yàn)場景如圖3所示,本實(shí)驗(yàn)的滲透對象是OWASP BWA提供的可公開訪問的Web應(yīng)用缺陷測試系統(tǒng),該環(huán)境涵蓋了注入類、XSS、管理配置錯誤、弱口令等常見的Web漏洞類型,具有較強(qiáng)的代表性。測試人員需要使用漏洞掃描工具對滲透對象進(jìn)行漏洞掃描,將得到的可利用漏洞集(詳見表4)、規(guī)定的滲透對象狀態(tài)集(詳見表5)及最大學(xué)習(xí)回合數(shù)()800輸入模型進(jìn)行模型初始化;開始學(xué)習(xí)后,模型不斷產(chǎn)生具體漏洞利用動作,測試人員通過使用工具對滲透對象執(zhí)行漏洞利用,并將得到的利用結(jié)果返回給模型,模型將結(jié)果轉(zhuǎn)換化為獎勵值對Q表進(jìn)行更新;在經(jīng)過多回合學(xué)習(xí)之后,最終產(chǎn)生推薦的一條或多條滲透路徑。

表4是使用漏洞掃描工具Acunetix對滲透對象(OWASP BWA Web應(yīng)用缺陷測試系統(tǒng))進(jìn)行漏洞掃描得到的漏洞信息,將其作為可利用漏洞集輸入到滲透路徑推薦模型中。設(shè)置最大學(xué)習(xí)回合數(shù)為800,并啟動模型開始學(xué)習(xí)。學(xué)習(xí)過程中測試人員依據(jù)模型輸出的漏洞與工具信息,使用工具對滲透對象進(jìn)行漏洞利用,并將得到的結(jié)果輸入到模型中。

圖3 實(shí)驗(yàn)場景

表4 漏洞信息說明

表5 狀態(tài)集索引

3.2 實(shí)驗(yàn)結(jié)果與分析

QLPT模型通過800回合的學(xué)習(xí),得到穩(wěn)定的狀態(tài)-漏洞Q表,分別選取各狀態(tài)下期望收益值最大的對應(yīng)漏洞進(jìn)行利用,即構(gòu)成滲透路徑,如圖4所示,其中箭頭代表的是狀態(tài)轉(zhuǎn)換,例如由狀態(tài)(web,access,漏洞信息)到達(dá)狀態(tài)(web,user,后臺URL)Q表中記錄的可利用漏洞有多個(gè),其中利用漏洞CWE-22的概率為91%。經(jīng)過與手動測試的滲透路徑進(jìn)行對比,發(fā)現(xiàn)本文模型推薦的滲透路徑與其一致,滲透路徑都為:目錄掃描漏洞利用→SQL注入漏洞利用→文件上傳漏洞利用→暴力破解漏洞利用。

圖4 滲透路徑

圖5 漏洞利用期望收益值隨學(xué)習(xí)回合數(shù)的變化

通過將QLPT和滲透測試自動化框架Metasploit[16]的優(yōu)劣勢對比,得出結(jié)果如表6所示。Metasploit滲透測試成功率比較高的場景是其框架所包含的場景,由于QLPT是根據(jù)滲透目標(biāo)進(jìn)行學(xué)習(xí)訓(xùn)練,所以沒有攻擊場景限制;在Metasploit框架中,負(fù)責(zé)滲透路徑規(guī)劃的是威脅建模階段和漏洞分析階段,每個(gè)漏洞在被利用之后產(chǎn)生的結(jié)果對后續(xù)此漏洞的利用沒有反饋更新作用,而QLPT模型的核心是漏洞利用的反饋更新機(jī)制;在使用模型的先驗(yàn)知識層面,QLPT和Metasploit一樣不需要使用者具備滲透測試漏洞的利用經(jīng)驗(yàn)。

統(tǒng)計(jì)為達(dá)到滲透目標(biāo)每回合學(xué)習(xí)所進(jìn)行的漏洞利用嘗試次數(shù)如圖6所示,發(fā)現(xiàn)隨著模型學(xué)習(xí)地不斷深入,每回合進(jìn)行漏洞利用嘗試的次數(shù)大幅降低。原因是獎勵值為漏洞選擇提供了導(dǎo)向作用,學(xué)習(xí)經(jīng)驗(yàn)以獎勵值形式累積,使后續(xù)學(xué)習(xí)中動作選擇步驟越來越少,而學(xué)習(xí)過程中嘗試次數(shù)偶爾的增加是因?yàn)閯幼鬟x擇過程中的隨機(jī)參數(shù)。

表6 QLPT和Metasploit的對比

圖6 為達(dá)到滲透目標(biāo)每回合學(xué)習(xí)的漏洞利用嘗試次數(shù)

4 結(jié)語

本文采用強(qiáng)化學(xué)習(xí)進(jìn)行Web滲透測試的路徑規(guī)劃,與以往的研究不同,本文模型不需要事先具備大量的滲透測試知識,而是通過模型不斷地試錯與接受獎勵,以更新狀態(tài)-漏洞Q表,最終依據(jù)Q表輸出針對當(dāng)前滲透對象的推薦滲透路徑。本文通過實(shí)驗(yàn)驗(yàn)證了使用強(qiáng)化學(xué)習(xí)進(jìn)行滲透測試路徑規(guī)劃的可行性。未來的研究可以將漏洞信息和知識圖譜相結(jié)合,引入深度學(xué)習(xí)繼續(xù)提升強(qiáng)化學(xué)習(xí)的學(xué)習(xí)效率。

[1] SARRAUTE C. Automated attack planning[D]. Buenos Aires: Instituto Tecnológico de Buenos Aires, 2012:23-24.

[2] SINGH N, MEHERHOMJI V, CHANDAVARKAR B R. Automated versus manual approach of web application penetration testing[C]// Proceedings of the 11th International Conference on Computing, Communication and Networking Technologies. Piscataway: IEEE, 2020: 1-6.

[3] SHEYNER O, HAINES J, JHA S, et al. Automated generation and analysis of attack graphs[C]// Proceedings 2002 IEEE Symposium on Security and Privacy. Piscataway: IEEE, 2002: 273-284.

[4] SWILER L P, PHILLIPS C, GAYLOR T. A graph-based network-vulnerability analysis system: SAND-97-3010C; CONF-980534ON: DE98001486; BR: YN0100000; TRN: AHC2DT03%%16[R]. Albuquerque, NM: Sandia National Lab, 1998:8.

[5] YU X H, JIANG J H, SHUAI C Y. Approach to attack path generation based on vulnerability correlation[M]// KOPCHO J, KURZAWA C, MACPHERSON G. IEEE Conference Anthology. Piscataway: IEEE, 2013: 1-6.

[6] OU X M, GOVINDAVAJHALA S, APPEL A W. MulVAL: a logic-based network security analyzer[C]// Proceedings of the 14th USENIX Security Symposium. Berkeley: USENIX Association, 2005: 113-128.

[7] OU X M, BOYER W F, McQUEEN M A. A scalable approach to attack graph generation[C]// Proceedings of the 13th ACM Conference on Computer and Communications Security. New York: ACM, 2006: 336-345.

[8] 張登峰. 基于機(jī)器學(xué)習(xí)的SQL注入檢測[D]. 重慶:重慶郵電大學(xué), 2017:1-69.(ZHANG D F. SQL injection detection based on machine learning[D]. Chongqing: Chongqing University of Posts and Telecommunications, 2017:1-69)

[9] 洪鎮(zhèn)宇. 基于機(jī)器學(xué)習(xí)的跨站腳本攻擊檢測研究[D]. 廈門:廈門大學(xué), 2018:1-77.(HONG Z U. Research on detection of cross-site scripting attacks based on machine learning[D]. Xiamen: Xiamen University, 2018:1-77.)

[10] NUNAN A E, SOUTO E, DOS SANTOS E M, et al. Automatic classification of cross-site scripting in web pages using document-based and URL-based features[C]// Proceedings of the 2012 IEEE Symposium on Computers and Communications. Piscataway: IEEE, 2012: 702-707.

[11] SARRAUTE C, BUFFET O, HOFFMANN J. POMDPs make better hackers: accounting for uncertainty in penetration testing[C]// Proceedings of the 26th AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2012: 1816-1824.

[12] RICHARD S S, BARTO A G. Reinforcement Learning: An Introduction[M]. Cambridge: MIT Press, 1998: 313-314.

[13] CHOWDHARY A, HUANG D J, MAHENDRAN J S, et al. Autonomous security analysis and penetration testing[C]// Proceedings of the 16th International Conference on Mobility, Sensing and Networking. Piscataway: IEEE, 2020: 508-515.

[14] CHAUDHARY S, O’BRIEN A, XU S. Automated post-breach penetration testing through reinforcement learning[C]// Proceedings of the 2020 IEEE Conference on Communications and Network Security. Piscataway: IEEE, 2020: 1-2.

[15] GHANEM M C, CHEN T M. Reinforcement learning for intelligent penetration testing[C]// Proceedings of the 2nd World Conference on Smart Trends in Systems, Security and Sustainability. Piscataway: IEEE, 2018: 185-192.

[16] Rapid7. Metasploit[DB/OL]. [2021-06-17]. https://www.rapid7.com/products/metasploit/.

[17] ZHOU T Y, ZANG Y C, ZHU J H, et al. NIG-AP: a new method for automated penetration testing[J]. Frontiers of Information Technology and Electronic Engineering, 2019, 20(9): 1277-1288.

[18] Invicti. Acunetix[DB/OL]. [2021-06-17].https://www.acunetix.com/.

[19] WATKINS C J C H. Learning from delayed rewards[D]. Cambridge: King’s College of University of Cambridge, 1989:1-142.

[20] WATKINS C J C H, DAYAN P.-learning[J]. Machine Learning, 1992, 8(3/4):279-292.

Recommendation model of penetration path based on reinforcement learning

ZHAO Haini1,2, JIAO Jian1,2*

(1,,100101,;2(),100101,)

The core problem of penetration test is the planning of penetration test paths. Manual planning relies on the experience of testers, while automated generation of penetration paths is mainly based on the priori knowledge of network security and specific vulnerabilities or network scenarios, which requires high cost and lacks flexibility. To address these problems, a reinforcement learning-based penetration path recommendation model named Q Learning Penetration Test (QLPT) was proposed to finally give the optimal penetration path for the penetration object through multiple rounds of vulnerability selection and reward feedback. It is found that the recommended path of QLPT has a high consistency with the path of manual penetration test by implementing penetration experiments at open source cyber range, verifying the feasibility and accuracy of this model; compared with the automated penetration test framework Metasploit, QLPT is more flexible in adapting to all penetration scenarios.

penetration test; reinforcement learning; Q learning; strategic planning

This work is partially supported by Opening Project of Beijing Key Laboratory of Internet Culture and Digital Dissemination Research (ICDDXN006).

ZHAO Haini, born in 1997, M. S. candidate. Her research interests include network security, penetration test.

JIAO Jian, born in 1978, Ph. D., associate professor. His research interests include network security, blockchain.

TP393.08

A

1001-9081(2022)06-1689-06

10.11772/j.issn.1001-9081.2021061424

2021?08?09;

2021?10?16;

2021?10?29。

網(wǎng)絡(luò)文化與數(shù)字傳播北京市重點(diǎn)實(shí)驗(yàn)室開放課題(ICDDXN006)。

趙海妮(1997—),女,安徽阜陽人,碩士研究生,CCF會員,主要研究方向:網(wǎng)絡(luò)安全、滲透測試;焦健(1978—),男,河北滄州人,副教授,博士,CCF會員,主要研究方向:網(wǎng)絡(luò)安全、區(qū)塊鏈。

猜你喜歡
利用動作模型
一半模型
利用min{a,b}的積分表示解決一類絕對值不等式
重要模型『一線三等角』
利用一半進(jìn)行移多補(bǔ)少
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
利用數(shù)的分解來思考
Roommate is necessary when far away from home
動作描寫要具體
畫動作
動作描寫不可少
主站蜘蛛池模板: 亚洲动漫h| 亚洲国产成人超福利久久精品| 97在线视频免费观看| 国产区在线看| 青青操国产视频| 成年午夜精品久久精品| 波多野结衣无码AV在线| 久久成人免费| 欧美色99| 国产在线精品人成导航| 在线无码九区| 国产青榴视频| 91麻豆国产在线| 99在线视频精品| 精品视频一区二区观看| aaa国产一级毛片| 91精品福利自产拍在线观看| 国产成人一区在线播放| 一级毛片免费观看久| 人人91人人澡人人妻人人爽| 精品五夜婷香蕉国产线看观看| 国产在线视频二区| 日本不卡在线播放| 免费在线观看av| 国产午夜精品一区二区三| 日韩国产亚洲一区二区在线观看| 欧美精品1区| 激情综合网激情综合| 国产日韩欧美精品区性色| 亚洲天堂成人在线观看| 狠狠ⅴ日韩v欧美v天堂| 国产传媒一区二区三区四区五区| 热99re99首页精品亚洲五月天| 99热国产在线精品99| 色噜噜狠狠色综合网图区| 国产成人三级| 色哟哟国产精品| 老司机精品99在线播放| 免费不卡在线观看av| 日韩福利视频导航| 国产三级视频网站| 日韩精品一区二区三区免费在线观看| 草草影院国产第一页| 小说区 亚洲 自拍 另类| 夜夜操狠狠操| 91精品综合| 亚洲欧美成人综合| 亚洲日本中文综合在线| 色综合激情网| 亚洲欧美综合精品久久成人网| 中文字幕亚洲乱码熟女1区2区| 欧日韩在线不卡视频| 在线视频亚洲欧美| 九九免费观看全部免费视频| 一级毛片免费不卡在线| 国产门事件在线| 日本亚洲成高清一区二区三区| 爱色欧美亚洲综合图区| 国产精品无码作爱| 在线观看免费AV网| 国产在线91在线电影| 第一区免费在线观看| 毛片一级在线| 国内精品久久人妻无码大片高| 成年人免费国产视频| 国产精品亚洲一区二区三区z | 波多野结衣国产精品| 久久视精品| 国产99久久亚洲综合精品西瓜tv| 视频一区视频二区日韩专区 | 久久五月视频| 国产性精品| 国产精品亚洲一区二区在线观看| 手机看片1024久久精品你懂的| 奇米影视狠狠精品7777| 国产一区二区精品福利| 91www在线观看| 91丨九色丨首页在线播放| 四虎综合网| 在线观看亚洲天堂| 国产欧美日韩一区二区视频在线| 欧美成人看片一区二区三区|