999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向相似App推薦的列表式多核相似性學習算法①

2017-10-13 12:06:28牛樹梓馬文靜龍國平
計算機系統(tǒng)應用 2017年1期
關(guān)鍵詞:排序優(yōu)化方法

卜 寧, 牛樹梓, 馬文靜, 龍國平

?

面向相似App推薦的列表式多核相似性學習算法①

卜 寧, 牛樹梓, 馬文靜, 龍國平

(中國科學院軟件研究所, 北京 100190)

相似App推薦可以有效幫助用戶發(fā)現(xiàn)其所感興趣的App. 與以往的相似性學習不同, 相似App推薦場景主要面向的是排序問題. 本文主要研究在排序場景下如何學習相似性函數(shù). 已有的工作僅關(guān)注絕對相似性或基于三元組的相似性. 本文建模了列表式的相似性, 并將三元組相似性與列表式相似性用統(tǒng)一的面向排序場景的相對相似性學習框架來描述, 提出了基于列表的多核相似性學習算法SimListMKL. 實驗證明, 該算法在真實的相似App推薦場景下性能優(yōu)于已有的基于三元組相似性學習算法.

相似App推薦; 多核學習; 相對相似性; 相似性學習; 列表式學習

智能手機和移動互聯(lián)網(wǎng)的廣泛普及, 帶動了移動應用(Mobile Application, 簡稱App)的飛速發(fā)展, 越來越多的用戶每天都要使用移動App, 但是用戶發(fā)現(xiàn)找到自己感興趣的App越來越困難. 相似App推薦可以有效緩解這個問題. 例如, Google Play應用商店在每個App的詳情頁面提供與該App相似的App列表. 然而, 如何定義兩個App之間的相似程度成為相似App推薦中的關(guān)鍵問題.

移動App本質(zhì)是一個應用程序, 但實際上公開可獲得的只是其基本情況描述信息, 本文中稱為App的元信息. 這些元信息通常存在于移動App商店中, 包括名稱, 功能描述, 屏幕截圖, 用戶評論, 開發(fā)商, 用戶評分, 大小等信息. 因此本文所關(guān)注的移動App的本質(zhì)是一個異質(zhì)信息的聚合體. App相似性學習可以轉(zhuǎn)換為多元異質(zhì)信息間的相似性學習.

已有的相似性學習算法可以分為基于特征的學習算法與基于核函數(shù)的學習算法. 前者側(cè)重于多元異質(zhì)信息的表示學習, 后者更側(cè)重于如何融合多個異質(zhì)的核函數(shù). 本文采用主流的基于多元核函數(shù)的方法來學習App相似性, 優(yōu)勢在于便于針對不同的信息采用合適的核函數(shù), 有效的規(guī)避了信息間的異質(zhì)性問題. 在面向排序的的相似性學習場景中, 給定目標對象a, 我們需要一個按與a相似程度, 從由高到低排序的列表, 而非與其中某個對象相似程度的一個具體值, 例如相似App推薦. 相似App列表整體質(zhì)量的好壞是核心. 已有一些工作[1,2]關(guān)注于三元組形式的相對相似性, 如(a,b,c)描述了對于對象a來說, b比c更相似. 基于三元組的相似性學習算法將相似性學習的問題歸約為對于對象a, 對象b是否比c更相似的分類問題, 試圖優(yōu)化分類錯誤. 這樣做只考慮了局部序的損失, 與我們所關(guān)心的排序列表的整體質(zhì)量不一致, 因此本文提出直接建模排序列表(Listwise)質(zhì)量, 將其作為優(yōu)化目標, 來學習App相似性, 稱為SimListMKL. 在真實數(shù)據(jù)集上的實驗結(jié)果表明, 本文提出的SimListMKL算法要優(yōu)于主流的基于三元組的相對相似性學習算法.

1 相關(guān)工作

相似性學習是一種有監(jiān)督的學習方式, 它從已有的相似關(guān)系的對象中學習相似性函數(shù), 度量兩個對象的相似程度[1]. 相似性學習所面向的任務有回歸, 分類與排序等. 本文主要關(guān)注面向排序場景的相似性學習. 基于特征的方法在于學習一個特征映射函數(shù), 然后根據(jù)該映射定義相似性函數(shù). 基于核函數(shù)的方法包括單核函數(shù)的方法與多核函數(shù)方法, 其中單核函數(shù)方法與基于特征的方法類似, 多核函數(shù)方法一般要優(yōu)于單核方法, 但計算代價高. 因此本文主要從基于特征的方法(單核方法)與基于多核函數(shù)的方法兩方面闡述.

已有的基于特征的相似性學習的方法直接從成對的相似關(guān)系約束中學習相似性函數(shù). 這些工作假設相似性度量的應用場景為回歸或分類, 因此大多將相似性學習的問題歸約為分類問題. 文獻[3]將臉部識別問題歸約為差分空間中的相似性判別二分類問題, 并采用SVM求解. 相似性神經(jīng)網(wǎng)絡[5](Similarity Neural Network)提出采用前向多層感知機來學習一個非負且對稱的相似性度量, 其中非負性由輸出層的sigmoid激活函數(shù)保證, 對稱性由網(wǎng)絡結(jié)構(gòu)的權(quán)重共享機制決定. 文獻[6]將相似性度量學習的問題轉(zhuǎn)化為對象的特征權(quán)重的學習問題, 優(yōu)化目標是經(jīng)過特征權(quán)重的線性變換使得相似的兩個對象距離盡可能小, 并約束不相似的兩個對象間的距離盡量大. 成對相似性關(guān)系大多是一種絕對的表示, 但是相對的相似性關(guān)系的比較是表達領域知識的更為自然的方式, 因為相似性的知識通常是模糊的, 只有相對意義上的表示. 對象a與對象b相似度比對象c與對象d之間的更高, 這一點很容易確定. 對于對象a與對象b之間是否相似給一個絕對的值要困難一些. 有些基于特征的相似性學習方法關(guān)注從這種相對的相似性關(guān)系中學習相似性函數(shù). 文獻[7]考慮了將相對相似性約束應用到聚類問題中所面臨的可行性, 完備性以及信息量. 文獻[8]建模了這種相對相似性的領域知識, 將關(guān)于相對相似性的約束的均方殘差作為優(yōu)化目標, 有效改善了聚類準確率.

基于多核函數(shù)的方法是目前解決該問題的主流方法. 基于多核函數(shù)的相似性學習通過對多個核函數(shù)進行綜合獲得最優(yōu)的描述相似性的核函數(shù)[9,10]. 文獻[11]將學習多個核函數(shù)的組合權(quán)重的問題簡化為分類問題, 采用類似于AdaBoost的方法求解. 考慮到相似度量的非負性, 文獻[12]將成對對象作為訓練實例, 這樣每一個訓練實例都用若干核函數(shù)來描述, 采用epsilon不敏感回歸函數(shù)作為優(yōu)化目標, 找到核函數(shù)的最優(yōu)組合. 面向排序場景的多核函數(shù)方法大將相對相似性的比較作為監(jiān)督信息來學習多個核函數(shù)的權(quán)重[1,2]. 考慮多核方法的計算代價高, SimApp[1]與OASIS[2]均建模hinge損失函數(shù), 前者采用在線梯度下降的優(yōu)化算法得到核函數(shù)權(quán)重稱為在線核函數(shù)權(quán)重學習(OKWL)方法, 后者采用在線的Passive-Aggressive算法求解.

2 面向排序的相似性學習框架

本文首先給出App相似性問題的形式化定義, 接下來基于多核學習思想, 提出了面向排序的相似性學習框架, 最后給出了具體實例.

2.1 App相似性學習問題形式化

描述App的元信息包括多種類型, 如名稱, 功能描述等為文本信息, 屏幕截圖為圖像信息, 用戶評分為數(shù)值信息等. App間的語義相似性直接由描述App的文本間, 圖像間以及文本與圖像間的語義相似性等決定. 因此本文將App相似性形式化為問題1.

2.2 面向排序的相似性學習框架

傳統(tǒng)的相似性學習問題認為相似性是絕對的, 例如a與b相似記為1, 不相似記為0, 因此采用分類或回歸算法求解相似性學習的問題. 在排序場景下, 相對相似性比絕對相似性要重要. 例如, 相似App推薦只需關(guān)心前個App比個之后的App相比, 與當前App更相似即可, 而不需要確定具體的相似性分值是1還是0.

無論是絕對相似性標注, 還是相對相似性標注, 采用相對相似性的形式進行組織訓練實例, 由此定義損失函數(shù)如公式(2)所示, 來學習App相似性函數(shù)中的核函數(shù)權(quán)重. 這就是面向排序的相似性學習框架. 以下是兩個具體的實例來說明相對相似性在損失函數(shù)中的建模.

2.3 基于三元組的相似性學習算法

本文以排序?qū)W習[13]中最常見的三類建模成對實例的方式來定義損失函數(shù). 以一個查詢App的損失函數(shù)的定義為例來說明. 將代表與關(guān)系的D維核函數(shù)特征記為, 因此損失函數(shù)表示為.

①基于交叉熵的損失函數(shù)SimTripletNet

②基于指數(shù)函數(shù)的損失函數(shù)SimTripletBoost

③基于Hinge損失函數(shù)SimTripletSVM

(5)

已有的工作大多是采用的Hinge損失來從三元組中學習相對相似性[1,2], 根據(jù)采用不同的優(yōu)化算法得到不同的算法. 本文中將他們統(tǒng)一稱為SimTripletSVM. 為了完備起見, 本文引入了其他可能的基于三元組的損失函數(shù)定義方式作為對比.

2.4 基于列表的相似性學習算法

中國汽車維修行業(yè)協(xié)會原會長康文仲,交通運輸部科學院原黨委書記、中國汽車保修設備行業(yè)協(xié)會原副會長王曉曼,中國汽車維修行業(yè)協(xié)會原會長孫守仁,中國汽車保修設備行業(yè)協(xié)會原副會長羅大柱 ,中國汽車保修設備行業(yè)協(xié)會原副會長張熙倫,中國汽車保修設備行業(yè)協(xié)會原副會長兼秘書長田國華,中國汽車維修行業(yè)協(xié)會常務副秘書長王逢鈴, 中國汽車保修設備行業(yè)協(xié)會原常務副秘書長劉蘊,中國汽車保修設備行業(yè)協(xié)會秘書長劉建農(nóng),中國汽車維修行業(yè)協(xié)會連鎖工委秘書長嚴雪月,廣東省道協(xié)機動車維修檢測分會會長羅少澤,北京汽車維修行業(yè)協(xié)會副秘書長侯金鳳及數(shù)十位國內(nèi)知名汽保企業(yè)負責人作為嘉賓出席此次茶話。

基于三元組的相似性學習算法建模了三元組這樣的局部序, 所帶來的損失, 沒有考慮排序列表整體的質(zhì)量. 基于三元組的算法將整個相似性列表拆分為三元組的形式, 將每個三元組作為一個訓練實例, 強制性的認為這些三元組服從獨立同分布假設. 本文將整個排序列表視為一個訓練實例, 采用基于位置的評價指標作為排序列表質(zhì)量的度量, 將其作為優(yōu)化目標, 采用LambdaMART定義損失函數(shù)的方式, 如公式(6)所示.

3 SimListMKL算法

本文采用SimListMKL算法來優(yōu)化公式(6)所示的優(yōu)化目標, 評價指標采用MAP, 為基于所有查詢App的AP(Average Precision)的平均. 因此這里的MAP的變化應該對應到AP的變化. 公式(7)給出了對于一個查詢App在已知其二值標注Y的情況下, 計算模型f產(chǎn)生的預測序的AP值.

(8)

SimListMKL算法采用MART來優(yōu)化目標函數(shù)公式(6). MART是一類Boosting算法, 可以視為泛函空間的梯度下降算法.

SimListMKL算法 Input: the number of trees N; The number of leaves per tree L; Learning rate ; training samples Output: 1For do 2 For do 3 4 end 5end 6For t = 1 to N do 7 For q = 1 to Q do 8 For do 9 10 11 end 12 end 13 Obtain a L leaf tree from 14 Denoted as , where each leaf value 15 is 16 17end

如算法SimListMKL所示, 第1~5行描述了模型的初始化過程, 第6~17行描述了每一個迭代步生成一個用來公式(6)中損失函數(shù)的梯度的回歸樹, 該樹具有L個葉子節(jié)點, 葉子節(jié)點的值由Newton-Raphon更新步確定. 算法最終得到的即為本文要求解的App相似性函數(shù).

4 實驗結(jié)果

為了驗證SimListMKL算法的有效性, 本文首先介紹了實驗設置. 接下來介紹了基于三元組相似性的多核學習算法與本文提出的基于列表相似性的多核學習算法, 在相似App推薦場景下的性能對比. 最后對比了各類算法性能受不同類型數(shù)據(jù)集的影響以及各類算法的運行時間.

4.1 實驗設置

實驗數(shù)據(jù)集采用的是SimApp[1]中所用的訓練數(shù)據(jù)集. 該數(shù)據(jù)集來源于Google Play的真實數(shù)據(jù), 包括約13,000個查詢App, 每個查詢App下約20個App, 其中相似App的比例分布如圖1所示. 橫軸表示相似App的比例范圍, 如0.1對應的是相似App比例在0~0.1之間的查詢App的比例. App之間的相似性由10個核函數(shù)來刻畫, 包括名稱, 類別, 描述, 開發(fā)商, 屏幕截圖, 大小, 用戶評分, 用戶評論, 更新信息, 許可.

圖1 相似App比例分布

本文的主要基準算法是基于三元組的相似性學習算法, 包括SimTripletNet, SimTripletBoost, SimTripletSVM.盡管采用了相同的優(yōu)化目標, 可是由于優(yōu)化算法不同也有許多不同的變種, 如SimTripletSVM對應的OKWL算法與OASIS算法, 這里將它們統(tǒng)一從優(yōu)化目標的角度命名. 基于交叉熵損失函數(shù)的SimTripletNet采用梯度下降優(yōu)化算法求解, 基于指數(shù)函數(shù)損失的SimTripletBoost采用boosting優(yōu)化算法求解, 基于hinge損失函數(shù)的SimTripletSVM采用切平面優(yōu)化算法求解.

為了便于調(diào)參, 本文將該數(shù)據(jù)劃分為5份, 采用5折交叉驗證, 選取最優(yōu)超參數(shù), 即最后表中與圖中所展示的結(jié)果. 所有方法的最大迭代次數(shù)均設置為100次. SimTripletNet與SimListMKL中需要設置的學習步長從10-1, 10-2, 10-3, 10-4, 10-5中選取. SimTripletSVM中的C從103, 102, 10, 1, 10-1到10-5中選取. 本文提出的算法SimListMKL中的葉子數(shù)從2到20中選取. 實驗采用的基于位置的評價指標是Precision@1~10, 簡記為P@1~10以及MAP.

4.2 性能分析

本文將五折交叉驗證的結(jié)果分別展示在表1和圖2中. 表1描述了基于P@1~10的性能對比, 圖2描述了MAP作為評價指標的性能對比. 基于t-test的假設檢驗證明以下表和圖中的對比差異是顯著的.

表 1 Precision性能對比

圖2 MAP性能對比

表1的結(jié)果表明, 本文提出的SimListMKL方法普遍好于基于三元組的相似性學習方法. 以P@5為例, SimListMKL算法優(yōu)于最好的SimTripletSVM算法約0.1%, 比最差的SimTripletNet算法約0.7%. 因此, 從Precision的度量角度來看, 基于列表建模損失函數(shù)在面向排序的相似性學習場景中是較好的選擇.

圖2展示的結(jié)果可以直觀的表明SimListMKL算法的優(yōu)勢. 該算法高出SimTripletBoost約0.3%, 高出SimTripletNet約1%, 高出SimTripletSVM約0.3%. 因此, 從MAP的度量角度來看, 基于列表建模損失函數(shù)在面向排序的相似性學習場景中是較好的選擇.

4.3 敏感分析

性能分析的結(jié)果顯示, 算法在實驗數(shù)據(jù)集上的性能普遍較好. 根據(jù)已有的排序?qū)W習算法性能受數(shù)據(jù)集影響的研究[14]表明, 這主要歸因于訓練數(shù)據(jù)中正負例的比例均衡.

換句話說, 即每個查詢App對應的訓練實例集合中, 相似App的數(shù)量占一半左右.

本實驗試圖打破這種均衡, 研究在不理想的數(shù)據(jù)集上算法性能的變化. ratio表示每個查詢App對應的待比較App集合中相似App的數(shù)量比例. 按這個比例抽取查詢App, 分別構(gòu)建ratio小于0.1, 0.2, 0.3, 0.4, 0.5的數(shù)據(jù)集, 對比各算法在這些數(shù)據(jù)集上的性能表現(xiàn), 如圖3所示.

圖3展示了不同算法在ratio不同的數(shù)據(jù)集上MAP的變化曲線. SimListMKL算法對數(shù)據(jù)集是最不敏感的, 其從0.1到0.5, 僅變化了4.4%. 而變化最大的SimTripletNet變化幅度為18.6%. SimTripletBoost與SimTripletSVM居中, 變化約為6.2%. 由此可以看出, SimListMKL是一個穩(wěn)定的算法, 不容易受數(shù)據(jù)集好壞的影響.

4.4 運行時間分析

本部分實驗對比了三元組的相似性學習算法與基于列表的相似性學習算法的訓練時間. 圖4展示了在Win7-64位操作系統(tǒng), 4GB內(nèi)存, i7-2600 CPU, 主頻3.4GHZ的環(huán)境下, 兩組算法分別采用五折交叉驗證時, 平均每折的運行時間(單位: 秒).

由圖4可得, SimTripletSVM運行時間最短約為2.8秒, 這一時間要遠遠好于同屬于基于三元組的相似性學習算法的SimTripletBoost(約14.2秒)與SimTripletNet(約28秒)算法. SimTripletSVM算法的高效一部分原因在于采用的是C實現(xiàn), 而其他所有算法都采用的是Java實現(xiàn).

本文提出的算法SimListMKL運行時間約為14.2秒, 與基于三元組的相似性學習算法SimTripletBoost相當, 遠遠好于SimTripletNet. SimListMKL與SimTripletBoost均采用了Boosting的優(yōu)化算法, 而SimTripletNet采用了梯度下降算法. 可見, 影響運行時間的因素主要取決于優(yōu)化算法的具體實現(xiàn). 本文提出的SimListMKL優(yōu)化目標雖然復雜, 并沒有給優(yōu)化算法帶來太多額外的時間開銷.

5 結(jié)語

針對排序場景中的相似性學習問題, 本文總結(jié)出了一個基于相對序的相似性學習框架, 并提出了基于列表的多核相似性學習算法SimListMKL. 與已有的基于三元組相對相似性學習的算法相比, SimListMKL算法采用了一個更為概括的形式, 即列表的相對相似性, 并基于此建模了損失函數(shù), 并采用MART算法優(yōu)化. 實驗結(jié)果表明, SimListMKL是一種更好的建模相對相似性的方式, 提升了相似App推薦的性能, 同時保證較高的時間效率. 多核相似性學習方法的顯著問題是計算復雜度高, 下一步的研究工作主要是在線SimListMKL算法.

1 Chen N, Hoi S C H, Li S, et al. SimApp: A framework for detecting similar mobile applications by online kernel learning. Proc. of the 8th ACM International Conference on Web Search and Data Mining. ACM. 2015. 305–314.

2 Chechik G, Sharma V, Shalit U. Large scale online learning of image similarity through ranking. Journal of Machine Learning Research, 2010: 1109–1135.

3 https://en.wikipedia.org/wiki/Similarity_learning#cite_note-4.

4 Guo G, Li S, Chan K. Support vector machines for face recognition. Image and Vision Computing, 2001, 19(9): 631–638.

5 Melacci S, Sarti L, Maggini M, et al. A neural network approach to similarity learning. IAPR Workshop on Artificial Neural Networks in Pattern Recognition. Springer Berlin Heidelberg. 2008. 133–136.

6Xing EP, Ng AY, Jordan MI, et al. Distance metric learning with application to clustering with side-information. Advances in Neural Information Processing Systems, 2003, 15: 505–512.

7 Liu E Y, Zhang Z, Wang W. Clustering with relative constraints. Proc. of the 17th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. ACM. 2011. 947–955.

8 Liu E Y, Guo Z, Zhang X, et al. Metric learning from relative comparisons by minimizing squared residual. 2012 IEEE 12th International Conference on Data Mining. IEEE. 2012. 978–983.

9 Lanckriet GRG, Cristianini N, Bartlett P, et al. Learning the kernel matrix with semidefinite programming. Journal of Machine Learning Research, 2004, 5(Jan): 27–72.

10 Ying Y, Zhou DX. Learnability of Gaussians with flexible variances. Journal of Machine Learning Research, 2007, 8(Feb): 249–276.

11 Tang Y, Li L, Li X. Learning similarity with multikernel method. IEEE Trans. on Systems, Man, and Cybernetics, 2011, 41(1): 131–138.

12 Chen LB, Wang YN, Hu BG. Kernel-based similarity learning. Proc. 2002 International Conference on Machine Learning and Cybernetics. IEEE. 2002, 4. 2152–2156.

13 Liu TY. Learning to rank for information retrieval. Foundations and Trends in Information Retrieval, 2009, 3(3): 225–331.

14 Niu S, Lan Y, Guo J. Which noise affects algorithm robustness for learning to rank. Information Retrieval Journal, 2015, 18(3): 215–245.

Listwise Multi-Kernel Similarity Learning Algorithm for Similar Mobile App Recommendation

BU Ning, NIU Shu-Zi, MA Wen-Jing, LONG Guo-Ping

(Institute of Software, Chinese Academy of Sciences, Beijing 100190, China)

Similar App recommendation is useful for helping users to discover their interested Apps. Different from existing similarity learning algorithms, the similar App recommendation focuses on presenting a ranking list of similar Apps for each App. In this paper, we put emphasis on how to learn a similarity function in a ranking scenario. Previous studies model the relative similarity in the form of triplets. Instead of triplets, we model the ranking list as a whole in the loss function, and propose a listwise multi-kernel similarity learning method, referred as SimListMKL. Experimental results on real world data set show that our proposed method SimListMKL outperforms the baselines approaches based on triplets.

similar App recommendation; multi-kernel learning; relative similarity; similarity learning; listwise learning

2016-04-14;收到修改稿時間:2016-05-12

[10.15888/j.cnki.csa.005502]

猜你喜歡
排序優(yōu)化方法
超限高層建筑結(jié)構(gòu)設計與優(yōu)化思考
排序不等式
民用建筑防煙排煙設計優(yōu)化探討
關(guān)于優(yōu)化消防安全告知承諾的一些思考
一道優(yōu)化題的幾何解法
恐怖排序
節(jié)日排序
刻舟求劍
兒童繪本(2018年5期)2018-04-12 16:45:32
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
主站蜘蛛池模板: 啪啪永久免费av| 91综合色区亚洲熟妇p| 精品天海翼一区二区| 午夜视频日本| 免费一级毛片不卡在线播放| 毛片基地美国正在播放亚洲 | 国内老司机精品视频在线播出| 亚洲熟妇AV日韩熟妇在线| 99久久亚洲综合精品TS| 亚洲成av人无码综合在线观看| 波多野结衣的av一区二区三区| 99久久精品无码专区免费| 亚洲乱亚洲乱妇24p| swag国产精品| 欧美69视频在线| 国产成人精品2021欧美日韩| 色欲色欲久久综合网| 99在线观看免费视频| 日韩中文无码av超清| 18禁影院亚洲专区| 亚洲天堂视频在线播放| 国产亚洲精品自在线| 亚洲AV成人一区国产精品| 波多野结衣亚洲一区| 老司机精品一区在线视频| 四虎国产精品永久一区| 最新国产网站| 国产午夜小视频| 欧美yw精品日本国产精品| 国产欧美日韩va另类在线播放 | 日韩欧美国产成人| 色哟哟国产成人精品| 97在线公开视频| 欲色天天综合网| 国产精品视频观看裸模| 丰满少妇αⅴ无码区| 国产一级视频久久| 亚洲精品777| 一级毛片免费播放视频| 欧美成人精品一级在线观看| 97se亚洲综合不卡 | 久久国产高潮流白浆免费观看| 国产精彩视频在线观看| 99视频精品全国免费品| 国产情精品嫩草影院88av| 国产乱人激情H在线观看| 无码高潮喷水在线观看| 中文字幕啪啪| 99久久免费精品特色大片| 国产一区自拍视频| 午夜视频在线观看区二区| 91精品国产91欠久久久久| 婷婷午夜天| 久久性视频| 成人av手机在线观看| 中文无码精品A∨在线观看不卡 | 欧日韩在线不卡视频| 韩日无码在线不卡| 日韩在线视频网| 成人精品免费视频| 在线视频亚洲色图| 18禁黄无遮挡网站| 91在线国内在线播放老师| 99久久精彩视频| 九九久久精品免费观看| 精品伊人久久久香线蕉| 久青草国产高清在线视频| 午夜国产在线观看| 无码国产伊人| 欧美性色综合网| 丝袜亚洲综合| 狠狠亚洲五月天| 香蕉精品在线| 激情亚洲天堂| 97se亚洲综合| 97精品久久久大香线焦| www.av男人.com| 99re精彩视频| h网址在线观看| 国产91在线免费视频| 成人永久免费A∨一级在线播放| h网址在线观看|