999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

雙目立體視頻最小可辨失真模型及其在質(zhì)量評價中的應(yīng)用

2012-07-25 04:06:36張秋聞張兆楊
電子與信息學(xué)報 2012年3期
關(guān)鍵詞:評價模型

張 艷 安 平 張秋聞 張兆楊

①(上海大學(xué)通信與信息工程學(xué)院 上海 200072)

②(安徽財經(jīng)大學(xué)計算機(jī)科學(xué)與技術(shù)系 蚌埠 230030)

③(新型顯示技術(shù)及應(yīng)用集成教育部重點實驗室 上海 200072)

1 引言

為了滿足人們對場景真實和自然再現(xiàn)的需求,能顯示立體視頻的3維電視(3DTV)應(yīng)運而生[1]。我們所看到的自然界的真實場景是具有深度信息的立體物體,但2DTV卻丟失了作為第3維的深度信息[2]。3DTV可分為兩大類。第1類3DTV指采用雙攝像機(jī)(雙視)拍攝3維場景的和基于立體對合成顯示的3DTV系統(tǒng)。第 2 類3DTV指采用多攝像機(jī)陣列拍攝3維場景的和基于多視(或深度加多視)自由視點顯示的3DTV系統(tǒng)。本文在以下章節(jié)中所說的3DTV主要指由兩路視頻組成的立體對。當(dāng)人們在觀看立體視頻時,左右兩路視頻質(zhì)量的變化對合成的立體視頻是有影響的。對于每路的單視點視頻,當(dāng)視頻失真小于某一閾值時,人們就難于感知到;而對于兩路視頻合成的立體視頻,當(dāng)兩路視頻或其中一路視頻失真到什么程度,立體視頻質(zhì)量的變化才會使人們所感知是有待進(jìn)一步研究的問題。

在對立體視頻評價過程中,為了反映人眼的主觀特性,要建立基于人類視覺系統(tǒng)(Human Visual System, HVS)模型的評價系統(tǒng)。最小可辨失真(Just Noticeable Distortion, JND)是指人眼對最小差別量的感知能力,也就是人類視覺系統(tǒng)能夠感覺到的最小失真變化量。JND模型較好地反映了人眼的視覺系統(tǒng),如亮度掩蓋、紋理掩蓋和時間掩蓋等HVS特征已應(yīng)用在JND模型中。JND模型在單視視頻編碼和評價中都有成功的應(yīng)用,許多文獻(xiàn)都對單視JND模型進(jìn)行了闡述。文獻(xiàn)[3]提出了基于圖像像素的JND模型,主要考慮了背景亮度和紋理掩蓋效應(yīng)兩個因素,亦提出以感知的峰值信噪比(Peak Signal to Perceptible Noise Ratio, PSPNR)進(jìn)行感知評價的方法。文獻(xiàn)[4]從空間和時間相關(guān)性以及感知特性建立帶有時空特性的JND模型。文獻(xiàn)[3, 4]的紋理掩蓋均用平均背景亮度和像素周圍的平均亮度差異來決定,認(rèn)為空間JND是紋理掩蓋或者亮度適應(yīng)的主要因素,用時間掩蓋(運動掩蓋)來評價平均幀內(nèi)亮度差異。利用視頻中連續(xù)幀的相似性,通過加權(quán)的亮度可適應(yīng)閾值和相對的時空運動幅度來計算JND。Kelly[5]在穩(wěn)定的條件下從可視閾值實驗上建立了時空對比靈敏度函數(shù)(CSF)模型。Daly[6]改善了Kelly的模型以適應(yīng)考慮到眼睛運動的無約束的自然觀看條件。文獻(xiàn)[7]提出了一種基于離散余弦變換(DCT)的JND模型,考慮了空間對比靈敏度、亮度可適應(yīng)性和對比掩蓋效應(yīng)。文獻(xiàn)[8]建立了在DCT變換域的JND估計方法,綜合考慮了空間時間對比靈敏度、環(huán)境、亮度可適應(yīng)性、幀間及幀內(nèi)的對比掩蓋效應(yīng),適用于圖像和視頻。文獻(xiàn)[9]在文獻(xiàn)[3]基礎(chǔ)上提出了新的彩色視頻的JND估計模型,用掩蓋非線性相加模型來集成空間掩蓋效應(yīng),除了考慮文獻(xiàn)[3]中亮度掩蓋、紋理掩蓋和時間掩蓋這些影響JND的因素外,還引入了邊緣區(qū)域和非邊緣區(qū)域的差異等因素。文獻(xiàn)[10]將圖像拆分為結(jié)構(gòu)圖像和紋理圖像來進(jìn)行邊緣掩蓋和紋理掩蓋估計。然而,以上相關(guān)研究主要是針對單視點視頻或者圖像的JND。

由于立體視頻具有不同于單視點視頻的特性,例如視點融合等,使得傳統(tǒng)的JND模型并不能直接用于立體視頻編碼和評價。文獻(xiàn)[11]提出了基于自由視點顯示器的立體融合系數(shù)和聚焦加權(quán)模型,并且將其應(yīng)用到立體JND模型中,但此模型要依賴于顯示器的類型。文獻(xiàn)[12]提出基于心理的非對稱失真立體圖像的雙目JND模型,文中給出了兩個實驗,第1個實驗根據(jù)亮度掩蓋和雙目噪聲組合設(shè)定了聯(lián)合的閾值;第2個實驗對于立體圖像,測試了由于對比度掩蓋效應(yīng)而引起的在雙目視覺中可視敏感度的降低情況。然而,此方法主要建立在特定的實驗?zāi)P秃蜅l件基礎(chǔ)上,對于實際應(yīng)用有一定的局限性;而且文獻(xiàn)[11]和文獻(xiàn)[12]沒有提出相關(guān)的基于所給出模型的立體視頻的評價方法。

本文針對雙視點視頻,建立了基于背景亮度掩蓋、紋理掩蓋、幀間掩蓋、空間時間對比靈敏度、眼睛運動等因素的雙目最小可辨失真模型(Binocular Just Noticeable Distortion, BJND),并將BJND模型引入到立體視頻的評價中,提出一種基于BJND模型的立體視頻評價方法。實驗結(jié)果證明本文提出的評價方法更接近于主觀測試結(jié)果。

2 雙目最小可辨失真(BJND)模型

當(dāng)視頻失真小于某一范圍時,人眼不能夠感覺到此種影響,基于此人們提出了JND模型。視覺生理、心理等方面的研究發(fā)現(xiàn)人類視覺系統(tǒng)特性和掩蓋效應(yīng)對視頻編碼起著非常重要的作用。常見的掩蓋效應(yīng)包括:(1)亮度掩蔽特性,人們對高亮區(qū)所附加的噪聲其敏感性較小。(2)紋理掩蔽特性,HVS對圖像的平滑區(qū)的敏感性遠(yuǎn)遠(yuǎn)高于紋理區(qū)。背景亮度和紋理掩蓋是影響JND的主要因素,此外視頻的空間時間對比靈敏度也起著非常重要的作用。單路視頻在融合成立體視頻時,背景亮度和紋理掩蓋等這些因素與單路視頻之間的關(guān)系如何是本文要研究的內(nèi)容之一。由于評價視頻的基本元素是視頻中每幀中的像素亮度,因此本文首先分析單路視頻像素亮度與立體視頻像素亮度的關(guān)系,并將得到的立體視頻的像素亮度應(yīng)用到BJND模型中。本文以背景亮度、紋理掩蓋、幀間掩蓋效應(yīng)的JND模型和以空間時間對比靈敏度為主的基本可視閾值組合建立了BJND模型。主要流程圖如圖1所示。

2.1 雙眼亮度關(guān)系模型

由于圖像的亮度在失真圖像的評價中起著非常重要的作用,因此,人們在建立JND模型時,首要的是考慮圖像的亮度。立體視頻由左右兩路視頻融合而成,對于左右視點亮度對立體視頻亮度的影響,Curtis等人[13]提出了向量和模型。給出左右視點的亮度LL,LR與組合雙眼亮度LB的關(guān)系為經(jīng)實驗得到:k≥ 0 .33, 90 ≤a≤ 1 20。這里我們?nèi)= 1 ,a=120。l為與顯示器有關(guān)的亮度校正系數(shù),0<l≤1,當(dāng)圖像的亮度與顯示器顯示亮度相一致時l=1。

圖1 本文方法流程圖

本文將式(1)作為立體JND模型的像素亮度,以pB(x,y)表示:

2.2 基于背景亮度、紋理掩蓋、幀間掩蓋效應(yīng)的立體視頻JND模型

對于JND模型,首先研究基于背景亮度、紋理掩蓋的立體圖像的JND,我們稱為空間JND。然后通過研究立體視頻的時間掩蓋效應(yīng),建立立體視頻的JND,即:立體視頻的JND為立體圖像的JND與幀間掩蓋效應(yīng)的乘積。

當(dāng)僅僅考慮空間域上的無色圖像時,主要有兩個因素影響每個像素的錯誤可視閾值,一個是平均背景亮度,另一個是背景亮度的空間非均勻性即紋理掩蓋效應(yīng)。

考慮兩個決定因素即背景亮度和紋理掩蓋的立體圖像的JND模型表示式為

人眼對邊緣處像素的變化要比非邊緣處像素的變化更加靈敏,因此邊緣處的可視閾值更小一些。求圖像邊緣像素如下:

pB(x,y)代表由式(1)測得的像素亮度信號,沿著每個水平方向的差分信號為

x∈ [ 1,M],y∈ [ 1 ,N- 1 ],M,N表示圖像的水平和垂直方向的最大像素個數(shù)。

對于水平零跨區(qū):

signdh(x,y)為水平方向的差分信號的特征符號。

與像素(x,y+1)沿水平方向左右相鄰像素差分信號的特征符號的乘積為

那么,對于y∈ [ 1 ,N- 2 ],判斷水平方向邊緣像素的因子為

同樣方法得到判斷垂直方向邊緣像素的因子為

那么,式(3)為

式(3)中的L(mg(x,y) )由式(10)表示:

b是線性函數(shù)L的斜率,經(jīng)主觀實驗得到b=2/17。mg(x,y)代表亮度在像素(x,y)周圍的最大平均加權(quán)。

Gk(i,j)是計算因子[3],表示在(x,y)周圍4個方向的平均加權(quán),k=1,2,3,4,Gk(i,j)隨著離像素中心距離的增加而減少。

式(3)中的T(bg(x,y) )由式(13)表示:

bg(x,y)是平均背景亮度。T0和g分別代表當(dāng)背景灰度值為0時的可視閾值和在高背景亮度時的模型的線性斜率。bg(x,y)由加權(quán)的低通算子計算。

其中B(x,y) ,x,y= 1 ,2,3,4,5為平均背景亮度算子[3]。

建立立體視頻的 JND模型除了要考慮背景亮度、紋理掩蓋的立體圖像的JND外,還要考慮幀間的掩蓋效應(yīng)。用空間JND即立體圖像的JND模型和幀間亮度差異函數(shù) ILD(Interframe Luminance Difference)得到立體視頻時空域上的最小可視閾值JNDS-T。幀間亮度差異函數(shù)ILD用第n幀和n-1幀之間的平均亮度差異函數(shù)dal(x,y,n)表示。J N DS-T的表示式為

其中

ILD以曲線函數(shù)表示為[14]

2.3 基于空間時間對比靈敏度(ST-CSF)的可視閾值

雙目 JND模型除了考慮以上提到的背景亮度及紋理和幀間掩蓋效應(yīng)外,還要考慮基本的可視閾值。基本的可視閾值主要考慮靈敏度模型即空間時間對比靈敏度(ST-CSF)。另外還要考慮用亮度閾值表達(dá)的對比靈敏度函數(shù)需要延伸到數(shù)字圖像的灰度值。ST-CSF以CSF(x,y,n)表示,則其可視閾值表達(dá)式如下:

其中LMAX和LMIN分別代表與最大和最小灰度值相對應(yīng)的顯示器的亮度值,M是圖像系統(tǒng)的灰度級別數(shù)(大多數(shù)圖像系統(tǒng)是256),l為與顯示器有關(guān)的亮度校正系數(shù)。

ST-CSF是描述人眼視覺系統(tǒng)空間-時間特性的主要指標(biāo)之一,反映了不同條件下的對比靈敏度與空間-時間頻率之間的關(guān)系,也可指與圖像通過人眼視網(wǎng)膜速度相關(guān)的人類視覺系統(tǒng)的空間敏銳性,以視網(wǎng)膜上的圖像成像速度表示時間頻率。典型的ST-CSF函數(shù)曲線表示式如下[5]:

其中C0,C1,C3,k為常數(shù),這里我們?nèi)0=1,C1= 7 .3,C3=-2,k=1,v(degrees per second)是視網(wǎng)膜成像速度,a(cycles per degree)表示空間頻率。

空間頻率是反映圖像空間變化程度的一個量。設(shè)尺寸為M×N的立體圖像在(x,y)處的像素亮度為pB(x,y),則立體圖像的空間頻率定義如下:

aR為行頻率:

aC為列頻率:

圖像的空間頻率隨著圖像分辨率的不同而不同,圖像越清晰分辨率越高其空間頻率越大。于是,在第n幀上的點(x,y)的ST-CSF函數(shù)為

ST-CSF與觀察者眼睛的運動相關(guān),且要考慮運動圖像的運動特征。人們在觀看視頻的時候,人眼會追蹤視頻中的運動物體,而忽略靜止物體的微弱的失真。由于眼睛運動,在視網(wǎng)膜上的感知速度與通過運動估計得到的圖像平面速度不同,在Daly[6]設(shè)計的眼睛運動的初級模型上,視網(wǎng)膜中圖像的速度可以表示為

vI(n)表示第n幀中如果沒有眼睛運動的視網(wǎng)膜中圖像平面物體的速度;vE(n)表示在第n幀中眼睛運動的速度。其中,

g表示跟蹤物體的效率,vMIN和vMAX分別指眼睛運動的最小和最大速度。而式(24)中的vI可近似表示為

f指幀率(frames per second),MVx(n)和MVy(n)指在第n幀中圖像的運動向量。

這里假設(shè)立體視頻的左右兩路視頻的運動速度保持一致。因此v(n)也可代表立體視頻的運動速度。

2.4 雙目最小可辨失真模型

綜合2.1節(jié), 2.2節(jié)和2.3節(jié),本文提出了雙目最小可辨失真(BJND)模型,可表示為

3 應(yīng)用于立體視頻的質(zhì)量評價

本文將雙目最小可辨失真模型引入傳統(tǒng)的單視點感知質(zhì)量評價方法 PSPNR(Peak Signal to Perceptible Noise Ratio)[4]中,由式(28)可以得到我們提出的評價立體視頻質(zhì)量的表示式BPSPNR(Binocular Peak Signal to Perceptible Noise Ratio)。

其中pB(x,y,n)為原始視頻第n幀左右視點重構(gòu)后的像素亮度,B(x,y,n)代表失真視頻第n幀左右視點重構(gòu)后的像素亮度,JNDB(x,y,n)為雙目最小可辨失真模型。

4 實驗結(jié)果與分析

用本文算法(BPSPNR)對MEPG提供的立體測試 序 列 “Book_arrival”, “Champagne_tower”,“Lovebird1”[15]和微軟研究所給出的“Ballet”[16]進(jìn)行了測試,并作了相關(guān)的主觀實驗進(jìn)行驗證。每個序列分別取其中相鄰的兩路視頻,以4個不同的QP(22,28, 34和40)進(jìn)行立體視頻的失真處理。

主觀實驗參照國際標(biāo)準(zhǔn)ITU-R BT.500-11[17]。顯示器是 16:10 (寬為40.9 cm,高為25.5 cm)的SuperD自由立體顯示器,分辨率為1440×900。15個測試者參加了本次測試,包括專業(yè)測試者和非專業(yè)測試者。測試等級分為5級,為了便于精確記錄結(jié)果,用百分制來代替5分制,即1[bad:0-20], 2[poor:20-40], 3[fair:40-60], 4[good:60-80], 5[excellent: 80-100],測試者在進(jìn)行測試時所在位置為其最佳觀測位置。

客觀實驗結(jié)果與PSNR, PSPNR[4]進(jìn)行了比較。文中的PSNR和PSPNR方法,均由左右眼的平均值得到。BPSPNR是本文提出的方法。圖2顯示了PSNR, PSPNR, BPSPNR這3種客觀評價結(jié)果和主觀評價值MOS(Mean Opinion Score)的關(guān)聯(lián)曲線圖,圖中所得曲線由軟件Origin7.5提供的非線性函數(shù)中的Logistic函數(shù)擬合而成。

在建立非線性擬合之后,我們采用如下視頻質(zhì)量專家組(Video Quality Expert Group, VQEG)推薦的4個度量指標(biāo)來比較各種方法的優(yōu)劣[18,19]。(1)Pearson相關(guān)系數(shù)(Pearson Correlation Coefficient,PCC),反映預(yù)測的精確性,區(qū)間為[-1, 1]上的值,其絕對值越接近于1,表明主客觀評價間的相關(guān)性越好;(2)Spearman等級相關(guān)系數(shù)(Spearman Rank Order Correlation Coefficient, SROCC),表征了評價方法的單調(diào)性,也是區(qū)間[-1, 1]的值,同PCC一樣,其絕對值越接近于1,表明主客觀評價間的一致性越好;(3)離出率(Outlier Ratio, OR),反映客觀評價的一致性,數(shù)值越小則表明模型預(yù)測越好,由通過主客觀所得數(shù)據(jù)的非線性擬合后處于誤差大于標(biāo)準(zhǔn)差2倍的點的比例而得;(4)均方根誤差(Root Mean Square Error, RMSE),表征了數(shù)據(jù)的離散程度,是對主客觀所得數(shù)據(jù)的非線性擬合后所得誤差計算而得。表 1 為各方法的比較結(jié)果,可以看到,本文提出的BPSPNR評價方法其PCC和SROCC指標(biāo)較大,而OR和RMSE指標(biāo)較小。也就是說無論是從與主客觀評分的相關(guān)性還是從數(shù)據(jù)樣本的分散度來分析,本文所提出的BPSPNR方法均優(yōu)于其它兩種方法,更加接近于人類的視覺感知。

表1 客觀評價模型性能指標(biāo)比較

5 結(jié)論

圖2 客觀質(zhì)量評價方法與主觀MOS值的關(guān)聯(lián)圖

本文針對于立體視頻不同于單路視頻的特性建立了基于背景亮度掩蓋、紋理掩蓋、幀間掩蓋效應(yīng)、空間時間對比靈敏度、眼睛運動等因素的雙目最小可辨失真模型(BJND),提出了基于BJND模型的立體視頻質(zhì)量評價方法。對提出的BPSPNR方法進(jìn)行了主觀驗證,并和PSNR, PSPNR評價方法進(jìn)行了客觀評價與主觀評價一致性比較。實驗結(jié)果驗證了本文所提出的方法更加接近于人類的視覺感知。

[1]Müller K, Merkle P, and Wiegand T. 3-D video representation using depth maps[J].Proceedings of the IEEE,2011, 99(4): 643-656.

[2]Nicolas S H, Neil A D, Gregg E F,et al.. Three-dimensional displays: a review and applications analysis [J].IEEE Transactions on Broadcasting, 2011, 57(2): 372-383.

[3]Chou C H and Li Y C. A perceptually tuned subband image coder based on the measure of just-noticeable-distortion profile [J].IEEE Transactions on Circuits and Systems for Video Technology, 1995, 5(6): 467-476.

[4]Chou C H and Chen C W. A perceptually optimized 3-D subband codec for video communication over wireless channels[J].IEEE Transactions on Circuits and Systems for Video Technology, 1996, 6(2): 143-156.

[5]Kelly D H. Motion and vision II: stabilized spatiotemporal threshold surface[J].Optical Society of America, 1979, 69(10):1340-1349.

[6]Daly S. Engineering Observations from Spatiovelocity and Spatiotemporal Visual Models, Vision Models and Applications to Image and Video Processing [M]. Norwell,MA: Kluwer Academic Publishers, 2001, Chapter 9.

[7]Zhang X H, Lin W S, and Xue P. Improved estimation for just-noticeable visual distortion[J].Signal Processing, 2005,85(4): 795-808.

[8]Jia Y T, Lin W S, and Kassim A A. Estimating just-noticeable distortion for video[J].IEEE Transactions on Circuits and Systems for Video Technology, 2006, 16(7):820-829.

[9]Yang X K, Lin W S, Lu Z K,et al.. Just noticeable distortion model and its applications in video coding[J].Signal Processing:Image Communication, 2005, 20(7): 662-680.

[10]Liu A M, Lin W S, Paul M,et al.. Just noticeable difference for images with decomposition model for separating edge and textured regions[J].IEEE Transactions on Circuits and Systems for Video Technology, 2010, 20(11): 1648-1652.

[11]Zhang L, Peng Q, Wang Q H,et al.. Stereoscopic perceptual video coding based on just-noticeable-distortion profile[J].IEEE Transactions on Broadcasting, 2011, 57(2): 572-581.

[12]Zhao Y, Chen Z Z, Zhu C,et al.. Binocular just-noticeabledifference model for stereoscopic images[J].IEEE Signal Processing Letters, 2011, 18(1): 19-22.

[13]Curtis D W and Rule S J. Binocular processing of brightness information: a vector-sum model[J].Journal of Experimental Psychology:Human Perception and Performance, 1978, (4):132-143.

[14]Zhao Y and Yu L. Perceptual measurement for evaluating quality of view synthesis[S]. ISO/IEC JTC1/SC29/WG11/M16407, Maui, USA, April 2009.

[15]ISO/IEC JTC1/SC29/WG11. Draft call for proposals on 3D video coding technology[S]. MPEG2011/N11830, Daegu,Korea, January 2011.

[16]Zitnick C L, Kang S B, Uyttendaele M,et al.. High-quality video view interpolation using a layered representation[J].ACM Transactions on Graphics, 2004, 23(3): 600-608.

[17]ITU-R Recommendation BT.500-11. Methodology for the subjective assessment of the quality of television pictures[S].2002.

[18]Video Quality Experts Group (VQEG). Final report from the video quality experts group on the validation of objective models of video quality assessment, Phase II[R]. http://www.vqeg.org/, USA, August 25, 2003.

[19]Chikkerur S, Sundaram V, Reisslein M,et al.. Objective video quality assessment methods: a Classification, review,and performance comparison [J].IEEE Transactions on Broadcasting, 2011, 57(2): 165-182.

猜你喜歡
評價模型
一半模型
SBR改性瀝青的穩(wěn)定性評價
石油瀝青(2021年4期)2021-10-14 08:50:44
中藥治療室性早搏系統(tǒng)評價再評價
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
基于Moodle的學(xué)習(xí)評價
關(guān)于項目后評價中“專項”后評價的探討
保加利亞轉(zhuǎn)軌20年評價
主站蜘蛛池模板: 欧美一级大片在线观看| 欧美精品啪啪一区二区三区| 国产在线视频自拍| 在线观看91香蕉国产免费| 成人免费视频一区二区三区| 色婷婷国产精品视频| 欧美午夜理伦三级在线观看| 精品在线免费播放| 色天天综合| 亚洲国产成人在线| 欧美一区国产| 黄色网站不卡无码| 欧美成在线视频| 99视频有精品视频免费观看| 成人午夜亚洲影视在线观看| 亚洲天堂网2014| 日本精品视频| 无码一区二区三区视频在线播放| 天堂久久久久久中文字幕| 国产正在播放| 成人在线不卡视频| 美女黄网十八禁免费看| 国产成人免费观看在线视频| 国产一级毛片网站| 亚洲天堂免费在线视频| 97se亚洲| 日韩毛片免费观看| 久久一日本道色综合久久| 99久久精品无码专区免费| 欧美精品v欧洲精品| 四虎影视8848永久精品| 亚洲国产综合第一精品小说| 欧美在线黄| 凹凸精品免费精品视频| 亚洲中文精品久久久久久不卡| 免费在线a视频| 97国产在线播放| 99精品一区二区免费视频| 日韩无码白| 九九热视频在线免费观看| 国产精品不卡永久免费| 国产精品lululu在线观看| 久久香蕉国产线| 激情成人综合网| 乱色熟女综合一区二区| 激情爆乳一区二区| 日韩无码黄色网站| 99性视频| 2021无码专区人妻系列日韩| 亚洲男人天堂2020| 亚洲天堂视频网站| 91年精品国产福利线观看久久| 国产二级毛片| 成人免费黄色小视频| 色有码无码视频| 日韩在线欧美在线| 久久天天躁狠狠躁夜夜2020一| 中文字幕永久在线观看| 国产欧美精品一区aⅴ影院| 精品偷拍一区二区| 日韩欧美国产精品| 91精品国产福利| 国产全黄a一级毛片| 国产乱子伦精品视频| 午夜福利在线观看成人| 国产人碰人摸人爱免费视频| 超薄丝袜足j国产在线视频| 色欲不卡无码一区二区| 欧美成人日韩| 人妻无码中文字幕第一区| 99r在线精品视频在线播放 | 国产精品久久自在自线观看| 在线播放精品一区二区啪视频| 四虎精品国产AV二区| 国产精选自拍| 老司机午夜精品视频你懂的| 亚洲三级网站| 日韩一二三区视频精品| 久久人与动人物A级毛片| 黄色网址免费在线| 国产精品污污在线观看网站| 99热这里只有精品在线观看|