999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

AVS視頻編碼標準的幀間預測算法研究

2009-02-11 10:02:34張淑娥靳曉鵬
新媒體研究 2009年1期

張淑娥 靳曉鵬

[摘要]介紹AVS視頻編碼標準的幀間預測技術特點,對幀間預測算法進行分析和研究,為視頻幀間編碼提供理論依據。

[關鍵詞]AVS 幀間編碼 幀間預測算法

中圖分類號:TP3 文獻標識碼:A 文章編號:1671-7597(2009)0110031-01

2002年,國家信息產業部科學技術司批準成立數字音視頻編解碼技術標準工作組,制定具有自主知識產權的AVS系列信源編碼標準,AVS標準為《信息技術先進音視頻編碼》系列標準的簡稱,它包括了系統、視頻、音頻、版權管理、文件格式、網絡傳輸等從視頻壓縮技術到系統規范的一整套標準,AVS標準的制定和推廣對減輕國內的音視頻相關產業的專利費負擔以及提升核心競爭力具有極其重要的意義。

與MPEG-4 AVC/H.264的baseline profile相比,AVS視頻增加了B幀interlace等技術,因此其壓縮效率明顯提高,而與MPEG-4 AVC/H.264的main profile相比,又減少了CABAC等實現難度大的技術,從而增強了可實現性。基于AVS標準的上述優點,本文選擇對該標準進行研究。

AVS視頻當中具有特征性的核心技術包括:8×8整數變換、量化、幀內預測、四分之一精度像素插值、特殊的幀間預測運動補償、以及熵編碼、去塊效應環內濾波等。

一、幀間預測算法研究

AVS標準采用了16×16、16×8、8×16和8×8的塊模式進行運動補償,較少的塊模式(相比于MPEG-4 AVC/H.264),能降低運動矢量和塊模式編碼傳輸的開銷,從而提高壓縮效率、降低編解碼實現的復雜度。而AVS采用不同的4抽頭濾波器進行半像素插值和四分之一像素插值,在不降低性能的情況下減少了插值所需要的參考像素點,降低了數據存取帶寬需求。AVS中的P幀預測可以利用至多2幀的前向參考幀,而B幀采用前后各1個參考幀,P幀與B幀(包括后向參考幀)的參考幀數相同,其參考幀存儲空間與數據存取的開銷均不多于傳統視頻編碼。另外,AVS中B幀的雙向預測的多種模式的設定,也有效的節省了運動矢量的編碼開銷。

視覺特性表明,人眼對活動圖像中的靜止部分和運動部分有著不同的分辨率要求,即對靜止部分有較高的空間分辨力和較低的時間分辨力,而對運動部分有著較低的空間分辨力和較高的時間分辨力。因此可以將圖像分割成靜止部分和運動部分分別進行處理。對于靜止部分可以重復上一幀的數據,對于運動部分則需設法測定其位移量,以位移量來預測其運動,并將運動信息發送給接收端,以壓縮運動部分的數據量,構成完整的圖像,稱為圖像幀間編碼中的運動補償預測。

運動補償的方法是跟蹤畫面內的運動情況對其加以預測以后再加以補償。這項技術的關鍵是運動矢量計算。通常的方法是采用塊匹配法。運動估計和補償是活動圖像編碼和計算機視覺領域的一項關鍵技術。

能夠對視頻序列進行幀間編碼主要有兩個方面的依據:首先,從信源的角度看,自然景物大多處于相對不變或緩變狀態,且其運動狀態必然是連續的,這是幀間相關性存在的前提條件。其次,在用攝像機攝取圖像時,根據不同場合的需要有不同的取景方式,這樣幀間相關性表現的形式也不相同。目前視頻編碼中考慮的主要是一些簡單形式。

幀間預測考慮的典型情況是頭肩序列,例如可視電話圖像,圖像的內容通常是在一個細節不十分復雜的背景前,一個活動量不大的單人圖像。假定人的位置在第K幀與第K-1幀相比有一定的位移,可以將畫面分成3個各具特點的區域:

1.背景區:這部分圖像一般是靜止的,前后兩幀的絕大部分數據相同,有著極強的相關性,且只是對人物起陪襯作用。

2.運動物體區:如將物體看作簡單的平面位移,則第K幀和第K-1幀的該部分數據也是幾乎相同的,只是位置發生了改變,相關性還是極強的。這部分數據需要運動估計和運動補償。

3.暴露區:這是指運動后所暴露出來的原來被物體蓋住的區域。如果有存儲器將這些暴露區的數據暫時存儲,則再次經遮蓋再暴露出來的數據與原來存儲的數據也是相同的,還是有強相關性。

雖然以上三類區域的相關性是比較理想的劃分結果,實際中并無如此嚴格的劃分,但是它們為幀間編碼算法提供了重要依據。如果存在場景切換則談不上幀間相關性。

二、結論

研究表明,人類視覺對圖像中的靜止部分有較高的分辨率,必須給予充分的空間(spatial)分辨率,即在傳輸靜止圖像或序列圖像的靜止部分時,要保證較高的水平和垂直分辨率;但與此同時,卻可以減少傳輸幀數,在接收端,依靠幀存儲器把未傳輸的幀補充出來,而按照一定周期傳輸的數據對幀存儲器刷新。因此對傳輸序列圖像而言,可恰當降低時間(temporal)分辨率。另一方面,人的視覺對于序列圖像中的運動物體的空間分辨率將隨著物體的運動速度的增加而顯著降低,攝像器材的靈敏度也會造成運動部分的靈敏度下降。此外,電視監視器的顯示器件也有一定的積分模糊效應。這樣在傳輸序列圖像中的運動物體時,可以降低這部分圖像的清晰度,且這部分圖像的運動速度愈高,就可以用更低的圖像清晰度進行傳輸。

綜上所述,根據圖像的內容在清晰度和活動性(幀頻)之間進行調整,可使重建圖像在視覺上保持一致主觀效果,這種方法就叫做空間分辨率和時間分辨率的交換。

以上兩點的分析為視頻幀間編碼提供了理論依據,幀間編碼作為視頻壓縮的有效技術,被各種視頻壓縮標準所采用。

參考文獻:

[1]IA-32 Intel Architecture Software Developer's Manual Volume 1:Basic Architecture,Order Number:245470-012.

[2]IA-32 Intel Architecture Software Developer's Manual Volume 1:Instruction Set Reference,Order Number:245471-012.

[3]丁嶸、蘇光大、林行剛,特征臉和彈性匹配人臉識別算法的比較,計算機工程與應用,Vol.38,2002.7,1-2,19.

[4]蘇光大,圖像并行處理技術,北京:清華大學出版社,2002.

[5]黎洪松,數字視頻技術及其應用,北京:清華大學出版社,1997.

[6]謝深泉、朱珍民、葉施仁,多媒體基礎與應用,北京:北京大學出版社,1997.

[7]馬華東,多媒體計算機技術原理,北京:清華大學出版社,1999.

[8]吳樂南,數據壓縮,北京:東南大學出版社,2000.

[9]朱秀昌、劉峰、胡棟,數字圖像處理與圖像通信,北京:北京郵電大學出版社,2002.

作者簡介:

張淑娥,女,華北電力大學電子與通信工程系,副教授;靳曉鵬,男,華北電力大學電子與通信工程系,通信與信息系統碩士。

主站蜘蛛池模板: 国产欧美日韩视频一区二区三区| 9cao视频精品| 欧美国产在线看| 亚洲αv毛片| 色悠久久久| 91视频免费观看网站| 久草青青在线视频| 亚洲激情99| 女人18毛片一级毛片在线| 在线不卡免费视频| 亚洲国产成人超福利久久精品| 91精品情国产情侣高潮对白蜜| 99ri精品视频在线观看播放| 亚洲综合精品第一页| 免费无遮挡AV| 这里只有精品国产| 亚洲精品第1页| 欧美激情首页| 欧美色图久久| 青青操国产视频| 亚洲日韩AV无码精品| 国产成人艳妇AA视频在线| 在线观看国产精品第一区免费| a毛片在线播放| 国产粉嫩粉嫩的18在线播放91| 久一在线视频| 国产内射在线观看| 日韩精品久久久久久久电影蜜臀| 毛片网站免费在线观看| 婷婷丁香在线观看| 亚洲AV电影不卡在线观看| 国产在线精品网址你懂的 | 久久香蕉国产线看精品| a级毛片免费播放| 欧美日韩午夜视频在线观看| 日韩精品专区免费无码aⅴ| 久久综合国产乱子免费| 国产精品极品美女自在线看免费一区二区| 欧洲日本亚洲中文字幕| 国产情精品嫩草影院88av| 欧美中文字幕一区| 国产成人精品男人的天堂下载| 999精品在线视频| 亚洲一区免费看| 啪啪国产视频| 都市激情亚洲综合久久| 亚洲天堂久久| 国产极品美女在线| 大陆精大陆国产国语精品1024 | 激情综合五月网| 国产无遮挡猛进猛出免费软件| 亚洲午夜18| 爱爱影院18禁免费| 亚洲人成网站在线观看播放不卡| 伊人精品视频免费在线| 成人在线不卡视频| 网久久综合| 九九九久久国产精品| 91麻豆国产视频| 亚洲天堂区| 久久99国产综合精品1| 亚洲综合色婷婷| 美女免费黄网站| 日本三级欧美三级| 亚洲第一页在线观看| 久久精品视频亚洲| 国产另类乱子伦精品免费女| 精品福利视频网| 久久精品日日躁夜夜躁欧美| 亚洲男人天堂2018| 亚洲欧美在线看片AI| 91亚洲精选| 女人毛片a级大学毛片免费| 青青草原国产精品啪啪视频| 免费看久久精品99| 亚洲av无码牛牛影视在线二区| 亚洲综合极品香蕉久久网| 嫩草影院在线观看精品视频| 2021国产精品自产拍在线观看| 欧美精品黑人粗大| 美女视频黄频a免费高清不卡| 国产丝袜丝视频在线观看|