朱姣潔




【摘要】? ? 為了降低由于內容過渡引起的視頻關鍵幀提取誤差,提出基于內容的動畫視頻關鍵幀提取技術研究。以視頻內容為依據,對動畫視頻劃分為若干個子鏡頭,對劃分后的子鏡頭視頻圖像進行歸一化處理,降低由于灰度差異引起的關鍵幀識別錯誤,根據漸變特征,剔除歸一化后視頻圖像中的漸變幀,最后對各個子鏡頭進行關鍵幀識別與提取。并進行實驗測試,實驗結果表明,所提方法進行關鍵幀提取時,漏選幀數低于2幀,錯幀數低于3幀,具有較高的提取效果。
【關鍵詞】? ? 視頻內容? ? 動畫視頻? ? 關鍵幀? ? 漸變幀
引言:
近些年來,視頻動畫的制作精度逐漸提高,視頻文件的大小也不斷增加,在此環境下,各種視頻壓縮技術應運而生,為動畫視頻的傳播交流提供了良好基礎,并在一定程度上推進了動畫視頻的發展,使其在各種網絡和存儲媒介中廣泛存在[1]。為了實現在海量視頻內容中快速高效地完成對所需內容的查找,標引和檢索問題逐漸受到人們的關注[2]。在傳統視頻檢索方法中,主要是通過關鍵字為進行檢索,不但在耗時方面存在較大弊端,同時檢索結果也不盡如人意。隨著專家學者們的研究不斷深入,基于內容的視頻檢索方法被提出,并成為研究熱點[3]。其中,基于視頻關鍵幀的檢索最為受到關注,在這一方法中,關鍵幀提取是關鍵技術[4]。因此,對于關鍵幀的準確識別、提取成為現階段備受關注的問題[5]。
基于此,本文提出基于內容的動畫視頻關鍵幀提取技術研究。將內容作為對視頻內容劃分的依據,在此基礎上,對視頻通過對視頻進行歸一化處理、剔除過渡幀的方式,提高關鍵幀的識別精度,提高關鍵幀的提取效果。并進行對比實驗,驗證了所提方法的可行性。
一、基于內容的視頻鏡頭劃分
本文以內容差異性最大,也就是相關性最小的內容作為分隔鏡頭的節點。首先,對動畫視頻內容數據X={x1,x2,...,xi}構建內容差異函數,獲得視頻內容數據的相關性λij,
其中,ε(λ)為動畫視頻相關性性計算函數,當xj不是xi的視頻中時間近鄰時內容時,取λij=0。那么,由所有動畫視頻內容數據相關性權值λij,可以組成的矩陣則表示為λ=(λij)。這樣,得到的動畫視頻中,內容數據點xi和它鄰域數據點之間的相關性關系。以此為基礎,根據計算出的相關性結果,將視頻內容劃分為N個子鏡頭,為后續的動畫視頻關鍵幀提取提供基礎。
二、動畫視頻關鍵幀提取
2.1視頻圖像歸一化處理
在進行關鍵幀提取之前,需要對動畫視頻子鏡頭的圖像進行歸一化處理。本文主要是對灰度進行歸一化處理,對動畫視頻子鏡頭的圖像中出現的灰度不均部分進行補償,使在關鍵幀識別和提取時,動畫視頻子鏡頭的圖像灰度保持統一。假設動畫視頻子鏡頭的圖像像素為a×b,灰度為A(x,y),1≤x≤a,1≤y≤b。則灰度均值和方差分別為
通過該方法,將動畫視頻子鏡頭的圖像灰度均值和方差設定為固定值,以此降低在后續關鍵幀提取過程中由于視頻圖像灰度差異較大引起的識別錯誤。
2.2漸變幀檢測與剔除
根據漸變過程幀特征,對動畫視頻子鏡頭的信息數據進行編碼,編碼參數分別設定為視頻圖像亮度變化梯度、視頻聲音變化梯度、梯度變化連續時間、梯度變化前后差異,式4是動畫視頻子鏡頭中漸變過程幀的計算方式。
其中,L表示視頻圖像亮度變化梯度評價結果,S表示視頻聲音變化梯度評價結果,T表示梯度變化連續時間評價結果,C表示梯度變化前后差異評價結果,P表示交叉結果。根據其計算出子鏡頭中的漸變過程幀,降低在關鍵幀提取過程中的干擾,提高提取結果的可靠性。
2.3關鍵幀識別與提取
在上述對動畫視頻處理基礎上,對子鏡頭關鍵幀進行識別,對于各子鏡頭,首先將鏡頭的起始幀作為基準幀,計算后續各幀與基準幀之間的特征進行計算
在進行子鏡頭檢測時,由于各子鏡頭的內容不同,因此,需要根據其內容設置不同的閾值。本文采用自動選取閾值的方法對閾值進行設定,以此實現對子鏡關鍵幀的有效識別。閾值的計算方式可以表示為
其中,ε表示所有相鄰幀間特征之和。通過這種方式,實現對動畫視頻子鏡頭關鍵幀的特征識別,將滿足閾值范圍的幀作為關鍵幀進行提取。
三、試驗測試
為了測試本文提出的關鍵幀提取技術的實際性能,進行了實驗測試。同時,為了確保實驗結果的可靠性,分文分別采用文獻[2]提出的基于直方圖計算與分析的視頻關鍵幀選取方法以及文獻[3]提出的基于K均值聚類的視頻關鍵幀提取技術同時進行測試,通過對比三種方法的實驗結果,對本文方法的性能進行分析。
3.1實驗環境
實驗環境為32位Windows 8操作系統,4GB內存。實驗數據共設置5組時長不等動畫視頻,具體的實驗數據如表1 所示。分別采用三種方法對視頻的關鍵幀進行提取,同時,為對提取結果進行量化分析,分別以關鍵幀的漏選數,選錯數作為指標,對測試結果進行對比。
3.2實驗結果
在上述實驗環境下,本文首先對比了三種方法下,關鍵幀提取的漏選情況,其結果如圖1所示。
通過圖1可看出,在三種關鍵幀提取方法下,文獻[2]和文獻[3]的漏選數量始終高于本文方法,且最高漏選數到達4幀,而在本文方法的提取結果中,漏選數始終穩定在2幀以內,且對視頻3和視頻5的漏選數為0,實現了100%的關鍵幀提取。說明本文方法具有較高的關鍵幀識別和提取能力。這主要是因為本文方法將視頻以內容為基礎進行鏡頭劃分,降低了關鍵幀提取過程中計算的負擔,提高計算精度,降低漏選情況的發生。
四、結束語
本文提出基于內容的動畫視頻關鍵幀提取技術研究,實現了高準確率,高精度的關鍵幀提取,有效降低了漏選和錯選的情況,對于該領域的應用具有一定實際價值。
參? 考? 文? 獻
[1]仲夢潔,張艷彬. 基于視覺顯著性車輛監控視頻關鍵幀提取方法[J]. 計算機技術與發展,2019,29(06):164-169.
[2]Jorge Michel Díaz Rodriguez,姚品,萬旺根. 基于直方圖計算與分析的視頻關鍵幀選取方法[J]. 電子測量技術,2019,42(19):170-175.
[3]張一凡,李家辰,曠遠有, 等. 基于K均值聚類的視頻關鍵幀提取技術研究[J]. 電腦與信息技術,2021,29(01):13-16.
[4]蘇筱涵. 深度學習視角下視頻關鍵幀提取與視頻檢索研究[J]. 網絡安全技術與應用,2020, 000(05):65-66.
[5]韓震博. 基于雙向自適應時空切片的關鍵幀提取算法[J]. 現代計算機,2021, 000(05):57-61.