999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結合SIFT算法的視頻場景突變檢測

2016-02-26 02:55:11王世剛陳賀新
中國光學 2016年1期

李 楓, 趙 巖,王世剛, 陳賀新

(吉林大學 通信工程學院,吉林 長春 130012)

?

結合SIFT算法的視頻場景突變檢測

李楓, 趙巖*,王世剛, 陳賀新

(吉林大學 通信工程學院,吉林 長春 130012)

摘要:視頻場景變化檢測對于視頻的標注以及語義檢索具有非常重要的作用。本文提出了一種結合SIFT(Scale Invariant Feature Transformation)特征點提取的場景變化檢測算法。首先利用SIFT 算法分別提取出視頻前后幀的特征點并分別統計其數量,然后對視頻前后幀進行圖像匹配,統計匹配上的特征點數量,最后將該幀的匹配特征點數量與該幀前一幀的特征點數量做比值,從而通過該比值判斷場景變化情況。實驗結果表明,視頻場景突變檢測率平均可以達到95.79%。本算法可以在視頻幀進行圖像匹配的過程中對場景的變化情況進行判斷,因此該算法不僅應用范圍較廣,還可以保證場景變化檢測的精度,仿真結果證明了算法的有效性。

關鍵詞:SIFT;特征點匹配;場景變化檢測

1引言

圖像和視頻作為信息的載體之一,已經融入到了人們的生活之中。場景變化檢測算法在關鍵幀檢索、視頻檢索、視頻編碼以及碼率控制等方面具有廣泛的應用,因此研究場景變化檢測算法對視頻技術的進一步發展有很大幫助。

目前常見的場景突變檢測算法有像素比較法、直方圖比較法、基于邊緣的方法和基于運動矢量的方法等[1-5]。像素比較法比較簡單,但是對物體運動和噪聲比較敏感;直方圖比較法忽略了圖像中的位置信息;基于邊緣的方法和基于運動矢量的方法能夠獲得較好的檢測效果,但是計算量較大。隨著研究的深入,一些算法有了更加精準的檢測結果。例如,Vlachos[6]曾經提出利用相位相關性進行場景突變檢測的方法。Yumi Eom[7]等人提出了在HEVC的編碼碼流中利用幀特征對超高清(UHD)視頻進行場景變化檢測,解決了傳統場景變化檢測方法無法面對UHD視頻數據量大的問題。Soongi Hong[8]等人為解決傳統算法在面對不同視頻時閾值選擇單一的問題上提出了先提取視頻直方圖,而后通過對數正態分布和參數模型估計的方法,實現了自適應閾值的視頻場景變化檢測。不過一些算法因為計算量過大,同時沒有明顯提高檢測性能而沒有得到普及和應用。例如,文獻[9]利用壓縮域結合神經網絡進行邊界檢測,當場景中出現光強變化以及鏡頭移動等情況時,這種基于神經網絡的場景變化檢測算法頑健性仍然不足。文獻[10]提出一種基于ORB(面向快速和短暫旋轉)的場景變化檢測算法,不過,該算法中的閾值與視頻類型或者鏡頭轉換方式有關,需要在實際應用中根據具體數據進行調整。

針對以上問題,如何在視頻中高效準確的判斷場景變化成為本文研究的重點內容。故本文提出了一種結合SIFT特征點匹配算法的場景突變檢測算法。

2本文算法

SIFT算法自David Lowe于1999年提出后,由于其在物體識別、圖像拼接、機器人地圖感知與導航、影像追蹤等領域的廣泛應用而備受人們的關注[11-16]。SIFT算法具有尺度不變性、旋轉不變性,同時對于仿射變化,噪音以及光照變化具有很好的穩定性,因此經過了十幾年的發展依然是一種經典的特征提取算法。

SIFT算法主要有以下幾個特點:(1)獨特性,信息量豐富,可以在特征數據庫中進行快速、準確的匹配;(2)多量性,即使少數的幾個對象也可以提取數量較多的SIFT特征向量;(3)高速性,經典的SIFT匹配算法經過降低維度、改變灰度級等方法處理之后甚至可以達到實時的要求;(4)可擴展性,可以很方便地與其他形式的特征向量進行聯合。因此本文將其作為圖像匹配和識別的基礎,根據SIFT算法的這些特點進行視頻場景突變檢測。

圖1 本文算法流程圖Fig.1 Flow chart of the algorithm proposed in this paper

本文算法流程圖見圖1。基于SIFT特征點提取的場景突變檢測算法主要分為3個部分:(1)SIFT算法提取特征點;(2)基于SIFT算法的圖像匹配;(3)視頻場景變化檢測。

2.1 SIFT算法提取特征點

SIFT算法的本質是在不同的尺度空間上尋找特征點并計算出特征點的方向。Lowe將SIFT算法主要分為4個步驟:

(1)尺度空間極值檢測:首先對圖像實現高斯模糊并通過降采樣建立高斯金字塔,利用高斯金字塔表示尺度空間,然后每一個像素點要和它所有的相鄰點比較,看其是否比它的圖像域和尺度域的相鄰點大或者小。以確保在尺度空間和二維圖像空間都檢測到極值點。

(2)關鍵點的位置確定:尺度空間極值檢測得到的是離散空間的關鍵點,為了得到穩健的特征點,必須對尺度空間高斯差分(DOG)函數進行擬合,同時去除由于DOG算子的邊緣響應而產生的邊緣點。

(3)關鍵點的方向確定:計算關鍵點的圖像梯度,并用直方圖統計鄰域內像素的梯度和方向,梯度直方圖將0~360°的方向范圍分為36個柱,其中每柱10°。直方圖的峰值方向代表了關鍵點的主方向。

(4)關鍵點描述:對于每一個關鍵點,擁有3個信息:位置、尺度以及方向。特征點描述的目的是用一個具有獨特性的特征向量把特征點描述出來。Lowe建議描述子使用在關鍵點尺度空間內4×4的窗口中計算的8個方向的梯度信息,共4×4×8=128維向量表征。

2.2 基于SIFT算法的圖像匹配

在SIFT算法的實際應用過程中,SIFT 特征點的匹配是最重要的步驟之一。SIFT特征點使用在關鍵點尺度空間內4×4的窗口中計算的8個方向的梯度信息,共4×4×8=128維向量表征,因此SIFT特征點的匹配問題就可以轉化為在128維空間中特征向量的最近鄰搜索問題。由于特征描述子是一個128維向量,因此任意向量的距離定義都可以作為特征點的距離,比較常用的有Euclid距離和協方差和反余弦函數計算出的距離。由于Euclid距離計算量較大,會影響場景變化檢測的計算速度,因此本文采用協方差和反余弦函數計算,如式(1):

(1)

計算輸入圖像的每個特征點與匹配圖像中所有特征點的距離后將其按照從小到大的順序排列得到距離向量d。計算最近距離d(1)與次近距離d(2)的比值,即d(1)/d(2),如果該比值小于閥值,則認為匹配,否則認為不匹配。

2.3 視頻場景變化檢測

SIFT特征匹配具有顯著性,也就是說特征點在與其匹配的圖像中進行SIFT特征點搜索時,正確匹配的概率非常高,故本文將其作為圖像匹配和識別的基礎,利用SIFT匹配算法的這個特點進行視頻的場景突變檢測。

將圖像中相鄰兩幀即當前幀與前一幀利用SIFT算法進行特征點匹配,兩幀匹配后得到的特征點數量記為b。為了通過相鄰兩幀的匹配率來反映視頻場景突變的情況,將特征點匹配數量b與前一幀的特征點數量an-1作比值,當其滿足式(2)時,認定當前幀發生了場景突變,經實驗驗證α取0.3。

(2)

式中,n表示當前幀,n-1表示前一幀,an-1表示前一幀特征點數量,b表示當前幀與前一幀利用SIFT算法進行特征點匹配后得到的匹配特征點數量。

3實驗結果

3.1 算法驗證

本程序是在VS2013+OpenCV2.4.10開發

圖2 無場景突變舉例(115、116幀)Fig.2 Examples of no scene mutation change(the 115th and 116th frames)

圖3 場景突變舉例(114、115幀)Fig.3 Examples of scene mutation change(the 114th and 115th frames)

環境下實現,主要包括SIFT特征點提取、特征點匹配與場景變化檢測的判斷三個部分,實驗過程結果見圖2與圖3。

本文截取了實驗視頻中114、115、116三幀,其中114與115幀發生了場景突變,115與116幀無場景突變,具體實驗數據見表1。通過實驗可以看出當相鄰兩幀沒有發生場景突變的時候,其相鄰兩幀的相似性高,匹配率大,如圖2所示;當相鄰兩幀發生了場景突變的時候,由于相鄰兩幀的場景完全變化,基本沒有相似性,匹配率也隨之大大降低,如圖3所示。因此可通過SIFT特征點匹配算法實現場景突變檢測。

表1 實驗數據舉例

3.2 SIFT特征點提取實時性驗證

由于視頻的場景突變檢測算法在實際的應用當中實時性指標較為重要,因此本文通過視頻片段驗證SIFT算法在特征點提取方面是否可以達到實時性的要求。

表2 SIFT特征點提取耗時統計

從表2可以看出,對于場景較復雜的動畫,其1 922幀的特征點提取時間為72.717 6 s,平均1 s可以提取26.431 0 frames。人眼能識別的最低幀數是24 frames/s,就是說畫面每秒鐘變換24次以上人眼就會覺得連貫,低于24 frames/s就會覺得有停頓感。常見的電視等播放器可以達到25 frames/s,本實驗中可以達到26 frames/s左右,因此基本可以達到SIFT特征點實時提取的要求。

3.3 視頻場景突變檢測算法實驗數據

為了驗證本文算法的有效性,本文挑選使用了不同視頻片段作為實驗數據,包括新聞、電影與動畫等,均為AVI格式視頻。實驗數據中場景突變點信息如表3所示。

表3 視頻中場景突變點

評價檢測算法最常用的是查全率和查準率,標準檢測算法的有效性指標定義如下:

(3)

(4)

式中,Nm,Nf,Nc分別為漏檢數、誤檢數、正確檢測數。在場景突變檢測中,查全率用來證明這個場景變化檢測算法在實際應用中的有效性,虛檢率用來說明當達到一定檢全率時所要付出的代價。

視頻場景突變檢測的實驗結果如表4所示。實驗結果中平均查全率為95.79%,平均查準率為94.45%。查準率略低于查全率,這是由于視頻中的人工編輯多而復雜,場景內出現大范圍的突然的運動變化,從而容易造成的誤判。

表4 本算法實驗結果

3.4 本算法與其他算法比較

文獻[17]中提出針對二維視頻編碼的運動幀差圖像的多測度聯合場景突變檢測算法,對視頻ishop,本文與文獻[17]比較結果見表5。視頻ishop是一段場景變化較多的MV視頻,總共有2 752幀,其中場景突變總數為53個。從表5可以看出,本文算法的查全率比文獻[17]高3.78%,查準率比文獻[17]高4.88%。

表5 視頻ishop的比較結果

文獻[18]在信息論的基礎上,提出了一種結合信息論和運動信息的鏡頭檢測算法,通過視頻探索《北極熊》與文獻[18]比較結果見表6所示,視頻探索《北極熊》是一段紀錄片,總共有39 687 frames,其中場景突變共有127個。本文算法的查全率比其高1.58%,查準率比其高0.83%。由于此視頻段中北極場景較多,白雪皚皚的背景下特征點提取受到一定的限制,故本文算法與文獻[18]比較后提高較少。

表6 視頻探索《北極熊》的比較結果

4結論

本文提出了一種基于SIFT特征點匹配的場景突變檢測算法。通過SIFT特征點提取與特征點匹配算法相結合,實現了視頻的場景突變檢測。本算法可以在視頻幀進行圖像匹配的過程中對場景的變化情況進行判斷,同時SIFT特征點提取可以滿足實時性的要求,因此該算法不僅應用范圍較廣,還可以保證場景突變檢測的精度,視頻場景突變檢測平均查全率為95.79%,平均查準率為94.45%,表明了該算法在視頻場景突變檢測中的有效性。

參考文獻:

[1]鄒曉燕.基于H.264壓縮域的視頻檢索研究[D].山東:山東大學,2011.

ZOU X Y. Video retrieval based H.264 compressed domain[D]. Shandong:Shandong University,2011.(in Chinese)

[2]薛立勤,張秀娟.基于運動分析的視頻檢索方法[J].計算機工程與應用,2008,44(25):152-154.

XUE L Q,ZHANG X J. Video retrieval method based on motion analysis[J].ComputerEngineeringandApplications,2008,44(25):152-154.(in Chinese)

[3]朱耀麟,李倩.視頻檢索常用的鏡頭分割方法的研究[J].電視技術,2014,38(3):178-181.

ZHU Y L,LI Q .Survey of used methods for partitioning video into shots in video indexing[J].IdeoEngineering,2014,38(3):178-181.(in Chinese)

[4]魏瑋,劉靜,王丹丹.視頻鏡頭分割方法綜述[J].計算機系統應用,2013,22(1):5-8.

WEI W,LIU J,WANG D D. Survey of methods for partitioning video into shots in video[J].ComputerSystem&Applications,2013,22(1):5-8.(in Chinese)

[5]劉艷紅.視頻鏡頭分割算法綜述[J].科技創新與應用,2014(16):49-50.

LIU Y H. Survey of methods for partitioning video into shots in video[J].ScientificandTechnologicalInnovationandApplication,2014(16):49-50.(in Chinese)

[6]VLACHOS T. Cut detection in video sequences using phase correlation[J].IEEESignalProcessingLetters,2000,7(7):173-175.

[7]EOM Y,PARK S,YOO S,etal..AnanalysisofSceneChangeDetection[M]. Anaheim,California,USA: International Conference on Semantic Computing,2015:470-474.

[8]HONG S,CHO B,CHOE Y.AdaptiveThresholdingforSceneChangeDetection[M]. Berlin:International Conference on Consumer Electronics,2013:75-78.

[9]LEE M H,YOO H W,JANG D S. Video scene change detection using neural network:improved ART2[J].ExpertSystemswithApplications,2006,31(1):13-25.

[10]唐劍琪,謝林江,袁慶生,等.基于ORB的鏡頭邊界檢測算法[J].通信學報,2013,34(11):184-190.

TANG J Q,XIE L J,YUAN Q SH,etal.. ORB-based shot boundary detection algorithm[J].Communications,2013,34(11):184-190.(in Chinese)

[11]吳偉交.基于SIFT特征點的圖像匹配算法[D].武漢:華中科技大學,2013.

WU W J. Image matching algorithm based on SIFT feature points[D]. Wuhan:Huazhong University of Science and Technology,2013.(in Chinese)

[12]許佳佳.結合Harris與SIFT算子的圖像快速配準算法[J].中國光學,2015,8(4):574-581.

XU J J. Fast image registration method based on Harris and SIFT algorithm[J].ChineseOptics,2015,8(4):574-581.(in Chinese)

[13]高文,朱明,賀柏根,等.目標跟蹤技術綜述[J].中國光學,2014,7(3):365-375.

GAO W,ZHU M,HE B G,etal.. Overview of target tracking technology[J].ChineseOptics,2014,7(3):365-375.(in Chinese)

[14]聶海濤,龍科慧,馬軍,等.采用改進尺度不變特征變換在多變背景下實現快速目標識別[J].光學 精密工程,2015,23(8):2349-2356.

NIE H T,LONG K H,MA J,etal.. Fast object recognition under multiple varying background using improved SIFT method[J].Opt.PrecisionEng.,2015,23(8):2349-2356.(in Chinese)

[15]王睿,朱正丹.融合全局-顏色信息的尺度不變特征變換[J].光學 精密工程,2015,23(1):295-301.

WANG R,ZHU ZH D. SIFT matching with color invariant characteristics and global context[J].Opt.PrecisionEng.,2015,23(1):295-301.(in Chinese)

[16]劉志文,劉定生,劉鵬.應用尺度不變特征變換的多源遙感影像特征點匹配[J].光學 精密工程,2013,21(8):2146-2153.

LIU ZH W,LIU D SH,LIU P. SIFT feature matching algorithm of multi-source remote image[J].Opt.PrecisionEng.,2013,21(8):2146-2153.(in Chinese)

[17]馬彥卓,常義林,楊海濤.應用于視頻編碼的實時多測度聯合突變場景切換檢測算法[J].光子學報,2010,39(6):1058-1063.

MA Y ZH,CHANG Y L,YANG H T. Used in video coding mutations in real-time multi measure joint scene change detection algorithm[J].ActaPhotonicaSinica,2010,39(6):1058-1063.(in Chinese)

[18]易璨.基于信息熵和運動信息的視頻鏡頭檢測[D].湘潭:湘潭大學,2006.

YI C. Shot detection based on information entropy and motion information[D]. Xiangtan:Xiangtan University,2006.(in Chinese)

李楓(1990—),女,黑龍江佳木斯人,碩士研究生,主要從事場景變化檢測方面的研究。E-mail:1006407131@qq.com

趙巖(1971—),女,吉林遼源人,教授,博士生導師,2003年于吉林大學獲得博士學位,主要從事圖像與視頻編碼、立體視頻處理方面的研究。E-mail:zhao_y@jlu.edu.cn

《發 光 學 報》

—EI核心期刊 (物理學類; 無線電電子學、 電信技術類)

《發光學報》是中國物理學會發光分會與中國科學院長春光學精密機械與物理研究所共同主辦的中國物理學會發光分會的學術會刊。 該刊是以發光學、 凝聚態物質中的激發過程為專業方向的綜合性學術刊物。

《發光學報》于1980年創刊, 曾于1992年, 1996年, 2000年和2004年連續四次被《中文核心期刊要目總覽》評為“物理學類核心期刊”, 并于2000年同時被評為“無線電電子學、 電信技術類核心期刊”。2000年獲中國科學院優秀期刊二等獎。 現已被《中國學術期刊(光盤版)》、 《中國期刊網》和“萬方數據資源系統”等列為源期刊。 英國《科學文摘》(SA)自1999年; 美國《化學文摘》(CA)和俄羅斯《文摘雜志》(AJ)自2000年; 美國《劍橋科學文摘社網站》自2002年; 日本《科技文獻速報》(CBST, JICST)自2003年已定期收錄檢索該刊論文; 2008年被荷蘭“Elsevier Bibliographic Databases”確定為源期刊; 2010年被美國“EI”確定為源期刊。2001年在國家科技部組織的“中國期刊方陣”的評定中, 《發光學報》被評為“雙效期刊”。2002年獲中國科學院2001~2002年度科學出版基金“擇重”資助。2004年被選入《中國知識資源總庫·中國科技精品庫》。本刊內容豐富、 信息量大,主要反映本學科專業領域的科研和技術成就, 及時報道國內外的學術動態, 開展學術討論和交流, 為提高我國該學科的學術水平服務。

《發光學報》自2011年改為月刊, A4開本, 144頁, 國內外公開發行。 國內定價: 40元, 全年480元, 全國各地郵局均可訂閱。 《發光學報》歡迎廣大作者、 讀者廣為利用, 踴躍投稿。

地址: 長春市東南湖大路3888號

《發光學報》編輯部

郵編: 130033

電話: (0431)86176862, 84613407

E-mail: fgxbt@126.com

國內統一刊號: CN 22-1116/O4

國際標準刊號: ISSN 1000-7032

國內郵發代號: 12-312

國外發行代號: 4863BM

http://www.fgxb.org

Video scene mutation change detection

combined with SIFT algorithm

LI Feng, ZHAO Yan*, WANG Shi-gang, CHEN He-xin

(CollegeofCommunicationEngineering,JilinUniversity,Changchun130012,China)

*Correspondingauthor,E-mail:zhao_y@jlu.edu.cn

Abstract:Video scene change detection has a very important role for video annotation and semantic search. This paper proposes a scene mutation change detection algorithm combined with SIFT(Scale Invariant Feature Transformation) feature point extraction. Firstly, the feature points of two adjacent video frames are extracted respectively using SIFT algorithm and the number of them is counted respectively. Then image matching of the two adjacent frames of the video is performed and the number of matching feature points is counted. Finally, the ratio between the number of matching feature points of the current frame and the number of matching feature points of its previous frame is calculated, so as to judge the scene change by this ratio. The average scene mutation change detection rate in the experimental results can reach 95.79%. The proposed algorithm can judge scene change during image matching. Therefore, the algorithm can not only be applied widely, but also guarantee the accuracy of scene change detection. Experimental results show the effectiveness of the proposed algorithm.

Key words:SIFT;feature point matching;scene change detection

作者簡介:

中圖分類號:TN919.8

文獻標識碼:A

doi:10.3788/CO.20160901.0074

主站蜘蛛池模板: 久青草网站| 欧美成人二区| 国产精品久久自在自线观看| 在线观看无码a∨| 国内精品久久人妻无码大片高| 国产真实乱子伦精品视手机观看 | 国产Av无码精品色午夜| 久久久久亚洲精品成人网| 97超碰精品成人国产| 老汉色老汉首页a亚洲| 国产香蕉97碰碰视频VA碰碰看| 国产精品尹人在线观看| 2021亚洲精品不卡a| 国产国产人成免费视频77777| 精品国产香蕉伊思人在线| 青青草原国产免费av观看| 亚洲国产成人在线| 人妻无码中文字幕一区二区三区| 国产精品成人AⅤ在线一二三四| 91精品情国产情侣高潮对白蜜| 高潮毛片免费观看| 在线观看精品国产入口| 国产十八禁在线观看免费| 亚洲女同一区二区| 在线视频亚洲欧美| 国产剧情无码视频在线观看| 国产午夜精品鲁丝片| 亚洲第一色网站| 手机成人午夜在线视频| 久久一级电影| 亚洲精品第1页| 高清国产在线| 无码不卡的中文字幕视频| 亚洲啪啪网| 国产69精品久久| 亚洲欧美国产五月天综合| 久久综合婷婷| 女人爽到高潮免费视频大全| 成人精品视频一区二区在线| 福利小视频在线播放| 国产成人精品综合| 四虎精品国产AV二区| 成年片色大黄全免费网站久久| 国产丰满成熟女性性满足视频| 国产成人精品一区二区三区| 美女被操91视频| 精品国产免费第一区二区三区日韩 | 国产尤物在线播放| 亚洲日韩精品综合在线一区二区 | 亚洲精品无码专区在线观看| 国产91精品久久| 99热亚洲精品6码| 国产乱人伦偷精品视频AAA| 日韩免费视频播播| 激情国产精品一区| 特级aaaaaaaaa毛片免费视频| 免费国产高清精品一区在线| 久久精品66| 91在线视频福利| 啦啦啦网站在线观看a毛片| 国产成人久视频免费| 日韩精品亚洲人旧成在线| 亚洲日韩欧美在线观看| 国语少妇高潮| 老司机精品一区在线视频| 伊人久久久大香线蕉综合直播| 欧美精品啪啪| 久久人体视频| 国产91丝袜| 狠狠色丁香婷婷| 免费国产小视频在线观看| 日韩精品一区二区三区免费| 在线观看国产精品第一区免费 | 日韩天堂视频| 狠狠色婷婷丁香综合久久韩国| 日韩欧美国产综合| 青青草国产精品久久久久| 在线国产综合一区二区三区| 一个色综合久久| 国产在线观看精品| 国产成人无码AV在线播放动漫 | 久久免费观看视频|