賈賀林


摘要??? 針對(duì)人體行為模式識(shí)別問題,本文提出了一種基于動(dòng)態(tài)時(shí)間規(guī)整的模式識(shí)別算法。首先根據(jù)動(dòng)作視頻序列進(jìn)行人體行為學(xué)習(xí),生成待匹配的模板信息,對(duì)待識(shí)別的動(dòng)作序列進(jìn)行相似想度量,獲取相似性信息,然后使用動(dòng)態(tài)時(shí)間規(guī)整對(duì)待識(shí)別模板數(shù)據(jù)間的相似性進(jìn)行計(jì)算,選取相似性度量最大的模板,從而完成對(duì)視頻序列人體行為模式的分類識(shí)別。
【關(guān)鍵詞】動(dòng)態(tài)時(shí)間規(guī)整模板匹配相似性度量人體行為識(shí)別
隨著攝像頭等監(jiān)視工具的應(yīng)用,人體行為模式識(shí)別受到廣泛的關(guān)注。人體行為模式識(shí)別主要面臨著識(shí)別精度以及實(shí)時(shí)性的問題,本文提出了基于動(dòng)態(tài)時(shí)間規(guī)整的人體行為模式識(shí)別算法,能夠準(zhǔn)確的識(shí)別出人體行為,相比于模板匹配算法有很大的提升。
1 模板匹配
模板匹配就是把不同傳感器(通常是攝像頭)或同一傳感器在不同時(shí)間和環(huán)境下對(duì)固定場(chǎng)景拍攝的兩幅或多幅圖像進(jìn)行處理,并將圖像規(guī)整到統(tǒng)一的空間尺度,在相同尺度空間中查找對(duì)應(yīng)模式的方法。本文中的DTW就是一種添加了時(shí)序約束的模板匹配方法。
模板匹配算法的基本思想:首先根據(jù)已知視頻序列生成模板,然后對(duì)模板與圖像對(duì)應(yīng)區(qū)域進(jìn)行相似性度量,相似性超過給定閾值就認(rèn)為匹配,否則就匹配失敗。模板匹配需要大量計(jì)算模板間的相似性,因此需要在匹配過程中選擇合適的相似性度量公式和匹配方法,從而提高算法的整體效率。
2 行為學(xué)習(xí)
將不同人的行走、奔跑、跳躍等不同動(dòng)作利用輪廓提取算法,得到多組輪廓后,分類存儲(chǔ),每一個(gè)視頻動(dòng)作序列都可以使用一組數(shù)據(jù)來表示,通過數(shù)據(jù)的變化來反映該動(dòng)作的姿態(tài)變化,從而描述一個(gè)動(dòng)作。在學(xué)習(xí)過程中,學(xué)習(xí)樣本越多,得到的模板數(shù)據(jù)就更準(zhǔn)確,模板匹配的概率就越大,但隨之而來的是計(jì)算時(shí)間的加長(zhǎng)。圖1反映的是人體不同動(dòng)作模式下的姿態(tài)數(shù)據(jù)變化趨勢(shì)。
3 相似性度量
匹配比對(duì)算法離不開相似性度量,需要使用“距離”的概念來衡量?jī)山M數(shù)據(jù)的相似度,應(yīng)用較為廣泛的距離描述方式主要有:切比雪夫距離、歐氏距離、信息熵和夾角余弦等,需要根據(jù)不同需求采取相應(yīng)的描述方法。
本文中算法考慮到算法的運(yùn)行效率,采取向量夾角余弦來進(jìn)行距離度量,對(duì)應(yīng)公式如下其中x1k,x2k分別表示向量的坐標(biāo)。兩組向量夾角越小,余弦值越大,相似度越高,通過使用夾角余弦的計(jì)算方法,極大降低了算法的時(shí)間和空間復(fù)雜度,提高了算法的計(jì)算速度效率。
4 動(dòng)態(tài)時(shí)間規(guī)整
使用模板匹配算法進(jìn)行行為識(shí)別雖然比較簡(jiǎn)單,但是算法執(zhí)行過程中會(huì)由于視頻序列的時(shí)長(zhǎng)不同產(chǎn)生誤差,而且行為持續(xù)的時(shí)間也會(huì)對(duì)識(shí)別效果產(chǎn)生影響,因此本文提出了基于動(dòng)態(tài)時(shí)間規(guī)整DTW(Dynamic Time Warping)算法來解決時(shí)序性的影響,只要時(shí)間次序約束存在,模板間的動(dòng)作時(shí)間序列即便不一致,也不會(huì)影響算法的結(jié)果,提高了算法對(duì)時(shí)間序列的魯棒性。
本文提出的人體行為識(shí)別算法主要步驟描述如下:
(1)將學(xué)習(xí)樣本按動(dòng)作分成不同小組,并且按順序編號(hào),每個(gè)小組學(xué)習(xí)了若干個(gè)人的動(dòng)作數(shù)據(jù).
(2)使用DTW計(jì)算待測(cè)數(shù)據(jù)的第一幀與第一組中第一個(gè)動(dòng)作數(shù)據(jù)的所有幀的相似性,找到相似度最高的一幀并記錄相似度度量值.
(3)等間隔采樣若干幀,重復(fù)步驟(2),求出所有相似性度量值的平均值并記錄.
(4)把待測(cè)數(shù)據(jù)采用步驟(2)(3)方法,計(jì)算其他小組的相似性平均值.
(5)比對(duì)待測(cè)數(shù)據(jù)與各組相似性平均值的大小,取最大的作為本次分類結(jié)果,分類識(shí)別完成.
本文算法將動(dòng)態(tài)時(shí)間規(guī)整與模板匹配算法相結(jié)合,在學(xué)習(xí)階段生成模板,識(shí)別過程中使用動(dòng)態(tài)時(shí)間規(guī)整提高識(shí)別準(zhǔn)確性。
5 實(shí)驗(yàn)結(jié)果
本文使用網(wǎng)上的數(shù)據(jù)集,包含基本的人體行為類別,行走,奔跑,跳躍,揮手,跳遠(yuǎn)等動(dòng)作,通過數(shù)據(jù)集進(jìn)行模板生成與動(dòng)作識(shí)別。本文算法與模板匹配算法的準(zhǔn)確度比較如表1。
通過表1可知,在對(duì)上述的人體動(dòng)作進(jìn)行識(shí)別時(shí),本文的算法準(zhǔn)確性要優(yōu)于模板匹配方法,而且識(shí)別準(zhǔn)確度受到人體行為的復(fù)雜度以及動(dòng)作幅度的影響,簡(jiǎn)單的人體行為,如行走、揮手,識(shí)別的準(zhǔn)確性較高,而在奔跑,跳躍,跳遠(yuǎn)等較為復(fù)雜的行為中,識(shí)別的準(zhǔn)確性就較差。
6 總結(jié)
本文提出了基于動(dòng)態(tài)時(shí)間規(guī)整的人體行為識(shí)別算法,相比于傳統(tǒng)的模板識(shí)別算法,本文算法的準(zhǔn)確性更高。但在處理十分復(fù)雜的人體行為時(shí),本文算法的準(zhǔn)確性并不明顯,需要進(jìn)一步的研究與優(yōu)化。
參考文獻(xiàn)
[1]邵延華,郭永彩,高潮.基于特征融合的人體行為識(shí)別[J].光電子激光,2014,25(09):1818-1823.
[2]史東承,馮占君.視頻中人體行為分析[J].吉林大學(xué)學(xué)報(bào)(信息科學(xué)版),2014(05):521-527.
[3]趙海勇.基于視頻流的運(yùn)動(dòng)人體行為識(shí)別研究[D].西安電子科技大學(xué),2011:15-18.