侯一民,賀廣文,張娜,白佳文
(東北電力大學自動化工程學院,吉林吉林132012)
生物特征識別是隨著計算機圖像處理和模式識別等學科的發(fā)展而逐步形成的新興研究方向,是為了進行身份驗證而采用自動技術測量人身體的特征或行為特點,并將這些特征或特點與數據庫中的模板數據進行比較,完成認證的一種方法。
人體步態(tài)識別是一種新興的生物特征識別技術,它通過視覺技術采集人的行走圖像,并在圖像中提取出人類步態(tài)特征加以分析,達到身份識別的目的。醫(yī)學研究表明:人的步態(tài)具有24種不同的特征,如果把所有特征都充分加以考慮,則可認為人體步態(tài)具有個體唯一性,因此,如能夠準確提取人類步態(tài)特征,就可實現身份、健康狀況等信息的識別。此觀點已經得到廣泛認同。步態(tài)識別的應用領域非常廣泛。醫(yī)學領域對步態(tài)的分析主要是研究處在康復期病人的步態(tài)與正常人步態(tài)的差異,從而判斷病人的恢復情況。體育訓練中,通過分析可以獲得人體下肢的運動信息,為運動員的優(yōu)化訓練提供依據。電腦動畫游戲同樣借助虛擬現實技術建立人體步態(tài)模型,以達到非常逼真的運動效果。人機工效學、體育訓練及電腦動畫等領域的人體運動分析原理是一致的,都是分析人體各部分之間的運動學和動力學關系[1,2]。
在國外,卡耐基梅隆大學致力于從視頻序列圖像當中提取人體生物特征并且利用所提供的生物特征進行個人身份認證的研究。研究人員利用K均值算法對訓練樣本序列與測試樣本序列進行聚類,分別求出它們的聚類中心,然后計算測試樣本序列的聚類中心與訓練樣本數據庫中所有的訓練樣本序列聚類中心的相似性,最后利用最鄰近算法完成步態(tài)的分類識別[3]。喬治亞技術學院的研究中重點在于提供一種恢復靜態(tài)人體參數和走路幅度的相關數據的方法。將人體自身的身高、步幅、頭頂到腰椎的距離、腰肢到兩腳之間的最大距離這些靜態(tài)形狀參數構成的四維特征向量作為步態(tài)特征。對每一個步態(tài)序列只考慮兩腳之間的距離達到最大時的四維特征矢量,序列中所有的特征矢量構造一個高斯模型,利用最大似然估計進行步態(tài)的分類識別[4]。A.Kale等利用人的二值化圖像的側面輪廓寬度矢量作為步態(tài)特征,采用經典的主分量分析算法進行矢量的降維處理,最后利用時間規(guī)整技術計算序列之間的相似性進行步態(tài)識別[5]。N.Cuntoor綜合利用多種特征的融合進行步態(tài)識別的研究。具體包括人體高度與人手臂和腿運動的融合、人正面視角步態(tài)圖形與側面視角步態(tài)圖像的融合。融合策略使用最簡單的加和、乘積、最小值原理等。利用多特征融合方法取得了比單一特征稍高的識別率[6]。Nixon等對步態(tài)識別技術研究的新進展進行了總結并且對步態(tài)識別的前景進行了預測和分析[7]。Cunado.D等將大腿和小腿建立為鏈接的鐘擺模型,并從其與垂直方向之間的夾角信號中獲得步態(tài)特征[8]。
國內的一些學者也在此領域做了一定的研究工作。我國關于步態(tài)識別的研究起步較晚,但一些大學和科研機構在步態(tài)識別方面取得一定的成果,其中居于領軍地位的是由歸國博士譚鐵牛所領導的中科院自動化所。其中王亮和胡衛(wèi)明提出了基于統(tǒng)計主元分析的方法,其研究文章被國外的許多研究機構所引用[9-11]。
但目前的步態(tài)識別手段仍存在一定的缺陷,主要問題是識別率較低。針對此問題,本文提出了一種基于能量圖匹配的步態(tài)識別方法。應用背景建模提取步態(tài)目標之后,獲取能量圖,運用模板匹配方法得到目標識別結果。
步態(tài)目標提取是步態(tài)目標識別方法中的重要步驟,它是指從視頻或者圖像序列中提取完整人體目標的過程。由于步態(tài)識別中可能需要用到人體目標中的各個部分的運動特點作為識別依據,因此,能夠準確、完整的提取出步態(tài)目標就成為步態(tài)識別能否成功的關鍵。
目前的步態(tài)目標提取一般是在靜態(tài)背景下完成的,采用的目標提取方法包括兩種:背景建模和前后幀差影。
背景建模方法是運用序列圖像中所有圖像的信息,采用平均法重建無目標背景的一種方法。假定I={I1,I2,…,In}代表整個圖像序列,Ik,k=1,2,…,n代表序列圖像中的某幀,n為幀數,則背景建模所采用的方法可以表示為

其中:B(i,j)為建模之后的背景中的像素點,(i,j)為像素點坐標,其取值范圍為圖像大小。
建模之后的背景用來作為目標提取的依據,其提取過程可以表示如下:

其中:M(i,j)為目標提取之后的圖像中的像素點值。但針對一般圖像數據,M(i,j)的取值可能是0-255中的任意值,因此運用此法得到的目標圖像并非目標特征提取過程中所需要的二值圖像,而是灰度圖。將灰度圖轉化為二值圖像,需要進行圖像二值分割。
圖像M(i,j)像素構成簡單,大部分不為零的像素集中在目標部分,則可以運用簡單的二值分割得到目標,即

公式(3)中的M'(i,j)為二值化之后的圖像像素點值,ε為分割閾值。
二值化之后的圖像往往存在噪聲,仍不能滿足目標特征提取和識別的要求,需要運用形態(tài)學濾波進行處理,濾波過程如下:

公式中的M″為形態(tài)學濾波之后的圖像,“。”為形態(tài)學“開啟”操作,“·”為形態(tài)學“閉合”操作,P為形態(tài)學算子。
完成以上流程之后,目標被從靜態(tài)背景下的序列圖像中成功提取。
能量圖法是一種步態(tài)目標特征提取方法。其過程主要應用了對目標序列圖像的平均方法。如果目標圖像序列中包含的幀數足夠多,在平均之后的能量圖中,能夠充分體現目標在運動過程中身體各個部位的運動部位特點。
能量圖的獲取過程可以描述為如下過程:

其中:Q(i,j)為計算之后的能量圖中像素點值。能量圖求取結果如圖1所示。

圖1 能量圖計算結果。
從圖1可以看出,能量圖為灰度圖像,它幾乎包含了由0至255之間的所有像素值,它體現的是人體目標在運動過程中身體各個部位的運動范圍、幅度以及身體主要姿態(tài)等信息。它對一個人在正常行走過程中的特點有較好的體現。
步態(tài)識別中,根據所求得的能量圖,在識別目標身份的過程稱為目標識別。其整個識別過程表示如下:
目標識別中運用的法則眾多,主要應用的有歐氏距離法、模板匹配法等。歐氏距離法可表示為


圖2 步態(tài)目標識別流程圖
其中:W和H分別表示能量圖的寬度和高度,M″1(i,j)表示步態(tài)庫中的某目標能量圖,M″2(i,j)表示當前目標能量圖。歐氏距離法計算的相似度R其取值范圍較大,不宜作為本文應用的相似度計算方法。
模板匹配法可表示為

模板匹配法實際上是運用兩組數據之間的協(xié)方差計算數據間相似性的方法,它被廣泛應用于各種模式識別過程中,是一種簡便有效的方法。本文采用此方法進行步態(tài)目標識別。
本文采用的實驗素材取于步態(tài)數據庫MITAI,是建立于2001年的室內步態(tài)數據庫。實驗步驟遵循圖2所示的流程,部分實驗結果見表1。
表中列出了數據庫中獲取的5組序列圖像并進行了目標提取,以此作為識別的模板,根據模板序列圖像計算出了相應的能量圖。還列出了一組隸屬于模板3的其他序列圖像,也進行了相同的操作。根據文中給出的模板匹配方法進行了相似度計算,其結果見表中的“R”列。可以看出,目標圖像能量圖與模板3序列圖像的能量圖具有較大的相似性,此結果與事實相符。
實驗中還對比了其他50組步態(tài)目標,識別結果的準確率達到了98%。

表1 基于能量圖的步態(tài)目標識別實驗
本文針對一種新興的生物特征識別技術,步態(tài)識別展開研究,旨在提高步態(tài)識別率。首先,運用各幀圖像平均的手段,即背景建模法建立背景模型并提取人體運動目標;之后,采用了形態(tài)學濾波器優(yōu)化目標提取的結果,去除了二值圖像中殘留的噪聲;然后,采用求各幀均值的方法獲取整個圖像序列的能量圖;最終,討論了模板匹配法在識別過程中的應用。采用MITAI步態(tài)數據庫作為實驗對象進行實驗,證明了本文方法的效果。
[1]吳杰.基于人體步態(tài)輪廓的步態(tài)識別關鍵技術研究[D].合肥:合肥工業(yè)大學,2008.
[2]傅春燕.步態(tài)識別中的目標輪廓提取和特征維數約減研究[D].重慶:重慶大學,2008.
[3]D.Tolliver and R.Collins,Gait shape estimation for identification[C],International Conference on Audio-and Video-based Biometric Per-son Authentication,2003:734-742.
[4]Johnson,Bobick.A Multi-viewed Method for Gait Recognition Using Static Body Parameters[C],In 3rd International Conference on Audioand Video-based Biometrics Person Authentication,2001:301-311.
[5]A.Kale,N.Cuntoor,B.Yegnanarayana,A.N.Rajagopalan,R.Chellappa.Gait Analysis for Human Identification[C],International Conference on Audio-and Video-based Biometric Person Authentication,2003:706-714.
[6]N.Cuntoor,Amit Kale,Rame Chellappa.Combining Multiple Evidence for Gait Recognition[C].IEEE International Conference on Acoustics,Speech and Signal Processing,2003:575-562.
[7]Nixon.M.S.,Carter.J.,N.Shutler,J.N.Grant.New Advance in Automatic Gait Recognition[J].Elesvier Information Security Technical Report.2003,7(4):23-35.
[8]Cunado.D,Nixon,M.S and Carter J.N,Automatic Extraction and Description of Human Gait Models for Recognition Purpose[J],Computer Vision and Imagine Understanding,2003,90(1):1-41.
[9]王亮,胡衛(wèi)明,譚鐵牛.基于步態(tài)的身份識別[J].計算機學報,2003,26(3):353-360.
[10]Liang Wang,Huazhong Ning,Weiming Hu and Tieniu Tan.Gait Recognition Based on Procrustes Shape Analysis[J].IEEE International Conference on Image Processing(ICIP).Rochester,New York,September,2002:22-25.
[11]Liang Wang,Tieniu Tan,Huangzhong Ning and Weiming Hu.Fusion of Static and Dynamic Body Biometrics for Gait Recognition[J].IEEE Transactions on Circuits and Systems for Video Technology,2004:149-158.