賈 旭 薛定宇 崔建江 劉 晶
(東北大學信息科學與工程學院 沈陽 110819)
傳統上人們使用的個人身份鑒別手段主要通過鑰匙、磁卡、密碼等識別的方式,但由于它們有可能會被丟失、忘記、偽造、破譯等弱點,使其難以保證識別的方便性和可靠性[1]。因此,急需一種不易被他人替代和仿制并且方便、有效、安全的身份識別技術來保障人們的生活和社會的安全,其中,靜脈識別以其特有的優勢已經得到了越來越多的關注。
已有的手背靜脈識別算法可以分為兩類:第 1類是將局部特征點作為特征進行匹配。文獻[2]將交叉點作為特征點來進行匹配;除了交叉點,脈絡曲線端點也可以被當作特征點[3],文獻[4]將特征點圍成的三角形作為特征來進行匹配;而文獻[5]則利用SIFT(Scale Invariant Feature Transform)角點作為特征點來進行匹配。第2類是將靜脈圖像變換處理或融合來進行全局匹配。文獻[6]通過對圖像進行拉普拉斯變換實現全局匹配;而文獻[7]使用了主成分分析,達到降維匹配的目的;文獻[8]將圖像的7個不變矩作為特征來進行考慮;文獻[9]則將這些不變矩進行了融合;文獻[10]依據二值化圖像相同像素的重疊比例來確定圖像是否匹配,同樣取得了一定的效果。
以上這些算法都是根據預處理后的靜脈圖像來進行分析的,因此受預處理算法的影響較大,由于選擇增強算法或分割算法的不同,可能會導致同一靜脈圖像在預處理后產生差異,給識別帶來困難。這里,本文對采集的手背靜脈圖像不進行預處理操作,而是直接對其進行分析研究,首先在不同光強條件下采集到圖像序列,作為HMM的觀測序列;隨后對感興趣區域進行Contourlet分解,以不同尺度子帶能量為特征建立多個 HMM;最后,融合每個HMM的識別結果,從而完成靜脈識別過程。實驗結果表明,該算法使得正確匹配與錯誤匹配的區分度最大化,并具有較高的正確識別率。
靜脈圖像是在特定波長范圍(約850 nm)內紅外光下獲取的,因發光二極管具有發出較為純凈的紅外光、光強容易控制等優點而被選用作為該設備光源,這里設計一種80個LED組成的分布為8×10的陣列光源,由于要在采集平臺正上方安裝攝像頭,故將兩組二極管陣列布置在采集裝置的兩側,以實現光強均勻,如圖1所示。

圖1 陣列光源與攝像頭安裝示意圖
由于該算法需要獲得不同光強下的靜脈圖像序列,因此在采集圖像時陣列光源每次增加8個LED,從而達到既提高了光線強度,又實現了均勻疊加的效果。圖2對陣列光源中的每行LED進行了編號,這里LED的打開順序為:5-6-4-7-3-8-2-9-1-10,圖3(a)-3(j)為光強逐漸增加時采集的靜脈圖像序列。

圖2 陣列光源中LED編號示意圖

圖3 光強逐漸增加時采集的靜脈序列圖
一幅靜脈圖像在3個不同尺度下被分解,在尺度k下被Contourlet分解的圖像大小為2N?k,由于選擇的靜脈圖像感興趣區域大小為256×256,所以N=9;同時,圖像在尺度k下被分解為2n個子帶,n為方向濾波器的階數。這樣可以得到在尺度2下被分解圖像大小為128 × 128,并依據經驗選擇4階濾波器,得到16個子帶;在尺度3與尺度4下被分解的圖像大小分別為64 × 64和32 × 32,并選擇3階和2階濾波器,從而分別得到8個子帶和4個子帶,如圖4,這里,將歸一化后每一子帶能量作為該子帶的特征值,如式(3)。


圖4 靜脈圖像在3個尺度下的子帶分解示意圖
靜脈曲線的方向性是區分不同靜脈對象的重要特征,而對于未經預處理的靜脈圖像,其方向性將由靜脈邊緣的高頻信息所體現,Contourlet變換是利用拉普拉斯塔形分解(Laplace, LP)和方向濾波器組(Directional Filter Bank, DFB)實現的一種多分解的、多方向的圖像表示方法[11],LP變換對圖像進行多尺度分解獲得奇異點,DFB將分布在同方向上的奇異點合成為一個系數,因此,Contourlet變換可以把圖像在多尺度下分解為許多方向子帶。
其中Ck,α為尺度k下α方向的子帶,Hk,α(x,y)為尺度k下α方向子帶中(x,y)位置的 Contourlet分解系數,k=2,3,4,α=1,2,… , 26?k,,α為該子帶的分解系數均值,Ek,α為該子帶的實際能量值,,α為歸一化后該子帶的能量值。靜脈圖像經Contourlet分解并計算每一子帶能量值后,便得到不同尺度下3個不同維數的特征向量如式(4)、式(5)和式(6)。

本文提出的算法將圖像庫中的每個人的靜脈表示為一個 HMM,同一個人在不同時間采集的靜脈圖像序列作為訓練樣本,靜脈圖像在3個不同尺度下經Contourlet分解后得到的特征向量被用來當作觀測值,如式(4),式(5),式(6)。HMM的訓練與識別可分為以下幾個步驟[12]:
(1)初始化模型。由于采集靜脈圖像時光源強度逐漸變化,每一靜脈對象每次采集共獲得 10幅圖像,因此HMM觀察值序列長度參數T為10;另外,根據靜脈庫中包含的靜脈對象數目(人數)設置HMM 的狀態數目N,每個狀態對應的觀測值數目M;此外,隨機產生初始概率向量πN,狀態轉移概率矩陣AN×N,觀測值發生概率矩陣BN×M。
(2)優化HMM參數。靜脈圖像序列進行特征提取后,得到3個特征向量:φ,?和ψ,分別將這3個特征向量作為HMM的觀測值,初始化該靜脈對象的HMM為λ1,λ2和λ3;根據靜脈庫中該靜脈對象的所有訓練樣本,利用Baum-Welch算法對該靜脈對象的3個HMM進行重新估計,直至模型參數收斂到某一值,即得到該靜脈對象優化后的模型,和。
(3)計算觀測值序列發生概率。對采集的未知靜脈圖像序列進行特征提取,依據設置的觀測值數目值M,將每個尺度下的特征向量聚成M類,即M個可能得到的觀測值,從而獲得觀測值序列O1,O2,O3;計算所有 HMM 產生觀測值序列的概率和這里,N為靜脈庫中靜脈對象數目,,n為以尺度 2下特征向量為觀測值序列的第n個靜脈對象的HMM,,n為以尺度3下特征向量為觀測值序列的第n個靜脈對象的HMM,,n為以尺度4下特征向量為觀測值序列的第n個靜脈對象的HMM。
(4)多個HMM融合與識別。理想狀態下,在所有靜脈HMM中,真實匹配靜脈的HMM產生未知靜脈觀測值序列O1,O2,O3的概率是最大的,如式(7)。


式 中x1,x2,x3表 示 權 值 , 且 0 ≤x1,x2,x3≤1,x1+x2+x3=1;Pf為的加權和,表示未知靜脈與靜脈庫中第n個靜脈對象的相似程度。
為增大真實匹配與虛假匹配的區分度,需要優化權值x1,x2,x3,使得真實匹配靜脈模型的Pf值盡可能大于虛假匹配模型的Pf值,即融合后能夠使區分度函數值S最大化。

式中Pf(m,n)為第n個對象的HMM產生第m個對象測試樣本觀測值序列的概率融合結果,N為樣本庫中對象的個數。待權值x1,x2,x3被確定后,計算未知靜脈的觀測值序列由靜脈庫中所有HMM產生的Pf值,Pf值最大且大于某一閾值對應的靜脈便可認為是識別結果,閾值確定方法如式(10)。這里,當靜脈對象或數目發生變化時,權值將重新優化。

式中N為樣本庫中靜脈對象的個數,Pf(m,n)為第n個靜脈對象的HMM產生第m個靜脈對象測試樣本觀測值序列的概率融合結果。
本實驗對160個人的手背靜脈在6個不同的時間分別進行6次采集,形成第1個靜脈數據庫[13],其中每人選取 5個圖像序列作為訓練樣本,余下1個靜脈圖像序列作為測試樣本。
對于160個靜脈對象,依據經驗,設置HMM的狀態數目N=13,每個狀態對應的觀測值數目M=20,即對所有靜脈圖像的特征向量φ,?和ψ利用K平均聚類法聚成20類。選取靜脈庫中每一靜脈的5個樣本圖像序列作為訓練樣本,建立所有靜脈對象的 HMM,并將余下的靜脈圖像序列作為測試樣本,計算所有靜脈對象HMM產生每一測試樣本觀測值序列的概率P(Oi|),這里i=1,2,… ,160,j=1,2,… , 160。為減小采集或提取感興趣區域時產生的誤差對訓練的干擾,本實驗對每人的6個圖像序列進行 6倍交叉驗證,并將交叉驗證過程中 6次計算得到的概率進行歸一化處理,如式(11)。

式中k表示 6個不同時間段采集靜脈圖像序列的順序。
分別以靜脈圖像Contourlet分解后不同尺度子帶能量為特征,計算所有靜脈的HMM產生每一測試樣本觀測值序列的P′值,這里i=1,2,…, 160,j=1,2,… , 160,當i=j時,P′值表示真實匹配概率,共160個值;當i≠j時,P′值表示虛假匹配概率,共25440個值。以Contourlet分解后尺度2子帶能量為特征的P′分布如圖5;尺度3子帶能量為特征的P′分布如圖6;尺度4子帶能量為特征的P′分布如圖7。

圖5 尺度2子帶能量特征的P′值分布圖

圖6 尺度3子帶能量特征的P′值分布圖

圖7 尺度4子帶能量特征的P′值分布圖
由圖5,圖6和圖7可以看出,靜脈圖像經Contourlet分解后,以尺度2與尺度4子帶能量為特征建立的HMM,真實匹配產生的P′值并未完全都大于虛假匹配產生的P′值,因此,對于該靜脈數據庫,單獨以尺度2與尺度4子帶能量為特征所建立的HMM會使測試時產生錯誤識別,所以需要對3個P′值的概率分布進行融合處理。
對x1,x2,x3保 留 兩 位 有 效 數 字 , 計 算 所 有x1,x2,x3可能的組合所產生的Pf值分布。當x1=0.25,x2=0.51,x3=0.24時,可實現式(9)中S值的最大化,此時,將基于不同尺度下特征獲得的P′值分布融合后,得到Pf分布如圖8。
由圖8可以看出,真實匹配產生的Pf值全部大于虛假匹配產生的Pf值,即對于Pf可以設置一個閾值來區分是否為真實匹配,閾值設置如式(10),在本實驗中閾值C經過計算后為0.358,當未知靜脈與庫中靜脈計算得到的Pf值大于C時,則匹配成功,否則匹配失敗。

圖8 不同尺度子帶能量特征融合后 fP分布示意圖
為驗證該算法的有效性,重新采集160個靜脈對象的圖像組成第2個靜脈數據庫,將Contourlet分解后單獨尺度子帶能量作為特征值的HMM識別方法與本文提出的多HMM融合后的識別方法進行了比較,如表1所示。

表1 基于不同特征的靜脈識別結果比較
可以看出,針對第2個靜脈庫中的靜脈對象,特征融合后靜脈識別的正確識別率可提高到98.8%,而且增大了真實匹配Pf值分布于虛假匹配fP值分布的區分度。
此外,對靜脈庫中以外的20個人的靜脈進行采集,并與第1個靜脈數據庫中的靜脈進行匹配,計算得到的最大Pf值如表2。

表2 未知靜脈匹配時最大Pf值分布
靜脈庫未存儲的靜脈在與靜脈庫中的靜脈進行匹配時,所有的最大Pf值均未超過閾值 0.358,即錯誤接受率為 0。以上實驗數據表明,該算法具有較高的正確識別率,并且可以針對不同的靜脈數據庫自適應的調節融合權重參數,以達到最優的識別效果。
對于建立的第2個靜脈數據庫,分別采用了基于特征點間拓撲結構[4]、基于二值化后靜脈信息融合[10]與本文的基于 Contourlet子帶能量特征多HMM融合的3種算法,其識別結果如表3。

表3 不同識別算法的實驗結果
由表3可知,針對本實驗建立的靜脈樣本庫,本文提出的算法識別率明顯高于文獻[4]與文獻[10]中算法的識別率,這里,對算法產生的錯誤識別的原因進行了分析,如表4。

表4 產生錯誤識別的原因分析
此外,本文提出的算法識別時間雖然略高于文獻[10]中的算法,但1.451 s仍可以滿足識別的實時性要求。
為避免靜脈識別過程中預處理方法對識別效果的影響,本文采用了一種通過調節光強獲取近紅外靜脈圖像序列的采集方法,即直接對采集到的靜脈圖像序列進行分析;同時,利用不同靜脈圖像中脈絡曲線間的方向性差異,將Contourlet分解后不同尺度下子帶能量作為該靜脈圖像的特征向量,并以此為觀測值,提出了一種基于多HMM融合的靜脈識別算法。實驗表明,該算法針對于給定的靜脈數據庫,具有自適應調整HMM的融合參數,以達到真實匹配與虛假匹配之間區分度的最大化,具有較高的正確識別率;另外,該算法的識別速度較快,具有較好的實用價值。與此同時,該識別算法對于多種不合作因素(如:手背擺放位姿,人運動狀態,體溫等)的魯棒性還需進一步研究。
[1] 黃慶南. 靜脈識別在門禁系統中的應用[J]. 微計算機信息,2007, 23(1): 289-291.Huang Q N. The application of the hand vein identification under the access control system[J].Microcomputer Information, 2007, 23(1): 289-291.
[2] Wang L, Leedham G, and Cho S Y. Infrared imaging of hand vein patterns for biometric purposes[J].IET Computer Vision, 2007, 1(3/4): 113-122.
[3] Lee E C and Park K R. Restoration method of skin scattering blurred vein image for finger vein recognition[J].Electronics Letters, 2009, 45(21): 1074-1076.
[4] Kumar A and Prathyusha K V. Personal authentication using hand vein triangulation and knuckle shape[J].IEEE Transactions on Image Processing, 2009, 9(18): 2127-2136.
[5] Ladoux P O, Rosenberger C, and Dorizzi B. Palm vein verification system based on SIFT matching[C]. Proceeding third International Conference on Advances in Biometric,Italy, 2009: 1290-1298.
[6] Wang J G, Yau W Y, Andy S,et al.. Person recognition by fusing palmprint and palm vein images based on“Laplacianpalm” representation[J].Pattern Recognition,2008, 41(5): 1514-1527.
[7] Khan M H, Subramanian R K, and Khan N A M. Low dimensional representation of dorsal hand vein features using principle component analysis[C]. Proceedings of World Academy of Science, Engineering and Technology, Dubai,United Arabs Emirates, Jan. 28-30, 2009, Vol. 37: 1091-1097.
[8] Wang K J, Zhang Y, Yuan Z,et al.. Hand vein recognition based on multi supplemental features of multi-classifier fusion decision[C]. International Conference on Mechatronics and Automation, Luoyang, 2006: 1790-1795.
[9] Qian X H, Guo S X, Li X Y,et al.. Finger-vein recognition based on the score level moment invariants fusion[C].Proceedings of the 2009 International Conference on Computational Intelligence and Software Engineering,Changchun, 2009: 1-4.
[10] Zhang Y B, Li Q, and You J,et al.. Palm vein extraction and matching for personal authentication[C]. 9th International Conference on Visual Information Systems, Shanghai, 2007:154-164.
[11] Cheng Y, Hou Y K, Zhao C X,et al.. Robust face recognition based on illumination invariant in nonsubsampled contourlet transform domain[J].Neurocomputing, 2010, 73(10-12):2217-2224.
[12] Kim M S, Kim D, Lee S Y. Face recognition using the embedded HMM with second-order block-specific observations[J].Pattern Recognition, 2003, 36(11):2723-2735.
[13] 崔建江, 賈旭, 劉晶, 等. 基于計盒維數和多小波的靜脈圖像特征提取[J]. 東北大學學報(自然科學版), 2010, 31(10):1397-1400.Cui J J, Jia X, Liu J,et al.. Vein image feature extraction based on box counting dimension and multiple wavelets[J].Journal of Northeastern University(Natural Science), 2010,31(10): 1397-1400.