李俊林,王華彬,陶 亮
LI Junlin,WANG Huabin,TAO Liang
安徽大學 計算機科學與技術學院,合肥 230601
School of Computer Science and Technology,Anhui University,Hefei 230601,China
當前,生物特征識別技術[1]由于其便捷性,是人們用來替代傳統人工密碼認證方式的主要途徑。現有的研究人員對基于手部特征的識別技術已經做了大量的研究,主要包括指靜脈識別[2]、掌靜脈識別[3]、指紋識別[4]、掌紋識別[5]和手型識別[6]等。而針對指紋識別和掌紋識別這些皮膚表層的生物特征,容易遭到偽造,破壞其安全性[7],且單一特征的識別技術在提高識別率上往往處于研究的瓶頸[8]。為了解決以上問題,現有的學者提出了多特征融合識別技術[9],其中,掌靜脈和掌紋的融合識別技術是當前的研究熱點之一。在掌靜脈圖像和掌紋圖像多特征融合識別系統中,利用近紅外手掌圖像中提取增強的掌靜脈圖像是其步驟之一,這個過程中卻丟棄了近紅外手掌圖像中原本包含掌紋圖像等結構特征信息,后續步驟中需要用其他方式重新獲得掌紋結構信息的圖像,這些過程無疑造成諸多的不便和繁瑣。在現今應用成熟的掌靜脈圖像和掌紋圖像多特征融合識別的系統中,獲取樣本的掌靜脈圖像和掌紋圖像,主要有以下兩種方式:
(1)采用多攝像頭,普通鏡頭和帶有近紅外(Near Infrared,NIR)濾波片的鏡頭組合使用,如文獻[10],采用3個攝像頭分別捕捉掌紋、掌靜脈和掌背的圖像,得到的3個圖像分別提取各自的特征,最后進行決策層的融合方法,實現多模態的特征融合識別。上述研究都由于多幅圖像空間位置不是一一對應的,這樣得到的多幅圖像需要進行圖像配準。如Yang等人在文獻[11]中和Wang等人在文獻[12]都用到圖像配準的方法,找到單應矩陣,從而實現一對一的映射關系。為找到的3×3的單應矩陣需要選取圖像中的4個結構點,應用到實際都有一定的缺陷。
(2)采用單攝像頭,利用不同波長頻譜捕捉掌紋和掌靜脈圖像,如文獻[13]。因為血液中的血紅蛋白吸收紅外光譜的范圍在760~850 nm之間,紅外光譜被靜脈血液中的血紅蛋白吸收,使得掌靜脈在近紅外光源下顯得更暗,從而區別顯示掌紋和掌靜脈。其具體操作相對來說比較復雜,實際應用范圍有限。
通過上述分析可知,現有的掌靜脈和掌紋融合識別方法中,掌靜脈和掌紋圖像是完全獨立的,不管采用多攝像頭還是單攝像頭模式,其采集過程多有不便,較為繁瑣。經過實驗分析,單幅近紅外手掌圖像中同時包含掌靜脈和掌紋結構信息,如果能夠從單幅圖像中分別增強掌靜脈以及掌紋結構,設計出合理的融合識別方法,不僅提高單幅近紅外手掌圖像的識別率,而且可以簡化融合識別系統的復雜度。
本文提出了一種從單幅近紅外手掌圖像中,分別單獨增強掌靜脈和掌紋結構,實現掌靜脈和掌紋的多特征融合識別方法。具體過程如下:(1)增強掌靜脈結構,首先利用改進的引導濾波算法,去除掌紋結構;然后用反模糊細節增強模型對掌靜脈結構進行增強。(2)為了增強掌紋結構,利用分塊增強算法突出掌紋主線條結構,同時去除掌靜脈結構;針對分塊增強算法無法處理顆粒噪聲的問題,及提高掌紋主線條結構的對比度,使用基于Sobel梯度算子反銳化掩模增強算法增強掌紋結構。(3)利用二維小波分解提取掌靜脈圖像和掌紋圖像的全局特征,提出特征加權融合識別方法。訓練時,計算掌靜脈和掌紋圖像的識別閾值,計算兩者加權后的識別閾值,得到最終的識別閾值。測試時,計算待測樣本和已注冊圖像掌靜脈和掌紋的相似系數,找出加權后相似系數最大的一組,判斷相似系數和識別閾值的關系,若相似系數大于等于其識別閾值,判斷為同類,否則拒絕識別,識別結束。最后統計其中正確識別和錯誤識別的樣本數,得到識別率、誤識率和拒識率。
本文設計的算法可以從單幅近紅外手掌圖像中,分別增強掌靜脈圖像和掌紋圖像。然后利用掌靜脈和掌紋圖像,提出特征加權融合識別算法,其識別效果優于其他算法。
由于活體人體手掌組織各個部位的差異性,使得近紅外手掌圖像中同時包含掌靜脈結構和掌紋結構圖像,如圖1中所示的樣本圖像,可以觀察到掌靜脈和掌紋結構(掌靜脈結構表現暗淡,掌紋結構表現偏白)。通過對感興趣區域的(Region of Interest,ROI)近紅外手掌圖像進行分析,發現掌靜脈和掌紋結構存在以下區別:
(1)掌紋線條結構延伸平緩,局部區域掌靜脈相對于掌紋的線條結構更寬,且掌靜脈在結構邊緣處方差較大。
(2)掌紋與掌靜脈的像素值分布范圍不同,掌靜脈像素值偏小,視覺上顯得暗淡。
基于以上兩點事實,認為可以從單幅近紅外手掌圖像中分別單獨增強掌靜脈結構和掌紋結構圖像,實現掌靜脈和掌紋的多特征融合識別。

圖1 數據庫樣圖
提取掌靜脈圖像使用引導濾波算法[14],針對二維引導濾波模型,可用下面式(1)表達:

在式(1)中,I為引導濾波的引導圖像,q為輸出圖像式,p為輸入圖像式,Wij為是引導圖像I的核函數,i和 j為像素點的空間位置。I作為引導圖像,如果I=p,即自引導濾波。設濾波窗口wk,中心點為k,q為I的線性變換,則引導圖像如式(2)所示:

引導濾波中,為了減少邊緣細節損失,通過最小化p和q的差來確定系數ak和bk,使得式(3)最小:

式(3)中ε是正則化參數,防止ak過大。通過最小二乘法解式(3),求解 ak、bk得到:

式(4)、(5)中 uk和分別是 I在 wk中的均值和方差,|w|是wk中像素的個數,pˉk是輸入圖像 p在wk中的均值,求出該局部線性模型后,代入整幅圖像,由于每一個像素點會有多個包含在該像素點的窗口wk,所以當在不同的窗口wk計算時qi的值會有不同,故進行平均處理,如下式:

式(7)中:

綜上,核函數W可以定義如下:

圖像增強是圖像處理過程中非常重要的一個步驟,關系到高層次圖像處理的特征提取和識別。圖像增強的主要目的是抑制噪聲和提高圖像邊緣的對比度。自引導濾波由于引導圖像是自身圖像,和其他濾波算法相比具有良好的邊緣梯度保持能力,同時具備一定的平滑去噪能力。引導濾波在圖像的增強方面得到廣泛的應用,通過原圖像和自引導濾波后的圖像相減得到濾除的部分,將這些濾除的部分以一定的比例融入濾波后的圖像,即可以獲得到高對比度的圖像。這個過程如何選取合適的濾波半徑和正則化參數是關鍵。
自引導濾波中,如果ε>0,像素值方差大的局部區域,自引導濾波效果不明顯,保持了原圖的邊緣信息。而像素值方差小的局部區域,自引導濾波近似為加權均值濾波;同時,濾波半徑越大,其平滑噪聲效果越明顯,但隨著濾波半徑的增大也會降低邊緣的對比度圖2(b)。觀察近紅外手掌圖像,容易發現掌紋像素值較大,線條窄細,其結構邊緣局部像素值方差較小,因此,自引導濾波選取較大的濾波半徑對其使用近似的加權均值濾波處理,去除掌紋結構。而掌靜脈結構,灰度值較低,且邊緣明顯,其局部像素值方差較大,自引導濾波可以選取較小的濾波半徑,從而保持掌靜脈結構邊緣信息。然而由于自引導濾波半徑固定,不能獲得增強掌靜脈結構的同時去除掌紋的圖像,如圖2(c)所示。
為了解決以上的問題,本文提出了改進的自引導濾波算法增強掌靜脈圖像,不僅可以增強掌靜脈圖像,同時可以去除掌紋信息。觀察自引導濾波后的圖2(b),較大的自引導濾波半徑可以得到平滑掌紋的圖像,而當自引導濾波半徑較小時可以得到保持邊緣的掌靜脈圖像。因此可以分兩次自引導濾波處理,第一次選取較小的濾波半徑r1得到保持掌靜脈邊緣的q1,第二次將對q1使用較大的濾波半徑r2得到平滑掌紋的q2,最后對q1和q2使用細節融合增強算法,具體步驟如下:
(1)對近紅外手掌圖像 pinfrared使用自引導濾波,選取較小的濾波窗口r1=2和正則化參數ε=0.12,得到保持掌靜脈邊緣的q1。
(2)對q1使用窗口較大的r2=16和正則化參數ε=0.12,進行自引導濾波,平滑掉掌紋后的圖像q2。
(3)對保持細節邊緣的q1和平滑掉掌紋后的圖像q2使用細節增強模型,I為增強后掌靜脈圖像,這里的t為細節增強參數,t取5。
(4)為了增強較好的掌靜脈圖像,重復步驟(1)~(3),提取增強后的掌靜脈圖像Ivein。
經過上述步驟處理近紅外手掌圖像,得到增強的掌靜脈圖像,如圖2(d)所示,掌靜脈結構對比度明顯,去除了掌紋結構信息,且增強后的掌靜脈結構保持連續。

圖2 增強掌靜脈
近紅外手掌圖像中包含掌紋結構,由于掌紋結構窄細,線條平緩。相對于掌靜脈,掌紋的像素值較大,且掌紋的像素值偏離該局部區域的均值。因此可以用改進的分塊增強模型[15]突出掌紋的主線條結構。分塊增強算法需要評估背景強度,其具體算法步驟如下:
(1)將圖像分成大小相等半徑為R小塊,每個小塊間3個像素的重疊,計算各個小塊的像素均值,得到背景矩陣。
(2)將得到的背景矩陣使用雙三次插值,得到和原圖像矩陣一樣的維數。
(3)用原圖像和背景矩陣相減,最后使用直方圖均衡化。
圖3列出了不同分塊半徑下的掌紋增強效果。

圖3 不同分塊半徑下掌紋結構增強
實驗得知,圖像分塊增強算法可以提高掌紋結構的紋理和對比度,同時,由于分塊增強模型算法對背景矩陣使用了雙三次插值,圖像的分塊增強引入大量顆粒噪聲,掌紋紋理結構得到突出,但是無法消除背景的噪聲,如圖3(b)所示。由于這個問題,本文在掩模增強算法[16]的基礎上,對掌紋結構提出了基于Sobel算子改進的圖像反銳化掩模增強算法。
為了獲取掌紋的主線條結構紋理,Sobel算子在檢測邊緣的同時可以抑制噪聲。Sobel算子的梯度操作可以明顯地看到掌紋的主線結構提取出來,如圖4(c)所示,但是也不可避免地引入虛假掌紋結構和其他噪聲。虛假掌紋結構表現為不連續的斷點噪聲,這些噪聲是Sobel算子的誤檢測導致,將那些梯度大于閾值的認為是掌紋結構邊緣。為了消除這些虛假掌紋結構信息的噪聲,本文使用的方法是迭代均值濾波處理,濾波窗口大小為9。均值濾波的功能是對像素鄰域內所有的像素值取均值,將得到的平均值作為當前像素新的像素值。由于掌紋主線條結構處像素值較大,掌紋邊緣周圍的像素值較小,經過均值濾波處理后的掌紋結構更加突出,同時對于那些由于Sobel算子誤檢測的噪聲小塊和細紋可以得到平滑和去噪處理。圖4(d)~(f)分別為均值濾波迭代一次、兩次和三次的結果,從中可以看出,經過三次迭代后的效果最好,過多的迭代也會造成圖像模糊化問題。

圖4 掌紋結構圖像增強
為了進一步增強掌紋結構,提高掌紋主線結構和周圍的對比度,這里使用隸屬度函數[17]。該方法提供模糊反銳化的圖像增強算法,即:

其中,I′是增強后的圖像,I為待增強圖像,Ifuzzy為I經過隸屬度函數處理后的模糊化后的圖像,λ是細節增強系數。當λ=10時,掌紋增強的效果如圖4(g)所示。
綜上,掌紋結構的增強步驟為:
(1)將圖像分成小塊,每個小塊大小為R×R,用分塊增強模型算法處理近紅外手掌圖像Pinfrared,得到Iblock。
(2)采用Sobel算子水平和垂直方向檢測分塊增強圖像Iblock中掌紋主線條結構,經過3次迭代均值濾波處理得到ISobel。
(3)隸屬度函數處理ISobel,得到模糊化后的圖像Ifuzzy。
(4)使用模糊反銳化圖像增強模型 I′=ISobel-λ×Ifuzzy,得到增強后的掌紋結構圖像I′。
小波分解在圖像特征提取中比較常見的應用方法。經小波分解后的圖像有低頻和高頻部分,低頻對應圖像的全局特征,高頻對應與圖像的細節特征。由于在近紅外手掌圖像中提取掌靜脈和掌紋主要結構信息的過程中,細節信息丟失嚴重,但掌靜脈和掌紋的主要結構特征得到保留,因此特征提取選取小波分解后的低頻子帶圖像。
圖像每經過一次小波分解,圖像像素點個數都會減少到原圖像的1/4,且會得到LL、HL、LH和HH四個子帶圖像,分別代表原圖像水平方向和垂直方向的低頻分量、水平方向高頻分量和垂直方向低頻分量、水平方向低頻分量和垂直方向高頻分量、水平方向和垂直方向的高頻分量。近紅外手掌圖像中提取到的掌靜脈圖像和掌紋圖像,大小依然是128×128的灰度圖像。為了降低圖像的維數,保持圖像主要的全局特征,這里使用二級二維小波分解的方法,兩次提取LL子帶低頻分量的圖像。
經過二級二維小波分解后LL子帶低頻分量的圖像,保持了圖像的主要全局特征,且圖像矩陣的大小降低為32×32。設A、B為大小為M×N的兩個矩陣。則它們的相似系數Rs定義如下:

識別閾值的設置:訓練時,計算每個樣本的若干張圖像中任意兩張圖像矩陣的相似系數,取其中最小的值記為,則識別閾值其中m=1,2,…,500)。
測試時用數據庫每個樣本中隨機選取的6張圖像,共進行3 000次測試。具體步驟為:
將第i個待測樣本的第 j張圖像與數據庫k個樣本的第1張圖像一一計算相似系數(其中i=1,2,…,500,j=7,8,…,12,k=1,2,…,500),取其中相似系數最大的一組,判斷和Rthreshold的關系,將識別結果定義如下:

識別率(Correct Recognition Rate,CRR)、誤識率(False Accept Rate,FAR)和拒識率(False Rejection Rate,FRR)定義如下:

圖像的融合系統中,融合方式有多種,分為像素層融合、特征層融合和決策層融合。一般將這些融合方式稱為低級融合、中級融合和高級融合[18]。不同的融合識別系統采用的融合方式不一樣。其中,低級融合的融合方式利用圖像的信息量最大,高級融合的融合方式利用圖像的信息量最小。雖然在信息量利用方面低級融合要優于高級融合,但是從實現的難度來看,圖像的高級融合方式更加簡單便捷[19],通過計算單一模態得分后即可通過加權得分實現決策層的特征融合,且本文在增強掌靜脈和掌紋結構圖像的過程中,原近紅外手掌圖像的像素信息已經發生改變,不適合使用低級融合的掌靜脈和掌紋多特征融合,綜合以上原因,本文采用了決策層的加權融合方法,即對掌靜脈和掌紋的識別閾值進行加權處理,其閾值的數學表達式如下:式(12)中,α是加權系數,0≤α≤1,Tvein是掌靜脈的識別閾值,Tprint是掌紋的識別閾值,通過加權處理,最后得到融合后的識別閾值Tfusion。

目前公開的近紅外手掌圖像的數據庫中,香港理工大學人體生物特征識別研究中心提供的多頻譜掌紋圖像數據庫[20]是眾多學者經常使用的數據庫之一,該數據庫提供藍、綠、紅和近紅外光源下的手掌感興趣區域圖像。本文選取的是近紅外手掌圖像,圖像為128×128的灰度圖像,來自250個人的左手和右手,共計500個樣本,每個樣本分前后兩個時期采集,每期采集6張近紅外手掌圖像,共計6 000張。其中,對于近紅外手掌圖像感興趣區域提取算法在文獻[21]中有說明。
自引導濾波中,選取合適的濾波窗口r和正則化參數ε是有效增強掌靜脈的關鍵,圖5是調節自引導濾波參數的一組實驗效果圖。
由圖5知,在濾波窗口半徑r固定的時候,正則化參數ε變化對濾波的效果變化不明顯。相反,在正則化參數ε固定的時候,濾波窗口的變化對濾波效果較為明顯,隨著窗口的增加,圖像的平滑效果也越明顯。因此,本文采用固定正則化參數ε=0.12,控制濾波窗口r來比較掌靜脈增強效果。

圖5 濾波窗口r和正則化參數濾波效果
掌靜脈的自引導濾波中,正則化參數ε變化對掌靜脈的濾波效果影響不明顯,這里取值0.12,而濾波窗口t的變化對掌靜脈的濾波效果明顯。因此,圖6列出(r1,r2)和細節增強參數t,比較掌靜脈的增強效果。

圖6 不同濾波窗口和增強系數掌靜脈增強效果

表1 不同濾波窗口和增強系數的掌靜脈識別效果
其中圖6中(r1,r2)分別表示自引導濾波保持掌靜脈邊緣的q1選擇較小的濾波窗口r1,以及自引導濾波為了平滑掌紋得到的q2而選擇較大的濾波窗口r2,t為細節增強模型參數。得到的掌靜脈結構增強效果圖6所示,表1給出了對應的掌靜脈識別結果。
結合圖6和表1,可以看出,隨著窗口(r1,r2)的取值變化,濾波效果也發生了變化。增強系數取值增大,也會導致掌靜脈圖像的濾波效果變得更加明顯。同時,增強系數過大,引入的噪聲數據也會增多,不利于識別。在選取每個樣本的隨機6張圖像作為訓練樣本時,由表1中數據可得,當 (r1,r2)=(2,16)時,t=5時,此時的掌靜脈識別效果最好,掌靜脈的識別閾值為0.654 0,識別率99.23%,誤識率0.57%,據識率為0.20%。
一般來說,當選取的訓練樣本數越多,模式識別的識別效果也會越好。本文在訓練樣本個數不同的情況下做了識別實驗,其結果如圖7所示。
圖7表明,當樣本的訓練個數在6以下時,掌靜脈的識別率是隨著訓練樣本數的增加而提高;當訓練的樣本數大于6時,識別率變化不明顯,只有在樣本數為9和10時,識別率稍有提高,由于實驗中樣本訓練個數越多,對應的處理時間也會增多。因此,本文的所有識別實驗中,選取訓練樣本為6,既充分考慮識別率也兼顧了處理時間。

圖7 訓練樣本數和識別率關系
由4.1節可知,掌紋的分塊增強算法中,實驗得知,分塊大小也會影響掌紋結構質量和圖像的噪聲,分塊較小的時候留下來的掌靜脈信息較少,然而掌紋的對比度不高,不利于增強掌紋結構;分塊較大的時候,掌紋結構更加突出,然而掌靜脈等不必要的噪聲信息較多。
細節增強系數也會影響識別率,為了選取細節增強參數λ,圖8列出了不同參數下增強后的掌紋結構圖像,及表2對應地列出了掌紋識別結果。
結合圖8和表2可知,在R=9,λ=50時,此時的掌紋識別效果最好,得到的掌紋識別閾值是0.525 4,識別率為94.00%,誤識別率為3.57%,據識別率為2.43%。上述的結果表明,同時增強掌靜脈和掌紋,掌靜脈的識別效果要優于掌紋識別。

圖8 不同分塊半徑和增強系數掌紋增強效果

表2 不同分塊半徑和增強系數掌紋識別效果

表3 掌靜脈和掌紋融合識別效果
為了達到最好的識別效果,結合掌靜脈識別和掌紋識別的實驗結果,將掌靜脈的增強參數設置為(r1,r2)=(2,16),t=5;掌紋的增強參數設置為 R=9,λ=50。由實驗得知,同時增強掌靜脈結構和掌紋結構圖像,掌靜脈的識別效果優于掌紋識別效果,因此,融合識別時掌靜脈的權值應該大于掌紋的權值,即α的取值區間為[0.5,1.0]。為了找到近優解α,擇優間隔為0.05。最后得到的融合識別效果如表3所示。
由表3可得,在α取值0.6時,此時的融合識別率最高99.63%,誤識率為0.37%,拒識率為0。在α取值0.7時,此時的等誤率(Equal Error Rate,EER)為0.37%。
本文中的所有實驗均在Intel i5/3.20 GHz CPU/4 GB RAM/MATLAB 2013環境下進行,對整個識別階段的處理時間Ttotal定義如下:

式(13)中,Tv_e為在近紅外手掌圖像中增強掌靜脈結構圖像所需時間;Tp_e為在近紅外手掌圖像中增強掌紋結構圖像所需時間;Tv_w為掌靜脈結構圖像的小波分解特征提取所需時間;Tp_w為掌紋結構圖像小波分解的特征提取所需時間;Tf_r為掌靜脈和掌紋加權融合識別處理時間。設圖像的像素點個數為N,則表4列出每個步驟對應的時間復雜度和其平均運行時間。結果表明,識別階段總的時間Ttotal為0.708 181 s。

表4 時間復雜度和對應的運行時間
在單幅近紅外手掌圖像實現掌靜脈和掌紋多特征融合識別的研究中,目前沒有可以比較的文獻。為了驗證本文提出的算法具有有效性,故在表5中列舉了針對近紅外手掌圖像針對掌靜脈特征幾種常見的識別算法。其中,文獻[22]對近紅外手掌圖像中的掌靜脈采用了基于方向梯度直方圖的特征提取方法,和改進的支持向量機的方法實現識別匹配。通過計算圖像局部像素點的梯度幅值和前景邊緣方向來描述圖像特征,最后采用可調節閾值支持向量機完成分類識別。文獻[23]把近紅外手掌圖像中掌靜脈作為特征,通過二維可調Gabor濾波器在提取掌靜脈圖像的4方向(0°,45°,90°和135°)特征,找到Gabor函數實部和虛部響應的4個方向中最大的梯度值,對實部最大梯度值和虛部最大的梯度值使用位串編碼(VeinCode),采用這樣的方向編碼方法,將掌靜脈的方向信息存儲為特征向量,最后采用歸一化后的漢明距離方法進行匹配識別。文獻[24]采用尺度不變特征變換(Scale Invariant Feature Transform SIFT),首先通過高斯差分函數的極值點找到掌靜脈圖像中的關鍵點,對每一個樣本圖像分配梯度幅值和梯度方向,在關鍵點區域16×16的數組內形成方向直方圖,計算關鍵點梯度方向,每個關鍵點包含8個方向信息,一共有4×4個關鍵點,這樣就形成了128維的特征向量,最后采用歐幾里德距離進行樣本匹配識別。本文在香港理工大學提供的近紅外手掌圖像數據庫中實現了其中的算法。由于以上文獻算法對本文數據庫中的近紅外手掌圖像只作為靜脈識別,其方法為單一特征的掌靜脈識別,沒有考慮原近紅外手掌圖像中的掌紋信息,本文在考慮掌紋信息情況下等誤率優于以上算法,具體對比如表5所示。

表5 近紅外手掌圖像識別性能對比
本文對單幅近紅外手掌近圖像分別增強掌靜脈結構和掌紋結構圖像。采用自引導濾波算法增強掌靜脈結構,通過實驗表明,自引導濾波中正則化參數ε對掌靜脈的濾波效果不明顯,而近紅外手掌圖像中掌靜脈和掌紋的結構紋理不同,通過自引導濾波無法獲得增強掌靜脈結構同時去除掌紋結構的圖像。為了解決這個問題,本文使用了兩次自引導濾波,第一次使用較小的濾波半徑,得到保持掌靜脈邊緣的圖像,對第一次濾波圖像使用較大的自引導濾波半徑處理,得到了平滑掌紋結構的圖像,兩次相減剛好是濾除的掌紋紋理的部分,通過一定的系數融合到保持掌靜脈邊緣的圖像中,掌靜脈的邊緣結構相比原圖,得到明顯增強,且同時平滑了掌紋信息。近紅外手掌圖像中同時也包含掌紋結構,由于掌紋結構窄細,線條平緩。相對于掌靜脈,掌紋的像素值較大,且掌紋的像素值偏離該局部區域的均值。因此用分塊增強模型突出掌紋的主線條結構。經過分塊增強后,掌紋主線條結構得到突出,但引入了顆粒噪聲。為了提高掌紋邊緣的對比度和平滑噪聲,使用Sobel算子在水平和垂直方向做邊緣檢測,對誤檢測的邊緣使用迭代均值的濾波方法平滑,平滑后的圖像使用反銳化掩模增強算法增強掌紋圖像,和原圖相比,掌紋主線條結構對比度提高,且平滑了掌靜脈結構。對增強后的掌靜脈結構和掌紋結構圖像使用加權特征融合識別,結果表明,在相同的數據庫下,本文算法等誤率EER為0.37%,比其他算法平均降低0.66%。
本文單幅近紅外手掌圖像實現掌靜脈和掌紋多特征融合識別的方法:即利用單幅近紅外手掌圖像分別單獨增強掌靜脈和掌紋結構圖像,解決了傳統多特征識別需要獲取多幅圖像的問題。由于掌靜脈和掌紋結構在近紅外手掌圖像中局部紋理信息的差異和像素值分布范圍的不同,通過改進的自引導濾波方法增強掌靜脈結構,和基于Sobel算子反銳化掩模增強算法增強掌紋結構,得到了增強后的掌靜脈和掌紋結構圖像。對掌靜脈和掌紋結構圖像使用多特征融合識別方法,結果表明,本文掌靜脈和掌紋融合識別算法識別率達到99.63%,對比單一特征掌靜脈識別率提高0.40%,單一特征掌紋識別率提高5.63%。單幅近紅外手掌圖像的多特征融合識別率比其他算法等誤率EER平均降低0.66%,單個隨機樣本平均識別時間小于1 s,算法適用于門禁、考勤等識別系統。因此,本文算法具有實用性。
參考文獻:
[1]Shekhar S,Patel V M,Nasrabadi N M,et al.Joint sparse representation for robust multimodal biometrics recognition[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2014,36(1):113-126.
[2]Liu Z,Song S.An embedded real-time finger-vein recognition system for mobile devices[J].IEEE Transactions on Consumer Electronics,2012,58(2):522-527.
[3]Kang W,Wu Q.Contactless palm vein recognition using a mutual foreground-based local binary pattern[J].IEEE Transactions on Information Forensics&Security,2014,9(11):1974-1985.
[4]Cao K,Jain A K.Learning fingerprint reconstruction:From minutiae to image[J].IEEE Transactions on Information Forensics&Security,2015,10(1):104-117.
[5]Zhang D,Lu G.3D palmprint classification by global features[J].IEEE Transactions on Systems Man&Cybernetics Systems,2013,43(2):370-378.
[6]Kang W,Wu Q.Pose-invariant hand shape recognition based on finger geometry[J].IEEE Transactions on Systems Man&Cybernetics Systems,2014,44(11):1510-1521.
[7]Gupta P,Gupta P.Multi-modal fusion of palm-dorsa vein pattern for accurate personal authentication[J].Knowledge-Based Systems,2015,81:117-130.
[8]Haghighat M,Abdel-mottaleb M,Alhalabi W.Discriminant correlation analysis:Real-time feature level fusion for multimodal biometric recognition[J].IEEE Transactions on Information Forensics&Security,2016,11(9):1984-1996.
[9]Ding Changxing,Tao Dacheng.Robust face recognition via multimodal deep face representation[J].IEEE Transactions on Multimedia,2015,17:2049-2058.
[10]Bu W,Zhao Q,Wu X,et al.A novel contactless multimodal biometric system based on multiple hand features[C]//2011 International Conference on Hand-Based Biometrics(ICHB),2011:1-6.
[11]Yang W,Huang X,Zhou F,et al.Comparative competitive coding for personal identification by using finger vein and finger dorsal texture fusion[J].Information Sciences,2014,268(6):20-32.
[12]Wang J G,Yau W Y,Suwandy A.Feature-level fusion of palmprint and palm vein for person identification based on a“junction point”representation[C]//The 15th IEEE International Conference on Image Processing,San Diego,CA,2008:253-256.
[13]Fuksis R,Kadikis A,Greitans M.Biohashing and fusion of palmprint and palm vein biometric data[C]//International Conference on Hand-based Biometrics,2011:1-6.
[14]He K,Sun J,Tang X.Guided image filtering[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2013,35(6):1397-1409.
[15]Zhou Y,Kumar A.Human identification using palm-vein images[J].IEEE Transactions on Information Forensics&Security,2011,6(4):1259-1274.
[16]Guang D.A generalized unsharp masking algorithm[J].IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society,2011,20(5):1249-1261.
[17]王艷霞,阮秋琦.一種新的掌紋圖像預處理方法[J].中國圖象圖形學報,2008,13(6):1115-1122.
[18]Zhang D,Guo Z,Lu G,et al.An online system of multispectral palmprint verification[J].IEEE Transactions on Instrumentation&Measurement,2010,59(2):480-490.
[19]王科俊,宋新景,王晨暉.手形和掌紋決策層融合方法研究[J].黑龍江大學工程學報,2010,1(4):122-127.
[20]Polyu.Multispectral palmprint database[EB/OL].(2015-06-24).http://www.comp.polyu.edu.hk/~biometrics/MultispectralPalmprint/MSP.htm.
[21]Goshtasby A A,Nikolov S.Image fusion:Advances in the state of the art[J].Information Fusion,2007,8(2):114-118.
[22]徐笑宇,姚鵬.基于HOG與改進的SVM的手掌靜脈識別算法[J].計算機工程與應用,2016,52(11):175-180.
[23]Lee J C.A novel biometric system based on palm vein image[J].Pattern Recognition Letters,2012,33(33):1520-1528.
[24]Pan M,Kang W.Palm vein recognition based on three local invariant feature extraction algorithms[M]//Biometric Recognition.Berlin Heidelberg:Springer,2011:116-124.