999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的指靜脈識別研究

2018-03-05 02:09:53超,邵
計算機技術與發展 2018年2期
關鍵詞:深度特征

吳 超,邵 曦

(南京郵電大學 通信與信息工程學院,江蘇 南京 210003)

1 概 述

生物識別技術是使用人體特征進行身份認證的一種方法,人體特征包括人臉、指紋、虹膜和靜脈。與傳統生物特征相比,人體的指靜脈特征具有安全性、唯一性和長期不變性等優點。1992年,北海道大學的研究人員第一次證明了世界上任意兩個人即使是雙胞胎都不可能擁有完全相同的靜脈特征[1-2]。由于指靜脈圖像是利用紅外攝像頭采集得到,與指紋采集等相比,指靜脈采集具有非接觸性,并且很難被竊取和偽造。與指紋、聲音和人臉等生物特征不同的是,即使某個手指受到損傷,依然可以利用其他手指靜脈[3-4]。

由于指靜脈作為生物特征識別具有顯著的優勢,因此國內外都對此進行了廣泛研究。國外對該領域研究較早,技術較為成熟。日本日立公司從1997年就開始這方面研究,2004年推出靜脈認證的自動存取款機[5-6]。2010年,該公司的NaotoMiura等在指靜脈采集裝置的設計、指靜脈圖像的獲取和指靜脈特征識別等多個方面進行了深入研究并發表多篇文獻[7]。韓國國立大學的Joon Hwan等針對指靜脈圖像的預處理進行研究,并在2009年發表的文獻中指出通過梯度、主曲率與二值化等方法對指靜脈圖像進行預處理,可以有效提取靜脈紋路[8]。在國內,也有許多研究人員從事指靜脈識別研究。比如,張忠波等針對手指靜脈特征提取技術,提出了基于曲波和神經網絡的多尺度特征提取方法,取得了較好的識別效果[9]。

指靜脈圖像采集過程容易因光照強度、角度和環境溫度等外界因素的影響而降低圖像質量。因此需要對指靜脈圖像進行適當的預處理,以降低外界因素對指靜脈識別的不利影響。指靜脈采集過程中,由于手指的旋轉、傾斜等會使同一手指靜脈在不同時刻產生輕微的旋轉角度,為了提高識別精度,需要對原始圖像進行矯正。

近年來,由于計算機運算能力的不斷提升,深度學習也有了巨大進步,獲得了優異的成果。2012年,Alex等在ImageNet圖像分類競賽中利用AlexNet深度神經網絡做出了非常好的效果,超過了其他所有淺層的方法[10]。深度學習可以通過學習一個深度非線性網絡,實現復雜函數逼近,展現了其從少量樣本集中學習數據集本質特征的能力。因此文中提出基于深度學習的指靜脈識別方法。

2 指靜脈提取與預處理

2.1 指靜脈采集裝置原理

每個人的手指表皮下的靜脈紋路都是獨一無二的,即使是雙胞胎的對應手指靜脈分布也一定不相同。當進入成年以后,手指靜脈圖像不再改變,具有較好的穩定性和唯一性。這為指靜脈識別提供了醫學依據。

指靜脈圖像采集裝置是由近紅外光發生裝置和紅外攝像頭采集裝置組成。實驗證明760~850nm波長的近紅外光對肌肉和骨骼具有較好的穿透能力,并且靜脈中的血紅蛋白對此范圍的近紅外光具有良好的吸收能力[11-12]。近紅外光從手指背部穿過,由于靜脈血紅蛋白可以吸收近紅外光,因此紅外攝像機采集到的手指圖像會形成一些較暗的紋路,這些紋路便是手指靜脈圖像。

然而由于光照強度、光照角度、骨骼和肌肉厚度等因素的影響,使得紅外攝像頭采集到的圖像除了包含指靜脈紋路外,還包含一些不規則的暗影和噪聲。這些噪聲會對后期的指靜脈識別產生干擾,需要對采集圖像做進一步處理。

2.2 指靜脈圖像的矯正

同一手指在不同時間采集手指靜脈時,不可避免地會因為手指與設備角度的偏差而產生差異較大的手指靜脈圖像。因此需要對圖像進行矯正。圖像矯正前,需要計算手指傾斜角度,并根據傾斜角通過圖像旋轉矯正原始圖像。

用F1(x,y)、F2(x,y)分別表示手指的左右邊界曲線,N1表示曲線F1上點的個數,N2表示曲線F2上點的個數。(x1i,y1i)和(x2j,y2j)分別表示曲線F1第i個點的坐標以及曲線F2第j個點的坐標。圖像旋轉角度由以下公式給出:

(1)

(2)

(3)

(4)

(5)

(6)

(7)

(8)

(9)

得到指靜脈圖像傾斜角后,通過反向旋轉即可對圖像進行矯正。

經過上述方法獲取旋轉角后進行反向旋轉得到矯正圖像。旋轉矯正后的圖像基本處于垂直角度,很好地解決了因為采集過程手指不同程度偏轉而產生的圖像差異問題。

2.3 指靜脈圖像的ROI提取

通過指靜脈采集裝置采集到的原始圖像包含指靜脈特征區域和背景區域,為了減少背景對后續指靜脈特征提取的影響,需要去除背景區域,即感興趣區域提取(region of interest,ROI)[13-17]。文中使用形態學算法處理手指邊緣,獲得精確邊緣檢測。

使用Sobel算子進行原始圖像的垂直邊緣檢測,但由于光線較暗,邊緣檢測效果并不是很好,會出現斷斷續續的點。因此下一步采用形態學算法進一步處理[18-20]。

對上一步的邊緣檢測結果進行閉合操作,閉操作可使輪廓線更光滑,減少狹窄的間斷和細長的鴻溝,消除小的空洞,并填補輪廓線中的斷裂。接著進一步骨骼化,細化邊緣區域,由此可以得到清晰明確的兩條邊界線。根據圖像左右的邊界線切割圖像得到指靜脈區域圖像。為了便于后續處理,把所有指靜脈圖像尺寸都放縮至300*100。

ROI圖像提取如圖1所示。

圖1 ROI圖像提取

2.4 指靜脈圖像增強

由于紅外光易受到手指肌肉和骨骼的影響,在非靜脈區域也會含有大量暗部。這使指靜脈圖像的對比度降低,對圖像識別產生不利影響。這里引入一個高斯高通濾波器來增強圖像的對比度[21-22]。濾波器的公式如下:

(10)

D(x,y)定義如下:

D(x,y)=[(x-x0)2+(y-y0)2]1/2

(11)

其中,D(x,y)表示中心點與點(x,y)的距離,卷積模板的中心點為D0(x0,y0)。通過更改系數a,b的值來調節濾波器的濾波效果。文中卷積模板尺寸為9,a和b的取值分別為12.41和-4。

實驗結果表明,濾波后的圖像對比度明顯高于原始圖像,很好地去除了暗部的不利影響。

3 深度神經網絡

3.1 深度學習

深度學習(也稱深度結構化學習,分層學習或深層機器學習)是基于一組算法的機器學習的分支,深度學習通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發現數據的分布式特征表示[23]。

深度學習是機器學習研究中的一個新領域,其目的在于建立、模擬人腦進行分析學習的神經網絡,它模仿人腦的機制來解釋數據,例如圖像,聲音和文本。深度學習領域的研究主要致力于尋找對數據更好的表示以及構建模型來從大規模無標簽的數據中學習這些特征表示。一些研究人員受到神經學科的啟發,基于神經系統中的信息處理和通信模式的解釋構建出多種模型。諸如深度神經網絡、卷積深度神經網絡、深度信念網絡和復現神經網絡的各種深度學習架構已經應用于計算機視覺、自動語音識別、自然語言處理、音頻識別和生物信息學等領域,并且顯示出了一定的優勢。

3.2 AlexNet神經網絡模型

2012年,Geoffrey Hinton和Alex在ImageNet的競賽中使用一個8層的卷積神經網絡(convolutional neural network,CNN)刷新了圖像分類的記錄,奠定了深度學習在計算機視覺中的地位,后來大家把這8層的CNN命名為AlexNet。AlexNet是一種典型的卷積神經網絡,共有8層,其中前5層是卷積層,后3層全連接,最后的一個全連接層的輸出是softmax。

整體結構如圖2所示。

圖2 AlexNet網絡結構

該卷積神經網絡涉及到以下幾個部分:ReLU激活函數、卷積和池化。

(1)ReLU激活函數[24]。

Sigmoid是常用的非線性激活函數,它能夠把輸入的連續實值“壓縮”到0和1之間。特別的,如果是非常大的負數,那么輸出就是0;如果是非常大的正數,輸出就是1。但是它有一些缺點:當輸入非常大或者非常小時,會有飽和現象,這些神經元的梯度是接近于0的。如果初始值很大的話,梯度在反向傳播時因為需要乘上一個Sigmoid的導數,使得梯度越來越小,導致網絡變得很難學習。并且Sigmoid的輸出不是0均值,這會導致后一層的神經元將得到上一層輸出的非0均值的信號作為輸入,會對訓練產生不利影響。因此這里用ReLU激活函數來替代Sigmod激活函數。

(2)卷積。

AlexNet的核心就是卷積層。卷積運算一個重要的特點就是增強原信號特征,并且降低噪音。不同的卷積核能夠提取到圖像中的不同特征。

(3)池化。

池化是在卷積特征提取的基礎上,對每個卷積特征進行取平均(或者取最大值),進一步縮小隱藏節點對應的卷積特征維數,減小分類器的設計負擔。

3.3 改進的神經網絡模型

AlexNet神經網絡結構有6000萬個參數,這給神經網絡的學習帶來了很大問題。較多的參數使得學習成本增高,并且可能帶來過擬合的問題。因此提出改進方法,在不降低神經網絡性能的前提下,進一步減少神經網絡結構的參數數量。策略如下:

(1)替換原來的3*3的卷積核為1*1的卷積核。

(2)減少輸入3*3卷積的特征圖(feature map)的數量。

具體實現中,將AlexNet網絡的每個卷積層分為兩個自帶ReLU函數的卷積層,第一層的卷積核大小為1*1,第二層的卷積中包含1*1和3*3兩種卷積核大小。在ImageNet上,參數數目可減少50倍。

改進后的AlexNet整體網絡結構如圖3所示。

圖3 網絡結構

3.4 Caffe開源框架

Caffe是一個清晰而高效的深度學習框架[25]。由于其模型與相關的優化都是以文本的形式給出,因此使用Caffe框架可以方便地定義神經網絡,并可以通過命令行或者接口的調用來方便地對網絡進行訓練。因此文中所有實驗都是在Caffe框架下進行。

在Caffe中有兩個核心配置文件train_val.prototxt和solver.prototxt。train_val.prototxt文件是網絡配置文件,該文件通過layer參數來定義不同的網絡層。solver.prototxt文件是Caffe運行的關鍵,它協調著整個模型的運作。在深度學習中,loss函數往往是非凸的,沒有解析解,必須找到一個優化方法來求解。solver的主要作用就是交替調用前向(forward)算法和后向(backward)算法來更新參數,從而最小化loss,實際上就是一種迭代的優化算法。

在計算loss函數時,傳統的梯度下降算法(gradient descent,GD)要通過所有樣本計算梯度,而隨機梯度下降算法(stochastic gradient descent,SGD)通過一個樣本或部分樣本計算一個近似的梯度,因此SGD計算量要更小。在訓練集較大時,SGD算法收斂速度更快。因此文中采用SGD算法。

4 實 驗

4.1 數據集的擴展

實驗數據采集于123個人的四根手指,每根手指采集12張靜脈圖片,即數據集的大小為492*12。為了對網絡模型進行更好的訓練,減少數據集過擬合的問題,對該數據集進行擴展。擴展的方法是對原始圖像進行隨機抽取。抽取方式有兩種,第一種方法是在尺寸為300*100的原始圖像上隨機抽取一個尺寸為270*90的子圖像,并將原始圖像和抽取圖像統一壓縮尺寸到60*30。第二種方法是對原始圖像進行順時針和逆時針旋轉,旋轉角度范圍為[0,2],并將原始圖像和抽取圖像統一壓縮尺寸到60*30。利用上述兩種抽取方式來擴展數據集,將原始數據集的大小由492*12擴大為492*120。

實驗結果表明,通過這兩種方式擴展得到的數據集具有良好的訓練效果。

4.2 實驗結果

通過上一節所提方法得到的數據集有492類手指圖像,每類包含120張。利用該數據集進行模型訓練。

該實驗利用Caffe開源框架設計和實現深度神經網絡。其中計算機CPU型號為E7440,主頻2.4GHz,8核16G內存。

利用Caffe框架對該神經網絡進行迭代訓練達到80000次,實驗結果如表1、圖4和圖5所示。由表1可以看出,隨著訓練次數的增多,識別率逐漸提高,loss值逐步降低。由圖4和圖5可知,當訓練次數達到70000~80000次時,整個網絡模型趨于穩定。

表1 訓練結果

圖4 識別率變化曲線 圖5 loss值變化曲線

以上實驗表明,改進過的AlexNet神經網絡對指靜脈圖像進行分類能夠得到較好的結果。

5 結束語

隨著信息技術的高速發展,對生物特征識別技術的需求越來越高。由最開始的指紋識別、語音識別到后來的虹膜識別和指靜脈識別,每一次技術的突破都意味著信息安全的重要性不斷得到重視。如今,電子產品與人類的交互越來越頻繁,人們對設備的數據安全需求不斷提高,因此研究指靜脈識別具有很好的現實意義。近來發展火熱的深度學習證明了其在圖像分類等領域的優勢。實驗結果表明,利用深度學習構造深度神經網絡模型,對指靜脈圖像的分類具有良好的效果。

[1] XI X,YANG G,YIN Y,et al.Finger vein recognition with personalized feature selection[J].Sensors,2013,13(9):11243-11259.

[2] KONO M,UEKI H,UMEMURA S.A new method for the identification of individuals by using of vein pattern matching of a finger[C]//Proceedings of the5th symposium on pattern measurement.Yamaguchi,Japan:[s.n.],2000:9-12.

[3] XIE S J,YANG J,YOON S,et al.Guided Gabor filter for finger vein pattern extraction[C]//Eighth international conference on signal image technology and internet based systems.[s.l.]:IEEE,2012:118-123.

[4] LU Y,YOON S,XIE S J,et al.Finger vein recognition using histogram of competitive Gabor responses[C]//22nd international conference on pattern recognition.[s.l.]:IEEE,2014:1758-1763.

[5] JAIN A K,ROSS A,PANKANTI S.Biometrics:a tool for information security[J].IEEE Transactions on Information Forensics and Security,2006,1(2):125-143.

[6] KONO M,UEKI H, UMEMURA S. Near-infrared finger vein patterns for personal identification[J].Applied Optics,2002,41(35):7429-7436.

[7] YAMADA J,NISHIKAWA Y.Personal identification device and method:U.S,6907134[P].2005-06-14.

[8] CHOI J H.Finger vein extraction using gradient normalization and principal curvature[J].Proceedings of SPIE,2009,7251:725111.

[9] ZHANG Z,MA S,HAN X.Multiscale feature extraction of finger-vein patterns based on curvelets and local interconnection structure neural network[C]//International conference on pattern recognition.[s.l.]:IEEE Computer Society,2006:145-148.

[10] KRIZHEVSKY A,SUTSKEVER I,HINTON G E.ImageNet classification with deep convolutional neural networks[C]//International conference on neural information processing systems.[s.l.]:Curran Associates Inc,2012:1097-1105.

[11] MIURA N,NAGASAKA A,MIYATAKE T.Feature extraction of finger-vein patterns based on repeated line tracking and its application to personal identification[J].Machine Vision and Applications,2004,15(4):194-203.

[12] 楊數強,王軍強,周 濤.手指靜脈采集控制板的研制[J].計算機工程與應用,2011,47(27):80-82.

[13] YANG J,SHI Y.Finger-vein ROI localization and vein ridge enhancement[J].Pattern Recognition Letters,2012,33(12):1569-1579.

[14] 楊金鋒,張海金.手指靜脈圖像感興趣區域提取方法研究[J].山東大學學報:工學版,2012,42(3):6-12.

[15] 苑瑋琦,高潔睿.基于局部灰度極小值的指靜脈圖像分割方法[J].計算機技術與發展,2016,26(7):109-111.

[16] 余成波,秦華鋒.手指靜脈圖像特征提取算法的研究[J].計算機工程與應用,2008,44(24):175-177.

[17] 楊 穎,楊公平.手指靜脈識別技術[J].計算機科學與探索,2012,6(4):343-354.

[18] LIU Z,YIN Y,WANG H,et al.Finger vein recognition with manifold learning[J].Journal of Network & Computer Applications,2010,33(3):275-282.

[19] WANG J X.Gabor filter based fingerprint image enhancement[C]//Fifth international conference on machine vision.[s.l.]:International Society for Optics and Photonics,2013.

[20] 岡薩雷斯,伍 茲,埃丁斯,等.數字圖像處理:MATLAB版[M].北京:電子工業出版社,2005.

[21] ROSDI B A,SHING C W,SUANDI S A.Finger vein recognition using local line binary pattern[J].Sensors,2011,11(12):11357-11371.

[22] 劉 洋,郭樹旭,張鳳春,等.基于稀疏分解的指靜脈圖像去噪[J].信號處理,2012,28(2):179-185.

[23] AREL I,ROSE D C,KARNOWSKI T P.Deep machine learning-a new frontier in artificial intelligence research [research frontier][J].IEEE Computational Intelligence Magazine,2010,5(4):13-18.

[24] GLOROT X,BORDES A,BENGIO Y.Deep Sparse Rectifier Neural Networks[C]//International conference on artificial intelligence and statistics.[s.l.]:[s.n.],2011:315-323.

[25] JIA Y,SHELHAMER E,DONAHUE J,et al.Caffe:convolutional architecture for fast feature embedding[C]//Proceedings of the22nd ACM international conference on multimedia.[s.l.]:ACM,2014:675-678.

猜你喜歡
深度特征
抓住特征巧觀察
深度理解一元一次方程
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
深度觀察
深度觀察
深度觀察
深度觀察
抓住特征巧觀察
主站蜘蛛池模板: 黄色污网站在线观看| 亚洲无码高清一区| 91麻豆国产精品91久久久| 亚洲精品视频免费观看| 日韩在线中文| 中文字幕亚洲综久久2021| 制服丝袜一区| 亚洲视频免费在线| 日本一区中文字幕最新在线| 国产无遮挡猛进猛出免费软件| 激情综合五月网| 欧美、日韩、国产综合一区| 国产小视频在线高清播放| 福利视频一区| 国产18页| 极品国产一区二区三区| 欧美激情视频二区| 99这里精品| 成人午夜网址| 内射人妻无码色AV天堂| 久久久久无码国产精品不卡| 中文字幕首页系列人妻| 久草中文网| 97久久人人超碰国产精品| 国产在线无码一区二区三区| 国产簧片免费在线播放| 女人av社区男人的天堂| 丁香五月激情图片| 99er精品视频| 亚洲第一成年网| 亚洲av无码人妻| 亚洲大尺码专区影院| 91黄视频在线观看| 亚洲欧美人成人让影院| 亚洲乱强伦| a级高清毛片| 国产成人精品一区二区免费看京| 日本成人福利视频| 国产女人水多毛片18| 久青草免费视频| 国产在线一区视频| 热这里只有精品国产热门精品| 国产精品三级av及在线观看| 欧美成a人片在线观看| 伊人久久综在合线亚洲2019| 亚洲精选无码久久久| 国产成人亚洲综合a∨婷婷| 亚洲69视频| 国产主播在线一区| 国产精品99一区不卡| 亚洲网综合| 国产高潮流白浆视频| 亚洲第一黄色网址| 欧美爱爱网| 美女高潮全身流白浆福利区| 91丝袜在线观看| a级毛片一区二区免费视频| 国产亚洲精| 91精品伊人久久大香线蕉| 日韩毛片在线视频| 老司机久久精品视频| 五月丁香在线视频| 手机成人午夜在线视频| 日韩精品无码不卡无码| 亚洲视频免费播放| 国产三级a| 天天躁夜夜躁狠狠躁躁88| 99精品福利视频| 久久久亚洲国产美女国产盗摄| 国产浮力第一页永久地址| 这里只有精品在线播放| 欧美狠狠干| 色播五月婷婷| 欧美日本激情| 午夜人性色福利无码视频在线观看| 亚洲欧美不卡| 日本尹人综合香蕉在线观看| 热久久这里是精品6免费观看| 欧美精品啪啪一区二区三区| 精品伊人久久久大香线蕉欧美| 亚洲无码视频喷水| 国产永久免费视频m3u8|