999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經網絡的人臉性別識別

2015-04-12 00:00:00汪濟民陸建峰
現代電子技術 2015年7期

摘 要: 人臉性別識別是人臉識別的重要組成部分,但是人臉識別容易受到光照、旋轉、平移、遮擋等因素的影響。將卷積神經網絡引入到人臉性別識別中,該網絡的結構具有稀疏連接和權值共享的優點,卷積層和采樣層交替進行,簡化了模型的復雜度。實驗表明,該方法的網絡結構有效地克服了旋轉、遮擋等因素的影響,具有較好的魯棒性。

關鍵詞: 人臉性別識別; 卷積神經網絡; 稀疏連接; 權值共享

中圖分類號: TN911.73?34 文獻標識碼: A 文章編號: 1004?373X(2015)07?0081?04

0 引 言

隨著計算機等高新技術的快速發展,計算機已越來越走向數字化、網絡化和智能化。生物特征識別技術也以此為基礎迅速發展,人臉包含性別、身份、種族、年齡等大量信息,具有自然性、方便性和非接觸性等優點,是人類最明顯,最重要的生物特征。如何利用計算機自動識別人臉,近年來已發展成為模式識別和計算機視覺領域非常重要的研究課題之一。

人臉性別識別是基于人臉身份識別開展起來的,在安防領域和視頻監控中有著重要的應用。目前高級的人臉識別系統可以首先判斷出性別,縮小搜索范圍,然后識別出被識別者是誰,這使得人臉識別的檢索效率和準確率都會有所提高,從而使人臉身份識別和性別識別互相促進,整個人臉識別更加全面,更加豐富。人臉性別識別也作為人機交互的特殊一部分,通過計算機識別用戶性別,可以極大地改善呆板、不方便的人機交互環境,為用戶提供更為人性化的服務。在一些大型商場安裝人臉性別識別系統,用于商品的視頻檢索、商場的客流監控,可以給用戶提供相應的服務,可以更好地促進商品銷售。

正因為人臉性別識別在身份認證、視頻監控、人機交互以及機器人視覺中存在潛在的應用而備受關注。

1 相關工作

人臉性別識別的研究始于20世紀90年代,由國外一些大學或者研究機構最先開始研究。人臉性別識別的工作流程如圖1所示,研究的關鍵問題在于特征提取和分類器的選擇。B.A.Golomb等人首先利用全連接的兩層神經元網絡作為分類器,通過對分類器訓練,識別出人臉圖像。之后,有人提出了將BP神經網絡、RBF神經網絡、人工神經網絡、特征臉和分類器相結合[1]等方法應用于人臉性別識別中。但是這些神經網絡方法都存在著網絡結構模型復雜、訓練時間長、魯棒性差等缺點。

卷積神經網絡是將人工神經網絡和深度學習技術相結合而產生的新型人工神經網絡方法,是為了識別二維形狀而設計的多層感知器,具有局部感知區域、層次結構化、特征抽取和分類過程結合的全局訓練的特點。Fukushima提出的基于神經元之間的局部連接型和層次結構組織的Neocogition模型是卷積神經網絡的第一個實現網絡。LeCun等人設計并采用基于誤差梯度的算法訓練了卷積神經網絡[2],在一些模式識別領域取得非常好的性能,并且給出了卷積神經網絡公式的推導和證明[3]。卷積神經網絡已經成功地應用到了文檔分析[4]、人臉檢測[5]、語音檢測[6]、車牌識別[7]、手寫數字識別[8]、視頻中的人體動作識別[9]、人臉特征點的檢測[10]等各個方面。

圖1 人臉性別識別流程圖

卷積神經網絡具有如下優點:

(1)輸入圖像和網絡的拓撲結構能很好地吻合,可以避免對圖像復雜的前期預處理,直接輸入原始圖像。

(2)特征提取和模式分類同時進行,并且一個計算層由多個特征映射組成,可以通過學習訓練優化得到。

(3)神經元之間的連接是非全連接,且同一層中某些神經元之間的連接權值是共享的,這種非全連接和權值共享的網絡結構降低了網絡模型的復雜度,減少了權值的數量。

2 卷積神經網絡

卷積神經網絡包括前向傳播和反向傳播,卷積層和采樣層交替進行。卷積層后有一個下采樣層來減少計算時間和建立空間與結構上的不變性。

前向傳播就是從輸入參數到輸出結果計算一次。上一層的輸出就是當前層的輸入,然后通過激活函數,計算出當前層的輸出,逐層傳遞下去,所以當前層的輸出可以表示為:

[xl=f(Wlxl-1+bl)] (1)

式中:[l]代表層數;[W]表示權值;[b]是一個偏置;[f]是激活函數,常見的激活函數為sigmoid或者雙曲正切函數(tanh)。

反向傳播就是從前向傳播計算出的結果和給定樣本的標簽做誤差運算,考慮平方差損失函數,對于包含[c]個類別,[N]個訓練樣本的多分類問題,誤差函數表示為:

[EN=12n=1Nk=1c(tnk-ynk)2] (2)

式中:[tnk]表示第[n]個樣本對應的標簽的第[k]維;[ynk]表示第[n]個樣本對應的網絡輸出的第[k]個輸出。

反向傳播會更新卷積層,上一層的特征映射和一個可以訓練的核進行卷積運算,卷積運算的結果經過激活函數后的輸出形成了這一層的特征映射。每一個輸出映射可能與上一層的幾個特征映射的卷積有關系。卷積層的一般形式為:

[xlj=fi∈Mjxl-1i*klij+blj] (3)

式中:[l]代表層數;[k]是卷積核;[Mj]表示輸入特征的一個選擇;[b]是一個偏置。

下采樣操作并沒有改變特征映射的數目,只是將特征映射的大小變小。如果采樣算子大小為[n×n,]那么經過一次下采樣,特征映射的大小變為原來特征的[1n。]下采樣的一般形式為:

[xlj=f(βljdown(xl-1j)+blj)] (4)

式中down(·)表示一個下采樣函數。

3 卷積神經網絡結構

卷積神經網絡的結構模型如圖2所示,不包括輸入層,由七層組成,每一層都包括可以訓練的參數(權值)。輸入層是32×32的人臉像素矩陣,計算流程在卷積層和下采樣層之間交替進行。卷積層和下采樣層的連接方式為隨機條件下的非全連接,目的在于打破其相關性。每個卷積層所采用卷積核的大小都是5×5,采樣層的采樣窗口的大小為2×2。采樣函數為max?pool最大池化進行采樣,因為最大池化更合適人臉特征的下采樣。激活函數采用糾正線性單元(Rectified Linear Units,ReLU)[10],而不是常用的sigmoid或者tanh,因為ReLU更能產生稀疏性。ReLU是線性修正,公式為[f(x)=max(0,x),]是purelin的折線版,它的作用是如果計算出的值小于0,就讓它等于0,否則保持原來的值不變,這是一種簡單的強制某些數據為0的方法,然而實踐證明[11]:訓練后的網絡完全具備適度的稀疏性,和傳統的預訓練出的結果相似,說明了ReLU具備引導適度稀疏的能力。

圖2 LeNet?5網絡結構示意圖

第一層是卷積層([C1]),卷積核的大小為5×5,即每個神經元指定一個5×5局部接受域,所以卷積操作以后得到的映射大小就變成了28×28。包括8個特征映射,即有8個不同的[C1]層,每個[C1]層內的權值是相同的。

第二層是采樣層([S2]),[S2]是對[C1]用2×2的窗口進行最大池下采樣操作得到的,所以得到的特征映射大小為14×14,下采樣并沒有改變特征映射的數目,所以特征映射的個數還是8個。每個神經元還包括一個可訓練的系數、一個可訓練的偏置和一個激活函數ReLU。

第三層還是卷積層([C3]),卷積核大小是5×5,同理可得[C3]特征映射的大小為10×10,只是特征的個數變成了32個。

第四層是采樣層([S4]),還是用2×2的窗口進行最大池下采樣,所以得到32個5×5的特征映射。

第五層是卷積層([C5]),還是5×5的卷積核進行卷積,得到128個1×1的特征映射。

第六層包括84個神經元,和[C5]進行全連接。

第七層是輸出層,因為性別識別是個二元判斷問題,所以只包括2個神經元,是由徑向基函數單元組成。RBF的輸出[yi]的計算公式如下:

[yi=j(xj-wij)2] (5)

4 實驗結果

4.1 實驗數據

本文實驗數據來自于AR人臉數據庫,包括50個男性和50個女性,每個人選取5張不同的照片,包括不同的光照、表情、膚色、種族等,總共500張人臉圖片。利用交叉驗證的方法,400張圖片做訓練,100張圖片做測試,實驗5次。灰度值在輸入之前線性歸一化到[0,1]。卷積層和采樣層交替運算,訓練和測試同時進行,迭代20次,迭代結果如圖3所示。實驗分為三種情況:正常圖片、遮擋圖片(遮擋部分用黑色填充,從最下端開始遮擋的高度依次為5 px,10 px,15 px,20 px)、旋轉圖片(順時針旋轉5°,10°,15°,20°,25°,30°)。表1為正常圖片的實驗結果,表2為遮擋圖片的實驗結果,表3為旋轉圖片的實驗結果。

圖3 訓練迭代結果圖

表1 正常圖片的實驗結果 %

[\第一組\第二組\第三組\第四組\第五組\平均值\兩層BP神經網絡\89\92\93\90\91\91.8\卷積神經網絡\93\96\95\94\95\94.6\]

表2 遮擋圖片的實驗結果(平均值) %

[\5 px\10 px\15 px\20 px\兩層BP神經網絡\87.8\83.6\74.4\64.8\卷積神經網絡\93.8\90.2\86.8\80.2\]

表3 旋轉圖片的實驗結果(平均值) %

[\5°\10°\15° \20° \25°\30°\兩層BP神經網絡\86.2\83.4\75.8\70.8\66.2\60.8\卷積神經網絡\92.8\88.6\86.2\82.6\80.4\78.6\]

4.2 實驗結果分析

通過實驗結果可以看出,在正常圖片下,兩層BP神經網絡和卷積神經網絡都達到了較高的準確率,BP神經網絡的準確率也接近于92%,兩種算法的準確率相差很小。

當遮擋面積很小時(遮擋最下面5 px),BP神經網絡的準確率也依然很高(87.8%),但是當遮擋面積較大時(遮擋超過15 px),兩層BP神經網絡的準確率出現較大幅度的下降,因為當遮擋15 px時,此時嘴巴已經被遮擋了,當遮擋20 px,鼻子也已經被遮擋了,BP神經網絡能夠提取到的有效特征變得很少了,準確率沒有超過65%。而卷積神經網絡當遮擋出現時,雖然準確率也會下降,但是下降的幅度比較小,即使當遮擋20 px,依然可以達到80%以上的準確率,這是因為卷積神經網絡更能夠有效地提取不明顯的特征,相比于兩層BP神經網絡具有更好的抗干擾性和魯棒性。

旋轉的情況和遮擋類似,在旋轉角度很小(小于5°)的情況下,BP神經網絡還有比較高的準確率。當旋轉角度超過15°時,準確率會有比較明顯的下降,當旋轉達到30°時,準確率下降到60%,而卷積神經網絡具有較高的準確率,接近80%的準確率。這是因為在提取特征時,每一個神經元只從上一層的局部接受域得到突觸輸入,一旦一個特征被提取出來,只要它相對于其他特征的位置被近似地保留下來,它的精確位置就變得沒有那么重要了。

實驗結果表明,無論是在遮擋還是旋轉的情況下,卷積神經網絡相比于兩層BP神經網絡具有更好的魯棒性。

5 結 語

卷積神經網絡是深度學習的一種方法,憑借其在二維圖像上的卓越性能,被越來越廣泛地應用于各個領域中。本文將其引入到人臉性別識別領域并取得了一定的分類準確率。

今后的研究工作將綜合考慮每一層特征映射的關系,進一步優化卷積神經網絡結構,同時思考將卷積神經網絡引入其他相關領域,如視頻人臉檢測當中。

參考文獻

[1] 劉遵雄,馬汝成.基于特征臉和LS?SVM分類器的人臉性別分類[J].華東交通大學學報,2007,24(5):85?88.

[2] LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient?based learning applied to document recognition [J]. Proceedings of the IEEE, 1998, 86(11): 2278?2324.

[3] BOUVRIE J. Notes on convolutional neural networks [J/OL]. [ 2012?04?03]. http://www.docin.com.

[4] SIMARD P Y, STEINKRAUS D, PLATT J C. Best practices for convolutional neural networks applied to visual document analysis [C]// 2013 12th International Conference on Document Analysis and Recognition. [S.l.]: IEEE Computer Society, 2003, 2: 958?961.

[5] TIVIVE F H C, BOUZERDOUM A. A new class of convolutional neural networks (SICoNNets) and their application of face detection [C]// 2003 Proceedings of the International Joint Conference on Neural Networks. [S.l.]: IEEE, 2003, 3: 2157?2162.

[6] SUKITTANON S, SURENDRAN A C, PLATT J C, et al. Convolutional networks for speech detection [C]// 8th International Conference on Spoken Language Processing. Jeju Island, Korea: INTERSPEECH, 2004:11?14.

[7] CHEN Y N, HAN C C, WANG C T, et al. The application of a convolution neural network on face and license plate detection [C]// 2006. ICPR 2006. 18th International Conference on Pattern Recognition. [S.l.]: IEEE, 2006, 3: 552?555.

[8] LAUER F, SUEN C Y, BLOCH G. A trainable feature extractor for handwritten digit recognition [J]. Pattern Recognition, 2007, 40(6): 1816?1824.

[9] JI S, XU W, YANG M, et al. 3D convolutional neural networks for human action recognition [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(1): 221?231.

[10] SUN Y, WANG X, TANG X. Deep convolutional network cascade for facial point detection [C]// 2013 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). [S.l.]: IEEE, 2013: 3476?3483.

[11] MAAS A L, HANNUN A Y, NG A Y. Rectifier nonlinearities improve neural network acoustic models [C]// ICML Workshop on Deep Learning for Audio, Speech, and Language Processing. [S.l.]: [s.n.], 2013: 111?120.

[12] 顧佳玲,彭宏京.增長式卷積神經網絡及其在人臉檢測中的應用[J].系統仿真學報,2009(9):2441?2445.

主站蜘蛛池模板: 欧美成人午夜影院| 精品国产成人a在线观看| 国产成人免费高清AⅤ| 亚洲国产欧美国产综合久久| 性激烈欧美三级在线播放| 亚洲性影院| 免费a级毛片视频| 一个色综合久久| 国产女人18毛片水真多1| 日韩无码一二三区| 综合网久久| 欧美亚洲日韩不卡在线在线观看| 精品国产一二三区| 一级成人欧美一区在线观看| 精品伊人久久大香线蕉网站| 欧美曰批视频免费播放免费| 精久久久久无码区中文字幕| 黑人巨大精品欧美一区二区区| 欧美人与牲动交a欧美精品| 亚洲专区一区二区在线观看| 免费在线a视频| 久久人人爽人人爽人人片aV东京热 | 亚洲大尺码专区影院| 久久久久中文字幕精品视频| 国产一二三区在线| 亚洲国产欧美目韩成人综合| a级毛片网| 国产精品人人做人人爽人人添| 精品国产亚洲人成在线| 国产色伊人| 激情综合网址| 熟女视频91| 成人午夜亚洲影视在线观看| 最近最新中文字幕免费的一页| 伊人色在线视频| 久久国产精品夜色| 四虎精品国产AV二区| 国产免费人成视频网| 欧洲欧美人成免费全部视频| 91久久偷偷做嫩草影院电| 亚洲中文字幕国产av| 国产乱码精品一区二区三区中文 | www亚洲天堂| 正在播放久久| 免费AV在线播放观看18禁强制| 亚洲侵犯无码网址在线观看| 精品国产一二三区| 亚洲an第二区国产精品| 九九九精品成人免费视频7| 国产成人精品优优av| 婷婷综合缴情亚洲五月伊| 亚洲美女一区二区三区| 99热这里只有精品免费| 国产福利微拍精品一区二区| 91欧洲国产日韩在线人成| 亚洲综合中文字幕国产精品欧美| 亚洲日韩第九十九页| 永久免费AⅤ无码网站在线观看| 国产精品成人AⅤ在线一二三四| 91免费国产在线观看尤物| 亚洲精品手机在线| 国产地址二永久伊甸园| 婷婷激情亚洲| 青青青视频蜜桃一区二区| 久操线在视频在线观看| 国产色婷婷| 毛片在线区| 国产精品开放后亚洲| 亚洲美女高潮久久久久久久| 免费观看亚洲人成网站| 国产成熟女人性满足视频| 日韩毛片基地| 亚洲乱强伦| 亚洲最猛黑人xxxx黑人猛交| 91午夜福利在线观看| 伊人蕉久影院| 成人午夜视频网站| 欧美午夜视频| 97人人做人人爽香蕉精品| 国产精品手机在线观看你懂的| 性做久久久久久久免费看| 草逼视频国产|