999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

無(wú)監(jiān)督局部特征學(xué)習(xí)的魯棒性人臉識(shí)別

2017-04-20 03:38:34
計(jì)算機(jī)應(yīng)用 2017年2期
關(guān)鍵詞:人臉識(shí)別特征方法

馮 姝

(重慶大學(xué) 數(shù)學(xué)與統(tǒng)計(jì)學(xué)院,重慶 401331)

(*通信作者電子郵箱fengshu@cqu.edu.cn)

無(wú)監(jiān)督局部特征學(xué)習(xí)的魯棒性人臉識(shí)別

馮 姝*

(重慶大學(xué) 數(shù)學(xué)與統(tǒng)計(jì)學(xué)院,重慶 401331)

(*通信作者電子郵箱fengshu@cqu.edu.cn)

特征表示是人臉識(shí)別的關(guān)鍵問(wèn)題,由于人臉圖像在拍攝過(guò)程中受光照、遮擋、姿勢(shì)等因素的影響,如何提取魯棒的圖像特征成了研究的重點(diǎn)。受卷積網(wǎng)絡(luò)框架的啟發(fā),結(jié)合K-means算法在卷積濾波器學(xué)習(xí)中所具有的效果穩(wěn)定、收斂速度快等優(yōu)點(diǎn),提出了一種簡(jiǎn)單有效的人臉識(shí)別方法,主要包含三個(gè)部分:卷積濾波器學(xué)習(xí)、非線性處理和空間平均值池化。具體而言,首先在訓(xùn)練圖像中提取局部圖像塊,預(yù)處理后,使用K-means算法快速學(xué)習(xí)濾波器,每個(gè)濾波器與圖像進(jìn)行卷積運(yùn)算;然后通過(guò)雙曲正切函數(shù)對(duì)卷積圖像進(jìn)行非線性變換;最后利用空間平均值池化對(duì)圖像特征進(jìn)行去噪和降維。分類(lèi)階段僅采用簡(jiǎn)單的線性回歸分類(lèi)器。在AR和ExtendedYaleB數(shù)據(jù)集上的評(píng)估實(shí)驗(yàn)結(jié)果表明所提方法雖然簡(jiǎn)單卻非常有效,而且對(duì)光照和遮擋表現(xiàn)出了強(qiáng)魯棒性。

人臉識(shí)別;卷積網(wǎng)絡(luò)框架;K均值;空間平均值池化;線性回歸

0 引言

人臉識(shí)別技術(shù)作為經(jīng)典的模式識(shí)別問(wèn)題,擁有廣泛的用途,如人機(jī)互動(dòng)、身份識(shí)別以及疑犯追蹤等。一般來(lái)說(shuō),人臉識(shí)別主要包含四部分內(nèi)容:檢測(cè)、對(duì)齊、特征提取與分類(lèi),其中特征提取與分類(lèi)器設(shè)計(jì)是兩個(gè)關(guān)鍵步驟。由于圖像在拍攝過(guò)程受姿態(tài)、光照、表情、遮擋等因素的影響,會(huì)使得同類(lèi)樣本的相似度降低,異類(lèi)樣本的相似度反而升高,因此相比分類(lèi)器的設(shè)計(jì),魯棒的特征提取在人臉識(shí)別中扮演更重要的角色,也就是說(shuō),如何設(shè)計(jì)對(duì)光照、遮擋等因素魯棒的圖像特征成為了一個(gè)重要且具有挑戰(zhàn)性的研究?jī)?nèi)容。

目前,各式各樣的人臉圖像特征方法被提出,其中具有代表性的特征有:子空間學(xué)習(xí)特征[1](主成分分析(Principle Component Analysis, PCA)和線性判別分析(Linear Discriminative Analysis, LDA));Gabor特征[2];局部二值模式(Local Binary Pattern, LBP)特征[3]等。在這些特征提取算法中,PCA和LDA算法通過(guò)把整幅圖像映射到一個(gè)低維子空間來(lái)提取圖像的整體特征,這類(lèi)特征對(duì)遮擋、光照及姿勢(shì)變化等因素敏感;Gabor和LBP對(duì)圖像進(jìn)行局部編碼,研究指出此類(lèi)局部編碼提取的特征具有更強(qiáng)的魯棒性。然而,無(wú)論整體特征還是局部特征都是啟發(fā)式的,且需要人工的設(shè)計(jì)以及豐富的經(jīng)驗(yàn)和專業(yè)知識(shí),通常難以得到最優(yōu)的編碼方案,因此這些特征的表征能力有限。

近年來(lái),稀疏表示分類(lèi)(Sparse Representation Classification, SRC)[4]及其變種[5-9]在人臉識(shí)別應(yīng)用中取得了巨大成功,尤其在光照和遮擋情況下表現(xiàn)出了較強(qiáng)的魯棒性。基于同類(lèi)樣本位于同一線性子空間中的假設(shè),稀疏表示理論把人臉識(shí)別看成了約束條件下的多線性回歸問(wèn)題。Wright等[4]指出,在稀疏表示理論框架下,特征的選擇其實(shí)并不再那么重要,重要的是特征的維數(shù)以及稀疏表示的計(jì)算。然而,研究指出,當(dāng)每類(lèi)圖像的訓(xùn)練樣本數(shù)量不夠充分時(shí),稀疏表示的分類(lèi)準(zhǔn)確率將會(huì)大幅度降低;同時(shí),在L1范數(shù)約束下,稀疏表示的求解計(jì)算量相當(dāng)大,這限制了它在實(shí)際場(chǎng)景中的應(yīng)用。

2012年Hinton團(tuán)隊(duì)在ImageNet競(jìng)賽中利用深度卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)把識(shí)別錯(cuò)誤率降低了十多個(gè)百分點(diǎn)。自此,特征學(xué)習(xí)(深度學(xué)習(xí))[10]受到廣泛關(guān)注,成為特征提取的熱門(mén)研究方向。特征學(xué)習(xí)模型通過(guò)把底層網(wǎng)絡(luò)的輸出特征作為輸入傳到高層網(wǎng)絡(luò)的這種機(jī)制,能夠自動(dòng)地逐層學(xué)習(xí)從低到高的語(yǔ)義特征,因此它被應(yīng)用于圖像分類(lèi)、自然語(yǔ)言處理、語(yǔ)音識(shí)別等眾多領(lǐng)域,且取得了突破性進(jìn)展。CNN成功的關(guān)鍵要素是其卷積網(wǎng)絡(luò)框架,該框架包含三個(gè)主要部分:卷積濾波器、非線性處理和特征池化。當(dāng)前流行的濾波器學(xué)習(xí)算法有稀疏自編碼(Sparse AutoEncoder, SAE)、受限波爾茨曼機(jī)(Restricted Boltzmann Machine, RBM)等神經(jīng)網(wǎng)絡(luò)算法,然而這些基于神經(jīng)網(wǎng)絡(luò)的濾波器學(xué)習(xí)方法需要調(diào)節(jié)大量模型參數(shù),訓(xùn)練速度極慢。

本文受卷積網(wǎng)絡(luò)框架的啟發(fā),提出了一種簡(jiǎn)單有效的人臉識(shí)別方法。具體而言,在卷積濾波器學(xué)習(xí)部分,使用收斂速度快且效果穩(wěn)定的K-means聚類(lèi)算法,每一個(gè)聚類(lèi)中心(向量)轉(zhuǎn)換為濾波器(矩陣);在非線性處理部分,使用雙曲正切函數(shù)對(duì)卷積特征進(jìn)行非線性變換;在特征池化部分,通過(guò)空間平均值池化方法對(duì)特征進(jìn)行降維和去噪。圖1展示了本文方法從原始圖像中學(xué)習(xí)特征的過(guò)程。

圖1 本文方法從圖像中提取特征的過(guò)程

文獻(xiàn)[11]指出,單層網(wǎng)絡(luò)在無(wú)監(jiān)督特征學(xué)習(xí)的圖像分類(lèi)中依然可以取得相當(dāng)高甚至最好的準(zhǔn)確率,只要各種參數(shù)取其極限值,因此,本文所提出的人臉圖像特征學(xué)習(xí)也僅使用單層網(wǎng)絡(luò)而非深層網(wǎng)絡(luò)。但是,本文實(shí)驗(yàn)發(fā)現(xiàn),在人臉識(shí)別中,濾波器的個(gè)數(shù)并不需要取其極限值,只需30個(gè);而且注意到,文獻(xiàn)[11]不包括非線性處理過(guò)程,本文采用卷積網(wǎng)絡(luò)框架,具有非線性變換過(guò)程。

本文方法的特點(diǎn)如下:

1)為了克服SAE和RBM等算法在卷積濾波器學(xué)習(xí)過(guò)程中存在的計(jì)算量大、速度慢等缺點(diǎn),本文采用無(wú)需先驗(yàn)知識(shí)和監(jiān)督信息的K-means算法加速卷積濾波器的學(xué)習(xí)過(guò)程。

2)不同于圖像分類(lèi)中常用最大值池化提取顯著特征,本文采用更加穩(wěn)定有效的平均值池化,不僅對(duì)特征起到去噪和降維的作用,而且可以避免過(guò)擬合問(wèn)題。

3)本文算法對(duì)光照和遮擋等影響因素具有較強(qiáng)的魯棒性:AR數(shù)據(jù)集中,在太陽(yáng)鏡和圍脖遮擋時(shí)可以取得98.8%和98.9%的識(shí)別率;ExtendedYaleB數(shù)據(jù)集中,在中度光照條件下(子集4)可以取得97.19%的識(shí)別率,而且在狒狒圖遮擋實(shí)驗(yàn)中,獲得97.01%的識(shí)別率(60%遮擋比例時(shí))。

1 本文方法

不失一般性,假定人臉圖像大小為a×b,以一定步長(zhǎng)提取大小為ω×ω的圖像塊,每個(gè)圖像塊按列向量化得:p∈Rω2,然后進(jìn)行對(duì)比度歸一化處理p=(p-μ)/σ,其中μ和σ分別是p的均值與標(biāo)準(zhǔn)差。文獻(xiàn)[11]指出ZCA(Zero-phaseComponentAnalysis)白化能夠降低像素之間的相關(guān)性且使學(xué)習(xí)到的卷積濾波器具有更豐富的局部信息,因此本文對(duì)圖像塊進(jìn)行ZCA白化預(yù)處理。

1.1 卷積濾波器學(xué)習(xí)

假設(shè)P={p1,p2,…,pn}∈Rω2為預(yù)處理后的圖像塊,經(jīng)典的聚類(lèi)算法K-means首先隨機(jī)初始化K個(gè)聚類(lèi)中心:{μ1,μ2,…,μK}∈Rω2,然后按如下方式進(jìn)行循環(huán)迭代直至收斂:

步驟1 對(duì)每一個(gè)圖像塊尋找最近的聚類(lèi)中心。

(1)

步驟2 聚類(lèi)中心更新。

(2)

Wj=matω,ω(μj)∈Rω×ω;j=1,2,…,K

(3)

其中函數(shù)matω,ω(·)把向量v∈Rω2映為矩陣m∈Rω×ω。圖2(a)展示了30個(gè)卷積濾波器,可見(jiàn)K-means可以學(xué)到不同位置和方向的邊緣信息。

LeCun[12]首次提出圖像卷積運(yùn)算并成功將其應(yīng)用于手寫(xiě)數(shù)字識(shí)別,研究發(fā)現(xiàn)卷積運(yùn)算可以從圖像中學(xué)習(xí)重要的結(jié)構(gòu)信息,因此本文把聚類(lèi)中心看作卷積濾波器,而非詞袋模型中的字典。此外,由于人臉圖像具有平穩(wěn)性特性:圖像任一部分的統(tǒng)計(jì)性質(zhì)和其他部分的幾乎相同,所以將不同濾波器與整幅圖像的所有位置作卷積運(yùn)算可以學(xué)習(xí)出充分、有用的局部特性。圖2(b)展示了人臉圖像與不同濾波器作卷積的過(guò)程與結(jié)果,其中?為卷積運(yùn)算符。從中可知三個(gè)濾波器分別提取了水平、135°和45°方向的特征,且提取了不同尺度的特征信息,因此,使用不同濾波器對(duì)人臉圖像I∈Ra×b進(jìn)行卷積運(yùn)算的確可以提取不同的局部特征:

Ck=I?Wk;k=1,2,…,K

(4)

每個(gè)卷積圖像Ck的大小為(a-ω+1)×(b-ω+1)。

圖2 濾波器與卷積運(yùn)算

1.2 非線性映射與空間池化

Tk=H(Ck)=H(I?Wk);k=1,2,…,K

(5)

其中H是非線性函數(shù)。通過(guò)2.2節(jié)的實(shí)驗(yàn)發(fā)現(xiàn),雙曲正切函數(shù)(tanh)比其他兩種常用的激勵(lì)函數(shù)(sigmoid,relu)表現(xiàn)更好,尤其在光照條件下,tanh比sigmoid和relu都高出十多個(gè)百分點(diǎn),因此本文采用tanh作非線性特征映射。

f=[F(T1)T,F(T2)T,…,F(TK)T]T∈RBK×1

(6)

1.3 線性回歸分類(lèi)器

圖3 本文算法流程

2 實(shí)驗(yàn)結(jié)果與分析

在兩個(gè)具有代表性的數(shù)據(jù)集上評(píng)估、驗(yàn)證本文所提方法的有效性和魯棒性。在相同訓(xùn)練樣本和測(cè)試樣本設(shè)置的基礎(chǔ)上,將本文方法與以下方法進(jìn)行對(duì)比:稀疏表示類(lèi)方法SRC[4]、協(xié)同表示(CollaborativeRepresentationClassification,CRC)[5]、魯棒稀疏編碼(RobustSparseCoding,RSC)[6]、正則魯棒編碼(RegularzedRobustCoding,RRC)[7]、伽博稀疏表示(GaborSparseRepresentationClassification,GSRC)[8]、聯(lián)合模式學(xué)習(xí)(JointRepresentationPatternLearning,JRPL)[9]、魯棒主成分分析法(RobustPrincipleCoponentAnalysis,RPCA)[13]以及卷積濾波方法(Volterra)[14]。

2.1 數(shù)據(jù)集描述

AR數(shù)據(jù)集[15]包含4 000多張?jiān)诓煌砬椤⒐庹铡⒄趽醯扰臄z條件下的人臉圖像。按照文獻(xiàn)[4]的設(shè)置,采用100個(gè)人的圖像,每個(gè)人包含26張圖像,分別拍攝于兩個(gè)時(shí)期,大小為165×120,如圖4(a)所示。

ExtendedYaleB數(shù)據(jù)集[16]包含38個(gè)人的不同光照條件下的2 414張人臉圖像,其中每個(gè)人約64張,每張圖像大小為192×168。根據(jù)拍攝方位角及高度的不同,此數(shù)據(jù)集可以分成5個(gè)子集,其中子集5受到了嚴(yán)重的光照干擾,如圖4(b)所示。

2.2 通用參數(shù)設(shè)置

影響本文方法識(shí)別率的參數(shù)主要有圖像塊大小ω、濾波器個(gè)數(shù)K以及池化單元塊尺寸。在本節(jié)利用AR及ExtendedYaleB數(shù)據(jù)集對(duì)通用參數(shù)的最優(yōu)選擇進(jìn)行評(píng)估。正如1.1節(jié)所述,不同的濾波器可以提取不同方向、不同尺度的邊緣局部特征,所以,首先利用AR數(shù)據(jù)集中無(wú)遮擋圖像評(píng)估參數(shù)ω及K對(duì)識(shí)別準(zhǔn)確率的影響:AR01~AR07作訓(xùn)練樣本,AR14~AR20作測(cè)試樣本。從表1可以看出,當(dāng)K增大時(shí),識(shí)別率呈上升的趨勢(shì),且K≥30時(shí)識(shí)別率趨于穩(wěn)定,因此在考慮識(shí)別率和計(jì)算量的基礎(chǔ)上,K選取為30,ω為9。

圖4 實(shí)驗(yàn)數(shù)據(jù)集中的樣本圖像示例

表1 不同圖像塊大小與濾波器個(gè)數(shù)對(duì)識(shí)別率的影響

Tab.1Influenceofdifferentimagepatchsizeandfilternumberontherecognitionrate

K識(shí)別率/%(std+dev)ω=7ω=9ω=11ω=15595.85±0.3496.39±0.7795.59±0.2495.25±0.191096.37±0.1997.17±0.1296.34±0.2296.34±0.193096.80±0.1397.77±0.1697.77±0.1997.77±0.085096.77±0.1697.63±0.2297.57±0.1497.71±0.007096.88±0.0697.28±0.1097.37±0.0897.71±0.0010096.94±0.0897.34±0.2297.42±0.0097.71±0.00

進(jìn)一步,在ExtendedYaleB上測(cè)試本文方法是否可以選擇通用的K值:子集1作訓(xùn)練,子集2~5作測(cè)試。從圖5可以看出,子集2~5均在K=30時(shí)取得最高的識(shí)別率。而且,在2.4節(jié)將看到,K-means濾波器具有較強(qiáng)的遷移、適應(yīng)性,即一個(gè)數(shù)據(jù)集上訓(xùn)練的濾波器可用于另外的一個(gè)數(shù)據(jù)集中,也就是說(shuō),可以不對(duì)新數(shù)據(jù)集重新訓(xùn)練濾波器和選擇K值。

圖5 ExtendedYaleB中子集2~5在不同K值時(shí)的識(shí)別率

由于當(dāng)池化單元塊的尺寸較小時(shí),特征維數(shù)會(huì)很高,產(chǎn)生過(guò)擬合問(wèn)題;而當(dāng)池化單元塊的尺寸太大時(shí),圖像的細(xì)節(jié)信息卻被忽略。因此在接下來(lái)的實(shí)驗(yàn)中,針對(duì)常用的兩種池化方法:最大值池化和平均值池化,測(cè)試它們?cè)诓煌某鼗瘑卧獕K尺寸條件下對(duì)識(shí)別率的影響。

從圖6知,池化單元塊增大時(shí),兩種池化方法的識(shí)別率均呈現(xiàn)下降趨勢(shì),而最大值池化的識(shí)別率下降幅度較大,這是因?yàn)樵诖髥卧獕K中取最大值往往會(huì)丟掉更多的細(xì)節(jié)信息,但是這些信息在平均值池化中被一定程度上保留了,所以平均值池化的識(shí)別準(zhǔn)確率更高且更加穩(wěn)定。本文選擇平均值池化,且池化單元塊的尺寸設(shè)置為9。

最后,在AR的無(wú)遮擋圖像和ExtendedYaleB圖像中測(cè)試不同非線性函數(shù)對(duì)識(shí)別率的影響。從表2可以看出,在AR數(shù)據(jù)集中,使用tanh和sigmoid情況下的識(shí)別率基本相同且高于relu;但在ExtendedYaleB數(shù)據(jù)集中,使用函數(shù)tanh的識(shí)別率要明顯優(yōu)于sigmoid和relu,高出十多個(gè)百分點(diǎn),尤其是在光照干擾嚴(yán)重的子集5中。因此,本文選擇tanh函數(shù)作非線性特征映射。

圖6 不同池化單元塊尺寸下兩種池化方法的識(shí)別率

表2 不同非線性函數(shù)的識(shí)別率比較 %

2.3 AR數(shù)據(jù)集

在AR數(shù)據(jù)集中,本文按三種方案進(jìn)行實(shí)驗(yàn)評(píng)估。第一種是無(wú)遮擋評(píng)估:AR01~07作訓(xùn)練,AR14~20作測(cè)試;第二種和第三種分別是太陽(yáng)鏡和圍脖遮擋評(píng)估,按照文獻(xiàn)[4]的設(shè)置:AR01~AR07及AR14~AR20作訓(xùn)練,太陽(yáng)鏡遮擋使用AR08和AR21作測(cè)試,圍脖遮擋使用AR11和AR24作測(cè)試。

表3列出了不同方法在AR數(shù)據(jù)集上的三種測(cè)試方案的識(shí)別率結(jié)果,可見(jiàn):本文方法在無(wú)遮擋情況下取得了最高的識(shí)別率97.8%;在太陽(yáng)鏡和圍脖遮擋情況下取得了98.8%和98.9%的識(shí)別率,均優(yōu)于濾波器方法Volterra;雖然低于JRPL-L1的識(shí)別率,但是本文方法計(jì)算圖像特征非常迅速,在IntelCorei5-3210MCPU, 4GBRAM的電腦上使用Matlab軟件提取700張AR圖像的特征僅需39.6s(不包括濾波器訓(xùn)練時(shí)間,因?yàn)闉V波器具有遷移、適應(yīng)性,可以預(yù)先訓(xùn)練),平均處理一張圖像只要0.056s。

表3 AR數(shù)據(jù)集上的三種測(cè)試方案的識(shí)別率比較 %

2.4 ExtendedYaleB數(shù)據(jù)集

在ExtendedYaleB數(shù)據(jù)集中,本文按兩種測(cè)試方案進(jìn)行評(píng)估實(shí)驗(yàn)。第一種評(píng)估本文方法針對(duì)光照的魯棒性,使用子集1作訓(xùn)練樣本,子集2~5分別用于測(cè)試;第二種評(píng)估本文方法針對(duì)塊狀物體遮擋的魯棒性,按照文獻(xiàn)[4]的設(shè)置,使用子集1~2作訓(xùn)練樣本,子集3作測(cè)試樣本,且在子集3中的圖像按隨機(jī)位置加入不同比例(10%~60%)的狒狒圖遮擋。

表4中給出了第一種評(píng)估方案的對(duì)比結(jié)果,其他方法的識(shí)別率結(jié)果均引自文獻(xiàn)[13]。從中可見(jiàn)輕度光照條件下(子集2~3),本文方法取得了100%的識(shí)別率;在中度光照條件下(子集4),本文方法優(yōu)于所有對(duì)比方法,取得了97.19%的識(shí)別率,比經(jīng)典的SRC高出近30個(gè)百分點(diǎn);在重度光照條件下(子集5),除了梯度臉(Gradientface)和本文方法外,其余方法的識(shí)別率均嚴(yán)重下降。注意到,濾波器來(lái)自AR數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果接近于濾波器來(lái)自ExtendedYaleB數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果,這表示K-means濾波器在本文方法中有很強(qiáng)的遷移、適應(yīng)能力,即在新數(shù)據(jù)集中可以考慮不重新訓(xùn)練濾波器。

表4 ExtendedYaleB數(shù)據(jù)集中光照魯棒性測(cè)試的識(shí)別率比較 %

表5展示了所有對(duì)比方法在不同遮擋比例下的識(shí)別率,從中可見(jiàn)本文方法在所有遮擋比例下,識(shí)別率均等于或者高于對(duì)比方法。在50%遮擋比例下,本文方法能夠完全正確識(shí)別;在60%遮擋比例下,本文方法優(yōu)勢(shì)更加明顯,取得了97.01%的識(shí)別率,比JRPL-L2高出8.7個(gè)百分點(diǎn);由此可以證明本文方法對(duì)遮擋具有較強(qiáng)的魯棒性。

表5 ExtendedYaleB中遮擋魯棒性的識(shí)別率比較 %

2.5 LFW數(shù)據(jù)集

非受控條件下的LFW數(shù)據(jù)集包含姿勢(shì)、年齡、視角、表情等變化的13 233張圖像。為了測(cè)試本文方法在LFW數(shù)據(jù)集中的表現(xiàn),按照文獻(xiàn)[6]的設(shè)置,提取兩個(gè)子集,子集1、子集2分別包含143和311幅個(gè)人的圖像,每個(gè)人的圖像張數(shù)大于等于10和5。然而,本文方法在子集1和子集2的識(shí)別率僅有41.8%和56.3%,與當(dāng)前流行的深度學(xué)習(xí)方法相比,識(shí)別率上存在不小的差距。這其中有兩方面原因:一是K-means算法不能捕捉姿勢(shì)、視角、年齡等因素引起的變化;二是本文方法實(shí)質(zhì)上可以看成是一個(gè)單層的網(wǎng)絡(luò),且隱含層神經(jīng)元個(gè)數(shù)K只取30,而當(dāng)前的深度學(xué)習(xí)的層數(shù)一般都是8層以上,神經(jīng)元個(gè)數(shù)也非常多。

3 結(jié)語(yǔ)

在卷積網(wǎng)絡(luò)框架的啟發(fā)下,利用K-means收斂速度快的優(yōu)勢(shì),本文提出了一種簡(jiǎn)單有效的人臉識(shí)別方法,該方法主要包括:K-means卷積濾波學(xué)習(xí)、非線性變換及空間池化三部分。對(duì)圖像塊大小、濾波器個(gè)數(shù)、池化單元塊尺寸等參數(shù)通過(guò)實(shí)驗(yàn)驗(yàn)證,選擇了最優(yōu)的通用參數(shù)。在AR和ExtendedYaleB數(shù)據(jù)集上的對(duì)比實(shí)驗(yàn)結(jié)果表明,本文方法取得了可比較或更高的識(shí)別準(zhǔn)確率,且對(duì)光照、遮擋等因素表現(xiàn)出了較強(qiáng)的魯棒性。然而,值得指出的是,本文方法在包含姿勢(shì)、視角等變化因素的數(shù)據(jù)集LFW上表現(xiàn)不佳,在未來(lái)的工作中需要對(duì)本文方法進(jìn)行更深入的研究與改進(jìn)。

References)

[1] BELHUMEUR P N, HESPANHA J P, KRIEGMAN D J.Eigenfaces vs.fisherfaces: recognition using class specific linear projection [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997, 19(7): 711-720.

[2] 何玲麗, 李文波.基于對(duì)稱Gabor特征和稀疏表示的人臉識(shí)別[J].計(jì)算機(jī)應(yīng)用,2014,34(2): 550-552.(HE L L, LI W B.Face recognition based on symmetric Gabor features and sparse representation [J].Journal of Computer Applications, 2014, 34(2): 550-552.)

[3] 張?chǎng)? 張文偉.基于局部二值模式和深度學(xué)習(xí)的人臉識(shí)別[J].計(jì)算機(jī)應(yīng)用,2015,35(5):1474-1478.(ZHANG W, ZHANG W W.Face recognition based on local binary pattern and deep learning [J].Journal of Computer Applications, 2015, 35(5): 1474-1478.)

[4] WRIGHT J, YANG A Y, GANESH A, et al.Robust face recognition via sparse representation [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(2): 210-227.

[5] ZHANG L, YANG M, FENG X.Sparse representation or ollaborative representation: which helps face recognition? [C]// ICCV 2011: Proceedings of the 2011 International Conference on Computer Vision.Washington, DC: IEEE Computer Society 2011: 471-478.

[6] YANG M, ZHANG L, YANG J, et al.Robust sparse coding for face recognition [C]// CVPR ’11: Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition.Washington, DC: IEEE Computer Society, 2011: 625-632.

[7] YANG M, ZHANG L, YANG J, et al.Regularized robust coding for face recognition [J].IEEE Transactions on Image Processing, 2013, 22(5): 1753-1766.

[8] YANG M, ZHANG L.Gabor feature based sparse representation for face recognition with Gabor occlusion dictionary [C]// ECCV 2010: Proceedings in 11th European Conference on Computer Vision, LNCS 6316.Berlin: Springer-Verlag, 2010: 448-461.

[9] YANG M, ZHU P, LIU F, et al.Joint representation and pattern learning for robust face recognition [J].Neurocomputing, 2015, 168: 70-80.

[10] BENGIO Y, COURVILLE A, VINCENT P.Representation learning: a review and new perspectives [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(8): 1798-1828.

[11] COATES A, LEE H, NG A Y.An analysis of single-layer networks in unsupervised feature learning [C]// Proceedings of the 14th International Conference on Artificial Intelligence and Statistics.Fort Lauderdale, FL: [s.n.], 2011: 215-223.

[12] LeCUN Y, BOSER B, DENKER J S, et al.Backpropagation applied to handwritten zip code recognition [J].Neural Computation, 1989, 1(4):541-551.

[13] LUAN X, FANG B, LIU L, et al.Extracting sparse error of robust PCA for face recognition in the presence of varying illumination and occlusion [J].Pattern Recognition, 2014, 47(2): 495-508.

[14] KUMAR R, BANERJEE A, VEMURI B C, et al.Trainable convolution filters and their application to face recognition [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7):1423-1436.

[15] MARTINEE A, BENAVANTE R.The AR face database, CVC Technical Report 24 [R].Barcelona: Computer Vision Center, 1998.

[16] GEORGHIADES A S, BELHUMEUR P N, KRIEGMAN D J.From few to many: Illumination cone models for face recognition under variable lighting and pose [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2001, 23(6): 643-660.

FENG Shu, born in 1991, M.S.candidate.Her research interests include machine learning, partial differential equation, image processing.

Unsupervised local feature learning for robust face recognition

FENG Shu*

(CollegeofMathematicsandStatistics,ChongqingUniversity,Chongqing401331,China)

Image representation is a fundamental issue in face recognition, it is desired to design a discriminative and robust feature to alleviate the effect of illumination, occlusion and pose, etc.Motivated by the convolutional architecture and the advantages (stable result and fast convergence) ofK-means algorithm in building filter bank, a very simple yet effective face recognition approach was presented.It consists of three main parts: convolutional filters leraning, nonlinear processing and spatial mean pooling.Firstly,K-means was employed based on preprocessed image patches to construct the convolution filters quickly.Each filter was convoluted with face image to extract sufficient and discriminative feature information.Secondly, the typical hyperbolic tangent function was applied for nonlinear projection on the convoluted features.Thirdly, spatial mean pooling was used to denoise and reduce the dimensions of the learned features.The classification stage only requires a novel linear regression classifier.The experimental results on two widely utlized databases such as AR and ExtendedYaleB demonstrate that the proposed method is simple and effective, and has strong robustness to illumination and occlusion.

face recognition; convolutional network architecture;K-means; spatial mean pooling; linear regression

2016- 08- 01;

2016- 10- 18。

馮姝(1991—),女,山西人,碩士研究生,主要研究方向:機(jī)器學(xué)習(xí)、偏微分方程、圖像處理。

1001- 9081(2017)02- 0512- 05

10.11772/j.issn.1001- 9081.2017.02.0512

TP391.41

A

猜你喜歡
人臉識(shí)別特征方法
人臉識(shí)別 等
揭開(kāi)人臉識(shí)別的神秘面紗
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
基于類(lèi)獨(dú)立核稀疏表示的魯棒人臉識(shí)別
捕魚(yú)
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 日韩一区精品视频一区二区| 性欧美精品xxxx| 国产杨幂丝袜av在线播放| a在线观看免费| 婷婷六月天激情| 国产精品xxx| 亚洲第一色视频| 在线观看亚洲国产| 日韩欧美国产三级| 国内精品免费| 亚洲性日韩精品一区二区| 亚洲日韩AV无码精品| 在线另类稀缺国产呦| 亚洲欧美成aⅴ人在线观看| 九色国产在线| 国产亚洲欧美在线人成aaaa| 午夜视频免费一区二区在线看| 国产91无码福利在线| 亚洲无码高清一区二区| 欧美性猛交一区二区三区| 久久99精品久久久久久不卡| av无码一区二区三区在线| 色老头综合网| 热re99久久精品国99热| 97精品国产高清久久久久蜜芽| 天天色天天综合网| 99热这里只有免费国产精品| www.日韩三级| 久久黄色免费电影| 亚亚洲乱码一二三四区| 99手机在线视频| 亚洲欧美成人影院| 天堂岛国av无码免费无禁网站 | 黄色网页在线播放| 国产97公开成人免费视频| 91小视频在线观看免费版高清| 色综合天天综合中文网| 亚洲欧洲日产无码AV| 日韩无码黄色| 91色在线观看| 91精品伊人久久大香线蕉| 日韩第一页在线| 国产9191精品免费观看| 在线观看国产黄色| 日本精品一在线观看视频| 亚洲水蜜桃久久综合网站| 一区二区三区精品视频在线观看| 免费Aⅴ片在线观看蜜芽Tⅴ| 欧美日韩久久综合| 国产青榴视频| 成人福利在线看| 亚洲无码视频喷水| 亚洲国产精品美女| 在线毛片免费| 中文字幕第4页| 玖玖精品视频在线观看| 国产精品美乳| 亚洲欧州色色免费AV| 国产精品流白浆在线观看| 四虎影视8848永久精品| 天天综合色网| 色九九视频| 精品無碼一區在線觀看 | 天天干天天色综合网| 国产成人调教在线视频| 亚洲国产亚综合在线区| 美女国产在线| 久久永久精品免费视频| 五月综合色婷婷| www亚洲精品| 免费大黄网站在线观看| 欧美一区二区啪啪| 91亚洲影院| 日本亚洲最大的色成网站www| 40岁成熟女人牲交片免费| 久久99国产精品成人欧美| a毛片在线播放| 一本大道无码日韩精品影视| 福利一区三区| av尤物免费在线观看| 国产在线无码av完整版在线观看| 国产精品久久自在自线观看|