馬家軍
(商洛學院,陜西 商洛 726000)
?
不相關稀疏保留投影在人臉識別中的應用
馬家軍
(商洛學院,陜西 商洛726000)
摘要:稀疏保留投影是一種有效的特征提取算法,它雖然能很好地保留樣本間的稀疏重構特性,但是得到的特征分量通常具有統計相關性,存在數據冗余。為此,引入不相關約束條件,提出了不相關稀疏保留投影特征提取方法,利用推導出的公式提取不相關判別特征集,進而提高了識別率。在PIE、Extended Yale B和AR人臉庫的實驗結果表明:該方法有效且穩定,與MLHOSDA、SPP和LPP相比具有更高的正確識別率。
關鍵詞:特征提取;不相關;稀疏保留投影;人臉識別
隨著信息自動化和智能化程度的日益提高,信息安全受到了空前的重視,身份識別已成為人們生活中必不可少的安全保障手段。計算機技術和數碼技術的發展使得人臉識別技術漸漸取代了傳統的身份識別技術[1-3]。基于子空間的學習算法具有理論完善、描述性強、計算代價小、容易實現及鑒別性好等特點,近年來已成為人臉識別的主流方法。基于子空間的人臉識別算法常見的有主成分分析(PCA)[4]、線性判別分析(LDA)[5]、局部保距投影[6]以及非線性的核主成分分析(KPCA)[7]、核線性判別分析(KLDA)[8]等算法。PCA旨在尋找一組投影軸,使得原始的高維圖像數據在該投影軸下的投影數據的總體方差最大化,最終使得數據能很好地分開。LDA希望找到一個投影子空間,使得在該子空間中不同類的數據離得更遠,而同類的數據離得更近。Foley-Sammon線性鑒別分析(FSLDA)[9]通過對LDA進行改進,使得投影向量兩兩正交,提高了識別性能。
流形學的研究使得一些基于流形理論的識別算法被廣泛應用。經典的流形算法有局部保距投影(LPP)、局部線性嵌入(LLE)[10]、等距映射(Isomap)[11]、拉普拉斯特征映射(LE)[12]等。LPP通過構建鄰接圖矩陣保留樣本間的局部流形結構。在實際識別分類中,流形結構相比歐氏結構能更好地描述高維數據的拓撲結構。
稀疏子空間聚類是近年來子空間聚類方法的研究熱點。稀疏聚類法利用訓練樣本構成字典,然后用這個字典來表示待識別的樣本,從而將待識別樣本歸到正確的類別。結合LPP,稀疏保留投影(SPP)[13]算法被提出來。該算法通過最小化重構誤差的方式計算最佳投影子空間,使得樣本間的稀疏關系得到較好的保留,與PCA和LPP相比,識別率有所提高。稀疏保留投影算法注重樣本間的稀疏重構關系,得到的投影變換不具有正交性。文獻[14]引入正交約束條件,提出了基于流形學習的整體正交稀疏保留鑒別分析(MLHOSDA)。但經投影變換后得到的判別特征向量各分量間仍然是統計相關的。基于此,本文提出了一種新的人臉圖像識別方法,即不相關稀疏保留投影(uncorrelatedsparsepreservingprojection,USPP)。在PIE、ExtendedYaleB和AR人臉庫上的實驗結果驗證了所提方法的有效性和穩定性。
(1)
‖x‖1表示x的l1范數,si=[si1,si2,…,si,i-1,0,si,i+1,…,sin]T是一個n維向量,第i個元素值為零,意味著xi在數據集X中被移除,sij(i≠j)表示的是xj為了構建xi所做的貢獻;I∈Rn是元素全為1的向量。
在實際識別問題中,樣本通常含有噪聲。如在人臉識別中,同一個人的樣本因表情不同(嘴巴長大、眉毛上揚等)而使xi=Xsi不成立。基于此,引入重構誤差ε(ε足夠小),將式(1)擴展為:
(2)

(3)
將數據按類別逐列排放,則系數矩陣P具有塊對角結構,即具有如下結構:
其中子塊Pk=(pij)nk×nk,k=1,2,…,c。
結合式(2)和式(3),稀疏保留投影目標函數定義為
(4)
對式(4)進行代數變換可得:
(5)
記ui為n維單位向量且第i個元素為1,其余為0,則式(10)等價轉化為:
(6)
其中pi∈Rn×1為P的第i列,記G=I-P-PT+PPT,則式(4)的求解轉化為如下廣義特征值問題的求解:
(7)
前d個最小的特征值對應的特征向量構成投影矩陣W=[w1,w2,…,wd]。
2.1相關性分析
由本文第2節可知,對于訓練樣本,判別特征集可由如下變換得到:
(8)
定理1由式(7)所得的判別特征向量各分量間是統計相關的。
證明
(9)
當且僅當式(8)等于0時,特征分量yi與yj是統計不相關的。
式(7)并不能保證式(8)等于0,因此由SPP所求的特征分量間是統計相關的,判別特征中存在冗余信息不利于信息的提取和最終的分類。
2.2不相關稀疏保留投影特征提取

(10)
其中:St=E[(X-EX)(X-EX)T];M=XGXT。
定理2第l+1個統計不相關向量wl+1是式(11)最大特征值所對應的特征向量。
(11)
其中:ω=[w1,w2,…,wl]T;I是單位矩陣。
證明對于優化問題(9)利用拉格朗日乘數法可得:
(12)
對 f 求偏導,并令?f/?w=0,有
(13)

(14)
將j=1,2,…,l代入式(13)可得
(15)

(16)
式(12)可以寫成下面形式:
(17)
將式(15)代入式(16)得到:
因此求出了前l個統計不相關的特征向量之后,只需求解式(10)最小的特征值對應的特征向量wl+1即可。
本文USPP算法的具體實現步驟如下:
1) 給定樣本集X={X1,X2,…,Xc},通過式(3)和式(4)構建含有鑒別信息的稀疏重構矩陣P∈Rn×n。
2) 根據式(6)得到矩陣G,從而得到矩陣M=XGXT。
3) 取M的最小特征對應的特征向量,作為第1個不相關投影向量w1,由式(11)計算所有不相關向量,從而得到本文的投影矩陣W=[w1,w2,…,wd]。
4) 對于待測樣本xtest得到其不相關判別特征ytest=WTxtest,最后采用歐氏距離分類器得到xtest的類別。
本文實驗采用卡耐基-梅隆大學的PIE、ExtendedYaleB和AR人臉庫,參數ε=0.01。為了驗證本文算法的有效性,在同一數據庫中分別對本文算法、SPP算法和LPP算法進行仿真實驗。本文的實驗環境:Pentium4雙核3.2GHZCPU,4GB內存。實現算法的軟件為Matlab2009。
3.1PIE 實驗
PIE人臉庫共有68人的41 368張人臉圖像,包含13種不同的姿勢、43種不同的光照條件、4種不同的表情。本文實驗選取變光照的前向圖像(C27),這樣每個人有43張人臉圖像。圖1是取自于PIE數據庫第1個人的樣本。

圖1 PIE數據庫第1個人的樣本
首先,分別從每類中隨機性選擇30幅圖像作為訓練集,其余圖像作為測試集;然后,從訓練集中每類隨機選擇一個圖像進行標記,形成帶類標樣本集,其余圖像無標記,作為無類標樣本集。圖2為PIE人臉庫中4種算法最高識別率與特征值數目的變化關系。

圖2 PIE人臉庫中4種算法最高識別率與特征值數目的變化關系
3.2Extended Yale B實驗
ExtendedYaleB人臉庫共有38個人的2 414張正面人臉圖像。每人大約有64張不同光照條件下的人臉圖像。本文將其按眼部對齊方式裁剪為32×32大小的圖像。圖3是ExtendedYaleB人臉庫中第1個人的樣本。

圖3 Extended Yale B人臉庫中第1個人的樣本
與PIE實驗相同,首先,分別從每類中隨機性選擇30幅圖像作為訓練集,其余圖像作為測試集;然后,從訓練集中每類隨機選擇一個圖像進行標記,形成帶類標樣本集,其余圖像無標記,作為無類標樣本集。圖4為ExtendedYaleB人臉庫中4種算法最高識別率與特征值數目的變化關系。
3.3AR實驗
AR人臉庫含有126人的4 000張人臉圖像。每人有26張圖像,這26張圖像于不同時間拍攝,每次拍攝13張,包括不同表情、光照。本文選取AR人臉庫中無遮擋的圖像。該子集共有100個人的1 400張圖像,每人14張圖像。同樣按照人眼對齊方式將其裁剪為66×48的圖像。圖5是取自于AR數據庫中第1個人的樣本。

圖4 Extended Yale B人臉庫中4種算法最高識別率與特征值數目的變化關系

圖5 AR數據庫中第1個人的樣本
在AR人臉庫試驗中,首先,從每類中隨機選擇10幅圖像形成訓練集,其余圖像作為測試集。然后,從訓練集的每類中隨機選擇1幅圖像進行標記形成帶類標樣本集,其余圖像不作標記構成無類標樣本集。圖6為AR人臉庫中4種算法最高識別率與特征值數目的變化關系。
為了測試算法的有效性和穩定性,對30次隨機訓練/測試劃分的仿真實驗結果進行平均,并記錄平均識別率和標準差。表1為4種算法分別在PIE、ExtendedYaleB、AR數據庫中的平均識別率和標準差。

圖6 AR人臉庫中4種算法最高識別率與特征值數目的變化關系

本文提出一種不相關稀疏局部保持投影的人臉特征提取方法。在PIE、ExtendedYaleB和AR人臉數據庫上進行表情特征提取,最后用歐氏距離分類器對人臉進行分類識別,實驗結果驗證了本文算法的有效性和穩定性。但是本文涉及參數的選取,下一步將研究參數的自適應算法。
參考文獻:
[1]李文琴,曾廣樸,文俊浩。基于神經網絡的人臉識別系統[J].激光雜志,2015(3):54-57.
[2]胡偉平,鄧輝文.個性化人臉圖像模擬研究[J].西南大學學報(自然科學版),2014(2):178-185.
[3]許偉,賴惠成,齊立飛,等.基于Gabor特征的人臉識別算法的對比研究與實現[J].激光雜志,2015(2):41-44.
[4]TURKM,PENTLANDA.Eigenfacesforrecognition[J].JournalofCognitiveNeuroscience,1991,3(1):71-86.
[5]BELHUMEUrPN,HESPANHAJP,KRIEGMANDJ.Eigenfacesvs.fisherfaces:recognitionusingclassspecificlinearprojection[J].IEEETransonPatternAnalysisandMachineIntelligence,1997,19(7):711-720.
[6]HEXiaofei,YANShuicheng,HUYuxiao,etal.FacerecognitionusingLaplacianfaces[J].IEEETransonPatternAnalysisandMachineIntelligence,2005,27(3):328-340.
[7]趙麗紅,孫宇舸,蔡玉,等.基于核主成分分析的人臉識別[J].東北大學學報(自然科學版),2006 (8):847-850.
[8]張曉華.基于核判別分析的人臉識別算法[D].哈爾濱:哈爾濱理工大學,2008.
[9]FOLEYDH,SAMMONJW.Anoptimalsetofdiscriminantvectors[J].IEEETransonComputers,1975,C-24(3):281-289.
[10]ROWEISST,SAULLK.Nonlineardimensionalityreductionbylocallylinearembedding[J].Science,2000,290(5500):2323-2326.
[11]ZHANGSL,GONGZL,LIAOHB.NonlineardimensionalityreductionmethodbyfusingLLEandISOMAP[J].ApplicationResearchofComputers,2014.
[12]CHENC,ZHANGL,BUJ,etal.ConstrainedLaplacianEigenmapfordimensionalityreduction.[J].Neurocomputing,2010,73(46):951-958.
[13]QIAOL,CHENS,TANX.Sparsitypreservingprojectionswithapplicationstofacerecognition[J].PatternRecognition,2010,43(1):331-341.
[14]吳飛,荊曉遠,李文倩,等.基于流形學習的整體正交稀疏保留鑒別分析[J].計算機技術與發展,2014(6):63-66.
[15]HUANGY.FacialExpressionRecognitionBasedonSparsePreservingProjections[J].ComputerEngineering,2011,37(8):164-165.
(責任編輯楊黎麗)
收稿日期:2016-02-18
基金項目:商洛學院科研基金資助項目(14SKY008)
作者簡介:馬家軍(1989—),男,碩士,主要從事模式識別、圖像處理研究。
doi:10.3969/j.issn.1674-8425(z).2016.07.022
中圖分類號:TP391
文獻標識碼:A
文章編號:1674-8425(2016)07-0129-06
UncorrelatedSparsePreservingProjectionintheApplicationofFaceRecognition
MAJia-jun
(ShangluoUniversity,Shangluo726000,China)
Abstract:Sparse Preserving Projection is an effective feature extraction algorithm. Although it keeps sparse refactoring features between the samples well, the discriminant feature based SPP is generally statistical correlated, which makes the discriminant feature redundant. This paper added an uncorrelated constraint, and the projection feature extraction based uncorrelation sparse preserving projection method was proposed and theoretically derives the formula of extracting the uncorrelated discriminant features, so the recognition rate was improved. Ultimately experiments on PIE, Extended Yale B and AR face database show that the method in this paper is effective and stable, and has a higher correct recognition rate compared with the MLHOSDA, SPP and LPP.
Key words:feature extraction; uncorrelation; sparse preserving projection; face recognition
引用格式:馬家軍.不相關稀疏保留投影在人臉識別中的應用[J].重慶理工大學學報(自然科學),2016(7):129-134.
Citationformat:MAJia-jun.UncorrelatedSparsePreservingProjectionintheApplicationofFaceRecognition[J].JournalofChongqingUniversityofTechnology(NaturalScience),2016(7):129-134.