999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于小波和非負(fù)稀疏矩陣分解的人臉識(shí)別方法

2006-12-31 00:00:00歐陽(yáng)怡彪蒲曉蓉
計(jì)算機(jī)應(yīng)用研究 2006年10期

摘 要:提出了利用小波變換(WT)、非負(fù)稀疏矩陣分解(NMFs)和Fisher線性判別(FLD)來(lái)進(jìn)行人臉識(shí)別。用小波變換分解人臉圖像,選擇最低分辨率的子段,既能捕獲到人臉的實(shí)質(zhì)特征,又有效地降低了計(jì)算復(fù)雜性;非負(fù)稀疏矩陣分解能顯示地控制分解稀疏度和發(fā)現(xiàn)人臉圖像的局部化表征;Fisher線性判別能在低維子空間中形成良好的分類。實(shí)驗(yàn)結(jié)果表明,這種方法對(duì)光照變化、人臉表情和部分遮擋不敏感,具有良好的健壯性和較高的識(shí)別效率。

關(guān)鍵詞:人臉識(shí)別; 小波變換; 非負(fù)矩陣分解; Fisher線性判別

中圖法分類號(hào):TP317.4 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1001-3695(2006)10-0159-04

Waveletbased Nonnegative Matrix Factorization with

Sparseness Constraints for Face Recognition

OUYANG Yibiao,PU Xiaorong,ZHANG Yi

(Computational Intelligence Laboratory, College of Computer Science Engineering, University of Electronic Science Technology of China, Chengdu Sichuan 610054, China)

Abstract:This paper combines Wavelet Transformation(WT), Nonnegative Matrix Factorization with sparseness constraints (NMFs), and Fisher’s Linear Discriminant (FLD) to extract features for face recognition. Wavelet transformation is used to decompose face images and for choosing the lowest resolution subband coefficients so that the substantial facial features can be captured and the computational complexity can be reduced. NMFs can control sparseness explicitly and find partsbased representations for face images. FLD plays the role of forming wellseparated classes in a lowdimensional subspace. Extensive experiments are carried out to illustrate the proposed combine face recognition method by using the ORL face database. The experimental results show that the method has robust highperformance against varying illumination, facial expression and part occlusion.

Key words:Face Recognition; Wavelet Transformation(WT); Nonnegative Matrix Factorization(NMF); Fisher Linear Discriminant(FLD)

1 引言

由于人臉識(shí)別在身份認(rèn)證、視覺監(jiān)控以及人機(jī)接口等方面有著廣泛的應(yīng)用前景,從而成為近年來(lái)計(jì)算機(jī)視覺與模式識(shí)別領(lǐng)域極富挑戰(zhàn)性的研究熱點(diǎn)。近20年來(lái),許多研究者在人臉識(shí)別領(lǐng)域進(jìn)行了深入研究并提出了很多有效的方法。按照識(shí)別特征的不同,基本上可以分為基于幾何特征的方法[1,2]、基于統(tǒng)計(jì)的特征臉?lè)椒╗3]、基于神經(jīng)網(wǎng)絡(luò)的方法[4,5]、基于小波的模板匹配方法[6]和它們的混合方法。其中Fisher線性判別(FLD)[7]方法能在低維子空間中形成很好的分類,對(duì)于遮掩物和光照具有好的容錯(cuò)性,從而也較好地解決了特征臉?lè)椒╗3]中對(duì)遮掩物和光照較敏感的缺點(diǎn)。

Lee和Seung提出了不同于傳統(tǒng)PCA的非負(fù)矩陣分解(NMF)方法[8],通過(guò)NMF可以提取人臉的各種局部特征。非負(fù)稀疏矩陣分解(NMFs)[9]是在NMF基礎(chǔ)上的一種改進(jìn)。通過(guò)將一個(gè)非負(fù)的矩陣分解為左右兩個(gè)非負(fù)矩陣的乘積,控制分解后矩陣的稀疏度,即使在無(wú)監(jiān)督的情況下也能很好地表征原始數(shù)據(jù)的局部特征。該方法具有收斂速度快、左右非負(fù)矩陣存儲(chǔ)空間小的特點(diǎn);同時(shí),能將高維的數(shù)據(jù)矩陣降維處理,適合處理大規(guī)模數(shù)據(jù)。事實(shí)上,心理學(xué)和生理學(xué)有依據(jù)表明,人的大腦具有能發(fā)現(xiàn)基于局部表征的能力[10,11]。因此,很有必要研究基于局部表征的人臉識(shí)別方法。

采用小波變換(WT)特征來(lái)描述人臉的信息,與視網(wǎng)膜對(duì)圖像的響應(yīng)相類似,在一定程度上容忍光線和角度的干擾。應(yīng)用小波變換抽取特征,對(duì)人臉進(jìn)行低維表達(dá),在很大程度上克服了人臉姿態(tài)變化、表情變化和頭飾變化對(duì)人臉識(shí)別的影響,對(duì)于細(xì)微表情變化具有一定的不變性,同時(shí)也保留了空間位置信息。這樣,既能捕獲到人臉的實(shí)質(zhì)特征,同時(shí)也有效地降低了計(jì)算復(fù)雜性。早期的研究認(rèn)為人臉的空間低頻段信息在人臉識(shí)別中起主要作用。Nastar等人[12,13]研究了人臉外觀變化與頻譜變化之間的關(guān)系,指出人臉的光照、少許遮擋、旋轉(zhuǎn)扭曲和面部表情只影響圖像中高頻部分的變化,而人臉圖像的低頻部分在這樣的變化下仍然保持穩(wěn)定,因此,基于小波的方法成了人臉識(shí)別中的一種新的趨勢(shì);Lai[14]提出了運(yùn)用光譜臉和小波變換、傳里葉變換結(jié)合的整體表征的方法;Li[15]提出用小波技術(shù)和特征臉相結(jié)合的方法來(lái)提取特征進(jìn)行人臉識(shí)別;Chien[16]提出用可分辨的小波臉和最近鄰特征分類方法進(jìn)行人臉識(shí)別。

2 人臉圖像小波預(yù)處理

小波變換具有多分辨率、多尺度分析的特點(diǎn),而且在時(shí)頻兩域都具有表征信號(hào)局部特征的能力,被譽(yù)為“數(shù)學(xué)顯微鏡”。 給定平方可積的信號(hào)f(t),即f(t)∈L2(R),則f(t)的連續(xù)小波變換定義為

Wf(a,b)=∫Rf(t)ψa,b(t)dt(1)

這里,小波基函數(shù)

ψa,b(t)=1aψt-ba a,b均為常數(shù),且a>0(2)

如果取尺度a=2n,b∈Z可實(shí)現(xiàn)對(duì)式(1)的離散化,這樣就可以利用金字塔算法[19]在計(jì)算機(jī)中實(shí)現(xiàn)小波變換。對(duì)信號(hào)進(jìn)行小波變換時(shí),如果選擇了正交小波基(如Daubechies基、Symmlets基),得到的小波系數(shù)是相互獨(dú)立的,也就得到了原始信號(hào)的一系列不同的特征。

通過(guò)二維離散小波分解圖像后,不同方向的子圖分辨率減少,計(jì)算復(fù)雜度就相應(yīng)減少。適當(dāng)層次小波變換后的低頻子圖像刻畫了人臉的表情和姿勢(shì)的不變特征,有較好的穩(wěn)定性。對(duì)人臉圖像先進(jìn)行小波分析的目的是降維和圖像濾波,從而降低計(jì)算復(fù)雜度,并濾掉人臉的情感變化因素及眼鏡、發(fā)型等不必要的細(xì)節(jié)對(duì)識(shí)別產(chǎn)生的影響。

本文使用DB6小波作為小波基函數(shù)先對(duì)人臉樣本進(jìn)行小波分解,如圖1(a)的四個(gè)部分(LL,LH,HL,HH)。其中,LL是水平方向和垂直方向的低通濾波后的小波系數(shù),它基本上包含了原有圖像的信息,同時(shí)在這個(gè)區(qū)域中,隨機(jī)噪聲和冗余信息已被大大壓制;LH是水平方向的低通濾波和垂直方向的高通濾波后的小波系數(shù),主要包括了水平方向的特征;HL是垂直方向的特征,眼睛、鼻子、嘴巴等器官的邊緣和紋理對(duì)應(yīng)其中的強(qiáng)響應(yīng),而前額和臉頰等平滑區(qū)域則對(duì)應(yīng)其中的弱響應(yīng);HH是水平方向和垂直方向的高通濾波后的小波系數(shù),所包含的信息最少。所以,對(duì)原始圖像進(jìn)行三層小波分解,選用第三層的低頻LL分量作為小波特征,這樣既保留了人臉的全局形狀信息,同時(shí)又淡化了局部細(xì)節(jié)。

3 非負(fù)稀疏矩陣分解和Fisher線性判別

3.1 非負(fù)稀疏矩陣分解(NMFs)

非負(fù)矩陣分解是一種新的線性矩陣分解算法,其基本思想[8]就是尋找一個(gè)線性子空間W,使原樣本X在W上的投影H和X之間的關(guān)系滿足:X≈V=WH,且W,H中的所有元素都是非負(fù)的。由于分解前后的矩陣中僅包含非負(fù)的元素,因此,原矩陣V中的一列向量可以解釋為對(duì)左矩陣W中所有列向量(基向量)的加權(quán)和,而權(quán)重系數(shù)為右矩陣H中對(duì)應(yīng)列向量中的元素。這種基于基向量組合的表示形式具有很直觀的語(yǔ)義解釋,它反映了人類思維中局部構(gòu)成整體的概念。

人臉圖像集可以看成是一個(gè)非負(fù)矩陣Xn×m,每一列包含了m張圖像中的某一張的n個(gè)非負(fù)的像素值,矩陣Wn×r=[W1,W2,…,Wr]表示基向量。一張訓(xùn)練圖像可看成是基向量Xj≈Whj的線性組合,hj=[h1j,h2j,…,hrj]是一個(gè)r維的列向量,由r維特征空間中的投影坐標(biāo)組成。因此,整個(gè)人臉的訓(xùn)練圖像的矩陣可以看成

X≈WH(3)

其中,Wn×r稱為基圖像,Hr×m=[h1,h2,…,hm],W,H≥0。

Patrik[9]在NMF的基礎(chǔ)上,提出了非負(fù)矩陣稀疏分解方法用于人臉識(shí)別中,能夠更好地發(fā)現(xiàn)穩(wěn)定、直觀的局部特征,并且能自由地控制分解后矩陣的稀疏度。這個(gè)算法具有收斂速度快、左右非負(fù)矩陣存儲(chǔ)空間小的特點(diǎn)。它能將高維的數(shù)據(jù)矩陣降維處理,適合處理大規(guī)模數(shù)據(jù)。

minW,HD(X|WH)=‖X-WH‖2=∑i, j(Xij-(WH)ij)2

s.t. W,H≥0,sparseness(wi)=Sw,i,sparseness(hi)=Sn,i (4)

其中,稀疏度sparseness(x)=n-‖x‖1/‖x‖2n-1,n是x的維數(shù)。

3.2 Fisher線性判別(FLD)

Fisher線性判別方法(FLD)[7]能在人臉圖像的投影空間中找到最優(yōu)的特征子空間,使樣本的類間散布最大、類內(nèi)散布最小,從而改善分類特征,使得類間散布和類內(nèi)散布之比最大[7,17]。這個(gè)比值為

Pfld=arg maxP|PTSBP||PTSWP|=[P1,P2,…,Pk](5)

Pfld是k×r(k≤r)維矩陣, {Pi|i=1,2,…,k}是矩陣S-1WSB中k個(gè)最大特征值對(duì)應(yīng)的特征向量。SB是類間散布矩陣,定義為

SB=∑ci=1Ni(μi-μ)(μi-μ)T(6)

其中, Ni是第i類Ci的樣本數(shù),c是類別的總數(shù),μ=1m∑mj=1μj是全體圖像的平均值,μi是第i類Ci的平均值。SW是類內(nèi)散布矩陣,定義為

SW=∑ci=1∑uk∈Ci(uk-μi)(uk-μi)T=∑ci=1SWi(7)

這里SW是Ci的協(xié)方差矩陣。

4 結(jié)合WT,NMFs和FLD的人臉識(shí)別方法

人臉識(shí)別過(guò)程分為訓(xùn)練過(guò)程和識(shí)別過(guò)程。為了降低人臉圖像的維數(shù)和減少訓(xùn)練時(shí)間,同時(shí)又能保證較好的識(shí)別效率,我們提出了這種方案:①運(yùn)用三層的二維小波變換將原始的人臉圖分解成子圖;②在降維后的最低層子圖上進(jìn)行非負(fù)稀疏矩陣分解;③用Fisher線性判別方法對(duì)前面得到的特征向量進(jìn)行處理,得到新的FLD特征向量。在識(shí)別過(guò)程中,每當(dāng)一個(gè)新的人臉樣本加入,先用小波變換對(duì)其進(jìn)行分解,然后通過(guò)比較FLD的特征向量之間的歐氏距離就能識(shí)別出這張人臉。

訓(xùn)練樣本集的子空間Strain=[S1,S2,…,Sk](k≤m) 通過(guò)FLD變換計(jì)算[19]得到

Strain=PTfldHtrain(8)

識(shí)別過(guò)程中,對(duì)于一張新的人臉樣本Xi,其對(duì)應(yīng)的系數(shù)Hitest通過(guò)

Hitest=W+Xi(9)

計(jì)算得到,其中,W是訓(xùn)練過(guò)程中得到的基向量組成的矩陣,W+是W的偽逆。用k最鄰近分類來(lái)計(jì)算歐氏距離dj。

dj=‖Sj-PTfldHitest‖,(j=1,2,…,k)(10)

當(dāng)最小的歐氏距離dq小于某個(gè)閾值ε,就認(rèn)為這個(gè)測(cè)試樣本屬于第q類,否則就是未定的。

整個(gè)識(shí)別過(guò)程如圖2所示。對(duì)于給定的己知身份的訓(xùn)練圖像集和未知身份的測(cè)試圖像集,通過(guò)特征的選擇、分類以及模式匹配識(shí)別出測(cè)試圖像集中每張人臉?biāo)鶎?duì)應(yīng)的訓(xùn)練圖像集中人臉的身份。

算法描述如下:

(1)訓(xùn)練過(guò)程

①給定一個(gè)人臉圖像的訓(xùn)練集Γi(i=1,2,…,N),對(duì)其進(jìn)行適當(dāng)層次的小波分解,從而獲得每幅訓(xùn)練圖像的低頻子圖像,對(duì)應(yīng)的小波系數(shù)為Xi(i=1,2,…,N)。

②利用NMFs方法,由Xtrain=[X1,X2,…,XN]≈WHtrain得到W和Htrain,計(jì)算由h1,h2,…,hN構(gòu)成的類內(nèi)散布矩陣和類間散布矩陣Sw和Sb,然后計(jì)算對(duì)應(yīng)矩陣的S-1wSb的r個(gè)最大特征值對(duì)應(yīng)的特征向量pfld1,pfld2,…,pfldr。由這r個(gè)最大特征值對(duì)應(yīng)的特征向量構(gòu)成FLD投影矩陣Pfld=[pfld1,pfld2,…,pfldr]。

③利用FLD投影矩陣Pfld可得到分類特征,即Si=[s′1,s′2,…,s′r]T=PTfldhi(i=1,2,…,N)。

④根據(jù)這些對(duì)應(yīng)人臉圖像訓(xùn)練集的分類特征向量s1,s2,…,si,…,sN組成c類人臉識(shí)別數(shù)據(jù)庫(kù),存儲(chǔ)所有訓(xùn)練樣本的特征向量。為表達(dá)方便起見,在此我們不妨假設(shè)由這N個(gè)最佳分類特征向量s1,s2,…,si,…,sN組成的c類人臉識(shí)別數(shù)據(jù)庫(kù)中的標(biāo)準(zhǔn)樣本向量為s(1),s(2),…,s(c)。

(2)識(shí)別過(guò)程

①給定一個(gè)待識(shí)別的人臉圖像Γ,對(duì)其進(jìn)行適當(dāng)層次的小波分解,從而獲得它的低頻子圖像,對(duì)應(yīng)的小波系數(shù)為x。

②計(jì)算h=W+x,W+是訓(xùn)練過(guò)程中NMFs分解中W的偽逆。對(duì)h利用FLD投影矩陣Pfld可得到分類特征,即s=PTfldh。

③找到與待識(shí)別圖像最接近的訓(xùn)練集(數(shù)據(jù)庫(kù))中的人臉類。計(jì)算歐幾里德距離dq=min1≤j≤c‖s-s(j)‖,當(dāng)dq小于某一個(gè)閾值ε時(shí),就把這張臉劃分到第q類。

5 實(shí)驗(yàn)結(jié)果

采用ORL標(biāo)準(zhǔn)人臉圖像數(shù)據(jù)庫(kù)進(jìn)行人臉識(shí)別的仿真實(shí)驗(yàn)。該數(shù)據(jù)庫(kù)中有40個(gè)受試者,每個(gè)受試者有10幅圖像,因此共有400幅圖像。圖像的表情、姿態(tài)、光照變化都非常大,所有的圖像為實(shí)驗(yàn)者的正臉,帶有一定程度的朝上、下、左、右的偏轉(zhuǎn)或傾斜;對(duì)表情不作任何限制,面部表情(張開/合攏)、眼睛(微笑/不微笑)和面部細(xì)節(jié)(戴眼鏡/不戴眼鏡);大多數(shù)人的照片是在不同的時(shí)間和不同的光照但背景總為黑色的條件下得到的。圖3為該數(shù)據(jù)庫(kù)的部分人臉圖像。我們的實(shí)驗(yàn)數(shù)據(jù)是數(shù)據(jù)庫(kù)中圖像轉(zhuǎn)成大小為92×112具有8bits灰度級(jí)的圖片。實(shí)驗(yàn)隨機(jī)選取每個(gè)受試者的五幅人臉圖像作為訓(xùn)練集,剩余五幅歸為測(cè)試集,運(yùn)用Daubechies D6對(duì)圖像進(jìn)行三層二維小波分解,得到23×21的 LL子圖。取基向量矩陣W的稀疏度為0.7。

(1)實(shí)驗(yàn)1。對(duì)平均識(shí)別效率和平均計(jì)算時(shí)間的比較。用MATLAB 7.0編程,在P4 2.66GHz,512MB內(nèi)存的PC機(jī)上運(yùn)行600次。結(jié)果如表1所示。表1是運(yùn)用小波變換、WNMFs方法在第三層的四個(gè)子圖的平均識(shí)別率和平均時(shí)間,識(shí)別率按LL,LH,HL,HH的順序排列,因此我們選取LL子圖進(jìn)行識(shí)別。表2是對(duì)三種方法的比較,結(jié)合表1可以看出,運(yùn)用了小波變換后,基于小波分解的非負(fù)稀疏矩陣分解方法比不用小波處理的非負(fù)稀疏矩陣分解方法具有很大的計(jì)算速度優(yōu)勢(shì),很大程度上降低了計(jì)算的復(fù)雜性,而且LL子圖的識(shí)別率保持在原來(lái)的水平或者提高了一點(diǎn)。

表1 運(yùn)用小波后,在23×21分辨率的子圖上的平均識(shí)別率和平均時(shí)間

Data平均識(shí)別率(%)平均計(jì)算時(shí)間(s)WT+NMFs+FLDWT+NMFs+FLDLL96.83349.844LH55.08349.802HL46.66749.105HH21.58351.268表2 平均識(shí)別率和平均計(jì)算時(shí)間的比較

方 法平均識(shí)別率(%)平均計(jì)算時(shí)間(s)PCA+FLD95.7513.825NMFs+FLD94.417218.287WT+NMFs+FLD96.83349.844(2)實(shí)驗(yàn)2。對(duì)每幅圖像先進(jìn)行三層小波分解,取低頻子圖像LL。識(shí)別結(jié)果如圖4(a)所示,最高識(shí)別率可達(dá)96.917%,同時(shí)我們還將它與PCA+LDA方法和NMFs+FLD的方法進(jìn)行了比較。當(dāng)特征數(shù)很少時(shí),PCA+FLD的方法效果略好,這是由于非負(fù)稀疏矩陣分解是基于局部特征的,在特征很少的情況下并不能很好地表征實(shí)質(zhì)人臉。總體上來(lái)說(shuō),實(shí)驗(yàn)表明本文提出的WNMFs方法識(shí)別率略優(yōu)于PCA+FLD方法,明顯比NMF+FLD方法高。

(3)實(shí)驗(yàn)3。對(duì)測(cè)試樣本集中的人臉進(jìn)行部分遮掩,然后進(jìn)行識(shí)別。遮擋的部分圖像用大小分別為36×65,40×65,40×65灰度片表示,如圖3(b)所示。分別模擬遮住眼睛、眼睛和鼻子、鼻子和嘴巴,識(shí)別效果如圖4(b)所示,實(shí)驗(yàn)說(shuō)明了我們的方法WNMFs對(duì)于局部的遮擋相對(duì)于其他兩種方法(PCA+FLD,NMFs+FLD)更不敏感;同時(shí)也能達(dá)到很好的識(shí)別效率。與沒(méi)有遮擋的識(shí)別效率相差不超過(guò)0.8%,其最好結(jié)果可以達(dá)到96.582%,比PCA+FLD和NMFs+FLD的方法要好。

6 總結(jié)

本文提出了基于小波和非負(fù)稀疏矩陣分解的人臉識(shí)別方法,其主要優(yōu)點(diǎn)在于能夠識(shí)別基于局部特征和有遮擋的人臉。運(yùn)用WNMFs識(shí)別ORL庫(kù)的人臉圖像,最高識(shí)別率可達(dá)到96.917%,同時(shí)對(duì)有遮擋的圖像識(shí)別率也能達(dá)到96.582%。實(shí)驗(yàn)表明,該方法對(duì)人臉的局部表情、光照以及遮擋不敏感,識(shí)別性能優(yōu)于PCA+LDA方法以及NMFs+FLD方法,而且在很大程度上降低了計(jì)算的復(fù)雜性。此外,該方法比上述兩種方法對(duì)于部分遮擋的人臉更不敏感。

參考文獻(xiàn):

[1]Kaya Y, Kobayashi K. A Basic Study on Human Face Recognition[A]. Frontiers of Pattern Recognition[M].New York:Academic Press, 1972. 265-289.

[2]Kanade T. Computer Recognition of Human Faces[M]. Basel and Stuttgart: Birkhauser, 1977.

[3]Turk M, Pentland A. Eigenfaces for Recognition[J]. Journal of CognitiveNeuroscience, 1991, 3(1): 71-86.

[4]M S Bartlett, J R Movellan, T J Sejnowski. Face Recognition by Independent Component Analysis[J]. IEEE Trans. Neural Networks, 2002, 13: 14501464.

[5]M J Er, S Wu, H L Toh. Face Recognition with Radial Basis Function(RBF) Neural Networks[J]. IEEE Trans. Neural Networks,2002, 13: 697-710.[6]Lades M, Vorbruggen J,Buhumann J,et al.Distortion Invariant ObjectRecognition in the Dynamic Link Architecture[J]. IEEE Trans.Comput,1993,42(3):300-311.

[7]P N Belhumeur, J P Hespanha, D J Kriegman. Eigenfaces Versus Fisherfaces: Recognition Using Class Specific Linear Projection[J]. IEEE Trans. Pattern Anal. Machine Intell., 1997, 19: 711-720.

[8]D D Lee, H S Seung. Learning the Parts of Objects by Nonnegative Matrix Factorization[J]. Nature, 1999, 401(6755): 788-791.

[9]O H Patrik. Nonnegative Matrix Factorization with Sparseness Constraints[J]. Journal of Machine Learning Research, 2004,(5): 14571469.

[10]E Wachsmuth, M W Oram, D I Perrett. Recognition of Objects and Their Component Parts: Responses of Single Units in the Temporal Cortex of the Macaque[J]. Cereb. Cortex, 1994, 4: 509-522.

[11]S Z Li, X Hou,H Zhang,et al. Learning Spatially Localized Partsbased Representations[C]. Hawaii: Proc. of IEEE Conf. on Computer Vision and Pattern Recognition (CVPR), 2001. 207-212.

[12]C Nastar, B Moghaddam, A Pentland. Flexible Images: Matching and Recognition Using Learned Deformations[J].Comput. Vision Image Understanding, 1997, 65 (2): 179191.

[13]C Nastar, N Ayache. Frequencybased Nonrigid Motion Analysis[J]. IEEE Trans. Pattern Anal. Mach. Intell.,1996, 18 (11): 10671079.

[14]J H Lai, P C Yuen, G C Feng. Face Recognition Using Holistic Fourier Invariant Features[J]. Pattern Recognition, 2001, 34: 95109.

[15]B Li, Y Liu. When Eigenfaces are Combined with Wavelets[J]. Knowl.Based Syst., 2002, 15: 343-347.

[16]J T Chien, C C Wu. Discriminant Waveletfaces and Nearest Feature Classifiers for Face Recognition[J]. IEEE Trans. Pattern Anal. Machine Intell., 2002, 24: 16441649.

[17]A M Martinez, A C Kak. PCA versus LDA[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2001,23(2): 228-233.

[18]X R Pu, Zhang Yi, et al. Face Recognition Using Fisher Nonnegative Matrix Factorization with Sparseness Constraints[C]. Chongqing:The 2nd International Symposium on Neural Networks(ISNN), 2005.112117.

[19]S Mallat. A Theory of Multiresolution Signal Decomposition: The Wavelet Representation[J]. IEEE Trans. Pattern Anal. Mach. Intell., 1989, 11: 674-693.

作者簡(jiǎn)介:

歐陽(yáng)怡彪(1978-),男,湖南隆回人,碩士研究生,主要研究方向?yàn)閿?shù)據(jù)挖掘、生物特征識(shí)別;蒲曉蓉(1969-),女,四川射洪人,博士研究生,主要研究方向?yàn)橛?jì)算智能、生物特征識(shí)別;章毅(1963-),男,四川邛崍人,教授,博導(dǎo),主要研究方向?yàn)樯窠?jīng)網(wǎng)絡(luò)、數(shù)據(jù)挖掘、計(jì)算智能等。

注:本文中所涉及到的圖表、注解、公式等內(nèi)容請(qǐng)以PDF格式閱讀原文

主站蜘蛛池模板: 97国产成人无码精品久久久| 热久久这里是精品6免费观看| 国产区在线观看视频| 视频一本大道香蕉久在线播放 | 女人毛片a级大学毛片免费| 精品无码国产自产野外拍在线| 国产精品白浆在线播放| 精品一區二區久久久久久久網站| 尤物国产在线| 国产综合亚洲欧洲区精品无码| 亚洲a级毛片| 精品视频一区在线观看| 国产亚洲精品91| 69av免费视频| www成人国产在线观看网站| 国产人人干| 婷五月综合| 狠狠色丁香婷婷| 欧美成人午夜影院| 久久综合色天堂av| 国产极品粉嫩小泬免费看| 日韩麻豆小视频| 亚洲bt欧美bt精品| 国产乱子伦手机在线| 日韩在线永久免费播放| 亚洲欧美成人| 高清国产va日韩亚洲免费午夜电影| 久久精品波多野结衣| 欧美中文字幕一区二区三区| 狂欢视频在线观看不卡| 另类欧美日韩| 国产精品浪潮Av| 国产中文一区a级毛片视频| 91精品专区国产盗摄| 国产视频只有无码精品| 在线观看视频99| 日韩色图区| 欧美激情视频二区三区| 国产不卡一级毛片视频| 一本大道香蕉久中文在线播放| 麻豆AV网站免费进入| 欧美国产成人在线| 91娇喘视频| 不卡午夜视频| 国产男女XX00免费观看| 伊人久久青草青青综合| 亚洲AV无码乱码在线观看裸奔| 超碰aⅴ人人做人人爽欧美 | 亚洲成人黄色在线观看| a亚洲天堂| 精品国产网站| 亚洲成a∧人片在线观看无码| 国产精品免费露脸视频| 日韩无码视频播放| aaa国产一级毛片| 国产性生大片免费观看性欧美| 91人人妻人人做人人爽男同| 国产真实乱了在线播放| 米奇精品一区二区三区| 亚洲日本一本dvd高清| 久久黄色视频影| 国产污视频在线观看| 99热这里只有精品免费国产| 久久综合成人| 日韩精品少妇无码受不了| 亚洲第一天堂无码专区| 毛片最新网址| 国产欧美日韩综合在线第一| 久久久久88色偷偷| 国产精品一区在线麻豆| 亚洲a级在线观看| 国产日韩精品一区在线不卡| 亚洲天堂视频在线播放| 中国一级特黄大片在线观看| 欧美丝袜高跟鞋一区二区 | 国产打屁股免费区网站| AV片亚洲国产男人的天堂| 国内毛片视频| 精品国产成人国产在线| yjizz国产在线视频网| 色偷偷综合网| h视频在线播放|