999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種半監(jiān)督人臉數(shù)據(jù)可分性特征提取方法?

2020-10-09 02:47:44劉鑫磊
關(guān)鍵詞:特征提取

劉 敬 劉鑫磊 劉 逸

(1.西安郵電大學(xué)電子工程學(xué)院 西安 710121)(2.西安電子科技大學(xué)電子工程學(xué)院 西安 710071)

1 引言

近年來(lái),人臉識(shí)別[1~2]技術(shù)是一個(gè)研究熱點(diǎn)。人臉數(shù)據(jù)與普通數(shù)據(jù)相比,具有超高維小樣本的特點(diǎn)。由于人臉數(shù)據(jù)維數(shù)過(guò)高,常達(dá)幾千上萬(wàn)維;而樣本個(gè)數(shù)常為幾十個(gè),與維數(shù)相比過(guò)低,使得人臉數(shù)據(jù)處理起來(lái)比較困難。

通常在采用人臉數(shù)據(jù)進(jìn)行分類(lèi)之前需要對(duì)原始數(shù)據(jù)進(jìn)行特征提取,以降低維數(shù)并提高人臉識(shí)別效率,因此人臉數(shù)據(jù)的特征提取技術(shù)也越來(lái)越多。矩陣分解[3]是一種非監(jiān)督學(xué)習(xí)技術(shù),從數(shù)據(jù)中提取一組特征基向量,并從中獲取高級(jí)語(yǔ)義。從最近的機(jī)器學(xué)習(xí)和稀疏編碼[4]的發(fā)展中,稀疏概念編碼(Sparse Concept Coding,SCC)[5]是近年興起的一種矩陣分解方法,SCC 首先學(xué)習(xí)一組能夠捕捉數(shù)據(jù)內(nèi)在流形結(jié)構(gòu)的基向量;然后以這組基向量為字典[6]進(jìn)行稀疏表示學(xué)習(xí)。因此,SCC 所得稀疏表示既保留了數(shù)據(jù)的幾何結(jié)構(gòu),又具有稀疏表示的優(yōu)點(diǎn),即具有更好的可分性和稀疏性。SCC 屬于非監(jiān)督學(xué)習(xí),在語(yǔ)義結(jié)構(gòu)上有較好的代表性,常用于聚類(lèi)。由于學(xué)習(xí)過(guò)程中沒(méi)有考慮類(lèi)標(biāo),因此數(shù)據(jù)在SCC子空間的可分性不是很強(qiáng),直接在SCC子空間進(jìn)行分類(lèi)并不能顯著提高識(shí)別率。

數(shù)據(jù)的可分性特征提取技術(shù),是指通過(guò)某種變換將原始數(shù)據(jù)映射到低維特征子空間,使得數(shù)據(jù)在該低維子空間獲得較好的可分性??煞中蕴卣魈崛》椒ǔS糜谌四樧R(shí)別領(lǐng)域,可降低維數(shù),提高分類(lèi)識(shí)別率和分類(lèi)速度?;贔isher[7]準(zhǔn)則的線性判別分析(Linear Discriminant Analysis,LDA)[8]是經(jīng)典的可分性特征提取方法,LDA將高維的原始樣本投影到低維LDA 特征子空間,使得在子空間中數(shù)據(jù)的類(lèi)間散布與類(lèi)內(nèi)散布之比最大。LDA 屬于監(jiān)督學(xué)習(xí),故LDA 不能利用無(wú)類(lèi)標(biāo)的樣本,即LDA 不能提取出包含在無(wú)類(lèi)標(biāo)的測(cè)試樣本中的可分性信息。人臉識(shí)別屬于超高維小樣本問(wèn)題,采用LDA直接對(duì)人臉數(shù)據(jù)訓(xùn)練樣本進(jìn)行特征提取,存在以下問(wèn)題:1)訓(xùn)練樣本過(guò)少,造成類(lèi)內(nèi)散布矩陣奇異,無(wú)法求解;2)無(wú)法利用無(wú)類(lèi)標(biāo)樣本,即不能提取出無(wú)類(lèi)標(biāo)樣本中的可分性信息;3)原始數(shù)據(jù)維數(shù)過(guò)高,使得特征提取速度慢;4)單一的可分性特征提取方法,導(dǎo)致效果不理想,數(shù)據(jù)在LDA 特征子空間識(shí)別率較低。

為提高人臉數(shù)據(jù)的識(shí)別率和識(shí)別速度,本文提出一種結(jié)合SCC 和LDA 的人臉數(shù)據(jù)半監(jiān)督可分性特征提取方法——SCC-LDA。SCC-LDA 先采用SCC 獲取保留人臉數(shù)據(jù)固有空間幾何結(jié)構(gòu)的低維稀疏表達(dá);然后采用LDA 在SCC 子空間進(jìn)行有監(jiān)督特征提取,進(jìn)一步提取數(shù)據(jù)的可分性特征并降維。SCC-LDA 相當(dāng)于對(duì)數(shù)據(jù)進(jìn)行了兩次特征提取,運(yùn)算時(shí)間較LDA 有明顯縮短,且特征子空間中數(shù)據(jù)的可分性更強(qiáng)。SCC-LDA 將非監(jiān)督學(xué)習(xí)與監(jiān)督學(xué)習(xí)相結(jié)合,相比LDA:1)可由SCC 的字典學(xué)習(xí)過(guò)程捕獲人臉圖像的固有流形結(jié)構(gòu),故相比LDA子空間,SCC-LDA 子空間包含了更多分類(lèi)信息;2)相比LDA 對(duì)原始高維數(shù)據(jù)進(jìn)行特征提取,SCC-LDA 采用LDA 對(duì)保留人臉數(shù)據(jù)固有空間幾何結(jié)構(gòu)的SCC低維稀疏表達(dá)進(jìn)行特征提取,不僅進(jìn)一步提取了可分性信息,還可提高人臉特征提取速度,進(jìn)而提高人臉識(shí)別速度。本文采用K 近鄰(K-Nearest Neighbor,KNN)[9]分類(lèi)器和最小距離(Minimum Distance,MD)[10]分類(lèi)器驗(yàn)證特征提取的有效性。基于ORL 和Yale 數(shù)據(jù)的實(shí)驗(yàn)結(jié)果表明,相比SCC 子空間法和LDA 子空間法,本文所提SCC-LDA 子空間法可顯著提高識(shí)別率,并可加快人臉識(shí)別速度。

2 稀疏概念編碼

SCC 首先通過(guò)捕捉數(shù)據(jù)的內(nèi)在流形結(jié)構(gòu),學(xué)習(xí)一組保留數(shù)據(jù)流形結(jié)構(gòu)的基向量;然后以這組基向量為字典進(jìn)行稀疏表示學(xué)習(xí)。所得低維稀疏表示既保留了數(shù)據(jù)的幾何結(jié)構(gòu),又有更好的可分性且為稀疏的。

2.1 稀疏表示基向量學(xué)習(xí)

SCC 首先學(xué)習(xí)稀疏表示的基向量,即字典學(xué)習(xí)。SCC 為獲取能保留數(shù)據(jù)潛在流形結(jié)構(gòu)的基向量,先用流形學(xué)習(xí)[11]進(jìn)行圖譜分析[12],用圖譜逼近流形,得到隱藏在高維空間中樣本的低維流形嵌入,然后學(xué)習(xí)保留此流形嵌入的SCC基向量。

具體先用K 近鄰法構(gòu)建鄰接圖G,圖中的N個(gè)頂點(diǎn)與每個(gè)樣本一一對(duì)應(yīng),邊為每個(gè)樣本與其K近鄰之間的相似度,為局部幾何模型定義權(quán)重矩陣W,且

其中NK(xi)表示xi的K 近鄰集合。則圖拉普拉斯矩 陣 L=D-W,其 中 D 為 對(duì) 角 矩 陣 且。為捕獲嵌入在高維空間中的低維數(shù)據(jù)流形,求解下面的廣義特征值問(wèn)題[13]:

其中Y=[y1y2…yk],yi是上述廣義特征值問(wèn)題特征值由小到大排序?qū)?yīng)的特征向量,Y 的每行是各樣本在k 維子空間中的流形嵌入。為保留數(shù)據(jù)流形結(jié)構(gòu),SCC 學(xué)習(xí)保留低維流形嵌入Y 的字典U,U 的各列為SCC 的基向量,可通過(guò)求解下式的最優(yōu)化問(wèn)題完成:

其中,X 為樣本矩陣,原空間各樣本存儲(chǔ)在X 各列,α 是正則化參數(shù),α||U||2調(diào)整模型以避免過(guò)學(xué)習(xí)。通過(guò)上式對(duì)U 的求導(dǎo),令導(dǎo)數(shù)為零,可求得最優(yōu)解:

I 為單位矩陣。也可以通過(guò)LSQR[14]方法直接算出U*。

由式(3)可知,SCC 的基向量保留了數(shù)據(jù)的流形結(jié)構(gòu),原始數(shù)據(jù)投影到SCC 基向量后,與數(shù)據(jù)的流形嵌入最接近。

2.2 稀疏表示學(xué)習(xí)

在獲得SCC 基向量矩陣U 后,稀疏表示A 的各列可通過(guò)求解下面的最小化問(wèn)題計(jì)算:

xi和ai分別是X 和A 的各列,A 的各列為X列中對(duì)應(yīng)樣本的稀疏表示,| ai|表示ai的L1范數(shù),L1范數(shù)正則化項(xiàng)可以確保ai的稀疏性。上式有以下等效公式:

通過(guò)式(6)將SCC 子空間中U 的系數(shù)稀疏化,所得稀疏表示A 是稀疏的。最小角回歸(Least Angle Regress,LARs)[15]算法可以解決這類(lèi)最優(yōu)化問(wèn)題,LARs 算法通過(guò)設(shè)定ai的非零分量個(gè)數(shù)來(lái)控制ai的稀疏性,無(wú)需設(shè)置參數(shù)γ。

SCC 可將數(shù)據(jù)降維,并在通過(guò)SCC 的基向量獲取數(shù)據(jù)稀疏表示的同時(shí),保留了數(shù)據(jù)固有的空間幾何結(jié)構(gòu)。

3 線性判別分析

LDA 尋找一個(gè)最佳判別投影矩陣V,使樣本投影到LDA 特征子空間中后Fisher 準(zhǔn)則最大,即LDA 子空間中類(lèi)間散布與類(lèi)內(nèi)散布之比最大。Fisher準(zhǔn)則函數(shù):

其中,Sb和Sw分別為原始數(shù)據(jù)的類(lèi)間散布矩陣和類(lèi)內(nèi)散布矩陣。采用LDA 對(duì)訓(xùn)練樣本進(jìn)行特征提取,首先計(jì)算訓(xùn)練樣本數(shù)據(jù)的類(lèi)間散布矩陣Sb和類(lèi)內(nèi)散布矩陣Sw:

其中,C 表示樣本的類(lèi)別數(shù),Pi表示第i 類(lèi)的先驗(yàn)概率,可通過(guò)該類(lèi)訓(xùn)練樣本個(gè)數(shù)除以訓(xùn)練樣本總數(shù)估計(jì)得到,即Pi=Ni/N,N 表示訓(xùn)練樣本總數(shù);Ni表示第i 類(lèi)訓(xùn)練樣本數(shù);mi表示第i 類(lèi)訓(xùn)練樣本的均值,表示第i 類(lèi)的第j 個(gè)訓(xùn)練樣本;m 表示訓(xùn)練樣本的整體均值向量,

通過(guò)Fisher準(zhǔn)則函數(shù)求解最佳投影矩陣:

若LDA 子空間的維數(shù)為m,則LDA 的解V*各列為前m 個(gè)最大特征值對(duì)應(yīng)的特征向量。將原空間樣本映射到LDA 特征子空間,得到映射后的樣本集Z :

4 SCC-LDA人臉特征提取

針對(duì)人臉數(shù)據(jù)維數(shù)高,可分性差的問(wèn)題,本文提出一種新的半監(jiān)督人臉數(shù)據(jù)可分性特征提取方法——SCC-LDA,可提高人臉識(shí)別效率。SCC-LDA 首先對(duì)所有樣本,包括有類(lèi)標(biāo)的訓(xùn)練樣本和無(wú)類(lèi)標(biāo)的測(cè)試樣本,采用SCC進(jìn)行無(wú)監(jiān)督的稀疏學(xué)習(xí),稀疏學(xué)習(xí)包括基向量的學(xué)習(xí)和稀疏表示的學(xué)習(xí),在降低數(shù)據(jù)維數(shù)的同時(shí)獲取數(shù)據(jù)的保留流形結(jié)構(gòu)的稀疏表示,且所得稀疏表示包含了來(lái)自所有樣本的分類(lèi)信息;然后采用LDA 在SCC 稀疏表示子空間進(jìn)行有監(jiān)督的可分性特征提取,分類(lèi)識(shí)別在所得SCC-LDA子空間進(jìn)行。

SCC-LDA 的人臉特征提取算法具體步驟如下。

1)將原始n 維空間的人臉數(shù)據(jù)集X 劃分為訓(xùn)練樣本集Xtr和測(cè)試樣本集Xte,各樣本xi∈?n×1均按列存放;

2)將所有樣本X,包括訓(xùn)練樣本集Xtr和測(cè)試樣本集Xte,采用SCC進(jìn)行稀疏表示學(xué)習(xí)和降維:

(1)采用式(1)構(gòu)造權(quán)重矩陣W,根據(jù)流形學(xué)習(xí)求解式(2)得到所有樣本的低維流形嵌入Y,再通過(guò)學(xué)習(xí)一組保留人臉圖像流形結(jié)構(gòu)的基向量,并以列存放在基向量矩陣U∈?n×p中,p 為SCC子空間的維數(shù),且p<n;

3)采用LDA 對(duì)SCC 子空間中訓(xùn)練樣本的稀疏表示集Atr進(jìn)行特征提取和降維,將求得的特征向量 以 列 存 放 在 投 影 矩 陣V∈?p×m中,m 為SCC-LDA子空間的維數(shù),且m<p<n;

4)將訓(xùn)練樣本的稀疏表示集Atr和測(cè)試樣本的稀疏表示集Ate,分別采用Ztr=VTAtr和Zte=VTAte投影到SCC-LDA 子空間,Ztr和Zte分別為SCC-LDA 子空間的訓(xùn)練樣本集和測(cè)試樣本集。最終,分類(lèi)識(shí)別在SCC-LDA子空間進(jìn)行。

本文在SCC-LDA 子空間采用KNN 和MD 分類(lèi)器進(jìn)行分類(lèi)識(shí)別,以評(píng)估所提特征提取方法的有效性。KNN 分類(lèi)器決策規(guī)則為,對(duì)于SCC-LDA 子空間的任一測(cè)試樣本zte,判決zte屬于所決定的類(lèi),其中ki表示zte的K 近鄰中屬于第i 類(lèi)的訓(xùn)練樣本數(shù)。MD分類(lèi)器以各類(lèi)均值為模板建立模板庫(kù), 判 決屬 于所決定的類(lèi),其中表示zte和第i 類(lèi)均值模板的歐式距離。

本文提出的SCC-LDA 方法對(duì)人臉數(shù)據(jù)進(jìn)行了兩次特征提取,首先采用SCC 進(jìn)行非監(jiān)督特征提取,然后在SCC 稀疏表示子空間采用LDA 進(jìn)行監(jiān)督特征提取。SCC-LDA 將非監(jiān)督學(xué)習(xí)與監(jiān)督學(xué)習(xí)相結(jié)合,可由SCC的字典學(xué)習(xí)過(guò)程保留人臉圖像的固有流形結(jié)構(gòu)。故SCC-LDA 子空間,相比SCC 子空間有更強(qiáng)的可分性;相比LDA 子空間包含了無(wú)類(lèi)標(biāo)樣本的分類(lèi)信息,人臉識(shí)別速度也有顯著提高。

5 實(shí)驗(yàn)結(jié)果

為驗(yàn)證本文所提SCC-LDA 算法的有效性,分別采用KNN、MD 分類(lèi)器對(duì)ORL_32×32、ORL_64×64、Yale_32×32、和Yale_64×64 四組人臉數(shù)據(jù)[16]進(jìn)行分類(lèi),并分析比較SCC 子空間法[17]、LDA 子空間法、所提SCC-LDA 子空間法的平均識(shí)別率、Kappa[18]系數(shù)和運(yùn)行所用時(shí)間。Kappa 系數(shù)為計(jì)算分類(lèi)精度的方法,可分為五組來(lái)表示不同級(jí)別的一致性:0~0.20 極低的一致性(slight)、0.21~0.40 一般的一致性(fair)、0.41~0.60 中等的一致性(moderate)、0.61~0.80高度的一致性(substantial)和0.81~1幾乎完全一致(almost perfect)。四組人臉數(shù)據(jù)的實(shí)驗(yàn)結(jié)果均表明,本文所提SCC-LDA 子空間法,相比SCC子空間法和LDA 子空間法,可顯著提高人臉識(shí)別率;相比LDA子空間法可顯著提高人臉識(shí)別速度。

仿真環(huán)境:操作系統(tǒng)為Windows 7,CPU 為2.50GHz,內(nèi)存為6.0GB,編程平臺(tái)為Matlab R2014a。

5.1 人臉數(shù)據(jù)介紹

本文采用ORL 和Yale 人臉數(shù)據(jù)庫(kù),ORL 人臉庫(kù)由40 人組成,每人10 幅,Yale 人臉庫(kù)由15 人組成,每人11 幅。ORL_32×32 和Yale_32×32 中為32×32 像素的圖像,ORL_64×64 和Yale_64×64 中為64×64 像素的圖像,對(duì)這四個(gè)人臉數(shù)據(jù)庫(kù)[16]均分別隨機(jī)選取每人的5、6、7 張圖像作為訓(xùn)練樣本,其余作為測(cè)試樣本。

5.2 實(shí)驗(yàn)結(jié)果分析

表1 為分別用MD 分類(lèi)器和KNN 分類(lèi)器對(duì)ORL_32×32 人臉數(shù)據(jù),在各類(lèi)訓(xùn)練樣本數(shù)為5、6、7的情況下進(jìn)行20 次分類(lèi),統(tǒng)計(jì)出的平均識(shí)別率、平均Kappa系數(shù)、和運(yùn)行時(shí)間。

從表1 中可以看出,兩種分類(lèi)器在各類(lèi)訓(xùn)練樣本數(shù)為5、6、7 時(shí),本文所提SCC-LDA 方法的平均識(shí)別率,相比SCC 法和LDA 法,均有顯著提高,同時(shí)識(shí)別率標(biāo)準(zhǔn)差最小,Kappa 系數(shù)最大;SCC-LDA法的運(yùn)行時(shí)間較LDA 有顯著縮短。以各類(lèi)訓(xùn)練樣本數(shù)為5 為例,MD 分類(lèi)器SCC-LDA 平均識(shí)別率比LDA 高出7.65 個(gè)百分點(diǎn),比SCC 高出5.70 個(gè)百分點(diǎn);KNN 分類(lèi)器SCC-LDA 的平均識(shí)別率比LDA 高出8.58個(gè)百分點(diǎn),比SCC高出6.85個(gè)百分點(diǎn)。各類(lèi)訓(xùn)練樣本數(shù)為6和7時(shí),效果也同樣明顯。

表1 ORL_32×32數(shù)據(jù)MD、KNN分類(lèi)器的識(shí)別率Kappa系數(shù)和運(yùn)行時(shí)間

表2 ORL_64×64數(shù)據(jù)MD、KNN分類(lèi)器的識(shí)別率Kappa系數(shù)和運(yùn)行時(shí)間

表2 為分別用MD 分類(lèi)器和KNN 分類(lèi)器對(duì)ORL_64×64 人臉數(shù)據(jù),在各類(lèi)訓(xùn)練樣本數(shù)為5、6、7的情況下進(jìn)行20 次分類(lèi),統(tǒng)計(jì)出的平均識(shí)別率、平均Kappa系數(shù)和運(yùn)行時(shí)間。

從表2 中可以看出,兩種分類(lèi)器在各類(lèi)訓(xùn)練樣本數(shù)為5、6、7 時(shí),本文所提SCC-LDA 方法的平均識(shí)別率,相比SCC 法和LDA 法,均有顯著提高,同時(shí)識(shí)別率標(biāo)準(zhǔn)差最小,Kappa 系數(shù)最大;SCC-LDA法的運(yùn)行時(shí)間較LDA 有顯著縮短。以各類(lèi)訓(xùn)練樣本數(shù)為5 為例,MD 分類(lèi)器SCC-LDA 平均識(shí)別率比LDA 高出8.3%,比SCC 高出7.6%;KNN 分類(lèi)器SCC-LDA的平均識(shí)別率比LDA高出9.15%,比SCC高出6.45%。各類(lèi)訓(xùn)練樣本數(shù)為6 和7 時(shí),效果也同樣明顯。

表3 為分別用MD 分類(lèi)器和KNN 分類(lèi)器對(duì)Yale_32×32 人臉數(shù)據(jù),在各類(lèi)訓(xùn)練樣本數(shù)為5、6、7的情況下進(jìn)行20 次分類(lèi),統(tǒng)計(jì)出的平均識(shí)別率、平均Kappa系數(shù)和運(yùn)行時(shí)間。

從表3 中可以看出,兩種分類(lèi)器在各類(lèi)訓(xùn)練樣本數(shù)為5、6、7 時(shí),本文所提SCC-LDA 方法的平均識(shí)別率,相比SCC 法和LDA 法,均有顯著提高,同時(shí)識(shí)別率標(biāo)準(zhǔn)差最小,Kappa 系數(shù)最大;SCC-LDA法的運(yùn)行時(shí)間較LDA 有顯著縮短。以各類(lèi)訓(xùn)練樣本數(shù)為5 為例,MD 分類(lèi)器SCC-LDA 平均識(shí)別率比LDA 高出9.6%,比SCC 高出16.2%;KNN 分類(lèi)器SCC-LDA 的平均識(shí)別率比LDA 高出15.07%,比SCC 高出19.67%。各類(lèi)訓(xùn)練樣本數(shù)為6 和7 時(shí),效果也同樣明顯。

表4 為分別用MD 分類(lèi)器和KNN 分類(lèi)器對(duì)Yale_64×64 人臉數(shù)據(jù),在各類(lèi)訓(xùn)練樣本數(shù)為5、6、7的情況下進(jìn)行20 次分類(lèi),統(tǒng)計(jì)出的平均識(shí)別率、平均Kappa系數(shù)和運(yùn)行時(shí)間。

表3 Yale_32×32數(shù)據(jù)MD、KNN分類(lèi)器的識(shí)別率Kappa系數(shù)和運(yùn)行時(shí)間

表4 Yale_64×64數(shù)據(jù)MD、KNN分類(lèi)器的識(shí)別率Kappa系數(shù)和運(yùn)行時(shí)間

從表4 中可以看出,兩種分類(lèi)器在各類(lèi)訓(xùn)練樣本數(shù)為5、6、7 時(shí),本文所提SCC-LDA 方法的平均識(shí)別率,相比SCC 法和LDA 法,均有顯著提高,同時(shí)識(shí)別率標(biāo)準(zhǔn)差最小,Kappa 系數(shù)最大;SCC-LDA法的運(yùn)行時(shí)間較LDA 有顯著縮短。以各類(lèi)訓(xùn)練樣本數(shù)為5 為例,MD 分類(lèi)器SCC-LDA 平均識(shí)別率比LDA 高出8.4%,比SCC 高出18.27%;KNN 分類(lèi)器SCC-LDA 的平均識(shí)別率比LDA 高出10.47%,比SCC 高出22%。各類(lèi)訓(xùn)練樣本數(shù)為6 和7 時(shí),效果也同樣明顯。

5.3 SCC基向量個(gè)數(shù)對(duì)SCC-LDA影響分析

SCC-LDA 中第一步SCC 非監(jiān)督特征提取所得SCC 基向量的個(gè)數(shù),會(huì)影響最終SCC-LDA 特征提取的效果。圖1 為ORL_32×32 數(shù)據(jù)采用MD 分類(lèi)器分別在SCC-LDA 子空間、SCC 子空間、LDA 子空間,20 次分類(lèi)的平均識(shí)別率隨SCC 基向量個(gè)數(shù)變化的對(duì)比。LDA法沒(méi)有用到SCC,所以LDA法的識(shí)別率在圖中為一條直線,為更好地進(jìn)行識(shí)別率對(duì)比將其放入圖中。

圖1 SCC基向量個(gè)數(shù)對(duì)識(shí)別率影響曲線圖

從圖1 可以看出,隨著SCC 基向量數(shù)的增加,SCC-LDA 識(shí)別率存在波動(dòng)。ORL 數(shù)據(jù)為40 類(lèi),SCC-LDA 在SCC 基向量個(gè)數(shù)為68 時(shí)識(shí)別率最高,隨著SCC 基向量個(gè)數(shù)的增加,識(shí)別率先快速下降,然后緩慢上升,最終趨于平穩(wěn)。這是由于,SCC 的基向量是從原始數(shù)據(jù)中提取出的概念(Concept),概念的個(gè)數(shù)至少應(yīng)等于類(lèi)別數(shù),即每一類(lèi)至少由一個(gè)概念來(lái)表達(dá);另一方面,概念并非越多越好,概念過(guò)多,反而不利于捕獲數(shù)據(jù)的流形,且不利于稀疏表達(dá)。

6 結(jié)語(yǔ)

本文提出了一種新的半監(jiān)督人臉數(shù)據(jù)特征提取方法——SCC-LDA。SCC-LDA 結(jié)合了SCC 和LDA 的優(yōu)點(diǎn),采用LDA 對(duì)最接近數(shù)據(jù)流形嵌入的稀疏表達(dá)進(jìn)行特征提取,解決了LDA 不能提取出包含在無(wú)類(lèi)標(biāo)樣本中的可分性信息的問(wèn)題。ORL和Yale 人臉數(shù)據(jù)的實(shí)驗(yàn)結(jié)果表明,相比SCC 和LDA,SCC-LDA 可顯著提高人臉識(shí)別率,并可加快人臉識(shí)別速度。

猜你喜歡
特征提取
特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
基于DNN的低資源語(yǔ)音識(shí)別特征提取技術(shù)
Bagging RCSP腦電特征提取算法
一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
基于DSP的直線特征提取算法
基于改進(jìn)WLD的紋理特征提取方法
淺析零件圖像的特征提取和識(shí)別方法
基于CATIA的橡皮囊成形零件的特征提取
主站蜘蛛池模板: 亚洲欧美另类视频| 国产爽妇精品| 四虎精品国产AV二区| 中文字幕亚洲无线码一区女同| a级毛片在线免费| 久久国产精品77777| 亚洲精品在线观看91| 国产一区二区三区免费观看| 美女被躁出白浆视频播放| 色欲国产一区二区日韩欧美| 亚洲国产高清精品线久久| 亚洲浓毛av| 亚洲无码37.| 国产精品久线在线观看| 日本91视频| 国产新AV天堂| 毛片网站在线看| 午夜国产小视频| 99精品国产自在现线观看| 亚洲欧美日韩另类在线一| 老司机久久99久久精品播放| 99精品影院| 国产欧美日韩专区发布| 日韩不卡高清视频| 久久99蜜桃精品久久久久小说| 成人福利在线观看| 中文字幕亚洲乱码熟女1区2区| 成人在线观看一区| 波多野结衣亚洲一区| 色综合中文综合网| 国产精品丝袜在线| 少妇极品熟妇人妻专区视频| 欧美亚洲国产精品第一页| 午夜啪啪网| 福利国产微拍广场一区视频在线| 天堂在线www网亚洲| 亚洲h视频在线| 天堂网亚洲系列亚洲系列| 无码国产伊人| 亚洲二区视频| 国产国语一级毛片| 99热这里只有成人精品国产| 91久久偷偷做嫩草影院免费看| 国产欧美日韩视频一区二区三区| 69国产精品视频免费| 日韩精品视频久久| 精品人妻无码中字系列| 综合色区亚洲熟妇在线| 欧美精品一区二区三区中文字幕| 国产在线一二三区| 精久久久久无码区中文字幕| 激情六月丁香婷婷四房播| 国产精品女主播| 高清视频一区| 成人欧美在线观看| 蜜桃视频一区二区| 综合色88| 日本精品αv中文字幕| 久久精品娱乐亚洲领先| 四虎精品黑人视频| 国产性爱网站| 国产亚洲精| 亚洲色图综合在线| 一级一级一片免费| 欧美一区精品| 国产成人狂喷潮在线观看2345 | 国产在线一区视频| 亚洲综合久久一本伊一区| 亚洲国产中文在线二区三区免| 97国产在线播放| 91精品人妻互换| 久久免费视频播放| 免费一级毛片完整版在线看| 免费观看亚洲人成网站| 久草视频福利在线观看| a级毛片免费看| 国产精品观看视频免费完整版| 国产网站免费看| 亚洲 欧美 中文 AⅤ在线视频| 亚洲伦理一区二区| 国产精品不卡片视频免费观看| 成人在线观看一区|