999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種對(duì)年齡變化魯棒的人臉識(shí)別方法

2022-10-22 03:36:30張春永徐一得
電子器件 2022年4期
關(guān)鍵詞:人臉識(shí)別特征方法

張春永徐一得

(1.鹽城工學(xué)院信息工程學(xué)院,江蘇 鹽城 224051;2.東南大學(xué)信息科學(xué)與工程學(xué)院,江蘇 南京 210096)

人臉識(shí)別從上世紀(jì)60 年代被提出,經(jīng)過(guò)半個(gè)多世紀(jì)的發(fā)展與迭代,其相關(guān)技術(shù)和性能指標(biāo)也開(kāi)始投入市場(chǎng),并且產(chǎn)生了很大的經(jīng)濟(jì)效益。相對(duì)于傳統(tǒng)的方法[1,5],最近的基于深度學(xué)習(xí)的算法[2]例如Google 的faceNet 都使用深度學(xué)習(xí)網(wǎng)絡(luò)如深度卷積神經(jīng)網(wǎng)絡(luò)[3],取得了優(yōu)異的性能。在一般場(chǎng)景下,這些模型對(duì)圖像的判別甚至比人類(lèi)更精確。然而,在年齡不變?nèi)四樧R(shí)別(Age Invariant face Recognition,AIFR)場(chǎng)景下,這些方法通常缺乏人臉識(shí)別的判別能力。查閱可知,人體隨著年齡的增長(zhǎng),身體機(jī)能和指標(biāo)都會(huì)發(fā)生很大的改變,這一點(diǎn)在人的面部特征上有著明顯的表現(xiàn)。一般情況下,老年人的臉上都會(huì)有一些抬頭紋,眼角會(huì)下垂,口角脂肪松垂,具體就是嘴角兩邊的皮膚和脂肪會(huì)出現(xiàn)松弛的情況,臉部的蘋(píng)果肌區(qū)域會(huì)出現(xiàn)明顯的凹凸,鼻唇溝和下頜邊緣都會(huì)喪失彈性,大量的脂肪流失。還有就是絕大多數(shù)老年人的皮膚失去了原有的彈性,色素開(kāi)始堆積在皮膚底層,毛細(xì)孔變大,皺紋增加。AIFR 面臨的關(guān)鍵挑戰(zhàn)是由于年齡老化過(guò)程造成的面部特征顯著差異。這一問(wèn)題在當(dāng)前還不是突出問(wèn)題,主要是因?yàn)楫?dāng)前人臉識(shí)別在市場(chǎng)上得到運(yùn)用的時(shí)間還很短,數(shù)據(jù)庫(kù)并沒(méi)有過(guò)于龐大,但是隨著人臉識(shí)別的廣泛使用和使用時(shí)間的加長(zhǎng),這將成為一個(gè)制約人臉識(shí)別可持續(xù)發(fā)展的關(guān)鍵因素。如若無(wú)法解決年齡不變?nèi)四樧R(shí)別問(wèn)題,那么就會(huì)需要供應(yīng)商或者第三方機(jī)構(gòu)定期地重新去獲取當(dāng)前的人臉圖片,以確保算法的高準(zhǔn)確性,這會(huì)增加大量的額外成本,也不利于人臉識(shí)別的推廣。

1 年齡變化魯棒人臉識(shí)別的特征分析與建模

1.1 年齡變化魯棒的人臉特征學(xué)習(xí)

在之前的相關(guān)研究中,研究人員[8-9,11-12,17-20]采用啟發(fā)式的方法提取手工特征。例如,林玲等人[18]開(kāi)發(fā)了一種帶有局部特征描述的多特征判別分析方法。Gong D 等[9]提出了隱藏因子分析(HFA)來(lái)建模特征因子分解,減少身份相關(guān)特征的年齡變化。林玲等[15]為AIFR 引入了有效的最大熵特征描述符和魯棒性的身份匹配框架。最近的幾種方法[7,13-14]主要基于深度神經(jīng)網(wǎng)絡(luò)。Wen Y 等[13]開(kāi)發(fā)了潛因子引導(dǎo)卷積神經(jīng)網(wǎng)絡(luò)(LF-CNN)來(lái)改進(jìn)HFA。鄭濤等[14]介紹了AIFR 的年齡估計(jì)引導(dǎo)CNN(AE-CNN)方法。Wang Y 等人[7]提出正交嵌入分解,將身份信息編碼在角空間,年齡信息在徑向表示。我們提出了一種帶有線性殘差分解的DAL 算法。

1.2 人臉對(duì)抗網(wǎng)絡(luò)的建模方針

生成對(duì)抗網(wǎng)絡(luò)(GAN)[21]在不同的生成任務(wù)中顯示了卓越的性能,如人臉老化、人臉超分辨等。此外,當(dāng)前的研究還探討了對(duì)抗性網(wǎng)絡(luò)對(duì)判別模型的改進(jìn)。Wen Y 等人[9]利用GAN 生成高分辨率的小人臉,以提高人臉檢測(cè)。Lanitis A 等人[23]開(kāi)發(fā)了一個(gè)對(duì)抗UV 完井框架(UV-GAN)來(lái)解決姿態(tài)不變?nèi)四樧R(shí)別問(wèn)題。Liu Y 等人提出在一個(gè)對(duì)抗的自編碼器框架中學(xué)習(xí)身份提取特征和身份消除特征。Zhao Y 等人[24]提出了一種對(duì)抗網(wǎng)絡(luò)來(lái)生成硬三元組特征示例。在本研究中,我們提出了一種去相關(guān)對(duì)抗學(xué)習(xí)方法,以顯著減少身份和年齡之間的相關(guān)性,從而使得身份依賴的特征是年齡不變的。

2 年齡變化魯棒人臉識(shí)別方法

在本文中,我們引入了一個(gè)深度特征分解學(xué)習(xí)框架,將混合人臉特征分解為兩個(gè)不相關(guān)的部分:身份相關(guān)部分(Xid)和年齡相關(guān)部分(Xage)。圖2 展示了我們的特征分解模式。我們采用文獻(xiàn)[4]中的殘差映射模塊實(shí)現(xiàn)這種分解。這意味著,年齡相關(guān)的嵌入是通過(guò)殘差映射函數(shù)Xage=R(x)編碼的。我們有下面的公式:X=Xid+R(x),其中X是初始人臉特征,Xid是身份相關(guān)特征。

圖1 我們以AIFR 為例,由于年齡差異較大,身份內(nèi)的距離大于身份間距離。因此,許多當(dāng)前的人臉識(shí)別系統(tǒng)無(wú)法識(shí)別年齡差距較大的人臉。

圖2 將人臉特征分解為身份依賴分量和年齡依賴分量。只有身份特征參與人臉識(shí)別的測(cè)試。

為了減少分解成分之間的相互差異,我們提出了一種新的去相關(guān)對(duì)抗學(xué)習(xí)(Decorrelated Adversarial Learning,DAL)算法,該算法可以最大程度地減少身份和年齡之間的相關(guān)性。具體來(lái)說(shuō),引入典型映射模塊來(lái)尋找身份和年齡之間的最大相關(guān)性,而主干網(wǎng)絡(luò)和分解模塊旨在降低相關(guān)性。身份和年齡分類(lèi)信號(hào)進(jìn)行學(xué)習(xí)。通過(guò)對(duì)抗訓(xùn)練,我們希望身份和年齡能夠充分的不相關(guān),并且在身份特征空間中的年齡信息可以大大減少。

2.1 特征分解

由于人臉包含內(nèi)在的身份信息和年齡信息,所以它們可以由身份相關(guān)特征和年齡相關(guān)特征共同表示。受此啟發(fā),我們?cè)O(shè)計(jì)了一個(gè)線性分解模塊,將初始特征分解成身份相關(guān)特征和年齡相關(guān)特征這兩個(gè)不相關(guān)的部分。形式上,給定由主干CNNF(即,x=F(p))從輸入圖像p中提取的初始特征向量x∈Rd,我們將線性因子分解定義如下:

我們?cè)O(shè)計(jì)了一個(gè)類(lèi)似于文獻(xiàn)[4]的深度殘差映射模塊來(lái)實(shí)現(xiàn)這一點(diǎn)。具體來(lái)說(shuō),我們通過(guò)一個(gè)映射函數(shù)R獲得年齡相關(guān)的特征,剩余部分作為身份相關(guān)的特征。我們稱之為殘差因子分解模塊(Residual Factorization Module,RFM),其公式如下,Xid表示身份依賴成分,Xage表示年齡依賴成分:

在測(cè)試階段,只有身份相關(guān)特征用于人臉識(shí)別。希望Xid編碼身份信息,而Xage繪制年齡變化。我們同時(shí)將身份識(shí)別信號(hào)和年齡識(shí)別信號(hào)放在這兩個(gè)解耦的特征上,分別監(jiān)督這兩個(gè)部分的多任務(wù)學(xué)習(xí)。圖3 顯示了我們工作的總體框架。網(wǎng)狀主干提取初始特征,并在此基礎(chǔ)上建立殘差模塊進(jìn)行特征分解。基于這種因式分解,我們提出了去相關(guān)對(duì)抗學(xué)習(xí),將在下一節(jié)中介紹。

圖3 提出的方法的概述

2.2 去相關(guān)對(duì)抗學(xué)習(xí)

通過(guò)特征因式分解,對(duì)于年齡不變?nèi)四樧R(shí)別(Age Invariant face Recognition,AIFR)場(chǎng)景來(lái)說(shuō),Xid應(yīng)該是只保留了身份信息,并且與年齡信息不相干的,這一點(diǎn)是至關(guān)重要的。不幸的是,Xid和Xage在實(shí)際上還是有深層的相關(guān)性,無(wú)法實(shí)現(xiàn)兩者完全不相干。例如,Xid和Xage彼此具有高線性相關(guān)性,導(dǎo)致Xid可能會(huì)影響Xage,這一現(xiàn)實(shí)會(huì)對(duì)年齡不變?nèi)四樧R(shí)別產(chǎn)生負(fù)面影響。為此,我們?cè)O(shè)計(jì)了一種有助于降低分解特征之間相關(guān)性的正則化算法,即去相關(guān)對(duì)抗學(xué)習(xí)(Decorrelated Adversarial Learning,DAL)。DAL 基本上計(jì)算分解分量的成對(duì)特征之間的典型相關(guān)。

首先通過(guò)骨干網(wǎng)提取初始特征,然后進(jìn)行殘差分解。然后利用兩個(gè)已經(jīng)分解的Xid和Xage進(jìn)行分類(lèi)和DAL 正則化。

形式上,給定成對(duì)的特征Xid,Xage,我們?cè)O(shè)計(jì)映射的線性規(guī)范映射模塊(Canonical Mapping Module,CMM)Xid,Xage到規(guī)范變量vid,vage:

式中:Wid、Wage是正則映射的學(xué)習(xí)參數(shù)。之后,我們將經(jīng)典相關(guān)性定義為:

基于這樣的定義,首先通過(guò)更新CMM 中模型參數(shù)Wid,Wage來(lái)求得|ρ|的最大值然后去減少Vid和Vage的相關(guān)性,主要是通過(guò)訓(xùn)練模型殘差因子分解模塊(Residual Factorization Module,RFM)。從公式角度來(lái)看,一方面,在求取|ρ|的最大值中,我們要固定模型F,R,來(lái)訓(xùn)練C。另一方面,在減少Vid和Vage相關(guān)性的訓(xùn)練中,我們要固定C,來(lái)訓(xùn)練F,R。這兩個(gè)需求是相互矛盾的,相互對(duì)抗的,這對(duì)抗的最終結(jié)果是Xid與Xage的相關(guān)性不斷減小,最終實(shí)現(xiàn)不相干。

總體而言,DAL 的目標(biāo)函數(shù)表述為:

我們相信DAL 增強(qiáng)的強(qiáng)去相關(guān)性將鼓勵(lì)Xid和Xage彼此足夠不變。重要的是,這將提高Xid對(duì)年齡不變的人臉識(shí)別的魯棒性。

2.3 批量典型相關(guān)分析

與典型相關(guān)分析(Canonical Correlation Analysis,CCA)方法相比,我們的工作引入了基于隨機(jī)梯度下降優(yōu)化的典型相關(guān)分析(Batch Canonical Correlation Analysis,BCCA)。由于對(duì)整個(gè)數(shù)據(jù)集的相關(guān)統(tǒng)計(jì)實(shí)際上是不可能的,我們遵循類(lèi)似的批量標(biāo)準(zhǔn)化策略[6]來(lái)計(jì)算基于小批量的相關(guān)統(tǒng)計(jì)。因此,它自然適合深度學(xué)習(xí)框架。

在這里,μid和分別是vid的均值和方差,對(duì)于μage和也是一樣的。ξ是數(shù)值穩(wěn)定性的恒定參數(shù)。

公式(6)作為BCCA 的目標(biāo)函數(shù),我們利用基于SGD 的算法來(lái)優(yōu)化它。注意,規(guī)范相關(guān)數(shù)|ρ|在更新ξ時(shí),要求必須最大化,同時(shí)在訓(xùn)練F,R時(shí)最小化。漸變的推導(dǎo)如下:

因此,優(yōu)化由輸出ρ值的前向傳播和計(jì)算更新梯度的后向傳播組成。算法1 描述了BCCA 的詳細(xì)學(xué)習(xí)算法。

2.4 多任務(wù)訓(xùn)練

在這一部分,我們描述了多任務(wù)訓(xùn)練策略來(lái)監(jiān)督分解特征的學(xué)習(xí)。如圖3 所示,主要是有三個(gè)基本的監(jiān)督模塊:年齡鑒別器、身份鑒別器和DAL 正則化器。

年齡/身份判斷:為了學(xué)習(xí)年齡信息,我們將Xage輸入到一個(gè)投影字典對(duì)中,以便進(jìn)行快速而準(zhǔn)確的分類(lèi)。顧書(shū)航[25]提出了投影字典對(duì)學(xué)習(xí)(Dictionary Pair Learning,DPL)框架。在他們的方法中,分析和合成詞典的聯(lián)合學(xué)習(xí)以通過(guò)線性投影的方式來(lái)學(xué)習(xí)表示形式,而無(wú)需使用非線性稀疏編碼。他們的模型如下:

式中:S表示用于重構(gòu)X的合成字典;A代表用于對(duì)X進(jìn)行編碼的分析字典;Ak和Sk代表對(duì)應(yīng)于類(lèi)別k的子字典對(duì)代表訓(xùn)練集中Xk的補(bǔ)充數(shù)據(jù)矩陣;β>0 是一個(gè)標(biāo)量常數(shù),表示控制A的判別性質(zhì)的正則化參數(shù),以及di表示合成字典S的第i個(gè)元素。

分析字典A在區(qū)分過(guò)程中發(fā)揮作用,在這過(guò)程中子字典 可以投射i類(lèi)的樣本(i不等于k)到空的空間去。合成字典S的作用是使重構(gòu)誤差最小。使用先前獲取的Xid和Xage來(lái)分別學(xué)習(xí)兩個(gè)單獨(dú)的成對(duì)字典Did={Sid,Aid}和Dage={Sage,Aage}。然后將這些詞典用于分類(lèi)。這個(gè)DPL 框架的優(yōu)點(diǎn)在于其計(jì)算時(shí)間,因?yàn)樵摽蚣茉谂袛鄳?yīng)用中只含有若干個(gè)字典對(duì),沒(méi)有太多的模型參數(shù)。所以這種方法是快速計(jì)算和適用于實(shí)際應(yīng)用的。

使用字典Did來(lái)判斷人臉圖像的標(biāo)簽。令y為測(cè)試圖像,Yid和Yage分別指字典Did和Dage的類(lèi)別預(yù)測(cè)標(biāo)簽。可以使用以下分類(lèi)方案來(lái)計(jì)算非相關(guān)身份年齡面孔的檢測(cè):

DAL 正則化器:本文所提出的DAL 正則化還參與聯(lián)合監(jiān)督來(lái)指導(dǎo)特征學(xué)習(xí),使得成對(duì)分解特征之間的相關(guān)性可以顯著降低。通過(guò)聯(lián)合監(jiān)督,模型同時(shí)學(xué)習(xí)鼓勵(lì)Xid、Xage的區(qū)分能力和這兩個(gè)分解成分之間的去相關(guān)信息。總之,在訓(xùn)練過(guò)程中,目標(biāo)函數(shù)受以下組合多任務(wù)損失的監(jiān)督:

式中:LID是Cos-Face 損失函數(shù),LSM帶有交叉熵?fù)p失的softmax,λ1與λ2是用來(lái)平衡這三種損失的超參數(shù)。在測(cè)試階段,我們?yōu)锳IFR 評(píng)估提取身份相關(guān)特征Xid。

2.5 分析討論

該方法具有以下優(yōu)點(diǎn)。首先,特征的DAL 正則化有助于鼓勵(lì)分解后的分量之間的不相關(guān)和共不變信息。其次,BCCA 提供了CCA 的擴(kuò)展插入到深度學(xué)習(xí)框架中,以便整個(gè)模型可以在端到端的過(guò)程中進(jìn)行訓(xùn)練。最后,我們的方法可以很容易地推廣到其他組件分解模型,如姿態(tài),光照,情感等。

3 實(shí)驗(yàn)

3.1 實(shí)驗(yàn)方法與實(shí)驗(yàn)條件

網(wǎng)絡(luò)架構(gòu):(1)主干網(wǎng):我們的主干網(wǎng)是類(lèi)似于[11]的64 層卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)。它由4 個(gè)階段組成,分別有3 個(gè)、4個(gè)、10 個(gè)和3 個(gè)堆疊的殘余塊。每個(gè)剩余塊有3 個(gè)“3×3 conv+BN+ReLu”的堆疊單元。最后,F(xiàn)C 層輸出512 維的初始人臉特征。(2)殘差因子分解模塊(Residual Factorization Module,RFM):通 過(guò)2 個(gè)“FC+ReLu”將初始人臉特征映射形成年齡相關(guān)特征,其中殘差部分作為身份相關(guān)特征。(3)年齡鑒別器/身份鑒別器:使用DPL 框架快速計(jì)算分類(lèi)。(4)DAL 正則化器:我們將Xage和Xid分別饋入FC 層,并輸出它們的線性組合,然后用于BCCA 計(jì)算和優(yōu)化。

數(shù)據(jù)預(yù)處理:我們根據(jù)5 個(gè)面部關(guān)鍵點(diǎn)(兩個(gè)眼睛、兩個(gè)鼻子和兩個(gè)嘴角)進(jìn)行相似性變換,以將人臉面片裁剪為112×96。最后,裁剪后的面片的每個(gè)像素([0,255])通過(guò)減去127.5 然后除以128 進(jìn)行歸一化。

測(cè)試細(xì)節(jié):我們?cè)谥墓睞IFR 人臉數(shù)據(jù)集FG-NET、MORPH Album 2 上進(jìn)行了評(píng)價(jià)實(shí)驗(yàn)。在測(cè)試過(guò)程中,我們提取了身份相關(guān)的特征,并將原始圖像和翻轉(zhuǎn)圖像的特征串聯(lián)起來(lái),形成最終的表示。然后利用這些表示的余弦相似度進(jìn)行人臉驗(yàn)證和識(shí)別。

3.2 消耦研究

在本小節(jié)中,我們研究了模型的不同變體,以顯示我們的方法的有效性。

3.2.1 余弦相似度的可視化

為了更好地理解DAL 及其改善身份保存信息的能力,我們進(jìn)行了一個(gè)實(shí)驗(yàn)來(lái)可視化不同年齡組的余弦相似性。對(duì)于已學(xué)習(xí)的身份特征Xid,我們首先通過(guò)群集身份特征空間中的每個(gè)標(biāo)識(shí)來(lái)計(jì)算其類(lèi)中心,然后計(jì)算每個(gè)樣本和其類(lèi)中心之間的余弦相似性。之后,我們繪制了不同年齡組間余弦相似度的分布。在本研究中,我們對(duì)小型訓(xùn)練數(shù)據(jù)集進(jìn)行這種可視化分析,該數(shù)據(jù)集包含覆蓋各種年齡差異的50 萬(wàn)個(gè)面部圖像。圖4 顯示了該數(shù)據(jù)集的年齡分布。

圖4 小型數(shù)據(jù)集的年齡分布。該數(shù)據(jù)集包含了50 萬(wàn)個(gè)數(shù)據(jù)覆蓋大部分年齡的人臉圖像

3.2.2 定量評(píng)價(jià)

為了展示聯(lián)合學(xué)習(xí)框架與DAL 方法相結(jié)合的優(yōu)秀性能,我們對(duì)包括FG-NET、MORPH Album 2 在內(nèi)的幾個(gè)公共AIFR 數(shù)據(jù)集進(jìn)行了消耦評(píng)估。此外,我們還在遵循MF1 和MF2 協(xié)議下的FG-NET 上對(duì)模型進(jìn)行了測(cè)試。無(wú)論是MF1 和MF2 都有一個(gè)包含100 萬(wàn)個(gè)面部干擾物的額外干擾物集,使基準(zhǔn)測(cè)試變得更加困難。MF2 提供了一個(gè)訓(xùn)練數(shù)據(jù)集,所有的評(píng)估方法都應(yīng)該在相同的數(shù)據(jù)集上進(jìn)行訓(xùn)練,而不需要任何額外的訓(xùn)練數(shù)據(jù)。在本研究中,我們考慮以下消耦比較模型:(1)基線模型:基線模型僅通過(guò)識(shí)別損失進(jìn)行訓(xùn)練,沒(méi)有任何額外的年齡監(jiān)督。(2)+年齡:該模型由識(shí)別信號(hào)和年齡分類(lèi)信號(hào)聯(lián)合監(jiān)督訓(xùn)練。(3)+Age+DAL:我們提出的模型,通過(guò)DAL 正則化和聯(lián)合監(jiān)督信號(hào)同時(shí)進(jìn)行訓(xùn)練。

如表1 所示,在沒(méi)有DAL 的情況下,聯(lián)合監(jiān)督模型獲得了與基線模型可比較的結(jié)果。相反,我們的“+Age+DAL”模型提高了FG-NET 在所有方案上的性能。與MF1 方案相比,MF2 方案對(duì)FG-NET 的改進(jìn)相對(duì)有限,主要原因是MF2 訓(xùn)練數(shù)據(jù)集的老化變化較小。然而,性能的持續(xù)改進(jìn)證明了我們的方法的有效性。外,我們的方法在MORPH Album 2 上改進(jìn)了0.7%以上的基線模型,使得在98%和99%以上的高精度水平上有顯著提高。

表1 我們的方法與基準(zhǔn)方法進(jìn)行比較,在MF1,MF2 協(xié)議下,評(píng)價(jià)結(jié)果是FG_NET 上的rank_1 人臉的識(shí)別率。

3.3 在MORPH Album 2 數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)

MORPH Album 2 數(shù)據(jù)集包含了20 000 個(gè)不同年齡的人的7.8 萬(wàn)張人臉圖像。為了進(jìn)行公平比較,我們遵循[7]并在兩個(gè)基準(zhǔn)方案下進(jìn)行評(píng)估,其中測(cè)試集分別由10 000 名受試者和3 000 名受試者組成。在測(cè)試集中,每個(gè)受測(cè)人員的年齡差距最大的兩張人臉圖像被選擇組成探針集和圖庫(kù)集。我們使用我們提出的DAL 在大的訓(xùn)練數(shù)據(jù)集(1.7M 圖像)上訓(xùn)練模型。請(qǐng)注意,我們沒(méi)有對(duì)原有數(shù)據(jù)集進(jìn)行任何微調(diào)。

在這個(gè)實(shí)驗(yàn)中,我們將我們的DAL 模型與文獻(xiàn)中最新的AIFR 算法進(jìn)行了比較。如表2 所示,本文所提方法有效提高了rank-1 識(shí)別性能。特別是,我們的方法比當(dāng)前表現(xiàn)最好的AIFR 方法明顯優(yōu)勝,在MORPH Album 2 數(shù)據(jù)庫(kù)上變成了最先進(jìn)的方法。

表2 MORPH Album 2 數(shù)據(jù)集評(píng)價(jià)結(jié)果

3.4 在通用的人臉識(shí)別數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)

為了與通用人臉識(shí)別(General Face Recognition,GFR)中的最新方法進(jìn)行比較,我們進(jìn)一步在LFW數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)評(píng)估。LFW[18]是GFR 的一個(gè)公共基準(zhǔn),有來(lái)自5 749 名受試者的13 233 張人臉圖像。我們嚴(yán)格遵循與OE-CNNs[7]相同的培訓(xùn)和評(píng)估程序。也就是說(shuō),我們的訓(xùn)練數(shù)據(jù)包含了與OE-CNNS[7]相同的0.5M 圖像。表3 報(bào)告了LFW 的驗(yàn)證率。在LFW 數(shù)據(jù)集上,我們的模型都優(yōu)于文獻(xiàn)[7]的模型和最先進(jìn)的通用人臉識(shí)別(GFR)模型[15-16],這表明我們提出的方法具有很強(qiáng)的泛化能力。

表3 LFW 數(shù)據(jù)評(píng)估結(jié)果。報(bào)告結(jié)果為L(zhǎng)FW 的驗(yàn)證率

4 結(jié)論

本文提出了AIFR 的去相關(guān)對(duì)抗學(xué)習(xí)方法。我們的模型學(xué)會(huì)在對(duì)抗過(guò)程中最小化身份和年齡的成對(duì)分解特征之間的相關(guān)性。我們提出了批量典型相關(guān)分析算法,作為深度學(xué)習(xí)中典型相關(guān)分析的擴(kuò)展。除了DAL 之外,我們同時(shí)在身份識(shí)別和年齡分類(lèi)的聯(lián)合監(jiān)督下訓(xùn)練模型。在測(cè)試中,只有身份特征用于人臉識(shí)別。在AIFR 基準(zhǔn)上進(jìn)行的評(píng)估證明了我們提出的方法的優(yōu)越性。我們的主要貢獻(xiàn)總結(jié)如下:(1)為了規(guī)范分解特征的學(xué)習(xí),提出了一種新的基于線性特征分解的去相關(guān)對(duì)抗學(xué)習(xí)算法。通過(guò)這種方式我們希望捕獲在場(chǎng)景(Age Invariant Face Recognition,AIFR)下的人臉圖像的身份的特征,這種特征不會(huì)隨著年齡的改變而有所變化。(2)我們提出了批量典型相關(guān)分析(BCCA),一個(gè)隨機(jī)梯度下降優(yōu)化方式的擴(kuò)展。本文所提出的BCCA 可以集成到深度神經(jīng)網(wǎng)絡(luò)中用于相關(guān)正則化。

猜你喜歡
人臉識(shí)別特征方法
人臉識(shí)別 等
揭開(kāi)人臉識(shí)別的神秘面紗
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
基于類(lèi)獨(dú)立核稀疏表示的魯棒人臉識(shí)別
捕魚(yú)
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 国产喷水视频| 国产欧美日韩91| 韩国自拍偷自拍亚洲精品| 婷婷99视频精品全部在线观看| 日本欧美视频在线观看| 91精品啪在线观看国产91| 国产综合在线观看视频| 久久99国产乱子伦精品免| 污网站免费在线观看| 本亚洲精品网站| 亚洲熟妇AV日韩熟妇在线| 国产va在线观看免费| 久久鸭综合久久国产| 美女毛片在线| 日日拍夜夜嗷嗷叫国产| 精品無碼一區在線觀看 | 欧美福利在线| 亚洲熟女中文字幕男人总站| 制服丝袜 91视频| 日韩欧美91| 国产午夜福利亚洲第一| 亚洲天堂久久| 在线精品视频成人网| 欧美国产在线精品17p| 亚洲精品无码AⅤ片青青在线观看| 国产精品久久久久久久久久98| 国产波多野结衣中文在线播放 | 在线观看亚洲天堂| 成人在线观看不卡| 中文字幕人成乱码熟女免费| 国产视频欧美| 欧美一级一级做性视频| 国产高清在线观看91精品| 色爽网免费视频| 亚洲一区二区在线无码| 国产极品粉嫩小泬免费看| 国产成人高精品免费视频| 久久精品国产精品青草app| 九九久久精品免费观看| 丰满人妻一区二区三区视频| 欧美乱妇高清无乱码免费| 欧美视频免费一区二区三区| 国产亚洲欧美日韩在线一区| 国产成人三级| 国产在线八区| 国产精品污污在线观看网站| 免费视频在线2021入口| 四虎影视8848永久精品| 国产视频入口| 亚洲愉拍一区二区精品| www中文字幕在线观看| 97视频在线精品国自产拍| 久久性妇女精品免费| 午夜无码一区二区三区在线app| 欧美成人影院亚洲综合图| 在线免费观看a视频| 日韩 欧美 国产 精品 综合| 四虎精品黑人视频| 国产精欧美一区二区三区| 91口爆吞精国产对白第三集| 久草视频福利在线观看| 搞黄网站免费观看| 少妇高潮惨叫久久久久久| 波多野结衣视频一区二区| 久青草网站| 青青操视频免费观看| 这里只有精品在线播放| 国产门事件在线| 麻豆精品在线视频| Aⅴ无码专区在线观看| 亚洲有码在线播放| 五月激情综合网| 国产微拍一区| 中文字幕色站| 国产老女人精品免费视频| 夜夜操天天摸| 国产成人亚洲无码淙合青草| 老司国产精品视频91| 就去吻亚洲精品国产欧美| 99在线视频精品| 日韩欧美在线观看| 国产拍在线|