999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的多模態(tài)融合三維人臉識(shí)別①

2022-08-25 02:51:40胡乃平賈浩杰
關(guān)鍵詞:人臉識(shí)別融合

胡乃平, 賈浩杰

(青島科技大學(xué) 信息科學(xué)技術(shù)學(xué)院, 青島 266061)

近年來, 得益于數(shù)據(jù)集的日益龐大和硬件設(shè)備日新月異的發(fā)展, 深度學(xué)習(xí)應(yīng)用越來越廣泛, 帶動(dòng)了人臉識(shí)別的快速發(fā)展. 目前二維人臉識(shí)別已趨于飽和, 在光照統(tǒng)一、表情一致的實(shí)驗(yàn)室條件下, 識(shí)別準(zhǔn)確率已經(jīng)非常高. 但是二維人臉識(shí)別受光照、遮擋和姿態(tài)等的影響較大, 在光線昏暗、面部遮擋的情況下, 不能正確地識(shí)別出人臉.

三維人臉除了包含彩色圖的紋理信息之外, 也包含了深度信息. 相對(duì)于二維人臉識(shí)別, 三維人臉識(shí)別應(yīng)對(duì)遮擋、光照和姿態(tài)的變化更具有優(yōu)勢. 因此, 三維人臉識(shí)別適合更多的場景. 三維人臉識(shí)別根據(jù)數(shù)據(jù)來源的不同可分為3類: 基于RGB圖像的三維人臉識(shí)別、基于高質(zhì)量三維掃描圖像的三維人臉識(shí)別、基于低質(zhì)量RGB-D圖像的三維人臉識(shí)別. 基于RGB圖像的三維人臉識(shí)別通過RGB彩色圖像重建三維人臉模型, 但是重建模型較為復(fù)雜, 且參數(shù)極多速度較慢. 基于高質(zhì)量圖像的三維人臉識(shí)別使用高質(zhì)量三維人臉數(shù)據(jù)進(jìn)行識(shí)別, 但是獲取高質(zhì)量的三維人臉數(shù)據(jù)代價(jià)高昂, 需要特定的高精度掃描儀進(jìn)行采集, 并且采集的數(shù)據(jù)非常大, 會(huì)導(dǎo)致模型過于復(fù)雜. 目前高精度三維人臉數(shù)據(jù)集有Bosphorus[1]和BU-3DFE[2]等, Bosphorus為點(diǎn)云數(shù)據(jù), BU-3DFE為網(wǎng)格數(shù)據(jù). 基于低質(zhì)量RGB-D圖像的三維人臉識(shí)別采用的數(shù)據(jù)來源于RGB-D相機(jī), 這類相機(jī)能夠同時(shí)采集彩色圖和深度圖, 速度快且成本較低.但是低質(zhì)量的深度圖存在大量的空洞、毛刺, 造成識(shí)別困難. Mu等人[3]單獨(dú)使用低質(zhì)量深度圖訓(xùn)練神經(jīng)網(wǎng)絡(luò), 得到的模型訓(xùn)練準(zhǔn)確度較低. 這說明了單獨(dú)使用低質(zhì)量深度圖進(jìn)行人臉識(shí)別難以進(jìn)行有效的區(qū)分. 因此本文使用基于低質(zhì)量RGB-D圖像的三維人臉識(shí)別方法, 結(jié)合彩色圖和深度圖進(jìn)行人臉識(shí)別, 彌補(bǔ)單獨(dú)使用低質(zhì)量深度圖的不足. 低質(zhì)量人臉深度圖的數(shù)據(jù)集有Lock3DFace[4]、EURECOM[5]和Texas3DFRDatabase[6]等, 深度圖數(shù)據(jù)集都含有對(duì)應(yīng)的彩色圖. 本文使用的數(shù)據(jù)集是Texas3DFRDatabase.

1 相關(guān)工作

本節(jié)介紹基于高質(zhì)量圖像的三維人臉識(shí)別方案,基于低質(zhì)量RGB-D圖像的三維人臉識(shí)別方案和人臉識(shí)別損失函數(shù).

基于高質(zhì)量圖像的三維人臉識(shí)別. 隨著技術(shù)的進(jìn)步, 學(xué)者逐步轉(zhuǎn)向三維人臉識(shí)別, 但是高質(zhì)量三維人臉數(shù)據(jù)庫數(shù)量依然比較少. Gilani等人[7]在現(xiàn)有高質(zhì)量三維人臉數(shù)據(jù)的基礎(chǔ)上, 通過不同圖像之間的組合來合成新的人臉數(shù)據(jù), 并且得到不同視角下的點(diǎn)云數(shù)據(jù), 用來訓(xùn)練CNN. Cai等人[8]在三維人臉數(shù)據(jù)上選取眼睛和鼻尖3個(gè)點(diǎn)進(jìn)行姿態(tài)校準(zhǔn). 之后從三維人臉圖像中提取4個(gè)子圖像, 4個(gè)子圖具有一定的重疊, 把子圖分別輸入到CNN中, 得到4個(gè)特征向量串聯(lián)進(jìn)行識(shí)別.Kim等人[9]將單一的三維人臉數(shù)據(jù)合成多個(gè)不同表情的人臉數(shù)據(jù), 之后對(duì)二維人臉識(shí)別模型進(jìn)行遷移學(xué)習(xí),少量的數(shù)據(jù)得到不錯(cuò)的效果.

基于低質(zhì)量RGB-D圖像的三維人臉識(shí)別. RGBD圖像包括彩色圖和深度圖. 單獨(dú)使用深度圖進(jìn)行識(shí)別任務(wù)不能得到較好的效果, 因此將彩色圖和深度圖進(jìn)行融合會(huì)得到更好的識(shí)別結(jié)果. 融合的方式分為3種: 信號(hào)層融合、特征層融合、決策層融合[10]. 信號(hào)層融合即在原始圖像上進(jìn)行融合. Kusuma等人[11]使用主成分分析(PCA)在信號(hào)層方面融合了二維人臉圖像和三維人臉圖像, 并探討了不同模態(tài)數(shù)據(jù)之間的依賴關(guān)系. Jiang等人[12]將二維數(shù)據(jù)的3通道和三維數(shù)據(jù)的3通道組合成6通道的數(shù)據(jù)輸入到卷積神經(jīng)網(wǎng)絡(luò)中進(jìn)行識(shí)別. 特征層融合即將不同模態(tài)數(shù)據(jù)的特征進(jìn)行融合. Lee等人[13]使用兩路神經(jīng)網(wǎng)絡(luò)分別提取彩色圖和深度圖的特征, 并進(jìn)行融合. 并且針對(duì)訓(xùn)練數(shù)據(jù)不夠的問題進(jìn)行了遷移學(xué)習(xí). Li等人[14]利用多通道稀疏編碼進(jìn)行不同模態(tài)之間的人臉對(duì)齊, 提取不同模態(tài)的人工特征進(jìn)行特征融合. 決策層融合分別對(duì)不同模態(tài)的數(shù)據(jù)進(jìn)行識(shí)別, 將對(duì)應(yīng)得分通過策略進(jìn)行融合. Chang等人[15]使用主成分分析法對(duì)彩色圖和深度圖進(jìn)行識(shí)別, 將兩個(gè)得分進(jìn)行加權(quán)融合. Cui等人[16]對(duì)3種融合進(jìn)行了對(duì)比研究, 并且提出了一種基于特征層和決策層的混合融合, 取得了當(dāng)時(shí)最先進(jìn)的性能.

人臉識(shí)別損失函數(shù). 通常來說, 識(shí)別或分類任務(wù)使用Softmax損失函數(shù), 但是Softmax損失函數(shù)只能保證目標(biāo)具有可分性, 對(duì)人臉識(shí)別這種類間相似性較大的任務(wù)來說, 具有非常大的局限性. 因此, 損失函數(shù)是人臉識(shí)別方向的研究熱點(diǎn). 人臉識(shí)別損失函數(shù)主要有兩種思路: 減少類內(nèi)差異, 增大類間可分離性. 基于第1種思路, Wen等人[17]提出了中心損失(center loss),懲罰了樣本與其中心的歐氏距離, 將相同的類聚集在類特征中心周圍, 減少了類內(nèi)差異, 結(jié)合Softmax損失函數(shù), 取得了不錯(cuò)的識(shí)別效果. 基于第2種思路, Deng等人[18]提出角邊緣損失, 將角度約束加入到Softmax損失函數(shù)中, 極大限度地提高了類間可分離性, 能夠獲得人臉的高分辨率特征. Cai等人[19]結(jié)合兩種思路, 提出了島嶼損失(island loss), 顧名思義, 使相同的類聚集在一起像島嶼一樣, 減少類內(nèi)變化的同時(shí)擴(kuò)大類間的差異, 性能得到顯著提升.

本文的主要貢獻(xiàn)如下:

(1)設(shè)計(jì)自動(dòng)編碼器將彩色圖和深度圖在特征層面進(jìn)行融合. 得到融合圖像作為識(shí)別任務(wù)的輸入.

(2)基于巴氏距離的思想, 提出一種新的損失函數(shù)cluster loss. 結(jié)合Softmax損失進(jìn)行識(shí)別任務(wù), 不僅能夠減少類內(nèi)的變化, 而且能夠擴(kuò)大類間的差異.

(3)使用遷移學(xué)習(xí), 將融合圖像訓(xùn)練得到的模型使用彩色圖像進(jìn)行微調(diào). 得到的新模型使用彩色圖像作為輸入, 依舊可以克服光照和面部遮擋這一缺點(diǎn). 將人臉彩色圖像模擬戴口罩和變暗, 識(shí)別率依然較高.

2 算法

2.1 多模態(tài)融合

多模態(tài)融合指融合不同形式的數(shù)據(jù). 本文需要融合的數(shù)據(jù)是人臉的彩色圖和深度圖. 使用卷積自動(dòng)編碼器對(duì)兩種不同形式的圖像進(jìn)行融合. 卷積自動(dòng)編碼器是將傳統(tǒng)的自編碼器的無監(jiān)督學(xué)習(xí)方式, 結(jié)合了卷積層、池化層、上采樣層或者轉(zhuǎn)置卷積層等操作. 圖像經(jīng)過解碼層得到特征向量, 特征向量經(jīng)過編碼層得到重構(gòu)圖像. 自編碼器自動(dòng)從樣本中學(xué)習(xí)相關(guān)特征而不是通過人工進(jìn)行提取.

卷積自編碼器網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示. 網(wǎng)絡(luò)分為編碼層和解碼層. 編碼層包括4組卷積層+池化層和兩組全連接層. 解碼層包括4組卷積+上采樣層和一個(gè)卷積層. 原始圖像r和d分別是同一人臉圖像的彩色圖和深度圖, 具有互補(bǔ)的關(guān)系. 彩色圖和深度圖同時(shí)作為卷積自編碼器輸入, 經(jīng)過編碼層之后, 得到兩組1 504維的向量. 將兩組1 504維的向量進(jìn)行串行結(jié)合得到3 008維的向量, 并將融合后的向量和兩組1 504維的向量作為解碼層的輸入. 經(jīng)過解碼層之后, 兩組1 504維的向量會(huì)分別輸出重構(gòu)圖像, 融合向量會(huì)輸出融合圖像. 公式表示如下:

圖1 卷積自編碼器網(wǎng)絡(luò)結(jié)構(gòu)

以圖像r為例,Er是圖像r的編碼過程, 從r中提取特征,Dr是圖像r的解碼過程, 通過特征解碼出重構(gòu)圖像圖像d亦是如此. 圖像r和d分別學(xué)習(xí)各自的特征, 在編碼層末端將特征進(jìn)行串聯(lián), 解碼層共享權(quán)重,實(shí)現(xiàn)不同模態(tài)特征的聯(lián)合統(tǒng)一表達(dá). 損失函數(shù)是原始圖像與重構(gòu)圖像之間的差值, 損失函數(shù)公式表示如下:

其中,m表示共有m組數(shù)據(jù),ri和di分別表示原始的彩色圖和深度圖,和表示重構(gòu)的彩色圖和深度圖.

在使用卷積自編碼器進(jìn)行多模態(tài)數(shù)據(jù)融合時(shí), 有以下幾點(diǎn)說明:

(1)不能將全連接層去掉或者使用卷積層代替, 否則編碼器不能學(xué)習(xí)到有用的特征, 圖像無法正常生成.全連接層的作用是打亂空間結(jié)構(gòu). 全連接層可用1×1的卷積網(wǎng)絡(luò)去代替, 1×1的卷積網(wǎng)絡(luò)也可打亂空間結(jié)構(gòu), 并且參數(shù)比全連接層少, 速度更快, 缺點(diǎn)是重構(gòu)圖像效果沒有使用全連接層的效果好.

(2)解碼層的卷積+上采樣層可用轉(zhuǎn)置卷積(transposed-convolution)[20]代替, 轉(zhuǎn)置卷積為卷積的反向操作, 可以使低分辨率圖像向高分辨率轉(zhuǎn)換. 但是文獻(xiàn)[21]中指出使用convolution+upsample組合, 較之于transposed-convolution, 可以更好地生成圖像細(xì)節(jié),并且運(yùn)算速度相當(dāng). 因此本節(jié)算法使用convolution+upsample組合.

2.2 損失函數(shù)

人臉識(shí)別或者表情識(shí)別存在著較高的類間相似性,導(dǎo)致識(shí)別性能顯著下降. 傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行人臉識(shí)別任務(wù)時(shí), 使用Softmax loss作為損失函數(shù), 懲罰分類錯(cuò)誤的樣本, 能夠分離出不同類別的特征, 但是特征向量是分散的, 并且會(huì)出現(xiàn)不同類別的特征重疊的情況, 如圖2(a)所示. Wen等人[17]提出了center loss,結(jié)合Softmax loss, 實(shí)現(xiàn)了類內(nèi)緊致性, 計(jì)算每一個(gè)類的中心, 并懲罰了每一類的樣本和類中心之間的距離.使特征向量聚集在一起, 但是center loss沒有考慮到類間相似性, 依然會(huì)出現(xiàn)特征重疊的情況, 如圖2(b)所示. 本節(jié)提出了一種新的損失函數(shù)cluster loss, 能夠提高人臉特征的判別能力. 懲罰不同類別的類中心之間的相似度, 將不同的類別遠(yuǎn)遠(yuǎn)推開. 結(jié)合 Softmax loss,不僅實(shí)現(xiàn)了類內(nèi)緊致而且能夠擴(kuò)大類間差異, 如圖2(c)所示. 在本節(jié)首先簡要回顧一下center loss, 然后重點(diǎn)介紹我們提出的損失函數(shù)cluster loss.

圖2 3種損失函數(shù)示意圖

2.2.1 Center loss

Center loss為特征向量與類中心的距離的平方和,公式表示為式(3):

其中,yi為樣本xi對(duì)應(yīng)的類別,cyi為類別yi的類中心.前向傳播過程中, 損失函數(shù)為聯(lián)合Softmax loss和center loss的加權(quán)和, 公式表示為式(4). λ為平衡因子,用來平衡兩種損失函數(shù).

2.2.2 Cluster loss

如圖2(b)所示, 單純使用center loss不能避免特征重疊的情況, 為了解決這個(gè)問題, 我們提出了一個(gè)新的損失函數(shù)cluster loss, 能夠擴(kuò)大類間差異. 使用巴氏距離定義cluster loss, 并用來衡量兩個(gè)向量之間的距離. Cluster loss公式表達(dá)為式(5):

其中, 第1項(xiàng)為center loss, 用來懲罰樣本與對(duì)應(yīng)類中心之間的距離, 第2項(xiàng)表達(dá)式用來減少不同的類中心的相似性, 以擴(kuò)大類間距離.N為類別標(biāo)簽集合,i和j分別代表不同的類別,ci和cj分別是i和j對(duì)應(yīng)的類別中心. 前向傳播過程中, 整體損失函數(shù)由式(6)給出:

式(6)為Softmax loss與cluster loss的加權(quán)和,λ為平衡因子, 用來平衡兩種損失函數(shù). 由圖2所示, 網(wǎng)絡(luò)由兩個(gè)輸出Out1和Out2, Out1用來計(jì)算Lcluster,Out2用來計(jì)算Ls.

反向傳播過程中, cluster loss對(duì)輸入樣本xi的偏導(dǎo)數(shù)可計(jì)算為式(7), 偏導(dǎo)數(shù)將反向傳播到全局池化層和卷積層.

計(jì)算第j個(gè)類的特征中心的差值, 公式為式(8):

其中, 第1項(xiàng)是中心損失計(jì)算的特征中心的差值, 第2項(xiàng)是對(duì)Lcluster的第2項(xiàng)求cj的偏導(dǎo)數(shù)得出第j個(gè)類的特征中心的差值. 使用隨機(jī)梯度下降算法(SGD)來對(duì)每一批次數(shù)據(jù)的第j類的特征中心進(jìn)行更新, 學(xué)習(xí)率是α, 公式為式(9). 在算法1中, 我們給出了使用cluster loss進(jìn)行識(shí)別任務(wù)的算法偽代碼.

算法1. 使用cluster loss進(jìn)行識(shí)別任務(wù)的算法偽代碼輸入: 已經(jīng)標(biāo)記的訓(xùn)練數(shù)據(jù){xi, yi}μ α λ ω 1. 初始化批次大小為m, 訓(xùn)練輪次T, 學(xué)習(xí)率 和, 超參數(shù), 網(wǎng)絡(luò)權(quán)重 和cluster loss參數(shù)cj.2. for t in range(1, T+1)L=Ls+λLcluster 3. 計(jì)算整個(gè)網(wǎng)絡(luò)的損失函數(shù)?Lt?xit=?Lst?xit+λ?Ltcluster?xit 4. 計(jì)算反向傳播的誤差ct+1 j=ctj-αΔcjt 5. 更新cluster loss參數(shù)ωt+1=ωt-μ?Lt?ωt=ωt-μ?Lt?xti?xit?ωt 6. 更新網(wǎng)絡(luò)權(quán)重7. end for ω輸出: 網(wǎng)絡(luò)權(quán)重 , cluster loss參數(shù)cj和網(wǎng)絡(luò)損失

2.3 遷移學(xué)習(xí)

遷移學(xué)習(xí), 即讓模型具有舉一反三的能力. 讓網(wǎng)絡(luò)在任務(wù)A中學(xué)習(xí)到的知識(shí)應(yīng)用到任務(wù)B的學(xué)習(xí)中, 使得網(wǎng)絡(luò)不僅有任務(wù)A的知識(shí)也有任務(wù)B的知識(shí), 任務(wù)A和任務(wù)B需有一定的相關(guān)性. 文獻(xiàn)[22]通過大量實(shí)驗(yàn)證明了深度學(xué)習(xí)中遷移學(xué)習(xí)的可行性. 遷移學(xué)習(xí)包括4種: 樣本遷移、特征遷移、模型遷移和關(guān)系遷移[23].本文我們使用模型遷移. 如圖3所示, 首先使用融合圖像預(yù)訓(xùn)練一個(gè)模型, 將預(yù)訓(xùn)練模型的block1, block2,block3中的所有層的凍結(jié), 不進(jìn)行權(quán)重更新, 然后使用RGB圖像作為輸入, 對(duì)預(yù)訓(xùn)練模型的其余層進(jìn)行訓(xùn)練.之所以凍結(jié)3個(gè)block中的網(wǎng)絡(luò)層, 是因?yàn)樵诰矸e神經(jīng)網(wǎng)絡(luò)中, 前面幾層學(xué)習(xí)到的都是通用特征, 越靠后的層學(xué)習(xí)到的特征越具有特殊性[22].

圖3 遷移學(xué)習(xí)過程

3 實(shí)驗(yàn)結(jié)果和分析

3.1 數(shù)據(jù)處理和訓(xùn)練策略

本文實(shí)驗(yàn)使用RGB-D人臉數(shù)據(jù)集Texas3DFRDatabase, 共118個(gè)人的1 149個(gè)樣本. 使用TensorFlow 2.0深度學(xué)習(xí)框架來搭建網(wǎng)絡(luò). 實(shí)驗(yàn)室GPU型號(hào)為GTX1080Ti.首先使用第2.1節(jié)中提到的自動(dòng)編碼器進(jìn)行RGB數(shù)據(jù)和深度數(shù)據(jù)的融合, 圖4分別展示了RGB圖像、深度圖像和融合圖像. 對(duì)融合圖像進(jìn)行處理, 包括以下幾部分.

圖4 RGB圖像、深度圖像、融合圖像

(1)用dlib庫自帶的frontal_face_detector特征提取器進(jìn)行人臉檢測, 并提取出人臉圖像.

(2)將提取出來的人臉圖像大小重新設(shè)置為112像素×112像素.

(3)數(shù)據(jù)增強(qiáng). 隨機(jī)對(duì)圖像進(jìn)行水平翻轉(zhuǎn)、亮度調(diào)整, 裁剪、添加噪聲, 以防止過擬合問題.

(4)將增強(qiáng)后的圖像進(jìn)行歸一化. 將每一像素的數(shù)據(jù)類型轉(zhuǎn)換為float32, 再把每一個(gè)像素值除以255, 使得每一個(gè)像素的值在0–1之間.

本文實(shí)驗(yàn)在使用融合圖像預(yù)訓(xùn)練模型時(shí), 批量為64, 共訓(xùn)練60輪. 圖2中Out1使用cluster loss進(jìn)行監(jiān)督訓(xùn)練, Out2使用Softmax loss進(jìn)行監(jiān)督訓(xùn)練. λ設(shè)置為0.07. 前40輪使用Adam優(yōu)化器[24]對(duì)損失函數(shù)進(jìn)行優(yōu)化, 學(xué)習(xí)率設(shè)置為0.001, 后20輪用SGD優(yōu)化器[25]進(jìn)行優(yōu)化, 學(xué)習(xí)率設(shè)置為1×10-4. Adam的優(yōu)點(diǎn)是收斂快速, 而正是因?yàn)樗膬?yōu)點(diǎn)使得算法有可能錯(cuò)過全局最優(yōu)解, 因此在前期使用Adam加快收斂速度, 后期切換到SGD, 慢慢尋找最優(yōu)解. 完成訓(xùn)練后得到一個(gè)預(yù)訓(xùn)練模型, 然后對(duì)預(yù)訓(xùn)練模型進(jìn)行微調(diào). 以RGB圖像作為輸入, 凍結(jié)block1、block2和block3中的所有層, 使用SGD, 學(xué)習(xí)率設(shè)置為1×10-4, 對(duì)剩余層訓(xùn)練40輪, 得到最終模型. 除此之外, 本文分別使用Softmax loss和Softmax loss + center loss對(duì)模型進(jìn)行預(yù)訓(xùn)練, 用來和本文提出的損失函數(shù)進(jìn)行對(duì)比.

3.2 不同算法性能比較以及λ 的選擇

為了評(píng)估有效的評(píng)估cluster loss, 本文在其他因素不變的情況下, 根據(jù)不同的損失函數(shù)先后訓(xùn)練了3個(gè)模型: 1)基于Softmax loss; 2)基于Softmax loss +center loss; 3) Softmax loss + cluster loss. 表1展示了3種算法訓(xùn)練的結(jié)果, 單獨(dú)使用Softmax loss的識(shí)別準(zhǔn)確率為92.06%, 加入center loss之后, 準(zhǔn)確率提升了2.29個(gè)百分點(diǎn), 為94.35%, 使用Softmax loss + cluster loss準(zhǔn)確率為97.13%, 提升了2.78個(gè)百分點(diǎn). 圖5為3種模型在訓(xùn)練過程中的對(duì)比. 單獨(dú)使用Softmax loss收斂最快, 但是準(zhǔn)確率相對(duì)較低. Softmax loss +center loss和Softmax loss + cluster loss在訓(xùn)練過程中局部有準(zhǔn)確率下降的現(xiàn)象, 但是不影響最后結(jié)果.

表1 3種算法訓(xùn)練結(jié)果(%)

圖5 訓(xùn)練過程對(duì)比

超參數(shù)λ 為平衡因子, 用來平衡兩種損失函數(shù), 選擇合適的λ 是非常重要的, 能夠?qū)煞N損失函數(shù)達(dá)到最佳狀態(tài)下的平衡, 提高識(shí)別準(zhǔn)確率. 本文將 λ控制在0–0.1之間, 測試了不同的λ 對(duì)準(zhǔn)確率的影響, 實(shí)驗(yàn)結(jié)果如圖6所示, λ值在一定范圍內(nèi)時(shí), 準(zhǔn)確率波動(dòng)不是很大, 相對(duì)穩(wěn)定. 當(dāng)λ=0.07左右時(shí), 準(zhǔn)確率達(dá)到峰值, 因此本文中λ 選取0.07.

圖6 不同λ 值對(duì)準(zhǔn)確率的影響

3.3 測試

本文論述的是三維人臉識(shí)別, 前期使用未遮擋、沒有光照變化的人臉圖像作為訓(xùn)練集, 因此后期我們需要使用有遮擋、有光照變化的RGB人臉圖像進(jìn)行測試來驗(yàn)證本文提出的三維人臉識(shí)別算法的有效性.我們對(duì)原始數(shù)據(jù)集進(jìn)行了處理, 給人臉加口罩和墨鏡模擬了人臉圖像在真實(shí)條件下的遮擋, 人臉圖像調(diào)暗模擬光線昏暗的情景, 具體算法本文不詳細(xì)論述. 處理后的條件如圖7所示, 分別表示加入口罩、墨鏡和光線變暗之后的圖像. 處理完之后, 使用處理后的數(shù)據(jù)分別測試3種算法生成的模型, 表2展示了測試結(jié)果, 限于篇幅原因, S即為Softmax, 記錄了3種算法中不同條件下的識(shí)別準(zhǔn)確率和平均準(zhǔn)確率, 由表可以看出,3種算法在不同情景下的準(zhǔn)確率相較于使用原始數(shù)據(jù)訓(xùn)練時(shí)都有略微的下降, 這屬于正常現(xiàn)象. 本文算法在3種情景下都取得了最好的結(jié)果, 并且具有很好的魯棒性, 最后平均準(zhǔn)確率高達(dá)96.37%.

圖7 加入遮擋、光線處理后的圖像

表2 3種算法在不同條件下的識(shí)別準(zhǔn)確率比

3.4 過擬合分析

本實(shí)驗(yàn)中, 仍然存在著過擬合現(xiàn)象, 即訓(xùn)練誤差與測試誤差相差較大, 其原因在于數(shù)據(jù)量過小. 在算法中采用了dropout和圖像增強(qiáng)(水平翻轉(zhuǎn)、亮度調(diào)整, 裁剪、添加噪聲)的方法在一定程度上降低了過擬合現(xiàn)象. 圖8展示了使用dropout和圖像增強(qiáng)方法對(duì)過擬合的抑制程度. 由圖可知dropout和圖像增強(qiáng)都對(duì)過擬合有一定的抑制作用, 兩者結(jié)合使用效果非常明顯, 但是使用圖像增強(qiáng)之后, 訓(xùn)練誤差上升了一小部分.

圖8 Dropout和圖像增強(qiáng)方法對(duì)過擬合的抑制程度

3.5 多模態(tài)有效性實(shí)驗(yàn)

為了驗(yàn)證多模態(tài)融合特征在三維人臉識(shí)別任務(wù)中的有效性, 設(shè)計(jì)了3組實(shí)驗(yàn), 分別將融合后的圖像、深度圖和RGB圖像作為輸入, 進(jìn)行訓(xùn)練, 3個(gè)模型除輸入數(shù)據(jù)不一樣之外, 其余均一致. 訓(xùn)練完成之后, 分別用正常人臉圖片、帶遮擋人臉圖片和暗光線環(huán)境下的人臉圖片進(jìn)行測試. 表3記錄了不同測試環(huán)境下的識(shí)別正確率.

表3 多模態(tài)有效性實(shí)驗(yàn)結(jié)果

實(shí)驗(yàn)結(jié)果表明, 使用多模態(tài)融合數(shù)據(jù)訓(xùn)練出的模型比單獨(dú)使用RGB數(shù)據(jù)進(jìn)行訓(xùn)練出的模型, 在正常環(huán)境下測試的準(zhǔn)確率稍低, 但是在遮擋條件下和光線暗淡條件下, 測試準(zhǔn)確率提升非常明顯. 由于灰度圖質(zhì)量比較低, 所含信息較少, 因此單獨(dú)使用灰度圖訓(xùn)練出的模型識(shí)別精度相對(duì)較低. 此實(shí)驗(yàn)結(jié)果可以證明多模態(tài)特征融合的有效性.

4 結(jié)論

二維人臉識(shí)別受光照、遮擋和姿態(tài)的影響較大,們的算法受光照和遮擋的影響非常小, 并且我們提出的損失函數(shù)在測試中較其他兩種取得了最優(yōu)的效果,識(shí)別準(zhǔn)確率達(dá)到了96.37%. 但是本文提出的方法具有一定的局限性, cluster loss需要和Softmax loss聯(lián)合使用, 超參數(shù)λ 的根據(jù)經(jīng)驗(yàn)設(shè)置, 沒有具體的公式來量化.我們僅考慮了閉集測試, 沒有考慮開集測試. 在下一步的工作中, 我們會(huì)繼續(xù)優(yōu)化算法, 并且使用開集測試.而基于高質(zhì)量三維掃描數(shù)據(jù)的人臉識(shí)別計(jì)算量大, 非常復(fù)雜. 針對(duì)這一系列問題, 本文基于RGB圖像和深度圖像, 提出了一種多模態(tài)融合的三維人臉識(shí)別算法.并且針對(duì)人臉數(shù)據(jù)類間相似性較大的問題, 基于巴氏距離的思想, 提出了一種新的損失函數(shù)cluster loss, 用來懲罰類特征中心的相似性, 使得不同類的特征中心盡可能地分離. 之后使用Softmax loss、Softmax loss+center loss、Softmax loss+cluster loss三種算法分別訓(xùn)練了模型進(jìn)行比較, 用來驗(yàn)證我們提出的損失函數(shù)的優(yōu)越性. 我們使用處理過的RGB圖像(模擬真實(shí)情況下口罩和墨鏡對(duì)人臉的遮擋和光線較暗的情景)對(duì)預(yù)訓(xùn)練的模型進(jìn)行微調(diào), 使得模型僅使用RGB圖像作為輸入即可, 并且不受光照和遮擋的影響. 測試表明, 我

猜你喜歡
人臉識(shí)別融合
一次函數(shù)“四融合”
人臉識(shí)別 等
村企黨建聯(lián)建融合共贏
融合菜
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
寬窄融合便攜箱IPFS500
《融合》
揭開人臉識(shí)別的神秘面紗
基于(2D)2PCA-LBP 的人臉識(shí)別方法的研究
電子制作(2017年17期)2017-12-18 06:40:55
人臉識(shí)別在高校安全防范中的應(yīng)用
電子制作(2017年1期)2017-05-17 03:54:46
主站蜘蛛池模板: 2020国产免费久久精品99| 国产精品自在在线午夜区app| 国产无码网站在线观看| 欧美国产日韩在线播放| 99热这里只有免费国产精品 | 亚洲欧洲日韩国产综合在线二区| 欧美亚洲第一页| 丁香婷婷激情网| 国产乱子伦精品视频| 白浆视频在线观看| 高清色本在线www| 四虎永久免费网站| 中国一级特黄视频| 国产SUV精品一区二区| 日韩激情成人| 欧美日韩在线成人| 国产www网站| 亚洲床戏一区| 91国内视频在线观看| 青草视频免费在线观看| 无码精油按摩潮喷在线播放 | 最新痴汉在线无码AV| 国精品91人妻无码一区二区三区| 亚洲三级网站| 精品国产免费第一区二区三区日韩| 国产网友愉拍精品| 亚洲日韩精品综合在线一区二区| 亚洲人在线| 国产精品无码AV片在线观看播放| Jizz国产色系免费| 欧美三级不卡在线观看视频| 国产精品免费电影| 日本久久网站| 亚洲毛片网站| 亚洲中文精品久久久久久不卡| 精品久久久久久成人AV| 久久久久久国产精品mv| 亚洲精品国产综合99| 2024av在线无码中文最新| yjizz视频最新网站在线| 91麻豆精品视频| 国产欧美日韩一区二区视频在线| 国产剧情国内精品原创| 欧美日韩成人| 国产成人8x视频一区二区| 制服丝袜国产精品| 色播五月婷婷| 一边摸一边做爽的视频17国产 | 日韩亚洲综合在线| 97影院午夜在线观看视频| 四虎精品国产永久在线观看| 超级碰免费视频91| 亚洲性视频网站| 欧美亚洲香蕉| 亚洲系列无码专区偷窥无码| 成人免费午夜视频| 国产精品视频猛进猛出| 一级全免费视频播放| 亚洲欧洲一区二区三区| 国产成人三级| 精品国产91爱| 一级成人欧美一区在线观看| 日本道综合一本久久久88| 香蕉视频国产精品人| 成人中文字幕在线| 亚洲精品日产精品乱码不卡| 国产精品亚洲五月天高清| 国产无码精品在线播放| 亚洲综合香蕉| 亚洲精品高清视频| 国产制服丝袜无码视频| 国模视频一区二区| 日本草草视频在线观看| 97亚洲色综久久精品| 97视频在线精品国自产拍| 精品久久高清| 亚洲国产天堂久久综合| 日韩无码白| 久久综合丝袜日本网| 中美日韩在线网免费毛片视频| 日韩无码白| 亚洲欧洲日韩国产综合在线二区|