999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

引入標(biāo)記分布的人臉表情圖像生成

2021-07-03 03:52:14楊靜波趙啟軍呂澤均
現(xiàn)代計(jì)算機(jī) 2021年12期
關(guān)鍵詞:數(shù)據(jù)庫(kù)情感模型

楊靜波,趙啟軍,呂澤均

(四川大學(xué)計(jì)算機(jī)學(xué)院,成都610065)

0 引言

人臉表情是人的情感最直接的表現(xiàn)形式之一,由于數(shù)字媒體等技術(shù)的需要如今有越來(lái)越多針對(duì)人臉表情的研究,如人臉表情識(shí)別[1-2]與人臉表情遷移[3-4]等。而隨著深度學(xué)習(xí)的發(fā)展,人臉表情識(shí)別方法與人臉表情遷移方法的效果都有明顯提升。但深度學(xué)習(xí)方法往往需要大量訓(xùn)練數(shù)據(jù),現(xiàn)有人臉數(shù)據(jù)庫(kù)的數(shù)據(jù)量往往有限、數(shù)據(jù)質(zhì)量參差不齊,且大多數(shù)針對(duì)傳統(tǒng)六種基本表情。

得益于生成對(duì)抗網(wǎng)絡(luò)[5]的提出,許多基于生成對(duì)抗網(wǎng)絡(luò)的人臉表情生成方法被驗(yàn)證。但現(xiàn)有的人臉表情生成方法往往更關(guān)注于傳統(tǒng)六種基本表情,忽略了表情的豐富性。于是,本文提出引入標(biāo)記分布[6]的人臉表情圖像生成方法,用有限訓(xùn)練數(shù)據(jù)獲得更豐富的表情數(shù)據(jù),最終生成高質(zhì)量的人臉表情圖像,對(duì)人臉表情數(shù)據(jù)庫(kù)進(jìn)行擴(kuò)充。該方法基于生成對(duì)抗網(wǎng)絡(luò),使用Arousal-Valence 維度情感模型劃分表情類別以表示更豐富的表情,同時(shí)引入標(biāo)記分布彌補(bǔ)數(shù)據(jù)量的缺失,并在Oulu-CASIA 數(shù)據(jù)庫(kù)和OSU 數(shù)據(jù)庫(kù)上進(jìn)行了驗(yàn)證。

1 相關(guān)工作

1.1 Arousal-Valence維度情感模型

量化面部情感行為的模型一般分為3 類[7]:①分類模型:從情感相關(guān)類別中選取代表性的情感分類,如Ekman[8]提出的六種基本表情:高興、厭惡、驚訝、悲傷、憤怒和恐懼;②維度模型:在連續(xù)的情感區(qū)域內(nèi)選擇一個(gè)值來(lái)代表情緒;③面部動(dòng)作編碼系統(tǒng)模型:所有的面部動(dòng)作都由動(dòng)作單元表示。

Arousal-Valence 維度情感模型是,從Arousal 和Valence 兩個(gè)維度描述情感。其中Arousal 代表激活度,取值從-1 到1 代表情感從平靜到激動(dòng)。Valence 代表愉悅度,取值從-1 到1 代表情感從消極到積極[9]。本文方法將兩個(gè)維度各劃分21 類,共21×21 個(gè)表情粒度。

1.2 生成對(duì)抗網(wǎng)絡(luò)

生成對(duì)抗網(wǎng)絡(luò)[5]是十分典型和有效的生成模型之一,由生成器和判別器兩部分組成,生成器生成“假”圖像,判別器用以判別“真”和“假”圖像,通過(guò)生成器和判別器的博弈最終生成高質(zhì)量的圖像。其中一個(gè)代表是條件生成對(duì)抗網(wǎng)絡(luò)[10],引入條件信息控制圖像生成:

其中G表示生成器,D表示判別器,x表示真實(shí)數(shù)據(jù),z表示隨機(jī)噪聲,y表示條件。

1.3 人臉表情圖像生成

人臉表情圖像生成是很有挑戰(zhàn)性的圖像生成任務(wù)之一,人臉圖像復(fù)雜,人的表情更是多樣。近年來(lái)基于生成對(duì)抗網(wǎng)絡(luò)的人臉表情圖像生成方法不斷被提出改進(jìn),如G2-GAN[11]使用人臉特征點(diǎn)作為幾何先驗(yàn)控制表情的生成,ExprGAN[12]提出了表情強(qiáng)度控制模塊,這兩者均基于傳統(tǒng)基本表情對(duì)表情進(jìn)行劃分生成。AttGAN[13]對(duì)人臉多種屬性進(jìn)行編輯,改進(jìn)的CAAE[16]和本文一樣基于維度情感模型,但其訓(xùn)練數(shù)據(jù)量較大。Cascade EF-GAN[15]提出局部關(guān)注和級(jí)聯(lián)生成的思想,其基于表情動(dòng)作單元對(duì)表情進(jìn)行劃分,但網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜。

本文提出的引入標(biāo)記分布的人臉表情圖像生成方法,則是在ExprGAN[12]的基礎(chǔ)上,引入標(biāo)記分布,使用較輕量級(jí)的生成對(duì)抗網(wǎng)絡(luò),在較少的訓(xùn)練數(shù)據(jù)下生成高質(zhì)量人臉表情圖像。

2 算法實(shí)現(xiàn)

2.1 標(biāo)記分布

在訓(xùn)練數(shù)據(jù)量充足的情況下,訓(xùn)練階段使用的標(biāo)簽往往是獨(dú)熱標(biāo)簽,即一個(gè)訓(xùn)練數(shù)據(jù)對(duì)應(yīng)一個(gè)類別標(biāo)簽。但本文中為了在訓(xùn)練數(shù)據(jù)有限的情況下獲得訓(xùn)練數(shù)據(jù)提供的更多信息,利用標(biāo)記分布學(xué)習(xí)與標(biāo)記增強(qiáng)[6],將代表一個(gè)類別維度表情標(biāo)簽轉(zhuǎn)化為服從高斯分布的分布式形式,為缺少訓(xùn)練數(shù)據(jù)類別也提供部分信息。標(biāo)簽處理偽代碼如下:

輸入:維度情感模型標(biāo)簽(V,A),V、A∈[-1,1],保留小數(shù)點(diǎn)后一位

輸出:訓(xùn)練使用的42 位表情標(biāo)簽y

2.2 網(wǎng)絡(luò)結(jié)構(gòu)

網(wǎng)絡(luò)的輸入為R128×128×3的人臉表情圖像和R42的表情標(biāo)簽,輸出生成的R128×128×3人臉表情圖像,是一個(gè)端到端的過(guò)程。網(wǎng)絡(luò)結(jié)構(gòu)為條件生成對(duì)抗網(wǎng)絡(luò),分為生成器與判別器,同時(shí)引入人臉識(shí)別模型對(duì)生成人臉表情圖像的身份進(jìn)行控制。其中生成器由編碼器和解碼器兩部分組成,判別器與表情識(shí)別模塊共享部分權(quán)重。

圖1 網(wǎng)絡(luò)結(jié)構(gòu)

2.3 生成器

生成器由編碼器和解碼器組成。編碼器輸入為原始輸入圖像x,輸出為低維特征z。低維特征z∈R50,與表情標(biāo)簽y有相同維度。將z與y拼接在一起作為解碼器的輸入,使解碼生成的圖像具有表情標(biāo)簽y提供的表情信息。為保證圖像生成質(zhì)量,本文通過(guò)最小化輸入人臉表情圖像x與生成人臉表情xg之間的L1 距離控制生成圖像與輸入圖像的差別:

2.4 判別器

本文使用傳統(tǒng)的條件生成對(duì)抗網(wǎng)絡(luò)損失函數(shù)來(lái)對(duì)生成圖像進(jìn)行約束,判別器的輸入為原始輸入圖像x與生成圖像xg,對(duì)抗損失函數(shù)表示為:

其中P表示數(shù)據(jù)分布。

2.5 人臉識(shí)別模塊

為了保持x與xg之間的人臉同一性,本文參考Ex?prGAN[12]引入一個(gè)預(yù)先訓(xùn)練好的人臉識(shí)別模型VGG Face[16]來(lái)增強(qiáng)人臉身份特征層的相似性:

其中fj是人臉識(shí)別網(wǎng)絡(luò)第j層卷積層的特征映射,ρj為對(duì)應(yīng)權(quán)值。

2.6 表情判別器

表情判別模塊與判別器共享權(quán)重,實(shí)質(zhì)是一個(gè)人臉表情識(shí)別網(wǎng)絡(luò)。由于本文表情標(biāo)簽的特殊性,其不同于常見(jiàn)的人臉表情識(shí)別網(wǎng)絡(luò)是分類模型,而是一個(gè)回歸模型。其輸入為原始輸入圖像x和生成圖像xg,分別輸出yx與yg,本文通過(guò)最小化輸入yx與yg之間的L2 距離控制生成圖像與輸入圖像的表情:

3 實(shí)驗(yàn)與分析

3.1 數(shù)據(jù)庫(kù)

本文方法在Oulu-CASIA 數(shù)據(jù)庫(kù)[17]與CFEED 數(shù)據(jù)庫(kù)[18]上進(jìn)行驗(yàn)證,兩數(shù)據(jù)庫(kù)數(shù)據(jù)均不為Arousal-Va?lence 維度情感模型標(biāo)識(shí)數(shù)據(jù)。Oulu-CASIA 數(shù)據(jù)庫(kù)數(shù)據(jù)為包含80 名采集者6 種基本情緒的三種不同光照條件下的表情視頻圖像序列,本文選取正常光照條件下的視頻圖像對(duì)所有幀的圖像數(shù)據(jù)進(jìn)行重新人工標(biāo)注,并采用2.1 小節(jié)方法對(duì)標(biāo)簽進(jìn)行處理。同樣,對(duì)CFEED 數(shù)據(jù)庫(kù)中包含230 名采集者正常光照下通過(guò)面部表情動(dòng)作單元標(biāo)注的表情圖像數(shù)據(jù),做相同標(biāo)注處理。最終獲得15407 張數(shù)據(jù),15000 作為訓(xùn)練數(shù)據(jù),其余作為測(cè)試。

本文使用MTCNN[19]對(duì)所有數(shù)據(jù)進(jìn)行人臉檢測(cè)和對(duì)齊,并將人臉區(qū)域裁剪縮放為128×128 大小的圖像。

3.2 實(shí)現(xiàn)細(xì)節(jié)

本文主體為條件生成對(duì)抗網(wǎng)絡(luò),生成器由編碼器和解碼器構(gòu)成,編碼器在VGG 網(wǎng)絡(luò)的基礎(chǔ)上加入輸出維度50 的全連接層,共五層卷積層和四層全連接層。解碼器包含一個(gè)全連接層和七個(gè)反卷積層。判別器則由四個(gè)卷積層和兩個(gè)全連接層組成。表情判別器模塊則在判別器的基礎(chǔ)上加入四層全連接層,與判別器共享權(quán)重。總損失函數(shù)

其中l(wèi)1=l3=l3=1、l2=0.1。

訓(xùn)練使用TensorFlow 深度學(xué)習(xí)框架,使用Adam優(yōu)化器進(jìn)行優(yōu)化。由于訓(xùn)練數(shù)據(jù)有限,對(duì)全局訓(xùn)練造成困難,本文采用兩階段增量訓(xùn)練,第一階段僅訓(xùn)練解碼器于判別器,損失函數(shù)為:

ρ1=1,ρ2=0.01。第二階段加入所有部分,使用總損失函數(shù)Ltotal進(jìn)行訓(xùn)練。

3.3 生成效果

為達(dá)到數(shù)據(jù)擴(kuò)充的目的,可使用本文方法對(duì)數(shù)據(jù)庫(kù)數(shù)據(jù)進(jìn)行數(shù)據(jù)擴(kuò)充。首先可對(duì)數(shù)據(jù)庫(kù)以采集身份信息數(shù)據(jù)進(jìn)行表情豐富性的擴(kuò)充,如圖2 所示為部分生成效果,針對(duì)輸入人臉,賦予不同的表情標(biāo)簽,可獲得表情更多樣的人臉表情數(shù)據(jù)。

圖2 輸入人臉表情圖像生成效果

其次,可僅使用解碼器對(duì)隨機(jī)噪聲進(jìn)行圖像生成,獲得不同身份信息的人臉表情圖像生成,如圖3 所示。網(wǎng)絡(luò)結(jié)構(gòu)中低維特征z使用服從均勻分布的隨機(jī)噪聲,提供不同于數(shù)據(jù)庫(kù)數(shù)據(jù)的身份信息與圖像信息,與表情標(biāo)簽拼接后作為解碼器的輸入,獲得更多身份信息的人臉表情圖像。

圖3 輸入隨機(jī)噪聲生成效果

可以看出,以數(shù)據(jù)庫(kù)原有圖像作為輸入,可以在保留身份信息的前提下獲得更豐富的表情圖像。以隨機(jī)噪聲作為輸入,可以生成新的身份信息的多種表情圖像。可以看出圖3 第三行生成的CFEED 數(shù)據(jù)庫(kù)圖像風(fēng)格數(shù)據(jù)視覺(jué)效果略差,考慮是因?yàn)镃FEED 訓(xùn)練數(shù)據(jù)僅為Oulu-CASIA 數(shù)據(jù)庫(kù)數(shù)據(jù)的1/2。

3.4 圖像質(zhì)量評(píng)估

針對(duì)生成圖像,使用PSNR 在Oulu-CASIA 數(shù)據(jù)集上對(duì)圖像質(zhì)量進(jìn)行評(píng)估,PSNR 為峰值信噪比,常用來(lái)對(duì)圖像質(zhì)量進(jìn)行評(píng)估,其數(shù)值越大代表生成圖像質(zhì)量越高。本文與ExprGAN 方法[12]進(jìn)行對(duì)比,可以看出本文生成圖像質(zhì)量略高。

表1 AV-GAN 方法數(shù)據(jù)分布

4 結(jié)語(yǔ)

為對(duì)人臉表情圖像數(shù)據(jù)進(jìn)行擴(kuò)充,本文提出了可在小規(guī)模數(shù)據(jù)集上運(yùn)用標(biāo)記分布進(jìn)行人臉表情圖像生成方法。在Oulu-CASIA 數(shù)據(jù)庫(kù)與CFEED 數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)結(jié)果表明,使用本文方法可以生成較高質(zhì)量的人臉表情圖像。

猜你喜歡
數(shù)據(jù)庫(kù)情感模型
一半模型
如何在情感中自我成長(zhǎng),保持獨(dú)立
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
失落的情感
北極光(2019年12期)2020-01-18 06:22:10
情感
如何在情感中自我成長(zhǎng),保持獨(dú)立
數(shù)據(jù)庫(kù)
3D打印中的模型分割與打包
數(shù)據(jù)庫(kù)
主站蜘蛛池模板: 欧美精品一区在线看| 97se亚洲综合不卡| 波多野结衣爽到高潮漏水大喷| 免费三A级毛片视频| 欧美一区二区三区不卡免费| 丁香亚洲综合五月天婷婷| 永久毛片在线播| 免费国产高清视频| 欧美区在线播放| 亚洲熟女中文字幕男人总站| 亚洲一区二区三区中文字幕5566| 欧美精品另类| 在线播放真实国产乱子伦| 亚洲AV无码不卡无码 | 亚洲国语自产一区第二页| 另类欧美日韩| 国产成人福利在线| 91在线免费公开视频| 国产亚洲一区二区三区在线| 亚亚洲乱码一二三四区| 亚洲国产欧美国产综合久久 | 毛片基地视频| 人妻精品久久无码区| 日韩av无码精品专区| 亚洲精品自在线拍| 中文字幕在线不卡视频| 毛片久久久| 色婷婷电影网| 亚洲黄色网站视频| 久久一色本道亚洲| 久久久久九九精品影院| 欧洲欧美人成免费全部视频| 国产白浆一区二区三区视频在线| 亚洲欧美成人在线视频| 国产精女同一区二区三区久| 婷婷丁香色| 99在线国产| 欧美精品v欧洲精品| 国产精品无码一区二区桃花视频| 黄色网在线| 91破解版在线亚洲| 天堂岛国av无码免费无禁网站| 2021亚洲精品不卡a| 精品无码国产自产野外拍在线| 午夜视频www| 国产欧美精品专区一区二区| 午夜限制老子影院888| 97亚洲色综久久精品| 91精选国产大片| 国产鲁鲁视频在线观看| 五月婷婷综合网| 丰满人妻久久中文字幕| 成人在线亚洲| 欧美精品啪啪| 欧美一区二区自偷自拍视频| 少妇精品网站| 福利片91| 亚洲国产精品日韩av专区| 9久久伊人精品综合| 国产a v无码专区亚洲av| 日本人妻一区二区三区不卡影院| 婷婷综合色| 区国产精品搜索视频| 综合久久久久久久综合网| 日韩毛片视频| 美女被躁出白浆视频播放| 亚洲一区色| 国内熟女少妇一线天| 黑人巨大精品欧美一区二区区| 中文国产成人精品久久一| 色悠久久久久久久综合网伊人| 国产美女主播一级成人毛片| 91口爆吞精国产对白第三集| 91啪在线| 亚洲国产日韩在线成人蜜芽| 亚洲成年人网| 欧美a级完整在线观看| 欧美在线导航| 国产日韩欧美黄色片免费观看| a色毛片免费视频| 亚洲一区二区三区麻豆| 91青青草视频在线观看的|