鄧釋天

摘要:通過對(duì)人臉識(shí)別以及3D重建技術(shù)的研究,實(shí)現(xiàn)虛擬角色的人臉識(shí)別和表情識(shí)別等AI特質(zhì),并根據(jù)識(shí)別的特征信息連接3D毛發(fā)和身體形體、配飾等,即完成真正的人臉識(shí)別與3D重建,同時(shí)具有實(shí)時(shí)交互功能。
關(guān)鍵詞:VR;人臉識(shí)別;3D重建
中圖分類號(hào):TP391.4 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1007-9416(2018)07-0122-02
1 引言
雖然近年來(lái),人臉識(shí)別取得了長(zhǎng)足的進(jìn)步,但是仍受到一些因素的制約,通過對(duì)人臉識(shí)別以及3D重建技術(shù)的研究可知,人臉識(shí)別算法是模式識(shí)別和計(jì)算機(jī)視覺領(lǐng)域一個(gè)重要的研究?jī)?nèi)容[1-2]。2014年Kzaemi[3]等人提出了一個(gè)用于學(xué)習(xí)整體回歸樹的通用框架,這個(gè)框架優(yōu)化了平方誤差損失的和,并且自然的處理丟失或部分標(biāo)記的數(shù)據(jù)。可以直接從像素強(qiáng)度的稀疏子集估計(jì)得人臉的標(biāo)記點(diǎn)位置。采用標(biāo)準(zhǔn)數(shù)據(jù)即可訓(xùn)練參數(shù),并且計(jì)算速度非常快。2010年Beeler[4]提出了一種用于捕獲毛孔尺度幾何圖形的標(biāo)準(zhǔn)立體重建方法(modinement),它使用一種定性的方法來(lái)產(chǎn)生視覺逼真的結(jié)果。同時(shí)提出了一種適合于面部捕捉系統(tǒng)的校準(zhǔn)方法。
本文使用手機(jī)前置鏡頭拍攝正臉和側(cè)臉照片,根據(jù)陀螺儀角度和面部形體解剖特點(diǎn)測(cè)算3維立體空間的頂點(diǎn)信息,并把頂點(diǎn)信息通過智能判定轉(zhuǎn)為多邊形模型信息,最后根據(jù)多邊形模型特征推算出人臉結(jié)構(gòu)特征,并賦予人工智能信息,實(shí)現(xiàn)虛擬角色的人臉識(shí)別和表情識(shí)別等AI特質(zhì)。
2 算法的預(yù)處理和初始化
通過對(duì)人臉識(shí)別以及3D重建技術(shù)的研究,提出了動(dòng)態(tài)提取特征的方法[5-6]用于提取不同角度下的人臉特征。算法流程圖如圖1所示。
3 人臉3D重建
記為一個(gè)向量為3D人臉的位置信息:
4 動(dòng)態(tài)特征提取
本文將人臉區(qū)域在垂直方向切為個(gè)塊,對(duì)于每個(gè)塊,分別有一個(gè)相應(yīng)地特征權(quán)值()。對(duì)于偏航角(yaw angle)的人臉,我們這樣設(shè)置權(quán)值:
動(dòng)態(tài)特征提取參數(shù)的選取,當(dāng)偏航角yaw angle 分別為-30°和30°下的動(dòng)態(tài)特征選取示例如圖2所示,對(duì)于俯仰角(pitch angle)與上類似。
5 結(jié)語(yǔ)
本文提出了一種高效自動(dòng)的基于不同角度的人臉識(shí)別系統(tǒng),通過對(duì)人臉識(shí)別以及3D重建技術(shù)的研究,實(shí)現(xiàn)虛擬角色的人臉識(shí)別和表情識(shí)別等AI特質(zhì)。最后根據(jù)識(shí)別的特征信息連接3D毛發(fā)和身體形體、配飾等,即完成真正的人臉識(shí)別與3D重建,與此同時(shí),具有實(shí)時(shí)交互功能。
參考文獻(xiàn)
[1]T. Berg and P. N. Belhumeur, "Tom-vs-Pete Classifiers and Identity-Preserving Alignment for Face Verification," In Proceedings of the British Machine Vision Conference (BMVC), 2012.
[2]A. Asthana, T. K. Marks, M. J. Jones, K. H. Tieu, and M. Rohith, "Fully automatic pose-invariant face recognition via 3D pose normalization," In Proceedings of International Conference on Computer Vision (ICCV), pp. 937-944, 2011.