999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進肌肉模型的三維人臉自適應(yīng)參數(shù)配置

2022-07-12 14:03:38
計算機應(yīng)用與軟件 2022年6期
關(guān)鍵詞:方法模型

周 悅 劉 凱

(四川大學電氣工程學院 四川 成都 610065)

0 引 言

隨著計算機技術(shù)的發(fā)展,逼真的人體建模與動作模擬在動畫、游戲、教育、醫(yī)學研究等領(lǐng)域[1-2]有了普遍的應(yīng)用。在人體行為模擬中,由于真實人臉表情復(fù)雜多變,是情感表達的重要載體,三維表情模擬一直是計算機圖形學領(lǐng)域內(nèi)研究的熱門與難點。

自20世紀70年代初Parke[3]開創(chuàng)式地設(shè)計出第一個可以模擬表情的人臉模型以來,國內(nèi)外專家學者在三維表情合成領(lǐng)域做了大量研究工作,目前存在的方法大致可分為以下四類:(1) 基于關(guān)鍵幀插值的方法[4],通過對表情變化時頂點移動軌跡的計算,只需定義臉部少數(shù)關(guān)鍵幀,即可產(chǎn)生一段簡單表情動畫,但產(chǎn)生的表情真實感較差;(2) 基于參數(shù)的方法[5-6],通過對人臉表面參數(shù)的控制實現(xiàn)表情合成,但控制點多,參數(shù)設(shè)置復(fù)雜;(3) 基于生理模型的方法[7],利用解剖學知識,對真實人臉的骨骼、肌肉、皮膚進行建模,模仿真實表情的形變。這類方法合成的人臉逼真表情豐富,但模型復(fù)雜,在人臉上搭建困難;(4) 基于偽肌肉模型變形的方法[8-9],利用幾何形變模擬人臉肌肉運動,此類方法相比肌肉模型結(jié)構(gòu)簡單,但缺少對表情細節(jié)的模擬。

本文對傳統(tǒng)肌肉模型缺點作出改進,使仿真的表情更具有真實感,并提出一種自適應(yīng)肌肉參數(shù)配置方法,快速獲取特定人臉上各個肌肉的參數(shù)。

1 人臉肌肉模型

1.1 三維人臉數(shù)據(jù)

三維人臉模型是表情合成的基礎(chǔ),經(jīng)過許多研究學者的探索,目前三維人臉模型的來源通常有以下幾種:基于三維建模軟件的方法,最常見的軟件有Maya、3dmax、Rhino等;基于二維照片特征對一般人臉模型形變的方法[10-11];基于激光掃描真實人臉的點云重建方法[12-13]。

在這些方法中,因為二維圖像獲取的門檻低、速度快,本文便基于單幅正面人臉圖片對平均人臉模型變形獲得特定三維人臉模型。

對于一個三維人臉模型,可表示為形狀向量和紋理向量的組合。設(shè)平均人臉模型的形狀向量S和紋理向量T的定義如下:

S=(x1,y1,z1,x2,y2,z2,…,xn,yn,zn)

(1)

T=(R1,G1,B1,R2,G2,B2,…,Rn,Gn,Bn)

(2)

式中:(xi,yi,zi,)是三維網(wǎng)格模型中第i個頂點的三維坐標;(Ri,Gi,Bi,)是第i個頂點的紋理值;n是網(wǎng)格模型中的頂點總數(shù)。用主成分分析法對形狀和紋理向量進行統(tǒng)計剖析,那么特定人臉模型的形狀S′和紋理T′可表示為:

S′=S+λα

(3)

T′=T+τβ

(4)

式中:λ和τ分別是前m個形狀和紋理特征向量組成的特征矩陣;α和β分別是形狀和紋理系數(shù)向量。

因為人臉模型的形狀復(fù)雜,僅考慮剛性形變很難從模板人臉轉(zhuǎn)化為特定人臉,在二維人臉圖像上選取11個特征點作為模型非剛性形變的依據(jù),具體特征點選擇見圖1。

(a) 模板人臉 (b) 輸入人臉圖1 二維圖像人臉特征點

1.2 肌肉模型

抽象肌肉模型是根據(jù)人體解剖學和肌肉力學知識,通過模仿肌肉的收縮或拉伸牽扯網(wǎng)格模型發(fā)生形變,模擬出人臉表情。Waters[14]基于解剖模型,在人臉上劃分出18個肌肉群組作為表情模擬的肌肉向量,并將常用肌肉模型定義為兩大類:一種是括約肌,另一種是線性肌。括約肌控制實現(xiàn)嘴唇部分的變形,其影響范圍可用橢球體表示。線性肌的數(shù)學模型是一個向量,向量的兩端分別代表肌肉附著在相應(yīng)骨骼上的固定端點和肌肉與皮膚組織相連的移動端點。在傳統(tǒng)肌肉模型中,大部分人臉肌肉的運動都是通過線性肌模擬實現(xiàn)的。

(5)

(6)

圖2 線性肌模型[14]

上述數(shù)學模型較好地模擬出了人臉肌肉對于皮膚的牽扯作用,在學術(shù)研究、工程實踐中均有了廣泛的使用。但在實際操作中發(fā)現(xiàn)這種線性肌模型存在不足之處:當受力系數(shù)較大時,形變后的網(wǎng)格會堆積在肌肉固定端,出現(xiàn)尖銳突起現(xiàn)象;而當受力系數(shù)過大時,網(wǎng)格拓撲結(jié)構(gòu)被破壞,人臉模型出現(xiàn)破損,如圖3所示。

(a) 受力系數(shù)為0 (b) 受力系數(shù)為3

(c) 受力系數(shù)為5 (d) 受力系數(shù)為10圖3 受力系數(shù)分別為0、3、5、10時線性肌變形效果

1.3 斥力彈簧

由人體肌肉力學與實際現(xiàn)象可知,肌肉收縮或拉伸造成的皮膚形變在靠近肌肉起點處逐漸緩和,最終在固定點處平滑。為了修復(fù)尖銳突起問題,使合成的表情更接近于真實,本節(jié)對線性肌模型提出改進。

三角面片受到來自肌肉固定端的拉力發(fā)生形變,被控點P受到的拉力為fmp,但同時,根據(jù)生理學知識,肌肉是具有彈性的彈簧模型,皮膚組織在被肌肉牽引的同時,也會承受因肌肉收縮帶來的斥力,基于此原理,本文在線性肌模型靠近骨節(jié)點處加入斥力彈簧模型,對網(wǎng)格被牽引產(chǎn)生的位移進行修正。

設(shè)彈簧的起點為固定端V1,作用半徑為R,位于作用范圍內(nèi)的一網(wǎng)格頂點在松弛狀態(tài)的坐標為Pi,在受到線性肌牽引力移動后的坐標為Pj,那它受到彈簧模型的斥力為:

(7)

式中:Δp=Pj-Pi;k為勁度系數(shù)。對于肌肉彈簧模型作用范圍內(nèi)每一點,勁度系數(shù)并不是一個常量,它與被控點所位于彈簧中的初始位置相關(guān),當網(wǎng)格越接近肌肉固定端,形變改變就越困難,即勁度系數(shù)越大。因此,用非線性函數(shù)(式(8))對勁度系數(shù)進行調(diào)節(jié):

(8)

式中:α是非線性因子;k0為初始勁度系數(shù)。

1.4 邊約束

在近固定端加入斥力彈簧模型后能解決尖銳突起問題,使網(wǎng)格形變在近固定端處變得圓潤平滑,因為斥力彈簧勁度系數(shù)的非線性特性,對于不同的網(wǎng)格產(chǎn)生的斥力不同,當彈簧區(qū)域內(nèi)的網(wǎng)格形變被斥力抵消一部分后,位移修正程度小或不受到斥力修正的網(wǎng)格會重疊甚至穿過修正程度大的網(wǎng)格,造成網(wǎng)格拓撲結(jié)構(gòu)被破壞,這也是傳統(tǒng)線性肌模型需要解決的第二個問題。圖4是三角網(wǎng)格在外力作用下發(fā)生形變的示意圖,三角網(wǎng)格拓撲結(jié)構(gòu)破壞的原因是因為網(wǎng)格頂點與其對邊重疊甚至越過了對邊,如圖4中(c)和(d)兩種情況。

(a) (b)

(c) (d)圖4 三角網(wǎng)格受力形變分析

為了解決該問題,參考皮膚彈性模型[15],對網(wǎng)格模型引入邊約束。邊約束的思想是在三角網(wǎng)格的頂點與其所在三角面片的對邊之間垂線相連建立質(zhì)點彈簧模型,其作用使得節(jié)點始終不能越過對邊網(wǎng)格。

(9)

式中:di為初始狀態(tài)下彈簧pei的長度;β是應(yīng)力強度因子;δ是應(yīng)力尺度因子。

圖5 邊約束模型

在加入兩種改進后的人臉模型中肌肉作用范圍內(nèi)網(wǎng)格頂點除了受到來自線性肌的拉力fmp,還受到斥力彈簧的斥力fR以及周圍網(wǎng)格的邊約束力fers的合力,總受力變?yōu)椋?/p>

(10)

2 自適應(yīng)肌肉參數(shù)

若要實現(xiàn)肌肉模型控制人臉實現(xiàn)表情動畫,需要給三維人臉模型裝配上相應(yīng)肌肉模型的固定端、移動端、起始半徑、終止半徑和控制范圍等參數(shù)。在以往研究中很少有對特定人臉相應(yīng)肌肉參數(shù)特定化的研究,多為手動調(diào)試實現(xiàn)。為了減少手動調(diào)試時間,快速實現(xiàn)肌肉參數(shù)特定化,本節(jié)基于一般人臉與特定人臉的特征映射關(guān)系,提出一種自適應(yīng)肌肉參數(shù)獲取方法。

人臉主要由臉形、眼睛、鼻子、嘴唇等元素組成,一般人臉模型可以看作一張具有所有人臉基本元素但不具備任何明顯特征的人臉,而根據(jù)人臉照片特征點對一般人臉模型形變生成的具有個性特征的人臉模型便是特定人臉模型。一般人臉模型與形變生成的特定人臉模型均具有MPEG- 4定義的人臉通用特征。

參考Waters肌肉模型,在人臉模型上設(shè)置18個線性肌模型用來合成表情,具體分布情況見圖6(a),因為特定人臉模型的形變程度并不是整體均衡分布,通過分析線性肌與MPEG- 4定義的人臉特征點的分布(圖6(b)),將人臉模型劃為6個區(qū)塊(左半張臉劃分見圖6(c)),劃分時盡可能讓功能相同的肌肉模型分布在同一區(qū)塊內(nèi),每個區(qū)塊內(nèi)肌肉模型的參數(shù)便取決于該區(qū)塊的局部形狀分析。

(a) (b) (c)圖6 肌肉模型分布與區(qū)塊劃分

將一般人臉模型的每個肌肉向量的所有參數(shù)設(shè)為pk,特定人臉模型對應(yīng)肌肉參數(shù)為qk,通過分析肌肉向量與人臉特征點的關(guān)系和所在區(qū)塊的形狀特征,得到參數(shù)的映射關(guān)系使pk→qk。

肌肉模型參數(shù)中最為重要的便是肌肉端點位置,它是能擬合真實感人臉表情的基礎(chǔ)。Waters設(shè)置肌肉模型時,參考了真實人臉表情肌分布,由人臉解剖學知識可知[16],肌肉通過收縮牽扯五官和皮膚位置形狀改變產(chǎn)生表情,對于不同的人臉均有著相同的面部表情肌結(jié)構(gòu),且表情肌的分布位置相對其作用區(qū)域的五官特征的位置是大致不變的,如此才可使長相各異的人們產(chǎn)生同樣的表情。但每個區(qū)塊內(nèi)可能有上千個頂點,直接從區(qū)塊內(nèi)根據(jù)特征點相對位置關(guān)系搜尋符合要求的頂點耗時長且誤差大,為了縮小查找范圍,再對區(qū)塊進行細分。對于人臉劃分后的區(qū)塊Si(i=1,2,3,…,6),其寬度w、高度h和深度d分別是所在區(qū)塊內(nèi)頂點坐標在X軸、Y軸和Z軸上最大與最小的差值。因為三維人臉模型是一個由曲面構(gòu)成的模型,對于一般人臉模型和特定人臉模型,都沿著X軸和Y軸方向分別將對應(yīng)區(qū)塊等分為M和N份。對于人臉區(qū)塊中任意網(wǎng)格頂點p,它對應(yīng)的單元塊編號為Vij:

(11)

式中:cx=(Xmax-Xmin)/M;cy=(Ymax-Ymin)/N。

對于肌肉向量的兩個端點,可以通過與其相近的三個人臉特征點的相對位置關(guān)系獲得。設(shè)一般人臉上該肌肉端點V和對應(yīng)的三個相近人臉特征點為A、B和C,特定人臉上對應(yīng)的肌肉端點為V′,對應(yīng)特征點為A′、B′和C′。端點V所在的單元塊編號為Vmn,則在特定人臉該區(qū)塊內(nèi)同樣位置編號的單元塊內(nèi),搜索滿足以下關(guān)系的頂點坐標:

(12)

式中:D(,)是兩點間在曲面上的測地線距離;δ是設(shè)置的閾值。若單元塊內(nèi)滿足位置關(guān)系的頂點不止一個,采用求和均值的方式選定。

(13)

3 實驗結(jié)果與分析

本文實驗研究所用特定人臉模型由二維圖片重建獲得,共獲取45個不同正臉樣本數(shù)據(jù),一般人臉模型使用人臉制作軟件FaceGen Modeller導(dǎo)出,由12 108個三角面片、36 324個頂點組成。實驗采用Intel? CoreTMi7- 8500U 2.0 GHz、16 GB內(nèi)存的PC平臺。

第1節(jié)中針對Waters傳統(tǒng)肌肉模型的缺點提出兩種改進,一是加入斥力彈簧模型,二是在網(wǎng)格模型中加入邊約束。為了驗證本文方法的效果,分別在二維肌肉模型上進行仿真,并與當前方法進行對比。

圖7是同一線性肌模型在相同較大受力系數(shù)情況下二維網(wǎng)格形變效果。文獻[17]通過設(shè)置形變終止半徑來解決尖銳突出的問題。可明顯看出,本文方法與文獻[17]均能解決近固定端的尖銳突出,且均存在網(wǎng)格拓撲結(jié)構(gòu)被破壞的問題。但對比可見,文獻[17]改善后的網(wǎng)格形變在終止半徑處戛然而止,形變過渡突兀,最終形變處不像真實表情皮膚形變一樣圓滑。而本文所提出的斥力彈簧方法改善后的網(wǎng)格形變效果過渡自然,在近固定端逐漸變得圓潤平滑。

(a) 原始線性肌模型

(b) 加入文獻[17]方法

(c) 加入本文斥力彈簧方法圖7 尖銳突起問題改善效果

圖8是同一線性肌模型在相同過大受力系數(shù)情況下二維網(wǎng)格拓撲結(jié)構(gòu)崩潰效果。文獻[18]提出對網(wǎng)格產(chǎn)生的位移進行約束改善拓撲結(jié)構(gòu)被破壞的問題。圖8中改善前后效果對比證明了文獻[18]方法與本文邊約束方法均能解決網(wǎng)格因受力過大而超出肌肉模型控制區(qū)域的問題,但文獻[18]方法改善后在肌肉控制區(qū)域內(nèi)部網(wǎng)格仍然存在頂點與對邊重疊的現(xiàn)象,而本文所提出的邊約束方法改善后肌肉控制區(qū)域內(nèi)部網(wǎng)格間也無重疊現(xiàn)象。

(a) 原始線性肌模型

(b) 加入文獻[18]方法

(c) 加入本文邊約束方法圖8 網(wǎng)格拓撲結(jié)構(gòu)破壞問題改善效果

圖9是在三維人臉模型上以左顴大肌為參考肌肉加入本文所提出的兩種方法改進前后對比結(jié)果,上圖為改進前,下圖為改進后。可以看出,改進后的線性肌模型能明顯避免網(wǎng)格拓撲被破壞,并緩和了固定端處尖銳突出現(xiàn)象。

圖9 改進前后三維人臉肌肉變形效果

圖10 人臉建模和肌肉端點定位

表1 左半張臉肌肉參數(shù)誤差值

經(jīng)過多次測試,本文方法可以大大縮短為三維人臉配置肌肉模型的時間,能在10分鐘至20分鐘內(nèi)完成肌肉模型參數(shù)計算和后續(xù)微調(diào),與當前主流手動添加模型相比,效率明顯提升。特定人臉模型裝配上肌肉模型后,能通過調(diào)整受力系數(shù),模擬出真實表情。

4 結(jié) 語

本文提出一種基于改進肌肉模型的自適應(yīng)參數(shù)獲取方法。針對傳統(tǒng)肌肉模型的缺點,對線性肌提出兩點改進,一是在肌肉模型中加入斥力彈簧模型;二是對網(wǎng)格進行邊約束。經(jīng)過實驗發(fā)現(xiàn)改進效果好,杜絕了網(wǎng)格拓撲受損壞的問題。自適應(yīng)肌肉參數(shù)通過特定人臉與一般人臉的映射關(guān)系獲得,顯著提升了為三維人臉配置肌肉模型的效率,減少了表情合成所需時間。

但是本文的研究均基于線性肌,對于控制眼睛和嘴巴開閉的括約肌模型沒有研究,下一步將在人臉模型中加入括約肌,并研究其自適應(yīng)參數(shù)算法。

猜你喜歡
方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
學習方法
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 日本亚洲最大的色成网站www| 国产91透明丝袜美腿在线| 三级毛片在线播放| 欧美成人看片一区二区三区 | 日韩国产一区二区三区无码| 精品欧美一区二区三区在线| 国产第四页| 一本大道无码高清| 免费人成视网站在线不卡 | 成人中文在线| 综合天天色| 欧美自拍另类欧美综合图区| 国产精品永久在线| 黄色网址免费在线| 中文字幕一区二区视频| 久久久久免费看成人影片| 色欲色欲久久综合网| 久久人人爽人人爽人人片aV东京热 | 亚洲人成人伊人成综合网无码| 在线中文字幕网| 久久伊人操| 伊人久久久大香线蕉综合直播| 国产成人精品高清不卡在线| 九色国产在线| 久久亚洲高清国产| 国产在线无码av完整版在线观看| 98超碰在线观看| 亚洲高清无码久久久| 色爽网免费视频| 综合色在线| 欧美性色综合网| a毛片在线播放| 97影院午夜在线观看视频| 欲色天天综合网| 国产激情无码一区二区APP| 亚洲国产理论片在线播放| 亚洲精品色AV无码看| 青青草综合网| 久久人与动人物A级毛片| 992tv国产人成在线观看| 一本大道无码高清| 亚洲国产精品VA在线看黑人| 国产精品嫩草影院视频| 久草青青在线视频| 精品人妻系列无码专区久久| 国产高颜值露脸在线观看| 欧洲亚洲欧美国产日本高清| 黄色国产在线| 亚洲一道AV无码午夜福利| 日本不卡免费高清视频| 国产日本欧美亚洲精品视| 色九九视频| 国产在线精品美女观看| 制服丝袜 91视频| 91精品亚洲| 99视频全部免费| 欧美在线导航| 国产精品无码制服丝袜| 国产成人久久综合777777麻豆| 噜噜噜久久| 青青草一区二区免费精品| 日韩中文字幕亚洲无线码| 亚洲—日韩aV在线| 国内精品久久久久鸭| 国产精品yjizz视频网一二区| 尤物精品国产福利网站| 国产精品永久免费嫩草研究院| 久久久久国产一区二区| 国产jizzjizz视频| 99在线观看国产| 色首页AV在线| 99在线视频精品| 久久99精品久久久大学生| 国产成人无码Av在线播放无广告| 久久人人97超碰人人澡爱香蕉| 亚洲AV电影不卡在线观看| 亚洲国产精品无码久久一线| 婷婷综合缴情亚洲五月伊| 成人无码区免费视频网站蜜臀| 喷潮白浆直流在线播放| 成年看免费观看视频拍拍| 在线播放国产99re|