999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

計算機人臉表情動畫技術綜述

2008-12-31 00:00:00姚俊峰
計算機應用研究 2008年11期

(廈門大學 軟件學院,福建 廈門 361005)

摘要:真實感的計算機人臉表情動畫是計算機圖形學領域最基本的問題之一。由于其具有廣闊的應用前景,引起了越來越多的研究者的關注與極大的興趣。針對近幾十年來該領域的發展狀況,對計算機人臉表情動畫技術進行綜述。通過將人臉表情動畫技術分為基于幾何學的方法和基于圖像的方法,詳細闡述并比較了相關的研究成果,分析和討論了它們的優缺點,并對人臉表情動畫技術的未來發展進行了展望。

關鍵詞:人臉表情動畫; 基于幾何學的方法; 基于圖像的方法

中圖分類號:TP3919文獻標志碼:A

文章編號:1001-3695(2008)11-3233-05

Survey on computer facial expression animation technology

YAO Jun-feng, CHEN Qi

(School of Software, Xiamen University, Xiamen Fujian 361005, China)

Abstract:Realistic computer facial expression animation is one of the most important issues in computer graphics field. Because of its broad application prospects, it attracts widespread concerns and great interest for a growing number of researchers. Based on development in this field in recent decades, the article reviewed computer facial expression animation technologies. This paper classified the facial expression animation technologies into geometry-based methods and image-based methods. It elaborated and compared the relative research results in facial expression animation field, analyzed and discussed their advantages and disadvantages. At last, it provided some perspectives on what the future may have in facial expression animation field.

Key words:facial expression animation; geometry-based methods; image-based methods

0引言

人臉建模與動畫技術包括人臉的建模技術以及模擬真實人臉的動畫技術,而真實感的計算機人臉動畫是計算機圖形學研究領域最基本的問題之一;同時,由于人臉的生理結構十分復雜以及人們對人臉的細節變化十分敏感,它也就成為了最困難和最具挑戰性的問題之一。

Noh等人[1]總結了研究人臉建模與動畫的最終目標是:建立具有高度真實感的動畫,能夠實時運行,盡可能自動化以及自適應的人臉建模與動畫系統。

由于計算機人臉動畫有著廣泛的應用領域,它引起了越來越多的學者的極大興趣。電影和計算機游戲等娛樂行業是計算機人臉動畫的主要推動力量,它不僅可以用來制作虛擬現實環境中的各種虛擬人物,還可應用于虛擬主持人、可視電話、遠程網絡會議等多媒體的制作和傳輸;另外,它還可以應用于科學可視化的領域,如醫學輔助治療、醫學美容、法庭輔助辨認分析等;它在人機交互等日益增長的信息通信技術領域也有著很好的應用前景。

本文主要總結了目前已經使用過的技術以及在已有研究的基礎上對人臉動畫領域的未來趨勢作了預測。

1人臉表情動畫方法的分類與關鍵研究成果

計算機人臉表情動畫方法可以分成兩類:基于幾何學的方法和基于圖像的方法[1,2]。基于幾何學的方法是指由頂點組成多邊形并展示其表面的三維模型的處理;基于圖像的方法是指從一張二維圖像或照片變換到另一張二維圖像或照片進而得到想要的動畫效果。基于幾何學的方法包括關鍵幀插值法、參數化方法、基于偽肌肉變形的方法以及基于肌肉的方法;基于圖像的方法包括Morphing方法[3]、表演驅動方法[4]和表情編碼系統。

人臉建模及動畫與人臉表情的合成是相對應的[2,5]。人臉動畫得益于而又先于普通人體動畫。在基于肌肉的建模與動畫中,普通人體動畫與人臉動畫有許多相似的研究問題,如肌肉和軟組織的變形等,包括有限元方法和質點—彈簧模型方法[6,7];然而人臉動畫與人體動畫也有許多不同的地方,如參與人臉表情的肌肉數量更多、軟組織變形要求更強的真實感、人的頭部具有多自由度。基于圖像的變形技術是主要的人臉動畫技術,而不經常用于普通人體動畫。

11基于幾何學的方法

111關鍵幀插值法

關鍵幀插值法是最簡單也是最常用的方法。它指的是在三維空間中獲取空間頂點并將它從一個位置移動到另一個特定的位置,計算機計算這兩點之間的所有點,然后將該點沿計算得到點的軌跡運動。如果該頂點是多邊形的一部分,觀察者將產生表面變形的幻覺。

人臉表情動畫可以采用對關鍵幀的多種插值方式。一個新的人臉表情不但可以通過插值兩個關鍵位置生成,而且可以對四個關鍵位置插值生成(雙線性插值),或插值八個關鍵幀(三線性插值)來生成。插值算法可以是線性的、非線性的或混合的。在插值時,虛擬人臉模型可以是具有固定的拓撲結構,也可以是具有變化的拓撲結構:當拓撲結構相同時,可以直接對曲面頂點或控制點進行插值;當拓撲結構不同時,可以先將各關鍵幀中的人臉模型轉換為拓撲結構相同的模型,再進行插值。

Parke[8]最早在計算機人臉動畫領域使用此方法,他定義了大約400個頂點,由這些頂點構成250個多邊形;然后由這些多邊形組成多邊形表面,通過利用余弦插值方法來產生不同表情的中間幀,進而產生動畫序列來模擬人臉表情變化。這些初始的表情幀是通過多幅照片得到的。該方法通過較少的多邊形描述人臉表面,以使得邊和點與動畫需求相一致,在當時可以容易地獲得每一關鍵幀的數據;而隨著真實感要求的提高,頂點數量以數量級增長,模型復雜度增大,獲得每一關鍵幀數據將是行不通的。

插值方法的優點是迅速、操作直觀,只需定義少數關鍵幀即可產生一段基本臉部動畫。其缺點是:a)它不能在大范圍內創建各種真實感的人臉形狀;b)不適宜不同人臉的組合;c)不是基于解剖學原理的。

112參數化方法

Parke[9]提出一個稱為直接參數化的方法。該方法仍然用多邊形描述人臉表面,但用更少的參數來描述運動變化。用戶可以通過改變這些參數的值直接、方便地創建各種人臉的形狀和表情。這些參數包括:a)形狀參數。用于控制個性人臉的形狀,包括人臉的大小、形狀、人臉各個特征的相對位置以及控制人臉全局特征的參數,如高度、寬度比等。b)表情參數。用來控制表情,如眼睛區域的表情參數包括眼簾睜開、瞳孔的大小、眉毛的形狀和位置等。該方法是基于經驗描述虛擬的人臉特征,不考慮各個區域之間低層次的連接關系,不但可生成一個特定臉的表情,而且支持多個人臉之間的轉變。

Dipola擴展了Parke的模型,使得人臉滿足非對稱性和較大范圍的臉的類型。該模型具有全局的、局部的壓扁、拉伸和更多的表情參數。Cohen等人[10]增加了唇和舌頭的參數、圖像紋理映射參數、膚色變換參數等。Pearance等人[11]將語音的音素也作為參數映射到原始參數模型上,它是最小的語言理解和處理的原型。

參數化方法有如下優點:a)克服了簡單插值法的一些限制,它通過選取一組獨立的參數值來定義人臉表情;b)有別于插值技術,參數化方法能對特殊的人臉形狀進行精確控制;c)通過參數的組合,只需少量計算就能提供較大范圍的臉部表情。同時它也具有如下缺點:a)無法對受壓力下的人臉皮膚進行變形;b)當兩個參數施加于同一頂點時,將產生參數沖突,從而使產生的人臉表情失去真實感,對此,人們曾試圖加以改進,如只在臉部特定區域使用參數化方法,但這樣又會在臉部畫面形成運動邊界;c)對基于人臉網格的拓撲選擇參數集進行完全參數化是不可能的,而且由于設置參數值時涉及大量的手工調節,可能導致不真實的運動或形狀。

113基于偽肌肉變形的方法

基于偽肌肉變形的方法比以上兩種方法計算更加精確。它利用基于幾何學的變形方法模擬肌肉運動,如自由變形(free-form deformation,FFD)[12]和有理自由變形[13,14]等。

FFD最早由Sederberg等人[12]在1986年提出,它通過控制點的操作對具有一定體積的物體進行變形。該方法由以下四個步驟組成:a)構造一個足夠大的三參數自由體(如張量積NURBS體);b)將欲變形的物體嵌入到自由體中,變形物上各點都可以對自由體進行反求參數;c)改變自由體控制頂點;d)對變形物上各點,由參數按得到的新控制頂點計算該點變形后的新位置,得到新的變形體。

Sederberg等人[12]最初引入的是基于三變量B樣條的變形工具Lattice,其形狀為平行六面體,這在一定程度上限制了它的運用。Coquillart[15]消除了非平行六面體Lattice的限制,提出拓廣的自由變形(EFFD),初始的Lattice只允許棱柱和圓柱這些形狀,因而增加了FFD的適用范圍。

FFD方法具有如下優點:a)將變形控制的形式從對實際曲面描述轉移到不再依賴于曲面本身的形式,既能用于任何形式的曲面(如平面、二次曲面、參數曲面等),又能用于實體造型,而且不受表示模式的制約;b)它既能對原始曲面進行局部變形,又能進行全局變形,而且參數曲面經變形后仍然是參數曲面。同時,它在應用上也存在一些限制:a)計算量大,當被變形曲面的控制頂點多時速度慢;b)只能在對變形后的物體尺寸沒有嚴格要求的情況下使用。

有理自由變形(RFFD)則對每一個控制點增加了一個權重因子,從而在變形時新增了一個自由度,即可以通過改變權重因子而不是改變控制點的位置進行變形。當所有的權重因子都為1時,RFFD就變成了FFD。

有理自由變形相對關鍵幀插值法和直接參數化方法來說會得到更好的結果,但是忽視了皮膚表面的細節變化,如皺眉等;該方法只對人臉皮膚表面的肌肉運動效果進行模擬,無法模擬真實的肌肉,因此,無法保證皮膚的變形與它們的運動相一致。

114基于肌肉的方法

Platt等人[16]最早研究基于肌肉的模型。在他們的系統中,構造了一個質點—彈簧模型,將肌肉作為抽象層。該方法用來模擬人體真實的肌肉與肌肉運動。具有里程碑意義的是Waters[17]提出的模型,該模型是第一個單純的基于肌肉的人臉模型。他根據肌肉的運動特性定義了三種不同類型的肌肉,即線性肌、塊狀肌和括約肌。這些肌肉不依賴于骨骼結構,使它們可以適應不同的面部拓撲結構。Waters的基本原理也是目前大多數基于物理的模型多采用的基本原理。但是,他把皮膚描繪成沒有基本結構的幾何表面,通過對表面進行簡單的幾何變形來實現模型的變形,而無法實現細微的組織變形。

Terzopoulos等人[18]通過對肌肉模型引入解剖學原理得到更加真實的人臉變形。他們將肌肉嵌入到基于解剖學的人臉皮膚模型上。該人臉皮膚模型由三個皮膚層組成,這些皮膚層構成質點—彈簧模型,通過對肌肉施加壓力來變形該模型,從而產生人臉表情。同時,該方法也增加了計算量。

Zhang等人[19]用非線性的質點—彈簧模型對皮膚進行建模,可以模擬動態的真實皮膚,該模型不再被看做是連續的表面,因為每個質點和每個彈簧可以被單獨地控制。

Pasquariello等人[20]和Bui[21]通過將他們的模型分割成多個區域,可以達到對肌肉運動更好的控制。Pasquariello等人通過計算頂點的物理位移來模擬皺紋,可以模擬真實的皮膚,但是他們不能對肌肉和皮膚的彈性行為進行物理模擬。Bui通過將法線方向上受影響的點轉移到肌肉運動方向上來模擬皺紋。

Tang等人[22]介紹了一個基于肌肉的非均勻有理B樣條系統。該系統首先定義了多個控制點,然后通過改變這些控制點的權重來達到肌肉變形。

Sifakis等人[23]使用Teran等人[6]的更加一般的肌肉構造原理構造了一個在解剖學上非常精確的人臉肌肉模型。該模型是基于有限元算法,其肌肉行為能與環境交互,也就是說,肌肉的運動能夠受碰撞等外界產生的力的影響。

簡言之,基于肌肉的方法所采用的模型一般由多層組成,層間由彈性單元連接,彈性單元可以模擬節點的相互作用,達到真實地模擬人臉及其表情變化的效果。但該方法需要大量的計算,不同的模型在考慮的深度和復雜性上差別很大:簡化的模型很難達到理想的視覺效果;復雜的模型則計算量大,即使一般復雜度的模型也難以達到實時。

12基于圖像的方法

121Morphing方法

由于電影等娛樂行業對真實感的強烈要求,基于圖像的技術仍然是常用的方法。其中比較常用的是Morphing方法。該方法實現兩個指定圖像和模型之間的變形轉換。首先,在兩個圖像或模型上確定一套特征點集,用映射函數確定兩個目標對象之間特征點集中特征點的對應關系;然后用相關函數確定中間圖像的特征點位置或紋理空間的坐標值;最后用插值函數計算非特征點的位置或紋理空間的坐標值。Morphing方法包括2D Morphing和View Morphing。2D Morphing能夠產生真實的臉部表情圖像,但是該方法要求確定特征點之間的對應關系以及沒有考慮對視點和對象姿勢的變化處理,使得真實的頭部運動無法實現。View Morphing克服了上述缺點,它利用傳統的射影幾何學的理論,與2D Morphing相結合能夠準確地實現3D對象之間的變形,但是變形結果會受到圖像中目標對象可視度變化的影響。

Beier等人[24]最早提出了兩個圖像之間的Morphing方法。

Pighin等人[25]將2D Morphing技術與幾何模型的3D變形相結合來自動產生具有較高真實感的3D人臉表情。該方法利用人臉照片產生真實感的三維人臉模型,然后通過不同人臉模型之間的變形實現不同人臉表情之間的平滑過渡。首先從多張未經校準的人臉照片出發,利用手工操作進行相機定標;然后利用散亂數據插值的方法對通用人臉網格模型進行變形,使其適配到特定人臉;最后為模型選取一張或多張紋理照片進行紋理映射。這個過程要在特定人臉的不同表情中重復執行。為了實現這些表情間的平滑過渡,他們在相應人臉模型間進行3D形狀變形,在這個過程中同時也實現了相應紋理間的融合。

Oka等人[26]實現了一個從人臉照片到網格模型的實時紋理映射系統。Bregler等人[27]提出了一個視頻重寫(video-rewriting)技術。該技術首先在訓練膠片中跟蹤說話人嘴巴上的特征點,然后利用變形方法將這些嘴巴動作結合到最終的視頻序列中,從而達到根據語音合成嘴巴的運動變化,產生人物說話的效果。Ezzat等人[28]對該方法進行了一些改進,并且減小了表情庫。Cosatto等人[29]獲得了較好的真實感效果,并且實時地合成動畫。

122表演驅動的方法

該方法捕捉在各種面部表情下真實人臉部的特征來驅動臉部模型產生真實的臉部表情。主要做法是在一個表演者的臉上設置許多特征點,在表演者表演各種面部表情時,捕捉這些特征點的運動向量,然后使用這些運動向量來驅動臉部模型的相應特征點產生臉部表情。它提供了一種直觀和有效的方式直接控制臉部表情的產生。而且,它們不依賴于實現,也就是說,既可以用基于圖像的方法實現,也可以用基于幾何學的方法實現。

Williams[4]最早使用一個人的靜態臉部紋理圖像捕捉2D特征點的運動產生臉部表情動畫。Guenter等人[30]作了進一步的研究,他們建立了一個系統,該系統從視頻流中獲得幾何、顏色、紋理等人臉表情數據,然后利用高質量的可變形的由動態紋理映射的多邊形網格模型真實地再現人臉表情。該系統通過3D掃描儀獲得表演者人臉的幾何數據,接著在人臉上定義了182個特征點,為了得到人臉的表演數據,利用多個不同分辨率的攝像機同時從不同的角度記錄臉部的運動;然后利用由攝像機得到的特征點的數據對網格模型進行變形得到人臉表情;最后,利用在攝像機跟蹤特征點的表演數據的過程中得到不同分辨率的視頻圖像,根據它們在不同位置的不同權重生成人臉紋理,進行紋理影射。

Blanz等人[31]將基于圖像的技術與基于幾何學的技術相結合來模擬表演者沒有表演出來的動作以增強真實感。Zhang等人[32]也將基于圖像的技術和基于幾何學的技術相結合,利用多張不同的人臉表情圖像中的皺紋等細節信息產生更具真實感的人臉表情,人臉特征點在這些表情圖像中的幾何位置必須被事先標定。他們還利用了一種能夠預測在跟蹤人臉過程中可能丟失特征點的技術來自動地從這些圖像中恢復特征點數據,這就降低了對特征點跟蹤和恢復技術的要求。

在Gutierrez-Osuna等人[33]的系統中,用含有滿足MPEG-4規范的面部特征點的多邊形模型,通過肌肉運動可以得到人臉表情,這些肌肉運動與MPEG-4規范相一致。

123表情編碼系統

表情編碼系統可以被認為是表情映射方法的替代技術。它提供了一個用于產生所有可能的面部表情的肌肉運動的數據庫,可以通過簡單地編寫想要的表情而讓計算機去模擬。最常用的表情編碼系統是臉部運動編碼系統(facial action coding system,FACS)[34]和MPEG-4模型[35,36]。

FACS是一個被廣泛應用的臉部表情編碼系統,它最早是被作為心理學的工具由Ekman等人[34]提出。FACS以自上而下的方式將臉的運動分割成一系列運動單元(AU),這些單元是最基本的單位,不能分為更小的動作單元。FACS采用了44個能夠獨立運動的表情運動單元(如上嘴唇翹起(AU10)、眼瞼閉合(AU17)等)來描述面部動作,并與使面部表情改變的肌肉結構緊密相連。一個AU可以由多個肌肉運動引起,而一個肌肉運動也可以影響多個AU,因此,AU和肌肉運動之間是復雜的多對多關系。在這個系統中,還定義了六種最基本的表情(驚奇、恐懼、厭惡、憤怒、高興、悲傷)以及其他33種不同的面部表情傾向,通過改變這些運動單元的相關屬性,就可以產生不同的人臉表情。后來,一些學者在該系統的基礎上進行了一些改進。其中,國內的研究中提出了FACS’(轉換FACS)的表情編碼,在FACS的規則基礎上,把運動單元的運動轉換為基于物理結構和肌肉模型的運動特征向量序列對眼部和嘴部分別進行表情編碼,使得產生的人臉表情更加逼真。

FACS考慮了臉部的解剖學原理,反映了所有基本的肌肉運動,而且每個肌肉運動都可以獨立控制,進而產生大范圍的人臉表情,但是它還遠遠沒有包括所有臉部的底層運動。例如,由嘴唇、下顎運動帶來的復雜肌肉運動是很難用FACS來描述的。

MPEG-4第一次對支持三維人臉動畫的工具進行標準化。為了獲得真實感的人臉建模與動畫,定義了三種不同類型的人臉數據:a)人臉動畫參數(FAPs)。用來產生三維人臉動畫,包括重構人臉運動、表情、情感、說話等,該組參數包含68個參數,其中66個用來描述嘴唇、嘴巴、下巴、眼睛、面頰、鼻子等的運動。b)面部定義參數(FDPs)。它用來定義人臉模型,既可以配合已有的模型使用,也可以重新定義新的模型。c)FAP插值表(FIT)。它使得MPEG文件只需包含少量描述人臉動畫的FAPs,然后利用這些FAPs和基于FIT的插值方法計算其余的FAPs,進而產生人臉動畫。

2對人臉表情動畫技術未來的展望

以上對人臉表情動畫進行了分類,歸納和總結了關鍵的研究成果。需要指出的是,關鍵幀插值法和參數化方法比較適用于計算機硬件水平較低的時代。其中參數化方法相對關鍵幀插值法有優勢,因為它大大降低了動畫所需的數據量。但是由于可能產生的參數沖突和缺乏對受壓力下的皮膚變形機制,而使得研究者和開發者很少選擇這種技術。

目前,基于肌肉的方法是最常用的方法之一,這種趨勢可能將會持續下去。軟件系統等方面的自動化能力的提高和人工干預的減少將是一個重要的研究方向,特別是關于眼睛、牙齒、舌頭的建模。將基于圖像的技術與基于幾何學的方法進行適當結合也將是有意義的研究課題。強調頭發的重要性和獲取更加精確的嘴唇變形數據也將是一個研究方向。

在基于圖像的變形方法中,主要是對Morphing方法進行改進。該方法經常被用在電影特效的制作中,如指環王等。該方法的缺點在于,需要大量的人工操作才能獲得一個成功的動畫效果。目前已經可以對渲染算法進行改進,但是它只考慮到幾何學信息。該算法在紋理信息上的擴展將是未來的工作之一。在表演驅動的方法中,光流跟蹤算法的使用使得錯誤隨著程序的運行而積累,因此,減少甚至消除這些錯誤是必要的;改進獲取數據的方法使人工操作降低到極小值,減少甚至消除設置在人臉上的特征點,降低對硬件的需求等都是需要解決的問題。機器學習方法的研究與改進也是未來的方向之一。

此外,加強人臉表情動畫技術的應用也是重要的趨勢之一。隨著相關領域的軟硬件技術的成熟,加強基于網絡或單機的相關軟硬件的研究與探索,以滿足電影、游戲等娛樂行業以及醫學等科學可視化的需要將是未來面臨的挑戰之一。

3結束語

本文對人臉表情動畫技術的研究現狀作了簡要的概括和總結,指出了它們的優缺點以及在應用上的限制;對人臉表情動畫技術領域的發展趨勢進行了展望。基于幾何學的方法和基于圖像的方法都有它們各自的優缺點,很難判斷哪種技術更好以及將在未來占據統治地位,而且它們都有值得研究的廣泛的應用領域。基于幾何學的方法靈活、快速,但由于其得到的結果真實感差的缺點,主要被用在計算機游戲和實時動畫等領域。然而,基于圖像的方法在真實感方面將產生更好的結果,但是它們具有明顯的缺陷,如速度慢、可伸縮性差等,因此經常被用于電影行業等對真實感要求高于實時性要求的領域。人臉表情動畫技術將會變得日益復雜和跨學科性,對這些技術的應用也將是該領域未來發展的主要方向之一。

參考文獻:

[1]NOH J, NEUMANN U. A survey of facial modeling and animation techniques[R].California: University of Southern California, 1998.

[2]KRINIDIS S, BUCIU I, PITAS I. Facial expression analysis and synthesis: a survey[C]//Proc of the 10th International Conference on Human-Computer Interaction (HCI 2003). Crete, Greece:[s.n.], 2003:1432-1436.

[3]DENG Z, CHIANG P, FOX P,et al. Animating blendshape faces by cross-mapping motion capture data[C]//Proc of ACM SIGGRAPH Symposium on Interactive 3D Graphics and Games (I3D). 2006:43-48.

[4]WILLIAMS L. Performance-driven facial animation[C]//Proc of the 17th Annual Conference on Computer Graphics and Interactive Techniques. 1990:235-242.

[5]TERZOPOULOS D,LEE Y,VASILESCO M.Model-based and image-based methods for facial synthesis, analysis and recognition[C]//Proc of the 6th IEEE International Conference on Automatic Face and Gesture Recognition. 2004:3-8.

[6]TERAN J, SIFAKIS E, SALINAS-BLEMKER S, et al. Creating and simulating skeletal muscle from the visible human data set[J]. IEEE Trans on Visualisation and Computer Graphics,2005,11(3):317-328.

[7]MAUREL W. 3D modeling of the human upper limb including the biomechanics of joints, muscles and soft tissues[D].Lausanne, Swit-zerland:Ecole Polytechnique Federale De Lausanne, 1999.

[8]PARKE F. Computer generated animation of faces[C]//Proc of ACM Annual Conference. Boston, Massachusetts:[s.n.], 1972:451-457.

[9]PARKE F. Parameterized models for facial animation[J]. IEEE Computer Graphics and Applications,1982,2(9):61-68.

[10]COHEN M, MASSARO D. Modeling coarticulation in synthetic visual speech[J]. Tokyo:Springer-Verlag, 1993:l41-155.

[11]PEARANCE A, WYVILL B, HILL D. Speech and expression: a computer solution to face animation[C]//Proc of Graphics Interface’86. 1986:136-140.

[12]SEDERBERG T, PARRY S. Free-form deformation of solid geometric models[C]//Proc of the 13th Annual Conference on Computer Graphics and Interactive Techniques. 1986:151-160.

[13]KALRA P, MANGILI A, MAGNENAT N, et al. 3D interactive free form deformations for facial expressions[C]//Proc of Compugraphics’91. Lisbon:[s.n.], 1991:129-141.

[14]KALRA P, MANGILI A, MAGNENAT N, et al. Simulation of facial muscle action based on rational free form deformations[C]//Proc of Eurographics’92. Cambridge:[s.n.],1992:59-69.

[15]COQUILLART S. Extended free-form deformation: a sculpturing tool for 3D geometric modeling[J].Computer Graphics,1990,24(4):187-196.

[16]PLATT S, BADLER N. Animating facial expression[J]. Computer Graphics, 1981,15(3):235-252.

[17]WATERS K. A muscle model for animating three-dimensional facial expressions[J]. Computer Graphics,1987,21(4):17-24.

[18]TERZOPOULOS D, WATERS K. Physically-based facial modeling, analysis and animation[J]. Visualization and Computer Animation,1990,1(4):73-80.

[19]ZHANG Y, PRAKASH E, SUNG E. Real-time physically-based facial expression animation using mass-spring system[C]//Proc of Computer Graphics International Conference. 2001:347-350.

[20]PASQUARIELLO S, PELECHAUD C. Greta: a simple facial animation engine[C]//Proc of the 6th Online World Conference on Soft Computing in Industrial Applications. 2001.

[21]BUI T. Creating emotions and facial expressions for embodied agents[D].Netherlands:Department of Computer Science, University of Twente. 2004.

[22]TANG S, LIEW A, YAN H. Lip-sync in human face animation based on video analysis and spline models[C]//Proc of the 10th International Multimedia Modeling Conference (MMM’04). 2004:102-108.

[23]SIFAKIS E, NEVEROV I, FEDKIW R. Automatic determination of facial muscle activations from sparse motion capture marker data[C]//Proc of SIGGRAPH, Skin Faces. 2005:417-425.

[24]BEIER T, NEELY S. Feature-based image metamorphosis[C]//Proc of SIGGRAPH. 1992:35-42.

[25]PIGHIN F, HECKER J, LICHINSKI D, et al. Synthesizing realistic facial expressions from photographs[C]//Proc of the 25th Annual Conference on Computer Graphics and Interactive Techniques. 1998:75-84.

[26]OKA M, TSUTSUI K, OHBA A, et al. Real-time manipulation of texturemapped surfaces[C]//Proc of SIG GRAPH. 1987:181-188.

[27]BREGLER C, COVELL M, SLANEY M. Video rewrite: driving vi-sual speech with audio[C]//Proc of SIGGRAPH. 1997:353-360.

[28]EZZAT T, GEIGER G, POGGIO T. Trainable video realistic speech animation[C]//Proc of SIGGRAPH. 2002:388-397.

[29]COSATTO E, GRAF H. Photo-realistic talking heads from image samples[J].IEEE Trans on Multimedia,2000,2(3):152-163.

[30]GUENTER B, GRIMM C, WOOD D, et al. Making faces[C]//Proc of SIGGRAPH. 1998:55-66.

[31]BLANZ V, BASSO C, POGGIO T, et al. Reanimating faces in images and video[C]//Proc of EUROGRAPHICS’03. 2003:641-650.

[32]ZHANG Qing-shan, LIU Zi-cheng, GUO Bai-ning, et al. Geometry-driven photorealistic facial expression synthesis[J].IEEE Trans on Visualisation and Computer Graphics,2006,12(1):48-60.

[33]GUTIERREZ-OSUNA R, KAKUMANU P, ESPOSITO A, et al. Speech-driven facial animation with realistic dynamics[J]. IEEE Trans on Multimedia, 2005,7(1): 33-42.

[34]EKMAN P, FRIESEN W, HAGER J. Facial action coding system: the manual[EB/OL]. (2002) [2007-10-10].http://face-and-emotion.com/dataface/facs/manual/TitlePage.html.

[35]DOENGES P, LAVAGETTO F, OSTERMANN J, et al. MPEG-4: audio/video and synthetic graphics/audio for mixed media[J].Signal Processing: Image Communication,1997,9(4):433-463.

[36]OSTERMANN J. Animation of synthetic faces in MPEG-4[C]//Proc of Computer Animation. Philadelphia:[s.n.], 1998:49-51.

主站蜘蛛池模板: 99精品免费欧美成人小视频 | 久久精品中文无码资源站| 国产精品久久国产精麻豆99网站| 黄色在线网| 成人精品亚洲| 午夜精品区| 免费人成视网站在线不卡| 九九热精品视频在线| 国产一级毛片在线| 成人无码区免费视频网站蜜臀| 欧美成人在线免费| 亚洲欧美一级一级a| 国产一级妓女av网站| 男女男免费视频网站国产| 超清无码一区二区三区| 亚洲三级色| 亚洲精品福利视频| 亚洲精品你懂的| 激情综合婷婷丁香五月尤物| 亚洲人成高清| 国产精品免费电影| 亚洲日韩每日更新| 亚洲丝袜第一页| 国产亚洲精品自在线| 亚洲天堂在线免费| 欧美第九页| 在线视频一区二区三区不卡| 亚洲黄网在线| 国产欧美日韩另类| 九色国产在线| 精品国产Ⅴ无码大片在线观看81| 人人爱天天做夜夜爽| 亚洲第一在线播放| 久久99国产精品成人欧美| 四虎精品国产AV二区| 国产尤物视频网址导航| 毛片国产精品完整版| 久久精品视频亚洲| 国产噜噜在线视频观看| 国产无码性爱一区二区三区| 天天躁夜夜躁狠狠躁图片| 精品福利视频网| 亚洲日本中文字幕乱码中文| 亚洲日韩高清无码| 久久精品日日躁夜夜躁欧美| 18黑白丝水手服自慰喷水网站| 在线观看亚洲精品福利片| 重口调教一区二区视频| 国产在线自在拍91精品黑人| 黄色网站不卡无码| 国产三级韩国三级理| 国产精品福利在线观看无码卡| 伊人久久婷婷| 国产91成人| 麻豆AV网站免费进入| 成年人国产网站| 免费一看一级毛片| 日韩大片免费观看视频播放| 国产成人精品在线1区| 精品亚洲欧美中文字幕在线看| 99热最新网址| 亚洲黄色高清| 国产一级片网址| 婷婷五月在线| 国产视频你懂得| 亚洲Av激情网五月天| 亚洲国产欧美中日韩成人综合视频| 精品久久国产综合精麻豆| 中国丰满人妻无码束缚啪啪| 国产精品免费露脸视频| 久久综合五月婷婷| 国产a v无码专区亚洲av| 婷婷色丁香综合激情| 亚洲女人在线| 激情六月丁香婷婷| 国产主播在线一区| 国产好痛疼轻点好爽的视频| 国产色网站| 亚亚洲乱码一二三四区| 5555国产在线观看| 99视频只有精品| 亚洲第一综合天堂另类专|