999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

有閉解的可控人臉編輯算法

2023-02-24 05:01:56陶玲玲李文博何希平
計算機應用 2023年2期
關鍵詞:語義模型

陶玲玲,劉 波*,李文博,何希平

(1.重慶工商大學 人工智能學院,重慶 400067;2.智能感知與區塊鏈技術重慶市重點實驗室(重慶工商大學),重慶 400067)

0 引言

人臉編輯是人臉分析的重要研究內容,它通過操縱人臉圖像的單個或多個屬性來生成新的人臉圖像[1]。人臉編輯被廣泛應用于娛樂、社交以及公共安全等領域。例如:在娛樂領域,人臉編輯軟件通過編輯人臉圖像的面部屬性來實現人像美顏、妝造編輯等效果[2];在公共安全領域,可根據受害者和目擊者的描述來創建與編輯嫌疑人圖像,從而提高辦案效率[3-4]。

人臉編輯模型和可控性是人臉編輯的主要研究內容。主流的人臉編輯模型以生成對抗網絡(Generative Adversarial Network,GAN)為基礎,并取得了豐碩的成果。比如:用于屬性交換與重組的生成對抗網絡GeneGAN(Learning Object Transfiguration and Attribute Subspace from Unpaired Data)[5]、通過改變目標內容進行屬性編輯的生成對抗網絡AttGAN(Facial Attribute Editing by Only Changing What You Want)[6]、基于條件的生成對抗網絡(Conditional Generative Adversarial Network,CGAN)[7]等。盡管這些模型能較好地生成人臉圖像,但編輯過程中的可控性仍然面臨很多問題。例如:人臉不同屬性之間高度耦合導致編輯的可控性差;編輯結果不自然,生成圖像的變化過小或過大導致可控性難度較大等。

針對這些問題,本文基于潛在空間(latent space)的可解釋方向提出一種高效的可控人臉編輯算法。該算法首先在現有的人臉編輯模型(例如:一種基于風格的生成對抗網絡生成器架構(Style-based generator architecture for Generative Adversarial Networks,StyleGAN)[8]、為提高質量、穩定性和變化性的漸進式生成對抗網絡(Progressive Growing of GANs for improved quality,stability,and variation,ProGAN)[9]、StyleGAN 圖像質量的分析與改善(Analyzing and Improving the Image Quality of StyleGAN,StyleGAN2)[10])的潛在空間中采樣構造一個樣本矩陣,并計算出樣本矩陣的主成分[11],再結合人臉屬性的語義邊界(semantic boundary)來計算人臉編輯的可解釋方向向量,該向量要盡可能地靠近對可控性編輯有利的主成分向量,同時還要盡量遠離人臉屬性的語義邊界向量,以便減少編輯過程中屬性之間的相互影響,本文所提出的算法具有閉解(closed-form solution)。實驗結果表明,該算法能很好地實現可控人臉編輯。

1 相關工作

早期的人臉編輯主要利用自編碼器(AutoEncoder,AE)來實現[12]。基于自編碼器結構,人臉屬性編輯任務通過將給定人臉圖像的屬性進行編碼以獲得各個屬性的特征向量,然后對這些特征向量進行編輯,最后將其進行解碼以實現人臉編輯[13-14],但這類模型生成的圖像容易模糊。當前,人臉編輯模型的研究逐漸轉向生成對抗網絡,并取得了大批顯著性成果。例如:StyleGAN 可以將潛在空間經過仿射變換得到解糾纏的中間潛在空間(intermediate latent space),實現了人臉編輯時的無監督屬性分離[8];ProGAN 可以生成1 024×1 024 分辨率的高質量圖像[9];BigGAN(Large scale GAN training for high fidelity natural image synthesis)[15]可以生成高質量、多樣性的結果。在人臉編輯的研究中,可控性作為關鍵技術得到了廣泛、深入的研究。下面從5 個方面介紹人臉編輯可控性的研究工作。

1)基于對比學習的可控人臉編輯。這方面的研究工作主要采用對比學習來研究人臉編輯的可控性。比如:文獻[16]中將人臉圖像的屬性逐一進行對比,通過將相似屬性盡量靠近,不同屬性盡量分離來實現人臉屬性編輯的可控性;文獻[17]中結合三維人臉模型參數(3D Morphable Model,3DMM)和對比學習來進行可控性人臉編輯的研究。

2)基于條件向量的可控人臉編輯。這類方法在生成對抗網絡的基礎上加入了條件向量來控制人臉編輯過程。比如:CGAN 在生成器與判別器的輸入中均引入了條件向量來指導模型的生成過程,從而控制人臉編輯的結果;條件Wassertein 生成對抗網絡(Conditional-Wassertein Generative Adversarial Network,C-WGAN)[18]模型融合了CGAN 和WGAN(Wassertein Generative Adversarial Network)[19],將條件向量加入網絡中的生成模型用來生成滿足約束條件的樣本進而控制圖像生成;InfoGAN(interpretable representation learning by Information maximizing Generative Adversarial Nets)[20]不僅引入條件向量來指導模型的生成結果,還進一步引入互信息來約束條件向量和生成數據之間的關聯程度來提高人臉編輯的可控性。

3)基于輔助分類器的可控人臉編輯。這類方法通常會在生成模型的基礎上加入一個分類器,比如:ACGAN(Auxiliary Classifier GAN)[21],通過讓判別網絡在判別圖像真假時,同時對圖像進行分類,從而實現人臉編輯的可控性。文獻[22]中獲取圖像不同屬性的語義特征向量,然后通過分類器確定可解釋方向來實現人臉編輯的可控性。

4)基于潛在空間解耦的可控人臉編輯。這類方法在生成對抗網絡的潛在空間中得到豐富的人臉屬性的特征向量,通過識別并利用各屬性相對應的特征向量來實現可控的人臉編輯。比如,文獻[23]中將潛在空間劃分為多個線性子空間,使每個子空間控制一個屬性變化來控制的人臉編輯操作。StyleGAN 在潛在空間的基礎上,經過仿射變化提出了一個中間潛在空間,該空間與潛在空間相比耦合性更低,在人臉編輯過程中引起的變化更少,從而提高了可控性[8]。文獻[24]中發現可以對潛在空間的特征向量進行線性插值,使得插值后的特征向量耦合性更低,所以在一定程度上可以更好地實現人臉編輯任務中的可控性。

5)基于語義內容的可控人臉編輯。這類方法對人臉屬性語義內容進行人臉編輯,從而獲得更好的控制性。比如,文獻[25]通過分解模型權重來識別出潛在空間中語義層面上有意義的可解釋性編輯方向,這些方向可以提高人臉編輯的可控性;文獻[26]將語義候選矩陣與分類器結合來實現基于語義的可控人臉編輯。

2 本文算法

2.1 算法原理

在人臉編輯模型的可控性研究中,人們發現隨機采樣n個潛在向量(latent vector)z∈Rd構成矩陣Z=[z1,z2,…,zn]∈Rd×n,并計算Z的前k(k

圖1 改變主成分向量導致的人臉圖像變化Fig.1 Changes of face image caused by changing principal component vectors

文獻[23]中通過訓練支持向量機(Support Vector Machine,SVM)來得到人臉各屬性的語義邊界。首先通過ResNet-50 網絡[27]和CelebA 數據集[28]來訓練出一個屬性預測模型(ResNet-50 predictor),然后通過預訓練生成模型(例如StyleGAN)合成50 000 張圖像,使用ResNet-50 predictor 來對每幅人臉圖像的屬性進行預測并得出每個屬性(本文實驗選取姿態、微笑、年齡、性別以及發型5 種屬性進行預測)在圖像上出現的概率值作為預測結果。每個屬性根據預測值對50 000 張圖像進行排序,從排好序的圖像中選出前1 000張圖像和后1 000 張圖像作為候選樣本集(前1 000 張圖像為正樣本,標簽為1;后1 000 張圖像為負樣本,標簽為0)。從候選集中選取70%的樣本作為訓練集,30%作為測試集。使用訓練集來訓練支持向量機,從而得到語義邊界。

由于ProGAN、StyleGAN、StyleGAN2 會合成不同的圖像,所以對于不同的預訓練模型而言,都需要使用ResNet-50 predictor 對樣本進行預測,從而獲得相應的語義邊界。

設人臉第i個屬性的語義邊界表示為bi∈Rd,若有k個屬性,它們的語義邊界就構成了邊界矩陣B=[b1,b2,…,bk]∈R(d×k),這些邊界可以很好地區分人臉的各個屬性,對降低人臉編輯過程中屬性之間的相互糾纏起著重要作用。具體而言,在語義邊界同一側的屬性具有相同的語義內容,并且在語義邊界附近的屬性所對應的語義內容不夠明確,因此人臉屬性特征向量離語義邊界越遠,針對該屬性的編輯結果就越明顯。如圖2 所示,語義邊界向量b3將潛在空間分為包含屬性的不同語義的兩部分,當u3向兩端移動而遠離語義邊界b3時,人臉屬性的耦合度變低。例如:在年齡這一屬性上,當沿著正方向(+u3)移動時,年齡逐漸增大,人臉圖像逐漸衰老;朝著負方向(-u3)移動時,年齡逐漸減少,人臉圖像逐漸年輕。

圖2 人臉屬性語義邊界向量的編輯Fig.2 Editing of semantic boundary vector of face attribute

本文結合潛在空間的主成分和語義邊界在人臉編輯中的優點,提出一種具有閉解的可控人臉編輯算法。具體而言,為了編輯l個人臉屬性,所提出的算法要學習l個可解釋方向向量[u1,u2,…,ul]∈Rd×l,使這些向量能夠對人臉編輯起到很好控制作用。為了實現這一目標,讓第i個可解釋方向向量ui盡量靠近第i個潛在空間主成分向量vi,同時又能盡量遠離人臉第i個屬性的語義邊界bi,以此來減少編輯人臉時各屬性之間的糾纏,同時保證人臉編輯的質量。

這種思想可用式(1)來表示:

其中:‖·‖2表示向量的2 范數,ui表示在潛在空間中對人臉編輯有精確控制作用的第i個可解釋方向向量;vi表示潛在空間中n個隨機向量構成的樣本矩陣Z的第i個主成分向量;bi表示人臉第i個屬性的語義邊界;λ、β為正則化參數。

根據向量2 范數的定義,式(1)可計算為如下形式:

式(2)是一個無約束優化問題,通過對ui求導并令它等于0 來得到最優解:

進一步化簡得到:

所以ui的最優解為:

本文所提算法的具體實現步驟如下:

算法1 本文算法。

輸入 隨機數種子s,主成分向量的數量k;

輸出 生成圖像Image。

1)根據s隨機采樣n個潛在向量z1,z2,…,zn,由此得到樣本矩陣Z。

2)計算Z的主成分v1,v2,…,vk。

3)對屬性進行分類并利用支持向量機得到其語義邊界b1,b2,…,bk。

4)對第i個屬性利用式(4)計算出可解釋方向向量ui。

5)通過ui編輯樣本圖像zi:Image= G(zi+ui)

6)返回編輯后的人臉圖像Image。

其中,一個隨機數種子s,為標量且是正整數類型,通過numpy 中的隨機數函數random.randint()生成,范圍通過numpy 中的iinfo(numpy.int32).max 限定,具體數值為[0,231-1)。隨機采樣n個潛在向量時,則需要生成n個不重復的隨機數種子。

2.2 實驗

2.2.1 實驗環境與參數設置

1)硬件環境:CPU 為Intel Xeon Gold 5118 CPU@2.30 GHz,GPU 為NVIDIA Corporation P40。

2)軟件環境:操作系統為Ubuntu 20.04.1 LTS;開發環境:PyTorch 1.3.1,Python 3.7.10,CUDA 10.1.243。

3)參數設置。算法1 中的λ、β為正則化參數,其主要目的是防止模型過擬合,通過大量實驗發現參數β對實驗結果的影響較小,本文將其設置為1;而參數λ對實驗結果起著關鍵作用,通過交叉驗證的方式,本文計算出不同屬性在不同模型上的λ值,具體取值如表1 所示。

表1 參數λ的取值Tab.1 Values of parameter λ

2.2.2 實驗模型、數據集以及比較算法

本文采用的數據集為CelebA 與FFHQ[8]。CelebA 數據集包含202 599 張人臉圖片,由10 177 位不同身份的人組成,每張圖片總有40 個二分屬性標簽;FFHQ 數據集由70 000 張分辨率為1 024×1 024 的高質量人物圖像組成,在年齡、種族和背景方面有著較大的差異,并且在眼鏡、帽子等配件上有良好的覆蓋范圍。

本文采用的模型為 StyleGAN[8]、ProGAN[9]和StyleGAN2[10],其中ProGAN 在CelebA 數據集上進行實驗,StyleGAN 與StyleGAN2 在FFHQ 數據集上進行實驗。

為了驗證本文算法對可控人臉編輯的有效性,在相同的實驗環境下,與SeFa(closed-form Factorization of latent Semantics in GANs)算法[25]和 GANSpace(Discovering Interpretable GAN Controls)算法[11]進行了比較。其中,SeFa算法是通過對不同生成模型的權重求特征向量來得到人臉編輯時的可解釋方向,GANSpace 算法是通過在生成模型的潛在空間中對樣本矩陣進行主成分分析得到人臉編輯時的可解釋方向。

2.2.3 評價指標

本文采用初始分數(Inception Score,IS)[29]、弗雷歇距離(Fréchet Inception Distance,FID)[30]、最大平均差異(Maximum Mean Discrepancy,MMD)[31]這三個指標來評價本文算法與SeFa 算法和GANSpace 算法所生成的圖像質量。

3 實驗結果與分析

將本文所提算法與SeFa 算法和GANSpace 算法從生成圖像的質量和編輯效果兩方面進行了對比分析。大量的實驗證明,本文算法優于SeFa 算法和GANSpace 算法。

3.1 分析比較生成圖像的質量

比較本文所提算法與SeFa 算法和GANSpace 算法在不同模型上的IS、FID 以及MMD 值,實驗選擇人臉圖像中較為重要的姿態(pose)、微笑(smile)、年齡(age)、性別(gender)以及發型(hairstyle)這5 種屬性分析比較,這5 種屬性所對應的語義邊界向量依次為b1,b2,b3,b4,b5,所對應的可解釋方向向量依次為u1,u2,u3,u4,u5。本文將三種生成模型(ProGAN、StyleGAN、StyleGAN2)的實驗結果詳細展示在表2 中。

表2 預訓練生成模型所生成圖像的定量比較Tab.2 Quantitative comparison of images generated by pre-trained generation models

從表2 中可看出,本文算法通常可以生成質量更好的編輯結果,具體表現為本文算法所生成的圖像質量與SeFa 算法和GANSpace 算法相比,本文算法的IS 值均高于SeFa 算法和 GANSpace 算法,FID 值與MMD 值均低于SeFa 算法和GANSpace 算法。

對于ProGAN 模型而言,本文算法所生成的圖像質量在IS 值上與SeFa 算法相比平均升高了0.18,與GANSpace 算法相比平均升高了0.21;在FID 值上,與SeFa 算法相比平均降低了0.08,與GANSpace 算法相比平均降低了0.35;在MMD值上,與SeFa 算法相比平均降低了0.05,與GANSpace 算法相比平均降低了0.25。

對于StyleGAN 模型而言,本文算法所生成的圖像質量在IS 值上與SeFa 算法相比平均升高了0.43,與GANSpace 算法相比平均升高了0.65;在FID 值上,與SeFa 算法相比平均降低了0.01,與GANSpace 算法相比平均降低了0.88;在MMD 值上,與SeFa 算法相比平均降低了0.01,與GANSpace算法相比平均降低了0.23。

對于StyleGAN2 模型而言,本文算法所生成的圖像質量在IS 值上,與SeFa 算法相比平均升高了0.58,與GANSpace算法相比平均升高了0.69;在FID 值上,與SeFa 算法相比平均降低了0.02,與GANSpace 算法相比平均降低了0.01;在MMD 值上,與SeFa 算法相比平均降低了0.07,與GANSpace算法相比平均降低了0.16。

綜上所述,本文所生成的圖像質量更好、更接近于真實圖像。

3.2 分析比較生成圖像的編輯效果

3.2.1 比較在ProGAN上編輯效果

圖3 為SeFa 算法、GANSpace 算法和本文算法在ProGAN模型上生成的人臉圖像。

圖3 ProGAN模型的實驗結果Fig.3 Experimental results of ProGAN model

從圖3 可以觀察到,本文算法生成的結果明顯優于SeFa算法和GANSpace 算法所生成的結果,具體如下:

1)編輯性別(樣本圖像從女性轉變為男性)時,觀察圖3中第2 列可以看出,本文算法很精確地實現了這一目標,且未引起除性別之外的其他變化;而SeFa 算法雖然也改變了原圖的性別屬性,但原圖的黑框眼鏡被改變為了無框眼鏡,原圖的微笑程度從高至低被改變了;GANSpace算法在將樣本圖像從女性編輯為男性時,原圖的表情也從微笑被改變為不笑,原圖的黑框眼鏡被改變為無框眼鏡。

2)編輯發型時,從圖3 中的第3 列發現,本文算法很好地改變了原圖的發型,并且與SeFa 算法和GANSpace 算法相比與原圖更加貼近。SeFa 算法不僅改變了原圖的發型,還讓頭部產生了向右偏轉,同時還讓眼鏡框架變得模糊;GANSpace算法在改變發型的同時也改變了面部表情,并讓原圖的眼鏡消失。

3)編輯姿態(頭部姿態從左向右偏轉)時,觀察圖3 中的第4 列發現本文算法只是簡單地將原圖的頭部姿態從左向右進行了偏轉,并未改變其他屬性。而SeFa 算法不僅對原圖的頭部姿態產生了影響,使其向右偏轉,還去掉了原圖的眼鏡;GANSpace 算法同樣如此,在編輯頭部姿態的同時消除了原圖的眼鏡,改變了原圖的發型等。

4)編輯微笑時(從微笑變為不笑),觀察圖3 中第5 列發現本文算法相較于SeFa 算法和GANSpace 算法而言能夠實現更加精準的控制。本文算法僅編輯了微笑這一個重要屬性并未改變其他屬性;而SeFa 算法在改變微笑的同時還改變了原圖的姿態,使其由右偏轉變為正面偏轉,原圖發型的發色變深;通過定性比較可以發現GANSpace 算法在編輯微笑屬性時直接改變了人臉的身份特征,從發型、眉毛、人臉輪廓等重要屬性處直接體現了這一點。

5)編輯年齡時,觀察圖3 中第6 列發現,本文算法在編輯年齡屬性時的解耦性明顯優于其他兩種算法。例如:本文算法在改變年齡時并未改變發型、姿態等其他較為重要的屬性。而SeFa 算法在編輯年齡這一屬性的同時還改變了姿態、發型和眼鏡等,使編輯后的圖像頭部向左偏轉的程度加大,頭發的卷度變大,長度變短,眼鏡的清晰度變低;GANSpace算法也非常明顯地產生了耦合,在改變原圖年齡的同時還改變了原圖的發型與眼鏡,使得編輯后的圖像頭發變短,眼鏡變得不太明顯,導致生成圖像和原圖相差較遠。

3.2.2 比較在StyleGAN上所生成的圖像

圖4 為SeFa 算法、GANSpace 和本文算法在StyleGAN 模型上生成的人臉圖像。從圖4 中可以觀察到本文算法所生成的結果優于其他兩種算法生成的結果,具體如下:

1)編輯性別時,觀察圖4中的第2列發現本文算法非常精確地實現了性別的轉換,且將原圖從女性編輯為男性時并未引起其他屬性的變化。SeFa算法在改變原圖的性別時還改變了嘴巴的動作單元,由原來的閉合狀態轉變為微微張開的狀態,GANSpace算法在改變原圖性別的同時還改變了原圖的面部表情,且瞳孔顏色的深淺程度發生了變化。另外,通過定性分析發現,GANSpace算法編輯后的圖像和原圖的身份特征相差較遠。

2)編輯發型時,觀察圖4中的第3列發現本文算法和SeFa算法都非常精確地改變了原圖的發型,但是仔細觀察可以發現,本文算法生成圖像的頭部姿態更符合原圖,而SeFa 算法編輯后圖像的頭部姿態微微向下偏轉,且本文算法所生成的圖片在發型上的改變大于SeFa 算法。GANSpace 算法在改變原圖發型的同時還引起了其他面部屬性的改變。例如:和原圖相比,編輯后圖像的面部表情更加嚴肅,嘴角的上揚程度小于原圖。另外通過定性分析發現GANSpace 算法編輯后的人臉與原圖的身份特征有明顯區別。

3)編輯姿態時,觀察圖4中的第4列發現三種算法均很好地將原圖的頭部姿態向左偏轉了一定角度,但是仔細比較可發現,SeFa 算法在編輯原圖姿態的同時還將原圖的直發變為微卷;GANSpace 算法較為明顯了改變了發型,將原圖的劉海由右分改變為左分,發型顏色由深變淺。本文算法也對發型造成了一定程度的影響,使原圖的發色變深,但所生成的圖像和原圖的相似度明顯優于SeFa算法和GANSpace算法。

4)編輯微笑時,觀察圖4中第5列發現三種算法均很好地改變了人臉的面部表情,但是SeFa 算法和GANSpace 算法均引起了除微笑以外的其他屬性的變化。SeFa 算法對于發型,眼睛的影響明顯大于本文算法,編輯的發色由原圖的深色變為淺色,編輯后的眼睛大于原圖的眼睛;GANSpace 算法引起了微弱的頭部姿態的偏轉,使得編輯后的圖像向左偏轉了一定角度,編輯后的發型也發生了微弱變化。

5)編輯年齡時,觀察圖4中第6列發現本文算法在編輯年齡時優于SeFa 算法和GANSpace 算法。SeFa 算法在編輯年齡的同時還改變了原圖的發型,將原圖的發型由長發變為短發,直發變為卷發。GANSpace 在編輯年齡的同時引起了面部動作單元的變化,例如:眉毛的上挑程度大于原圖,眼睛的大小大于原圖,原圖的長發變為短發,原圖的發色由深色變為淺色。本文算法和SeFa 在編輯年齡屬性時均引起了微弱的頭部姿態的偏轉,但仍然可以看出本文算法在編輯原圖的年齡后,身份特征和原圖更加相近,面部動作和原圖更加符合。

圖4 StyleGAN模型的實驗結果Fig.4 Experimental results of StyleGAN model

3.2.3 比較在StyleGAN2上所生成的圖像

圖5 為SeFa 算法、GANSpace 算法和本文算法在StyleGAN2 模型上生成的人臉圖像。

圖5 StyleGAN2模型的實驗結果Fig.5 Experimental results of StyleGAN2 model

從圖5 中可以明顯地觀察到,本文算法的編輯結果優于其他兩種算法。具體如下:

1)編輯性別時,觀察圖5 中第2 列發現本文算法并不會造成其他屬性的變化,編輯后的人臉圖像和原圖相比具有相同的面部表情和頭部姿態。而SeFa 在編輯性別時還改變了人臉的頭部姿態,將原圖的頭部姿態由左轉改變為正面。

2)編輯姿態時,觀察圖5 中第4 列發現本文算法很好地將原圖的頭部姿態由向左偏轉編輯為向右偏轉。而SeFa 算法盡管也實現了頭部姿態由左向右的偏轉,但是編輯后的人臉面部特征明顯和原圖相差較遠;GANSpace 算法雖然很好地實現了頭部姿態由左向右的偏轉,但偏轉后人臉圖像的面部出現了由發型引起的裂痕。

3)編輯微笑時,觀察圖5 中第5 列發現本文算法將原圖的面部表情由微笑變為不笑,且保持其他屬性不變。而SeFa算法在實現微笑編輯時還造成了皮膚紋理的細粒度的改變,并且通過定性分析發現,SeFa 算法編輯后圖像的年齡和原圖不符,身份特征和原圖相差較遠;GANSpace 算法除改變面部表情外還改變了原圖的發型,從有劉海變為無劉海。

4)編輯年齡時,觀察圖5 中第6 列發現本文算法非常精確地將原圖的年齡增大了。SeFa 算法雖然明顯地增加了原圖的年齡,但也非常明顯地改變了原圖的頭部姿態,由原圖的向左偏轉變為正面;GANSpace 算法在編輯原圖的年齡屬性的同時還改變了原圖的發型,由原圖的有劉海變為無劉海。本文算法和SeFa 算法與GANSpace 算法在改變了原圖的年齡時均產生了不同程度的耦合,造成其他屬性不同程度的變化,但從定性分析的角度來看,本文算法所生成圖片的身份特征與原圖更加貼近。

4 結語

針對人臉編輯過程中的可控性問題,本文提出了一種新的人臉編輯模型。該模型結合了潛在空間的主成分和人臉屬性語義邊界的優點來降低人臉圖像編輯過程中屬性之間的耦合性,本文建立了模型對應的目標函數和相應的求解方法。由于目標函數存在閉式解,因此整個求解過程簡單、高效。實驗結果表明,本文提出的算法能提升人臉編輯的質量和可控性,然而人臉圖像的編輯是一項非常精細的工作,涉及到表情、身份等多種信息的改變,所以在未來的工作中,將進一步在保持身份不變的情況下研究細粒度的人臉編輯內容,并且為了提高語義邊界向量的求解效率,考慮將多個二分類支持向量機整合為一個多分類支持向量機,實現同時訓練多個語義邊界向量的目標。

猜你喜歡
語義模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
語言與語義
3D打印中的模型分割與打包
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
認知范疇模糊與語義模糊
“深+N季”組配的認知語義分析
當代修辭學(2011年6期)2011-01-29 02:49:50
語義分析與漢俄副名組合
外語學刊(2011年1期)2011-01-22 03:38:33
主站蜘蛛池模板: 女人av社区男人的天堂| 國產尤物AV尤物在線觀看| 亚洲无码视频图片| 青青草原国产免费av观看| 免费a在线观看播放| 天天综合网色中文字幕| av一区二区三区高清久久| 2022精品国偷自产免费观看| 亚洲第一极品精品无码| 久久久久免费看成人影片 | 美美女高清毛片视频免费观看| 青青久在线视频免费观看| 国内精自线i品一区202| 狠狠色丁香婷婷| 成人免费网站久久久| 免费Aⅴ片在线观看蜜芽Tⅴ| 午夜a视频| 成人免费网站在线观看| 中国美女**毛片录像在线 | 91探花在线观看国产最新| 天堂网亚洲系列亚洲系列| 99热这里都是国产精品| 人妻熟妇日韩AV在线播放| 国产日本视频91| 丰满少妇αⅴ无码区| 最新痴汉在线无码AV| 18禁黄无遮挡免费动漫网站| 午夜在线不卡| 久久网综合| 香港一级毛片免费看| 亚洲无码高清一区| 玖玖精品在线| 青草精品视频| 欧美精品成人| 亚洲永久免费网站| 伊在人亞洲香蕉精品區| 国产激情国语对白普通话| 毛片卡一卡二| AV熟女乱| 国产午夜在线观看视频| 精品无码一区二区三区电影| 91在线无码精品秘九色APP| 尤物国产在线| 久久不卡国产精品无码| 91福利国产成人精品导航| 91免费国产高清观看| 亚洲欧洲综合| 国产微拍一区二区三区四区| 国产欧美网站| 日韩大片免费观看视频播放| 亚洲国产精品日韩专区AV| 任我操在线视频| 亚洲精品午夜天堂网页| 在线国产毛片| 亚洲成aⅴ人在线观看| 国产欧美视频在线| 欧美一区二区三区欧美日韩亚洲| 国产真实乱了在线播放| 波多野结衣国产精品| 一本色道久久88| 国产亚洲精品97AA片在线播放| 伊人久久久久久久久久| 人与鲁专区| 无码电影在线观看| 国产成a人片在线播放| 欧美日本在线观看| 中文字幕乱码二三区免费| 91免费国产在线观看尤物| 在线观看亚洲精品福利片| 成人国产小视频| 久久91精品牛牛| 中文字幕无码电影| 亚洲女同一区二区| av天堂最新版在线| 久久国产av麻豆| 91丨九色丨首页在线播放 | 国产精品九九视频| 国产精品性| 国产乱子伦手机在线| 国产另类视频| 亚洲热线99精品视频| 成人一级黄色毛片|