999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于雙流循環映射網絡的肖像漫畫化

2023-02-21 00:34:42孔凡敏普園媛趙征鵬鄧鑫陽秋霞
計算機應用研究 2023年12期

孔凡敏 普園媛 趙征鵬 鄧鑫 陽秋霞

摘 要:肖像風格遷移旨在將參考藝術肖像畫中遷移到人物照片上,同時保留人物面部的基本語義結構。然而,由于人類視覺對肖像面部語義結構的敏感性,使得肖像風格遷移任務比一般圖像的風格遷移更具挑戰性,現有的風格遷移方法未考慮漫畫風格的抽象性以及肖像面部語義結構的保持,所以應用到肖像漫畫化任務時會出現嚴重的結構坍塌及特征信息混亂等問題。為此,提出了一個雙流循環映射網DSCM。首先,引入了一個結構一致性損失來保持肖像整體語義結構的完整性;其次,設計了一個結合U2Net的特征編碼器在不同尺度下幫助網絡捕獲輸入圖像更多有用的特征信息;最后,引入了風格鑒別器來對編碼后的風格特征進行鑒別,從而輔助網絡學習到更接近目標圖像的抽象漫畫風格特征。實驗與五種先進方法進行了定性及定量的比較,該方法均優于其他方法,其不僅能夠完整地保持肖像的整體結構和面部的基本語義結構,而且能夠充分學習到風格類型。

關鍵詞:雙流循壞映射網絡;U2Net;結構一致性損失;肖像漫畫化;風格鑒別器

中圖分類號:TP391?? 文獻標志碼:A?? 文章編號:1001-3695(2023)12-053-3854-05

doi:10.19734/j.issn.10013695.2023.05.0226

Portrait caricature based on doublestream cycle mapping network

Abstract:Portrait artistic style transfer aims to transfer the style from a given reference artistic portrait painting to a portrait photo while preserving the basic semantic structure of the persons face.However,due to the sensitivity of the human visual system to the facial structure of person,the task of artistic style transfer of portraits is often more challenging than that for general image,especially for caricature type which with more abstract style elements.Existing image style transfer methods,which do not consider the abstraction of the caricature style and the preservation of basic semantic structure of the portrait face,often suffer from serious structural collapse and feature information confusion when applied to the portrait caricature task.To address this problem,this paper proposed a doublestream cycle mapping DSCM(doublestream cycle mapping network) network to portrait caricature.Firstly,based on BeautyGAN,it introduced a structural consistency loss and cooperating with the cycle consistency loss to maintain the integrity of the overall semantic structure of the portrait.Secondly,it designed a feature encoder combined with U2Net to capture more valuable feature information of input images at different scales.In addition,it further introduced a style discriminator to discriminate the encoded style features to assist the network in learning abstract caricature style features closer to the target image.The experiments conducted qualitative comparisons of five advanced methods,and quantitative comparisons of FID(Fréchet inception distance) and PSNR(peak signal to noise ratio) index scores.The experimental results show that this method is superior to other methods.Through extensive experimental verification,the portrait caricature obtained by this method not only maintains the overall structure of the portrait and the basic semantic structure of the face,but also fully learns the abstract style of caricature.

Key words:doublestream cycle mapping network;U2Net;structure consistency loss;portrait caricature;style discriminator

0 引言

漫畫是一種獨特且當下較為流行的藝術表現形式,通常使用稀疏且連續的圖形元素集(如線條)來表達人物的獨特外觀,并且在局部陰影和色調渲染等方面也具有較大的差異性。因此,即便是當前比較出色的圖像藝術風格遷移方法[1~3],應用在肖像漫畫化上也會出現許多問題。

近年來受深度學習在圖像處理領域有效性的啟發,Gatys等人[4]通過引入卷積神經網絡(CNN)將風格特征從目標圖像轉換到內容圖像中,實現了一般圖像的風格遷移,由此開拓了神經風格遷移(NST)的新領域。隨后,基于生成對抗網絡(GAN)的風格遷移方法[5~8],通過利用配對/不配對照片集和風格化圖像集進行學習,在許多風格遷移任務上也取得了很大的成功。然而,現有的方法主要應用于比較雜亂的風格,如油畫風格,在風格化的圖像中通常包含了許多零散的圖形元素,如不完整的畫筆筆觸,并且對單個風格元素的質量要求相對較低,即瑕疵不那么明顯。而漫畫則不同于油畫、素描等藝術風格,它僅包含少量稀疏且連續的圖形元素,通常以簡單且流暢的線條來描繪人物肖像的輪廓,在恰當的位置使用陰影和色調來表達人物的個性特點,并且具有較強的語義約束。

CartoonGAN[8]和WhiteBox[9]針對抽象的卡通風格特征采取了對應措施,并在一般風景圖像的卡通化上取得了令人驚艷的效果,但由于它們未考慮如何保持肖像的整體輪廓和面部基本語義完整性,所以應用在肖像風格遷移上會出現嚴重的面部結構變形。Li等人[10]開發了一種深度生成對抗網絡BeautyGAN,實現了實例級的面部妝容遷移,能夠在轉移不同妝容風格的同時,較好地保持人物肖像面部結構的完整性。Yi等人[11]在分層生成器和鑒別器的基礎之上,結合全局和局部網絡構建了一個新穎的APDrawingGAN架構,該模型首次在黑白肖像畫和藝術線條畫上取得了出色的效果,但該方法需要使用配對的數據集進行訓練,由于獲得配對的數據集成本高昂且耗時,這大大限制了它的應用。為了解決文獻[11]中的配對數據集問題,并將人臉照片轉換為肖像畫,Yi等人[12]又重新構建了一種新的非對稱循環映射網絡,并通過放松的前向循環一致性損失,解決了傳統CycleGAN[6]中傾向于在整個繪圖過程中不加選擇地嵌入不可見的重建信息的問題。但該方法需要使用配對的人臉MASK來訓練局部鑒別器,這實際上也增加了其網絡訓練的復雜度。

綜上所述,為了解決以上問題,本文在BeautyGAN[10]的基礎上進行優化拓展,提出了一個雙流循環映射網絡(doublestream cycle mapping network,DSCM)的肖像漫畫化方法。同時,也解決了文獻[11,12]中的配對數據集和配對人臉MASK等問題。

本文工作的主要貢獻有以下三個方面:

a)提出了一個雙流循環映射網絡實現了人物肖像照片漫畫化任務,通過訓練優化該網絡能夠生成高質量且具有藝術表現力的肖像漫畫。同時解決了抽象藝術風格遷移不充分的問題。

b)引入了結構一致性損失函數并協同循環一致性損失來保持肖像整體語義結構的完整性,解決了肖像風格遷移任務中常見人物五官坍塌和輪廓變形的問題。

c)為了促使網絡更加充分地提取和學習抽象的漫畫風格,設計了一個結合U2Net的特征編碼器,從不同尺度上捕獲輸入圖像更多有用的局部和全局特征信息;同時,引入風格鑒別器來輔助該特征編碼器更加充分地學習風格特征。

1 相關工作

GAN的提出在深度學習領域掀起了一場巨大的革命并且隨之帶來了許多技術性的突破。它最厲害的地方是其學習性質是無監督的,訓練過程不需要標記數據,解決了枯燥的數據標記工作問題,這也使得它的功能強大。

在風格遷移的任務中,CycleGAN對于僅涉及紋理和顏色改變的圖像風格遷移時往往具有比較突出的效果,但不能用于幾何變換,例如,對于高度抽象的肖像藝術風格遷移時,往往會出現嚴重的輪廓坍塌。Li等人[10]提出了BeautyGAN,它通過兩個生成器之間的循環映射以及直方圖匹配損失,實現了實例級的面部妝容遷移,但應用于抽象的漫畫風格時無法較好地保持肖像五官的整體布局。另外,GANILLA[13]和WhiteBox[9]也實現了現實照片到高度抽象的插畫風格和卡通風格的轉換,雖然它們可以適應高度抽象的藝術風格,但由于其網絡設計只關注紋理和顏色的提取,僅在一般的風景照片上效果良好,而應用于肖像照片時同樣也會出現嚴重的肖像輪廓坍塌。為了生成高質量的卡通化人臉,并同時保持輸入肖像的基本面部特征,Wu等人[14]提出了利用面部關鍵點來輔助CycleGAN,利用面部關鍵點一致性損失并指導局部鑒別器的訓練,該方法可以生成高質量的卡通化面孔,但它依賴于標記的面部關鍵點。Futschik等人[15]在條件生成對抗網絡(CGAN)[16]的基礎上,開發出了一種基于學習的人物肖像風格遷移算法,證明了將基于補丁的合成方法與圖像到圖像轉換網絡的強大功能相結合的巨大優勢。然而,該算法需要利用Fier等人[17]提出的基于肖像視頻風格化技術來生成配對的訓練數據,這種對配對數據的依賴在一定程度上限制了它的應用范圍。

上述基于GAN的肖像風格遷移算法在多種藝術繪畫風格上取得了一定的效果。然而,這些方法在處理高度抽象的藝術風格時,往往不能兼顧風格與肖像的基本面部特征;另一方面,它們為了能夠保持肖像的輪廓完整性,往往會使用難以獲取的配對數據集或者相應配對肖像的MASK,而這也增加了網絡訓練的復雜度。

為了解決上述問題,本文構建了一個非對稱雙流循環映射網絡DSCM來適應不同的風格類型,提出了一個新穎的具有U型嵌套結構的風格編碼器,它能夠有效幫助編碼器從多個不同尺度下提取參考圖像的風格信息。另外,還引入了一個風格鑒別器來鑒別風格編碼器提取后的風格特征。同時,采用特征拼接操作來進行內容—風格的特征融合,相比當前基于注意力機制特征融合的網絡,它減少了網絡的計算量以及訓練空間。

2 主要方法

本文構建的DSCM模型的主體框架是基于CycleGAN架構的。為了使生成器能夠滿足循環映射條件,本文將生成器拓展為雙輸入/雙輸出結構,以此來增加其反向映射過程。DSCM中的生成器有助于平衡兩個域之間差異性的非對稱結構,但將其風格編碼器修改為 U 型嵌套結構以能夠在多個尺度下捕捉目標圖像中的風格信息。此外,為了提高網絡性能,同時能夠減少網絡的計算量和所需占用空間,DSCM模型采用了特征拼接進行原始內容—風格特征的融合,利用風格鑒別器來保證其風格特征學習的質量。

為了便于描述,本文將兩個域的數據集分別表示為PEuclid Math TwoRApH×W×3(肖像照片數據集)和SEuclid Math TwoRApH×W×3(肖像漫畫數據集)。其中兩個域中的圖像完全是非配對的,即任意的肖像漫畫Iref∈S都不是某個肖像照片Isrc∈P對應的漫畫。

本文構建的DSCM網絡包含兩個生成器(GP→S,GS→P)和三個鑒別器,分別為兩個域鑒別器(DP,DS)和一個風格鑒別器(Dstyle)。其中:P→S表示將肖像照片映射到漫畫風格域,S→P則與之相反;DP用于鑒別生成的圖像是否屬于P域,DS用于鑒別生成的圖像是否屬于S域,Dstyle用于鑒別生成器中風格特征編碼器編碼后的風格特征的正負。DSCM網絡的總體目標是將參考的肖像漫畫Iref∈S中的抽象漫畫風格元素遷移到真實的人物肖像照片Isrc∈P中去,從而實現肖像漫畫化,其整體結構如圖1所示。

網絡同時學習兩個域之間的映射,即G:P×S→S×P。也就是說,將肖像照片Isrc∈P和參考的肖像漫畫Iref∈S同時作為輸入,網絡通過訓練學習后能夠生成一幅肖像照片對應的肖像漫畫ISsrc和一幅由參考的肖像漫畫重建而來的肖像照片IPref,其中,ISsrc具有Iref∈S的漫畫風格元素并同時保留Isrc∈P的整體輪廓和面部的基本語義特征,也是網絡的最終生成目標。具體過程如下所示:

(Isrc,Iref)→GP→S(Isrc,Iref)→(ISsrc,IPref)(1)

(ISsrc,IPref)→GS→P(ISsrc,IPref)→(Irecsrc,Irecref)(2)

(Irecsrc,Irecref)≈(Isrc,Iref)(3)

為了使生成的肖像漫畫能夠保持原始肖像照片中人物輪廓的完整性和面部基本語義的正確性,本文在肖像照片Isrc∈P和生成的肖像漫畫ISsrc之間設計了一個結構一致性損失來避免肖像結構坍塌;并在生成器中設計了兩個結合U2Net[18]的特征編碼器(內容編碼器U2EP,風格編碼器U2ES)以在不同尺度下捕獲輸入圖像更多有用的特征信息;另外,還進一步引入了風格鑒別器來對編碼器編碼后的風格特征進行鑒別,從而輔助特征編碼器學習到更接近參考圖像的抽象漫畫風格。

2.1 生成器網絡框架

本文的生成器采用雙輸入/雙輸出的雙流結構,具體包含內容編碼器U2EP、風格編碼器U2ES、特征融合模塊(feature fusion)和兩個解碼器(decoder),如圖2所示。其中,特征融合模塊是一個簡單的特征拼接操作且兩個解碼器結構相同,由一系列卷積組成。生成器同時接收肖像照片Isrc∈P和參考的肖像漫畫圖像Iref∈S作為輸入,在經過訓練后,生成肖像照片對應的肖像漫畫作品ISsrc以及由肖像漫畫重建而來的肖像照片IPref,即

(ISsrc,IPref)=GP→S(Isrc,Iref)(4)

考慮到肖像漫畫是一種特征元素稀疏且較為抽象的藝術風格類型,傳統的卷積神經網絡通常使用的1×1或3×3大小的卷積核。由于其較小的感受野而無法捕獲輸入圖像的全局特征,從而難以學習到有用的特征信息。本文設計了一種結合U2Net的特征編碼器作為生成器中的內容編碼器U2EP和風格編碼器U2ES,能夠從不同尺度下提取肖像照片和肖像漫畫更多有用的特征信息。

2.2 U2Net特征編碼器

局部和全局特征信息對于圖像的風格遷移任務來說都具有非常重要的意義。因此,為了能夠充分地提取輸入圖像中重要的特征信息,本文引入了一種具有嵌套UNet結構的U2Net來設計網絡中的編碼器,其中,內容編碼器U2EP和風格編碼器U2ES設計為相同的結構。U2Net結構由于混合了不同大小的感受野,所以能夠從不同尺度上捕獲圖像更多的特征信息,并且其中的池化操作使網絡在不增加計算成本的情況下,進一步擴展其深度。U2Net具體結構如圖3所示。

輸入圖像首先經過卷積操作初步提取得到低層特征:

f0=conv(I)(5)

特征圖隨后傳輸到U2Net塊中進行充分編碼。該U2Net結構總共由7個階段組成:一個4階段編碼器,一個3階段解碼器及一個與解碼器階段和最后一個編碼器階段相連的特征圖融合模塊,如圖3(a)所示。其具體過程可表述如下:

其中:i和j分別表示U2Net中編碼器和解碼器階段的編號。編碼器階段En_1、En_2是由不同高度的殘差U型塊組成的,解碼器階段De_1、De_2與之類似,如圖3(b)所示。由于En_3、En_4和De_3中的特征圖分辨率相對較低,所以采用了擴張卷積來代替殘差U型塊中的池化和采樣操作,即En_3、En_4和De_3中所有中間特征圖與其輸入特征圖有相同的分辨率,如圖3(c)所示。通過該結構能夠更有效地提取階段內多尺度特征和階段間多尺度特征的聚合。

2.3 風格鑒別器

網絡的目標是在數據集完全不配對的情況下學習兩個視覺域PEuclid Math TwoRApH×W×3和SEuclid Math TwoRApH×W×3之間的映射。如圖1所示,為了能夠充分學習風格特征,本文在網絡中引入了一個風格鑒別器Dstyle來區分風格編碼器編碼后的風格特征U2Es(Iref)和U2Es(Issrc)哪個為正哪個為負,同時也可以促使風格編碼器U2ES以及生成器學習生成Dstyle無法區分的風格特征。

2.4 目標函數

本文網絡框架的整體目標損失包含對抗性損失、循環一致性損失、結構一致性損失三種類型。

LG=αLadv+βLcyc+γLSC(9)

其中:α、β、γ為權重因子,用于控制每項損失之間的相對平衡。

1)對抗性損失Ladv 對抗性損失包含三項,主要由DP、DS和Dstyle的目標函數構成:

Ladv=LDP+LDS+LDstyle(10)

首先給出DP和DS的目標函數,它們僅包含對抗性損失。DP目標是將生成的IPref與真實的肖像照片區分開,由公式表示為

LDP=Euclid Math TwoEApIsrc[log DP(Isrc)]+Euclid Math TwoEApIsrc,Iref[log(1-DP(IPref))](11)

同樣地,DS的目標是區分生成的圖像ISsrc與參考的肖像漫畫Iref。由公式表示為

LDS=Euclid Math TwoEApIref[log DS(Iref)]+Euclid Math TwoEApIsrc,Iref[log(1-DS(ISsrc))](12)

此外,Dstyle的目標函數僅包括風格對抗性損失,用于鑒別編碼后的風格特征的正負。由公式表示為

LDstyle=Lstyleadv(U2Euclid Math TwoEAps,Dstyle)=Euclid Math TwoEApS[log Dstyle(U2Es(Iref))+

log(1-Dstyle(U2Euclid Math TwoEAps(Issrc)))](13)

2)循環一致性損失Lcyc 為了幫助生成器GP→S生成的圖像保留更多的有效信息,本文還在重構圖像Irecsrc、Irecref與其分別對應的原始圖像Isrc∈P、Iref∈S之間施加循環一致損失約束。其公式表示如下:

Lcyc=Euclid Math TwoEApIsrc,Iref[‖Isrc,Irecsrc‖2+‖Iref,Irecref‖2](14)

3)結構一致性損失LSC Lcyc雖然能夠在一定程度上幫助網絡約束生成圖像與原始圖像之間語義的一致性,但在局部區域的生成上仍然存在瑕疵,因此本文通過在肖像照片Isrc和生成的對應肖像線漫畫ISsrc之間施加結構相似性約束,迫使生成器生成與肖像照片具有一致肖像語義結構的肖像漫畫,從而防止肖像整體結構坍塌的問題。

LSC=SSIM(Isrc,ISsrc)(15)

3 實驗驗證

3.1 數據集與實驗細節

1)數據集 本文實驗使用的肖像漫畫風格數據集(github/photo2cartton)和肖像照片數據集(seeprettyface)完全是非配對的,所有圖像均被裁剪為256×256。其中風格圖像總共包含2 400張高質量的肖像漫畫,隨機選擇2 350張作為訓練集,剩下的50張作為測試集;人物肖像照片總共包含2 812張,隨機選擇其中的2 556張作為訓練集,剩下的256張作為測試集。

2)實驗實現細節 實驗訓練和測試的所有環節均在PyTorch平臺下完成,模型的全部訓練過程在NVIDIA Tesla V100(顯存32 GB)上進行,輸入圖像和輸出圖像的分辨率均為256×256,初始學習率為0.000 2,批量大小設置為1,權重因子α、β中的設置分別為10和0.05,DSCM模型在單塊V100 GPUs上訓練的時長約為40 h,總共迭代次數為100個epoch。

3.2 結果與討論

本文從對比實驗和消融實驗兩個方面來討論模型的效果。實驗選擇的對比方法包括CNNMRF[19]、ASTMAN[2]、CycleGAN、GANILLA、WhiteBox和BeautyGAN五種。此外,受文獻[9,20]的啟發,本文還采用了FID、PSNR等指標對對比實驗結果進行了定量分析。FID用于衡量生成圖像與參考風格圖像特征向量之間的距離,PSNR用于衡量生成圖像的視覺質量。

3.2.1 對比實驗

將本文的DSCM網絡與CNNMRF、ASTMAN、CycleGAN、GANILLA、WhiteBox、BeautyGAN六種模型進行定性比較,如圖4所示。

與本文提出的DSCM生成的結果相比,CNNMRF幾乎不能學到目標風格的特征信息,并且肖像輪廓出現了比較嚴重的偽影以及五官錯位現象,如圖4(a)所示,而且CNNMRF與其他所有的方法相比,在視覺上都呈現了最差的效果。

ASTMAN在肖像整體語義結構上保持良好,但對于風格特征的學習非常不到位,并且顏色渲染不均勻的問題非常突出,如圖4(b)所示,第一行和第三行生成結果的頭發有大量的留白,最后兩行的結果存在嚴重的偽影。

將GANILLA和CycleGAN與本文的DSCM生成結果相比較,本文方法可以很好地保持原始肖像照片的輪廓信息,而GANILLA和CycleGAN出現了比較嚴重的輪廓線條的扭曲變形以及偽影,如圖4(c)(d)所示的最后兩行生成的結果幾乎丟失了原始照片人臉的輪廓信息。

WhiteBox作為一種出色的圖像卡通化方法,在肖像漫畫化任務上并不出色,對肖像漫畫風格的學習程度與ASTMAN類似,并且還出現了肖像部分輪廓缺失的問題,如圖4(e)第三行生成的結果丟失了部分頭發區域,而本文方法很好地保留了原始肖像照片的區域信息。

BeautyGAN在女性面部妝容遷移上具有出色的效果,然而應用于抽象的漫畫風格時,同樣也出現了許多小瑕疵,如圖4(f)中標注的框內所示,肖像的鼻子出現了偽影并且在肖像面部出現了錯誤的陰影,而本文方法在這些區域都生成了更加真實光滑的結果。

與現有的六種模型相比較,本文方法生成的肖像漫畫既完整地保持了肖像照片正確的基本語義特征,又充分捕捉到了抽象的漫畫風格特征,如圖4(g)所示。另外,為了更加客觀地展示本文方法的良好性能,采用FID、PSNR指標對相關的實驗結果進行了定量分析,如表1所示,無論是風格還是圖像的生成質量,本文的各項指標均優于對比算法。

3.2.2 消融實驗

為了驗證本文模型的有效性,對模型的三個關鍵組件進一步進行了消融實驗,分別為LSC、Dstyle以及U2Net特征編碼器,并對相應的消融實驗結果進行了定性和定量分析。

1)結構一致性損失LSC 在去掉LSC約束的情況下,網絡合成的肖像漫畫明顯地出現了五官變形扭曲的現象,如圖5(a)中標注框內所示。加入該結構一致性損失后,得到的肖像漫畫避免了肖像面部結構的坍塌,與原始的肖像照片保持了較高的結構相似性,如圖5(b)所示。

2)風格鑒別器Dstyle 如圖6(a)所示,在無Dstyle的情況下,網絡合成的肖像漫畫的某些區域無法成功地學習到目標風格,例如頭發等。如圖6(b)所示,引入Dstyle之后生成的肖像漫畫,無論從局部還是全局學到的風格都比較和諧且線條流暢。

3)U2Net特征編碼器。如圖7(a)所示,在無U2Net特征編碼器的情況下,即使用一般卷積層代替U2Net結構時,雖然網絡生成的肖像漫畫結構和風格保持良好,但卻丟失了一些人物細節,使得肖像漫畫的整體風格不夠生動。而在引入U2Net特征編碼器后生成的肖像漫畫具有更加豐富且生動的人物細節。

本文對消融實驗進行了一系列的指標分數評價。如表2所示,對風格影響較大的是風格鑒別器Dstyle,對生成圖像質量影響較大的是結構一致性損失LSC。

為了進一步證明本文模型對不同肖像照片的適應性,對不同人物類型的肖像照片進行了實驗驗證。如圖8所示,本文的模型對兒童肖像照片、不同性別的男女青年肖像照片以及不同人種的歐美超模的肖像照片均有良好的適應性。

4 結束語

本文基于BeautyGAN,提出了一個雙流循環映射(DSCM)網絡來實現肖像照片漫畫化的方法。在輸入支路中引入了具有嵌套結構的U2Net塊作為特征編碼器以捕捉輸入圖像中不同尺度大小的特征信息,從而促使網絡能夠充分學習抽象的漫畫風格元素,同時還引入了風格鑒別器來輔助該特征編碼器更加充分地學習風格特征;在肖像照片與生成的對應肖像漫畫之間施加了結構一致性損失約束,并聯合循環一致性損失來解決肖像整體結構坍塌的問題。實驗表明,本文方法生成的肖像漫畫不僅在肖像的整體結構上保持良好,而且能夠保留肖像人物的基本面部語義特征,并且還可以充分地學習到參考的肖像漫畫風格。

參考文獻:

[1]An Jie,Li Tao,Huang Haozhi,et al.Realtime universal style transfer on highresolution images via zerochannel pruning [EB/OL].(20200616) .https://arxiv.org/pdf/2006.09029v2.pdf.

[2]Deng Yingying,Tang Fan,Dong Weiming,et al.Arbitrary style transfer via multiadaptation network[C]//Proc of the 28th ACM International Conference on Multimedia.New York:ACM Press,2020:2719-2727.

[3]張美玉,劉躍輝,秦緒佳,等.基于拉普拉斯算子抑制偽影的神經風格遷移方法[J].計算機科學,2020,47(11):209214.(Zhang Meiyu,Liu Yaohui,Qin Xujia,et al.A neural style transfer method based on Laplacian operator to suppress artifacts [J].Computer Science,2020,47(11):209-214.)

[4]Gatys L A,Ecker A S,Bethge M.Image style transfer using convolutional neural networks [C]//Proc of the 36th IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2016:2414-2423.

[5]Isola P,Zhu Junyan,Zhou Tinghui,et al.Imagetoimage translation with conditional adversarial networks[C]//Proc of the 37th IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2017:11251134.

[6]Zhu Junyan,Park T,Isola P,et al.Unpaired imagetoimage translation using cycleconsistent adversarial networks[C]//Proc of the 16th IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2017:2223-2232.

[7]Azadi S,Fisher M,Kim V,et al.Multicontent GAN for fewshot font style transfer[C]//Proc of the 38th IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:75647573.

[8]Chen Yang,Lai Yukun,Liu Yongjin.CartoonGAN:generative adversarial networks for photo cartoonization[C]//Proc of the 38th IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:94659474.

[9]Wang Xinrui,Yu Jinze.Learning to cartoonize using whitebox cartoon representations[C]//Proc of the 40th IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:8090-8099.

[10]Li Tingting,Qian Ruihe,Dong Chao,et al.BeautyGAN:instancelevel facial makeup transfer with deep generative adversarial network[C]//Proc of the 26th ACM International Conference on Multimedia.New York:ACM Press,2018:645653.

[11]Yi Ran,Liu Yongjin,Lai Yukun,et al.APDrawingGAN:generating artistic portrait drawings from face photos with hierarchical GANs[C]//Proc of the 39th IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:1074310752.

[12]Yi Ran,Liu Yongjin,Lai Yukun,et al.Unpaired portrait drawing generation via asymmetric cycle mapping[C]//Proc of the 40th IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:82178225.

[13]Hicsonmez S,Samet N,Akbas E,et al.GANILLA:generative adversarial networks for image to illustration translation[J].Image and Vision Computing,2020,95:103886.

[14]Wu Ruizheng,Gu Xiaodong,Tao Xin,et al.Landmark assisted CycleGAN for cartoon face generation [EB/OL].(2019-07-02).https://arxiv.org/pdf/1907.01424v1.Pdf.

[15]Futschik D,Chai Menglei,Cao Cheng,et al.Realtime patchbased stylization of portraits using generative adversarial network[C]//Proc of the 8th ACM/Eurographics Expressive Symposium on Computational Aesthetics and Sketch Based Interfaces and Modeling and NonPhotorealistic Animation and Rendering.New York:ACM Press,2019:3342.

[16]Mirza M,Osindero S.Conditional generative adversarial nets[EB/OL].(201411-06).https://arxiv.org/abs/1411.1784.

[17]Fier J,Jamriska O,Simons D,et al.Examplebased synthesis of stylized facial animations[J].ACM Trans on Graphics,2017,36(4):111.

[18]Zhang Kaihao,Luo Wenhan,Ma Lin,et al.Disentangled feature networks for facial portrait and caricature generation[J].IEEE Trans on Multimedia,2022,24:13781388.

[19]Li Chuan,Wand M.Combining Markov random fields and convolutional neural networks for image synthesis[C]//Proc of the 36th IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2016:24792486.

[20]Liao Jing,Yao Yuan,Yuan Lu,et al.Visual attribute transfer through deep image analogy[J].ACM Trans on Graphics,2017,6:115.

[21]Yang Shuai,Jiang Liming,Liu Ziwei,et al.Pastiche master:exemplarbased highresolution portrait style transfer[C]//Proc of the 42nd IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:76837692.

[22]Karras T,Laine S,Aittala M,et al.Analyzing and improving the image quality of StyleGAN[C]//Proc of the 40th IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:81108119.

[23]Qin Xuebin,Zhang Zichen,Huang Chenyang,et al.U2Net:going deeper with nested Ustructure for salient object detection [J].Pattern Recognition,2020,106:107404.

主站蜘蛛池模板: 91国内视频在线观看| 亚洲欧美不卡| 国产精品不卡片视频免费观看| 伊人精品视频免费在线| 国产无码制服丝袜| 手机永久AV在线播放| 欧美在线网| 全部免费特黄特色大片视频| 老司机午夜精品视频你懂的| 日本成人一区| 欧美成人精品一级在线观看| 成人免费黄色小视频| 免费人成黄页在线观看国产| …亚洲 欧洲 另类 春色| 国产精品色婷婷在线观看| 日本福利视频网站| 少妇被粗大的猛烈进出免费视频| 精品超清无码视频在线观看| 国产91精品久久| 国产大片喷水在线在线视频| 欧美啪啪精品| 亚洲天堂在线免费| 91在线一9|永久视频在线| 综合色88| 国产国拍精品视频免费看| 亚洲三级成人| 国语少妇高潮| 精品剧情v国产在线观看| 四虎永久在线视频| 好久久免费视频高清| 久久成人国产精品免费软件| 91成人免费观看| 女高中生自慰污污网站| 波多野结衣一区二区三区AV| 国产又黄又硬又粗| 日本欧美中文字幕精品亚洲| 亚洲无码久久久久| 国产av无码日韩av无码网站| 亚洲一区二区在线无码| 国产偷国产偷在线高清| 9久久伊人精品综合| 久久无码免费束人妻| 国产福利观看| a毛片在线| 丰满少妇αⅴ无码区| 国产日韩精品欧美一区喷| 国模沟沟一区二区三区| 无码高潮喷水专区久久| 中文无码日韩精品| 日韩精品一区二区三区大桥未久| 国产欧美亚洲精品第3页在线| 日本一本正道综合久久dvd| 国产网友愉拍精品| 成人综合久久综合| 四虎AV麻豆| 99久久精品美女高潮喷水| 老司机aⅴ在线精品导航| 亚洲愉拍一区二区精品| 精品超清无码视频在线观看| 亚洲精品福利视频| 久久网欧美| 91精品国产自产在线老师啪l| 亚洲日本精品一区二区| 欧美激情福利| 色香蕉影院| 欧美h在线观看| 欧美亚洲中文精品三区| 国产综合无码一区二区色蜜蜜| 国产精品开放后亚洲| 视频一区亚洲| 秋霞一区二区三区| 亚洲不卡影院| 欧美日韩综合网| 伊人久久精品无码麻豆精品| 在线观看欧美精品二区| 波多野结衣无码视频在线观看| 青青青伊人色综合久久| 国产极品嫩模在线观看91| www.狠狠| 国产精品香蕉在线观看不卡| 欧美三級片黃色三級片黃色1| 她的性爱视频|