999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于生成對(duì)抗網(wǎng)絡(luò)的動(dòng)漫頭像生成研究

2021-07-20 11:25:55彭章龍
軟件工程 2021年6期
關(guān)鍵詞:深度學(xué)習(xí)

摘 ?要:在深度學(xué)習(xí)中,數(shù)據(jù)是三大核心要素之一。尤其在某些領(lǐng)域,數(shù)據(jù)的稀有、人工標(biāo)注造成大量人力的浪費(fèi)、數(shù)據(jù)好壞對(duì)產(chǎn)出結(jié)果的影響,都顯現(xiàn)出數(shù)據(jù)的重要性。鑒于在動(dòng)漫領(lǐng)域中,人物的制作需要花費(fèi)大量的人力和時(shí)間,所以從動(dòng)漫頭像出發(fā),基于生成對(duì)抗網(wǎng)絡(luò),結(jié)合編碼器、殘差網(wǎng)絡(luò)、解碼器,經(jīng)過(guò)編碼器改變圖像的維度,最后利用解碼器將提取到的特征數(shù)據(jù)生成近似于原始圖像的數(shù)據(jù)集。生成對(duì)抗網(wǎng)絡(luò)本身固有的缺點(diǎn)會(huì)導(dǎo)致最后的效果并不是很好,于是嘗試對(duì)生成對(duì)抗網(wǎng)絡(luò)進(jìn)行深度卷積的改進(jìn),再加上WGAN的梯度懲罰思想來(lái)優(yōu)化自編碼器基礎(chǔ)上的生成對(duì)抗網(wǎng)絡(luò)。

關(guān)鍵詞:深度學(xué)習(xí);生成對(duì)抗網(wǎng)絡(luò);數(shù)據(jù)生成;深度卷積

中圖分類(lèi)號(hào):TP391 ? ? 文獻(xiàn)標(biāo)識(shí)碼:A

Abstract: In deep learning, data is one of the three core elements. Especially in some fields, scarcity of data, manpower waste caused by manual labeling, and the impact of data quality on the output results all show the importance of data. As in animation field, production of characters takes a lot of time and manpower, this paper starts from animation profile picture and combines encoder, residual network and decoder based on Generative Adversarial Network. After the encoder changes the dimension of the image, the decoder is used to generate a dataset similar to the original image with extracted feature data. The inherent shortcomings of the Generative Adversarial Network itself will lead to an unideal final effect, so the author tries to improve the Generative Adversarial Network by deep convolution, coupled with the gradient penalty idea of WGAN (Wasserstein Generative Adversarial Network) to optimize the Generative Adversarial Network based on the autoencoder.

Keywords: deep learning; Generative Adversarial Network; data generation; deep convolution

1 ? 引言(Introduction)

生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)于2014年被在蒙特利爾讀博士的Ian Goodfellow提出,在之后的幾年,一直都處于火熱研究對(duì)象的狀態(tài)之中[1],且于2016年席卷AI領(lǐng)域頂會(huì),深度學(xué)習(xí)三大馬車(chē)之一的Yann LeCun曾形容它為“20年來(lái)深度學(xué)習(xí)領(lǐng)域最酷的構(gòu)想”。生成對(duì)抗網(wǎng)絡(luò)被廣泛應(yīng)用于圖像生成[2]、圖像轉(zhuǎn)換[3]、圖像修復(fù)[4],在目標(biāo)檢測(cè)[5]、行人識(shí)別[6]等方面也有著重要的輔助作用。大量的研究者希望將生成對(duì)抗網(wǎng)絡(luò)應(yīng)用于各個(gè)領(lǐng)域,例如有在醫(yī)學(xué)領(lǐng)域的研究者希望借助生成對(duì)抗網(wǎng)絡(luò)的學(xué)習(xí)方式及其學(xué)習(xí)能力來(lái)生成藥學(xué)分子結(jié)構(gòu)和合成新材料的配方。

2 ? 生成對(duì)抗網(wǎng)絡(luò)(Generative adversarial network)

2.1 ? 網(wǎng)絡(luò)結(jié)構(gòu)與原理展示

生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)因?yàn)橛兄鴺O好的生成能力以及效果而得到了廣泛的認(rèn)知,其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

它同時(shí)包含了判別式模型和生成式模型。生成式模型是為了產(chǎn)生與來(lái)自真實(shí)數(shù)據(jù)相似的數(shù)據(jù),讓判別式模型誤以為是真實(shí)數(shù)據(jù),而判別式模型是為了極力地判斷出其數(shù)據(jù)并不是真實(shí)的數(shù)據(jù),將其與真實(shí)的數(shù)據(jù)分別開(kāi)來(lái)。

在判別式模型和生成式模型兩者互相對(duì)抗學(xué)習(xí)的情況下,判別式模型的判斷會(huì)讓生成式模型逐漸產(chǎn)生逼近于真實(shí)的數(shù)據(jù),同時(shí)生成式模型在生成近似于真實(shí)數(shù)據(jù)的時(shí)候,判別式模型的判別能力也會(huì)增強(qiáng),努力找尋兩者數(shù)據(jù)之間的差距,將兩者區(qū)別開(kāi)來(lái)。到最后,生成式模型會(huì)擁有生成真實(shí)數(shù)據(jù)分布的能力,判別式模型會(huì)因?yàn)樯墒侥P湍芰Φ脑鰪?qiáng)而增強(qiáng),對(duì)生成樣本判斷為虛假樣本的性能增強(qiáng)。

整個(gè)過(guò)程與畫(huà)家成長(zhǎng)過(guò)程相似,畫(huà)家不斷學(xué)習(xí)自己的畫(huà)與名畫(huà)之間的差距,畫(huà)出的畫(huà)更接近名畫(huà)來(lái)干擾鑒畫(huà)師,而鑒畫(huà)師也會(huì)不斷學(xué)習(xí)鑒別假畫(huà)與真畫(huà)之間差距的能力。

生成對(duì)抗網(wǎng)絡(luò)采用博弈論中零和博弈游戲的思想,以期達(dá)到納什均衡點(diǎn)。

生成式模型不斷生成數(shù)據(jù)分布,判別式模型判斷數(shù)據(jù)是否為真實(shí)數(shù)據(jù),兩者相互對(duì)抗,到最后兩者都學(xué)習(xí)到最優(yōu)狀態(tài)。

編碼器部分用來(lái)提取數(shù)據(jù)特征,卷積之后進(jìn)行實(shí)例歸一化(Instance Normalization, IN),激活函數(shù)用Relu。

ResNet部分用來(lái)結(jié)合特征,同樣使用IN層,將PRelu用作激活函數(shù),保留特征,丟失最小的特征信息,組成新的具有相似信息的特征組合。

解碼器部分將經(jīng)過(guò)ResNet部分的特征數(shù)據(jù)轉(zhuǎn)換成特征圖。

4.4 ? 判別式模型

判別式模型與生成式模型形成競(jìng)爭(zhēng)關(guān)系,判別式模型的鑒別能力對(duì)生成式模型生成的圖片存在質(zhì)量影響。考慮到在梯度傳播過(guò)程中,參數(shù)在更新的時(shí)候梯度會(huì)出現(xiàn)消失的情況,在卷積操作之后加入批量歸一化的操作處理方式,以此來(lái)保證判別式模型的穩(wěn)定訓(xùn)練,之后再加入Leaky-Relu激活函數(shù)(參數(shù)化修正線(xiàn)性單元),保證Relu優(yōu)點(diǎn)的時(shí)候,不會(huì)出現(xiàn)Dead Relu的問(wèn)題。

4.5 ? 結(jié)果

生成結(jié)果圖如圖4所示。

兩個(gè)模型的學(xué)習(xí)率都是0.002。學(xué)習(xí)率增加,收斂速度也增加的同時(shí)會(huì)出現(xiàn)生成式模型倒塌,而將學(xué)習(xí)率降為0.002時(shí),生成式模型倒塌的次數(shù)也會(huì)下降,相對(duì)穩(wěn)定。

訓(xùn)練時(shí)間較長(zhǎng),生成的圖像有屬于失敗的情況,但是對(duì)于大多數(shù)圖像來(lái)說(shuō)屬于良好的情況。

5 ? 結(jié)論(Conclusion)

本文將已有的自編碼器與ResNet在生成對(duì)抗網(wǎng)絡(luò)上進(jìn)行動(dòng)漫頭像的生成,本著無(wú)監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)方向上對(duì)智能發(fā)展的引導(dǎo),在自編碼器學(xué)習(xí)特征的過(guò)程中加入判別信息,經(jīng)過(guò)懲罰傳遞判別信息,中間殘差網(wǎng)絡(luò)提高數(shù)據(jù)特征,以此重構(gòu)具有相似特征的動(dòng)漫圖像。

在將來(lái)如果有更好的條件將彌補(bǔ)本文的不足,使用性能更強(qiáng)的GPU增加網(wǎng)絡(luò)參數(shù),擴(kuò)大網(wǎng)絡(luò)規(guī)模,以期生成分辨率更高的圖像,解決復(fù)雜度以及多樣性問(wèn)題。

參考文獻(xiàn)(References)

[1] CRESWELL A, WHITE T, DUMOULIN V, et al. Generative adversarial networks: An overview[J]. IEEE Signal Processing Magazine, 2018, 35(1):53-65.

[2] HUANG H, YU P S, WANG C H. An introduction to image synthesis with generative adversarial nets[DB/OL]. [2018-03]. https://arxiv.org/pdf/1803.04469.pdf.

[3] 朱海峰,邵清.基于深度學(xué)習(xí)的圖像風(fēng)格轉(zhuǎn)換研究[J].軟件,? ? ?2020,41(3):102-106,117.

[4] DEMIR U, UNAL G. Patch-based image inpainting with generative adversarial networks[DB/OL]. [2018-03].https://arxiv.org/pdf/1803.07422.pdf.

[5] PRAKASH C D, KARAM L J. It GAN DO better: GAN-based detection of objects on images with varying quality? ? ?[DB/OL]. [2019-12]. https://arxiv.org/pdf/1912.01707.pdf.

[6] GE Y X, LI Z W, ZHAO H Y, et al. Fd-gan: Pose-guided feature distilling gan for robust person re-identification[DB/OL]. [2018-10]. https://arxiv.org/pdf/1810.02936.pdf.

[7] 張恩琪,顧廣華,趙晨,等.生成對(duì)抗網(wǎng)絡(luò)GAN的研究進(jìn)展[J].計(jì)算機(jī)應(yīng)用研究,2021,38(04):968-974.

[8] LECUN Y, BENGIO Y, HINTON G. Deep learning[J]. Nature, 2015, 521(7553):436-444.

作者簡(jiǎn)介:

彭章龍(1995-),男,碩士生.研究領(lǐng)域:圖像處理.

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類(lèi)器的圖書(shū)館亂架圖書(shū)檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 国产av无码日韩av无码网站 | 久草视频精品| 亚洲一区无码在线| 天天躁狠狠躁| 婷婷综合色| 女人av社区男人的天堂| 呦视频在线一区二区三区| 日本久久网站| 试看120秒男女啪啪免费| 91小视频版在线观看www| 在线a网站| 国产一级一级毛片永久| 日韩精品亚洲人旧成在线| 亚洲无码在线午夜电影| 久久影院一区二区h| 欧美啪啪网| 亚洲欧美在线综合一区二区三区| 久久国产av麻豆| 午夜视频免费试看| 免费jizz在线播放| 久久综合色天堂av| 国产精品yjizz视频网一二区| 爱色欧美亚洲综合图区| a级毛片免费网站| 丁香婷婷激情综合激情| 精品国产www| 亚洲日韩精品欧美中文字幕| 成人免费黄色小视频| 国产Av无码精品色午夜| 91精品专区国产盗摄| 国产尤物在线播放| 国产精品视频999| 亚洲一区色| 日韩人妻无码制服丝袜视频| 日韩精品视频久久| 精品人妻无码中字系列| 久久一日本道色综合久久| 成人午夜免费视频| 91最新精品视频发布页| 免费激情网址| 国产精品露脸视频| 大香网伊人久久综合网2020| 亚洲国产综合精品一区| 欧美成人影院亚洲综合图| 国产精品亚洲精品爽爽| 午夜福利视频一区| 国内a级毛片| 久久网欧美| 一级成人a毛片免费播放| 免费观看亚洲人成网站| 韩日无码在线不卡| 日韩在线视频网| 久久青草视频| 强乱中文字幕在线播放不卡| 久久精品国产91久久综合麻豆自制| 国产激爽爽爽大片在线观看| 伊在人亚洲香蕉精品播放| 98超碰在线观看| 伊人久久精品亚洲午夜| 99在线视频网站| 国产va在线| 波多野结衣久久高清免费| 91精品国产一区自在线拍| 亚洲系列无码专区偷窥无码| 亚洲中文字幕久久精品无码一区| 久996视频精品免费观看| 亚洲国产亚洲综合在线尤物| 91精品最新国内在线播放| 最新亚洲av女人的天堂| 久久免费观看视频| 精品综合久久久久久97| 四虎AV麻豆| 欧美成人在线免费| 国产视频入口| 无码精品福利一区二区三区| 日韩欧美91| 中文字幕在线欧美| 综合色88| 亚洲av色吊丝无码| 精品一区二区三区自慰喷水| 免费亚洲成人| 日韩经典精品无码一区二区|