999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于生成對抗網絡的圖像修復算法

2020-08-31 06:13:40王可新
智能計算機與應用 2020年4期
關鍵詞:區域方法模型

王可新, 王 力

(貴州大學 大數據與信息工程學院, 貴陽550000)

0 引 言

隨著人工智能技術的快速發展,圖像作為攜帶信息的主要載體之一,其作用不言而喻。 然而現實生活中,時常會出現圖像不完整的現象,比如年代久遠造成文物破損、圖像傳遞過程中隱藏內容等,都會導致一定程度的圖像中所攜帶的信息丟失,因此如何對這些受損進行圖像修復成為計算機視覺中的一個重要問題。

在計算機的圖形學中,圖像的修復有3 種方法:一種是傳統的基于結構的方法,這種方法可以合成比較合理的靜態紋理特征,但僅適用于受損區域較小的圖像;第二種是基于紋理合成的圖像修復,此方法可以從圖像中其他完整區域選擇與缺失區域紋理相同的樣本塊。 但當涉及語義圖像損失時,此方法在缺失區域的細節方面恢復的很差,因此需要1 個額外的部件提供合理的想象力,比如來自機器的幻覺,即第三種方法,基于深度學習的圖像修復。

本文提出的圖像修復算法則是基于深度學習生成對抗網絡[1]。 與以往圖像修復算法不同,該算法包含2 個判別器網絡模型,即全局判別器和局部判別器。 模型的網絡結構都是采用卷積神經網絡來實現。

1 相關工作

以前已經提出過多種用于圖像修復的方法,傳統的基于結構的圖像修復方法采用擴散原理,將可見區域的信息傳播到缺失區域。 其主要采用高階偏微分方程模型算法(PDE 算法)。 PDE 算法又命名為BSCB 修補模型,模型原理是沿著等照度線方向擴散到待修復區域,但未顧及圖像的細節部分,修復效果較差[2]。 隨后出現了全變分模型(TV 模型),然而只對填充小的破損區域或者去除雜散的噪聲是有用的。

與基于結構的方法相比,紋理合成的方法可以修 復 大 一 些 的 破 損 區 域[4-6]。 比 如 典 型 的PatchMatch 方法,此方法在圖像的可用部分搜索類似的紋理結構,其高質量和高效率迅速成為當時最成功的修復方法[7]。 但是這種方法假設可以在其他地方找到修復區域的紋理,這種假設并不是一直會成立,如果缺失區域很大,則很難修復。

用來進行圖像修復的第一種深度學習方法Context Encoder,使用編碼器-解碼器結構[8]。 編碼器將缺失區域的圖像映射到低維度特征空間,解碼器用它來構造輸出圖像。 但是該方法存在修復邊緣處不連續的問題,修補痕跡明顯,視覺效果較差。 上述方法采用監督學習的方式,2014 年GAN 由Ian Goodfellow 首次提出,GAN 采用的是一種無監督的學習方式訓練。 針對Context Encoder 的問題,Iizuka等人使用兩個判別器使得缺失區域和整張圖像在視覺上合理化,本文則是基于Iizuka 等人的基礎上采用感知損失和MSE 損失函數相結合的方法訓練生成對抗網絡。

2 網絡結構

2.1 生成對抗網絡

網絡主體采用生成對抗網絡(GAN),GAN 的產生其中心思想為“二人零和博弈”[9],與其他普通網絡不同,生成對抗網絡由兩個模型組成,一個是用來生成數據的生成模型G,另一個是用來判別生成樣本真假性的判別模型D。 如圖1 所示生成模型G 以1 個隨機噪聲作為輸入,將其生成1 張偽造的樣本,判別器模型D 以真實樣本或者偽造樣本作為輸入,預測該樣本是真實的還是偽造的。 生成網絡的目的是能夠欺騙判別器網絡,因此隨著逐步的迭代訓練,生成網絡生成越來越逼真的樣本像,甚至可以達到以假亂真的效果,以至于判別器無法判斷其真偽性;在這個過程中,判別器也在不斷的提高自己辨別真偽的能力,使得生成器能夠生成更加真實的樣本。

圖1 GAN 模型Fig.1 GANmodel

2.2 生成器

生成器采用Iizuka 等提出的網絡結構模型,網絡模型采用典型的編碼器-解碼器結構。 編碼器采用帶掩碼的圖像作為輸入,通過下采樣進行圖像的特征提取,解碼器通過這些特征恢復為原始的分辨率,生成圖像中掩碼部分的內容[10]。 在圖像修復任務中,通常想要了解更多的圖像中潛在的特征,因此網絡模型中間采用了擴張卷積,擴張卷積在基礎的卷積核上加入間隔,在不損失特征圖尺寸的情況下增大了感受野,從而獲取圖像中更多的信息。 總的來說,生成器包括六次下采樣的編碼器,接著是三次擴張卷積和將圖像上采樣到原始尺寸的解碼器。 生成器的整體組成如圖2 所示。 應當注意的是,網絡結構中并未使用池化層,而是將卷積步幅設置為2,將待修復圖像的大小縮小為原來的一半,生成器網絡模型僅僅降低了兩次分辨率,使用大小為原始大小四分之一的卷積,其目的是為了降低最終圖像的紋理模糊程度。 此外,隨著卷積網絡層數的加深,數據的波動浮動較大,會大大的降低網絡訓練的速度。因此,本文除了網絡的最后一層不使用批量歸一化處理,其余所有層都使用批量歸一化處理[11];同時除最后一層卷積使用Tanh 函數外,其余所有層都使用Relu 激活函數。

圖2 生成器模型Fig.2 Generator model

2.3 判別器

通過對生成器使用損失函數訓練后,生成器對缺失區域進行補全。 但是補全的效果并不能保證與真實圖像保持一致。 為了圖像生成的更加真實合理,在本文中引入全局判別器和局部判別器來鑒定圖像是真實圖像還是生成器修復的圖像。 判別器的主要作用是通過與生成器不斷的對抗訓練,最終能夠更準確的識別真假圖像。 同樣地,判別器也由一系列卷積層組成,如圖3 所示。

圖3 判別器模型Fig.3 Discriminator model

全局判別器的輸入為完整的整幅圖像,網絡由5 個卷積層和1 個全連接層組成。 全局判別器從整體上判斷生成的圖像是否真實合理,即整幅圖像的上下文信息是否一致。 局部判別器的輸入為整幅圖像的一半,網絡由4 個卷積層和1 個全連接層組成,局部判別器只檢測以補全區域為中心的部分,用來判斷局部修復的紋理特征是否合理。 局部判別器與全局判別器相同,除網絡最后一層外,所有層都使用批量歸一化處理。 同時,兩個判別器除了最后一層使用sigmoid 激活函數,其余卷積層都是使用relu 激活函數。 最后,將兩個判別器最后輸出的向量連接到一起,得到1 個2048 維的向量,向量最后使用sigmoid 激活函數,生成0 ~1 之間的數值,這個數值的大小決定了輸入圖像為真實圖像的概率。

3 損失函數

通過縮小修復圖像與真實圖像之間的距離來達到修復缺失圖像的目的,因此本文采用感知損失[12-13]與MSE 損失相結合的方式來訓練生成器模型。 其次,使用GAN 損失聯合更新判別器和生成器模型,使得生成的圖像更加真實。

GAN 損失采用生成對抗網絡的對抗訓練策略,其本質是求最大最小的優化問題。 這體現了生成器不斷優化自己,生成更加真實的圖像欺騙判別器,判別器也不斷更新優化,使得能夠正確的區分真偽圖像。 GAN 損失的表達式(1):

其中,Pdata(x) 為真實數據x 的分布, Pz(z) 為噪聲變量z 的分布,G(z) 為生成器的輸出。

生成器的損失函數包含兩個部分,MSE 損失函數表示為(2):

其中,X 為待修復的圖像M 時輸入的掩碼,×為像素的乘積。

感知損失函數,使用預訓練的VGG19 的relu 激活層輸出的特征圖。 在本文實驗中,特征圖選擇relu1-1,relu2-1,relu3-1 三層的輸出。 感知損失定義為(3):

CjHjWj表示第j 層特征圖的大小,?j是預訓練網絡第j 層的特征圖。

綜合上述GAN 損失函數和生成器損失函數可得(4):

其中,α,β 為訓練時的權重。

4 實驗

4.1 實驗平臺及內容

本實驗基于windows 操作系統的tensorflow 框架下運行,python 為編程語言。 實驗設備CPU:Inter i7-8700,GPU:RTX2070S-8G,內存:16G。

實驗的數據集為celebA 人臉數據集,原始數據集大小為178×218,在模型訓練時將圖片縮為128×128 的圖像,全局判別器的輸入為128×128,而局部判別器的輸入大小為修復區域為中心的64×64。 實驗選取數據集的100 000 張圖像,其中80 000 張用來模型的訓練,20 000 張用來模型的測試。 在訓練過程中,生成器的網絡迭代20 000 次,判別器網絡迭代10 000 次,生成器和判別器聯合迭代70 000 次。

4.2 實驗過程

本文的訓練分成3 個階段。 首先,利用感知損失和MSE 對生成器進行訓練,使之生成大致的修復圖片;其次,固定生成器,根據上一階段訓練的生成器對判別器進行訓練,利用GAN 損失對判別器迭代更新;最后,對生成器和判別器一起訓練,直至訓練結束。 后續采用泊松圖像混合對圖像進行處理。

4.3 評估標準

實驗結果的評估標準由定性分析和定量分析兩部分組成,將本文的實驗結果與自動編碼器、DCGAN以及Context Encoder 這3 種不同的方法進行比較。在定性分析中,3 種對比方法中的視覺圖像效果引用文獻[15]中的效果圖。 為了直觀的比較,本文把最后的修復效果圖裁剪為相同的人臉位置。 各個方法的修復圖如圖4(從左至右分別為待修復圖、自動編碼器、DCGAN、Context Encoder、本文、原圖)所示。

圖4 對比圖Fig.4 Comparison picture

由圖4 可知,自動編碼器方法的效果最差,這是因為自動編碼器只由生成器模型生成,無法將損失降到最小,修復區域出現了結構扭曲現象;對比自動編碼器,DCCGAN 方法的圖像修復效果從內容上保持了一致性,但是圖像的局部細節修復的效果較差;Context Encoder 方法在內容和局部細節上都表現較好,但邊緣連接區域修復痕跡明顯,缺乏視覺連通性。 本文方法與Context Encoder 方法相比,修復效果與原始圖像更加相似,邊緣修復痕跡也比較淡。

定量分析使用峰值信噪比(PSNR)和結構相似性(SSIM)兩個指標來衡量圖像的修復效果。 PSNR是常用的判斷圖像質量的評價指標,雖然有時會出現數值結果與人的主觀感受不一致的情況,但仍然可以作為一個有效的評判標準。 其主要比較圖像對應像素之間的差別,PSNR 數值越大,表明失真越小。 另一個主要的評價標準SSIM,從亮度、對比度和結構3 個方面來衡量,用均值作為亮度的估計,標準差作為對比度的估計,協方差作為結構相似程度的度量。 得到的數值大小體現了兩幅圖像的相似程度,數值越大,代表兩幅圖像差距越小,修復的效果越好。 計算的結果如表1、表2 所示。

表1 不同圖像補全方法的PSNR 值Tab.1 The PSNR of different image completion methods dB

表2 不同圖像補全方法的SSIM 值Tab.2 The SSIM of different image completion methods

5 結束語

基于生成對抗網絡模型對圖像進行修復,生成器采用編碼器-解碼器結構,判別器全局判別器和局部判別器,用來保證整體修復的一致性和局部信息細節的合理性。 訓練過程使用基于VGG 預訓練特征圖的感知損失與MSE 相結合訓練生成模型,修復效果與自動編碼器、DCGAN 以及Context Encoder方法進行比較。 根據定量分析和定性分析可知,本文方法實現了較好的修復效果。 然而模型的修復效果非常依賴訓練集,對于除人臉修復的其他圖像修復,則需要重新訓練數據集,對于建筑物及風景的修復則需要進一步的研究與訓練。

猜你喜歡
區域方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
關于四色猜想
分區域
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
基于嚴重區域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
主站蜘蛛池模板: 日本欧美成人免费| 精品成人一区二区三区电影 | 日本在线免费网站| 一本大道无码日韩精品影视| a毛片在线播放| 一本久道久久综合多人| 尤物亚洲最大AV无码网站| 无码日韩视频| 亚洲第一成年人网站| 久久大香香蕉国产免费网站| 欧美色图第一页| 欧美三级视频网站| 久久鸭综合久久国产| 中文字幕乱妇无码AV在线| 久久免费观看视频| 久久天天躁狠狠躁夜夜躁| 久久久受www免费人成| 免费看一级毛片波多结衣| 无码区日韩专区免费系列| 人妖无码第一页| 91在线播放国产| 国产凹凸视频在线观看| 国产情侣一区二区三区| 片在线无码观看| 国产美女91视频| 最新加勒比隔壁人妻| 福利姬国产精品一区在线| 伊伊人成亚洲综合人网7777| 成人毛片在线播放| 亚洲成在人线av品善网好看| 自拍偷拍欧美日韩| 亚洲欧美日韩另类| 欧洲在线免费视频| a毛片免费观看| 日韩无码黄色网站| 好吊色国产欧美日韩免费观看| 国产在线观看精品| 福利片91| 国产精品免费p区| 亚洲欧美国产五月天综合| 91精品aⅴ无码中文字字幕蜜桃| 天堂在线亚洲| 国产成人精品在线| 久草视频精品| 国产精品伦视频观看免费| 99re精彩视频| 女人av社区男人的天堂| 免费高清毛片| 日韩精品少妇无码受不了| 国产视频a| 香蕉伊思人视频| 1024你懂的国产精品| 一区二区三区四区日韩| 亚洲国产成人综合精品2020| 国产精品视频a| 亚洲国产清纯| 亚洲色欲色欲www网| 欧美日韩一区二区在线免费观看 | 亚洲色图另类| 精品免费在线视频| 亚洲AⅤ无码日韩AV无码网站| 亚洲综合色婷婷中文字幕| 免费看美女毛片| 无码精品国产dvd在线观看9久 | 亚洲最黄视频| 久久久黄色片| 亚洲狠狠婷婷综合久久久久| 日韩在线观看网站| 国产91线观看| 91欧洲国产日韩在线人成| 大香网伊人久久综合网2020| 日韩专区欧美| 国产欧美综合在线观看第七页 | 久久 午夜福利 张柏芝| 国产成人h在线观看网站站| 精品久久蜜桃| 四虎综合网| 无码高清专区| 青青草91视频| 日本在线视频免费| 青青草原国产av福利网站| 色噜噜在线观看|