999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于實例歸一化的圖像超分辨率方法

2021-05-07 10:44:36張魯李坤倫魏澤發柴艷娜
數字技術與應用 2021年3期
關鍵詞:方法

張魯 李坤倫 魏澤發 柴艷娜

(長安大學教育技術與網絡中心,陜西西安 710064)

0 引言

圖像超分辨率是從給定的低分辨率(Low Resolution,LR)圖像y中恢復高分辨率(High Resolution,HR)圖像x,退化模型可以定義為y=D(x),其中D是下采樣。當前,卷積神經網絡(Convolutional Neural Networks,CNN)被廣泛用于圖像超分辨率問題,此類方法假定LR圖像已經具有足夠的信息來預測相應的HR圖像。作為基于CNN的圖像超分辨率方法,SRCNN[1]通過預測LR和HR圖像之間的非線性映射重建高分辨率圖像。VDSR[2]通過采用更深的網絡,并結合殘差學習策略實現了比SRCNN更好的性能。

大多數基于CNN的圖像超分辨率方法都會選擇均方誤差(Mean Square Error,MSE)作為損失函數,MSE具有結構簡單、易于計算的特點,但通過MSE重建的高分辨率圖像過于平滑,針對這一問題本文選擇實例歸一化(Instance Normalization)改善重建圖像紋理和細節不足的缺點。

1 提出的方法

通常隨著網絡加深,非線性變換前的輸入值分布會逐漸偏移,整體分布往非線性函數取值區間的兩端靠近,導致反向傳播到低層神經網絡時梯度消失,這是訓練深度神經網絡收斂越來越慢的主要原因,因此需要利用歸一化技術避免這一問題。

表1 實例歸一化算法Tab.1 Instance Normalization

實例歸一化作為歸一化技術的一種,起初Ulyanov等人[3]將其應用在圖像風格轉換領域,相比批量歸一化能遷移更多的紋理和細節至目標圖像,借助這一特性,本文將實例歸一化用于圖像超分辨率。實例歸一化對一組數據中每個樣本分別做規范化操作,即將數據分布強行變換到均值為0方差為1的標準正態分布,算法如表1所示,使數據落在非線性函數比較敏感的區域,這樣輸入發生較小變化也會使損失函數產生較大變化,從而避免梯度消失的問題。對于一組數據格式為N×C×H×W(其中N為batch,C為channel,H×W為size),由于僅對每個樣本單獨做規范化操作,因此當N變小時需要增大H×W,即提高數據的尺寸,避免數據量過小造成網絡難以收斂。

在基于CNN的圖像超分辨率方法中加入實例歸一化有很多優點:梯度變大也意味著收斂速度變快,從而加快了模型的訓練速度;可以設置更大的學習率;降低了訓練過程中發生梯度爆炸或梯度消失的可能;對于卷積核初始化參數不是很敏感;在一定程度上可以避免過擬合等。

為了驗證實例歸一化的可行性,本文選擇VDSR的網絡結構作為基準,即前19層為卷積層+實例歸一化+ReLU激活函數,濾波器大小設置為3×3×64,最后一層為卷積層重建高分辨率圖像,濾波器大小設置為3×3×3。每一層都設置Padding,以確保經卷積運算的數據尺寸不發生變化。提出的方法同樣采用殘差學習策略,即學習高分辨率圖像和低分辨率圖像間(輸入圖像需經過Bicubic預處理)的殘差圖像。期望的殘差圖像和從噪聲輸入中估計的殘差圖像之間的平均均方誤差作為損失函數。

2 實驗

2.1 實驗環境

本文使用ADAM優化算法,其中beta1=0.9,beta2=0.999,epsilon=1e-8。所有模型共訓練50個epochs,學習率設置為1e-3(1~30epoch)至1e-4(30~50epoch)。選擇Pytorch 1.0深度學習庫驗證本文所有實驗,運行在Ubuntu 16.04+Python 3.6、CUDA9.0+cuDNN的軟件環境,和Xeon E3-1230 CPU、GTX 1080Ti GPU、64 GB RAM的硬件環境。

2.2 質量評估

本文選擇DIV2K作為訓練數據,共包含900張分辨率超過2K的彩色圖像。為了驗證數據尺寸對模型訓練的影響,測試了四種不同的尺寸,包括60×60、120×120、240×240和480×480,對應的batch大小分別為128、32、8和2。選擇常用測試集Set5,Set14和BSD100[4]對提出的模型進行評估,評估方法包括峰值信噪比(PSNR)和結構相似性(SSIM)。

2.3 重建精度對比

由圖1的變化曲線(BSD100數據集,放大倍數為×3)可以看到,模型精度隨訓練數據的尺寸增大而提升,480×480的曲線收斂最快且最平穩,PSNR達到28.85,高于60×60曲線0.85dB,驗證了前一節的觀點,對于加入實例歸一化的網絡,當N變小時需要適當增加H×W才能提高模型的性能。綜上本文基于480×480的訓練數據,對提出的方法(Proposed)和其他圖像超分辨率方法進行對比,包括×2,×3和×4三種放大倍數,與之對比的方法有Bicubic,SelfExSR[5],SRCNN[1],VDSR[2]。由表2可以看到,提出的方法在三個測試集中的表現優異,略高于基于CNN的圖像超分辨率方法VDSR。

2.4 重建視覺對比

圖1 不同尺寸數據收斂曲線Fig.1 Convergence curves of different size

表2 不同方法PSNR對比Tab.2 Comparison of PSNR

圖2 不同方法重建圖像對比Fig.2 Comparison of reconstructed image

視覺質量是圖像質量評估中非常重要的部分,圖2展示了不同超分辨率方法的重建圖像,放大倍數為×4,用于測試的圖像均來自BSD100。本文提出方法的重建圖像具有更多的紋理和細節,邊緣結構更清晰,更接近與原始高清圖像。相比VDSR有效改善了MSE損失函數的缺點,避免了重建圖像過于平滑。

3 結語

本文為基于CNN的圖像超分辨率方法提供了一種思路,借助實例歸一化技術改善重建圖像的視覺效果,證實在圖像超分辨率問題中使用實例歸一化是可行的,即需要用更大尺寸的數據進行訓練。此外,本文提出的方法其重建圖像的精度也略高于同類型方法VDSR。

猜你喜歡
方法
中醫特有的急救方法
中老年保健(2021年9期)2021-08-24 03:52:04
高中數學教學改革的方法
河北畫報(2021年2期)2021-05-25 02:07:46
化學反應多變幻 “虛擬”方法幫大忙
變快的方法
兒童繪本(2020年5期)2020-04-07 17:46:30
學習方法
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
最有效的簡單方法
山東青年(2016年1期)2016-02-28 14:25:23
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 色悠久久久久久久综合网伊人| 亚洲精品卡2卡3卡4卡5卡区| 五月婷婷精品| 中文字幕亚洲乱码熟女1区2区| 欧美日韩91| 亚洲水蜜桃久久综合网站| 国产精品久久久久久久久久98| 国产99精品久久| 成人福利在线免费观看| 午夜a级毛片| 狼友视频国产精品首页| 欧美三级自拍| 中文字幕日韩丝袜一区| 久久久久久久97| 天天综合色天天综合网| 午夜精品一区二区蜜桃| 国产成人免费观看在线视频| 高潮爽到爆的喷水女主播视频 | 日本午夜三级| 亚洲性影院| 欧洲成人在线观看| 在线观看视频99| 一级毛片在线免费看| 国产精品自拍合集| 国产电话自拍伊人| 日本www在线视频| 97狠狠操| 欧美成人在线免费| 一区二区三区成人| 国产永久免费视频m3u8| 国产精品视频久| 久久精品国产亚洲麻豆| AV天堂资源福利在线观看| 成年人视频一区二区| 日韩二区三区| 国产成人h在线观看网站站| 国产美女自慰在线观看| 99re热精品视频国产免费| 国产极品美女在线观看| 国产美女91呻吟求| 天堂va亚洲va欧美va国产| 韩日无码在线不卡| 亚洲第一色网站| 久久永久视频| 国产精品第| 国产小视频免费观看| 日韩免费无码人妻系列| 国产麻豆aⅴ精品无码| 欧美国产日韩另类| 狼友视频国产精品首页| 这里只有精品在线播放| 国产激情无码一区二区APP| 尤物亚洲最大AV无码网站| 国产精品成人免费视频99| 一本色道久久88亚洲综合| 国产三级国产精品国产普男人| 高清精品美女在线播放| 日本91在线| 久久人与动人物A级毛片| 毛片免费在线| 国产精品伦视频观看免费| 露脸真实国语乱在线观看| 最新无码专区超级碰碰碰| 亚洲精品第一页不卡| 欧美黄色a| 欧美日韩资源| 亚洲人成色77777在线观看| 美女被操黄色视频网站| 国产精品极品美女自在线网站| 色悠久久久| A级毛片高清免费视频就| 国产美女无遮挡免费视频网站| 国产91精选在线观看| 国产精品任我爽爆在线播放6080| 亚洲第一区在线| 91精品伊人久久大香线蕉| 国产精品美女在线| 精品国产自在在线在线观看| 日韩在线2020专区| 亚洲欧洲日产国码无码av喷潮| 波多野结衣在线一区二区| 99尹人香蕉国产免费天天拍|