999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于SRGAN的圖像超分辨率方法研究

2023-04-13 11:39:56侯開紀葉海洋張莆林
現代計算機 2023年3期
關鍵詞:模型

侯開紀,葉海洋,張莆林,劉 哲

(江漢大學人工智能學院,武漢 430056)

0 引言

隨著當代智能計算機技術和信息技術以及視覺傳遞交互技術的日益成熟,我們已迎來高度信息化的新時代。正因如此,就要求我們對信息處理相關技術進行深入的研究,從而提供更加多元化的選擇。而圖像的處理及其相關分析技術是不可或缺的一環,在日益信息化的場景中應用廣泛[1]。

圖像超分辨率在國防軍事、醫療影像、人臉識別等領域具有廣泛的應用。本文研究基于SRGAN[2]模型的圖像超分辨率技術,通過百度飛槳paddlepaddle[3]訓練了SRGAN 網絡并進行了部署,并根據部署的SRGAN 網絡構建了基于Django技術的圖像超分辨率系統。

本文計劃對神經網絡模型[4]、超分辨率算法等內容進行復現,并且針對存在的問題展開深入研究,對已有模型的不足之處提出改進和優化,最終得到一個理想的超分辨率神經網絡模型。

1 圖像超分辨率重構方法

1.1 分析

SRGAN 是一種基于GAN 模型來對圖像進行超分辨率重建的算法模型,由生成網絡(generator)和判別網絡(discriminator)構成[2]。通過輸入低分辨率的像素圖來輸出其對應的超分辨率像素圖像,將原始分辨率像素圖像和生成的超分辨率像素圖像依次輸入判別網絡,當判別網絡D無法區分二者時,最終達到平衡狀態。SRGAN 就實現了重構超分辨率像素圖像。

訓練SRGAN 模型的過程如下:首先將高分辨率圖像(IHR)進行降采樣得到其對應的低分辨率圖像(ILR),生成網絡將低分辨率圖像經由一個卷積層的處理,獲得該像素圖像的特征及其參數;其次調用激活函數,再通過卷積層獲得該像素圖像的主要特征參數;然后調用殘差模型;再調用批量歸一化(BN)層,殘差模塊重新導入激活函數;最后經過兩次池化層操作,使用亞像素來提高分辨率,獲得對應的超分辨率圖像(ISR)。

1.2 生成器結構

生成器使用SRResNet。其輸入為一張低分辨率圖像(ILR),將卷積層和prelu 函數作為激活函數的激活層來提取淺層的特征參數。將提取到的淺層特征參數傳入殘差塊來提取深層特征參數。最后經由一個上采樣層,生成較高分辨率的像素圖像。如圖1 所示,k表示卷積核尺寸、n表示輸出通道數、s為卷積步長[5]。

圖1 生成網絡結構

1.2.1 殘差塊

殘差塊(如圖2所示)由Conv2D卷積層、Batch-Norm2D函數、prelu函數以及跳過連接(skip connection)組成,其優點是可以避免梯度消失,較為穩定地通過加深層數來提高模型。

圖2 殘差塊

1.2.2 上采樣塊

上采樣層有兩個上采樣塊。上采樣塊包括Conv2D、upscale_factor為2的pixelshuffle和prelu函數。其作用是放大原圖像,獲得更高的分辨率。如圖3所示。

圖3 上采樣塊

1.3 判別器整體結構

判別器用于估計輸入到判別器的是真實的圖像的概率。判別器含有8 個卷積層,從第2 個卷積層開始,每個卷積層后面加一個Batch-Norm 層來歸一化中間層。如圖4所示,k表示卷積核尺寸、n表示輸出通道數、s為卷積步長[5]。

圖4 判別器整體結構

1.4 損失函數

SRGAN 生成的網絡損失函數為感知損失,由兩部分組成:內容損失和對抗損失[5]。

對抗損失方面的計算方法:

其中,DθD表示原始像素圖像的分辨率被成功提升的概率(實現超分辨率),GθD(ILR)表示生成的高清分辨率像素圖像。

本文調用的內容損失函數有兩個:MSEloss[5],表示像素層面的誤差;VGGloss[5]表示激活函數的損失。MSEloss計算方法如下:

VGGloss的計算方法如下:

2 項目實施

2.1 數據集介紹

本文使用CelebA 數據集進行模型的訓練和實驗效果測試,CelebA 是由香港中文大學建立并且開放使用的數據集,其中涵蓋了10177個名人及其相關的202599 張高清圖片,并且全部的像素圖都做好了相關特征標記,從而方便進行模型訓練以及使用,這對圖像超分相關的訓練是非常好用的數據集。本文使用的切塊大小為44 × 44。

2.2 運行環境搭建

本文使用的Linux系統版為4.15.0-140-generic,使用的開發語言是Python 3.7.4,并使用Paddlepaddle 2.0.2框架作為核心深度學習框架。

2.3 對比試驗及改進

為了與SRGAN 作比較,本文同時訓練一個SRResNet 網絡。SRResNet 和SRGAN 的 生 成器進行相同初始化。此外,在卷積層進行卷積操作時,將padding 的大小設置為0,減少卷積運算量。將原圖(IHR)進行壓縮來獲得其對應的低分辨率(ILR)圖。如圖5所示。

圖5 左圖為ILR,右圖為IHR

訓練過程中將batchsize 設置為16,并使用Adam 優化器對梯度的一階矩估計(first moment estimation)和二階矩估計(second moment estimation)進行綜合考慮,計算出更新步長。本文將學習率設置為10-4,β 設置為0.9 進行105迭代后,將學習率調整為10-5繼續迭代。使用損失函數通過反向傳播更新參數,更新整個網絡卷積層的權重。并且為進一步增強數據,本文將測試圖進行隨機旋轉、翻轉和去噪[6]。

訓練過程中關于低分辨率圖、SRResNet、SRGAN以及原圖對比如圖6所示。

圖6 低分辨率圖、SRResNet、SRGAN、原圖對比

3 結語

對于SRGAN 的模型訓練,本文在原基礎上對SRGAN 實現了優化:將原數據進行了數據增強、圖像去噪;在進行卷積操作時,減小padding 的值從而減少卷積運算量;在訓練過程中動態調整學習率。在本文中,按照SRGAN 模型的框架結構:從生成網絡模型到判別網絡模型來實現對應的操作。首先準備好了一定量未結果處理的原始圖像集,將原始像素圖導入到生成器當中,經過多層的卷積、多層的池化處理以后,再次將數據傳輸進入判別器中,得到的相較于原始圖像有更高像素以及清晰度的結果圖像。與原始像素圖和結果圖像進行對比,最終發現結果圖像在像素數增多的同時還不破壞原始像素圖的風格,保證了一定的真實性。[5]

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 成人免费一级片| 免费中文字幕一级毛片| 精品亚洲麻豆1区2区3区 | 毛片网站免费在线观看| 亚洲精品视频免费看| 日本道综合一本久久久88| 国产永久在线视频| 国产精品理论片| www.日韩三级| 国内精自视频品线一二区| 欧美一区二区精品久久久| 亚洲国产高清精品线久久| 日韩无码精品人妻| 天天综合网色中文字幕| www中文字幕在线观看| 无码精品一区二区久久久| 波多野结衣在线一区二区| 91无码人妻精品一区二区蜜桃| 免费无遮挡AV| 91九色视频网| 四虎在线观看视频高清无码| 国内丰满少妇猛烈精品播| 欧美日韩成人| 综合亚洲色图| 国产乱论视频| 国产日韩精品一区在线不卡| 国产日韩欧美在线播放| 国产高清自拍视频| 亚洲第一成年免费网站| 91小视频在线| 亚洲人成影院午夜网站| 国内精自线i品一区202| 国产美女无遮挡免费视频| 欧美一级在线看| 51国产偷自视频区视频手机观看| 国产丝袜无码精品| 国产精品久久自在自线观看| 国产a v无码专区亚洲av| 午夜福利免费视频| 四虎亚洲国产成人久久精品| 久久人人97超碰人人澡爱香蕉| www.亚洲一区二区三区| 国产网友愉拍精品| 国产精品999在线| 欧美日本在线| 亚洲无码高清一区| 一本色道久久88| 人人妻人人澡人人爽欧美一区| 波多野结衣的av一区二区三区| 亚洲成AV人手机在线观看网站| 91在线一9|永久视频在线| 亚洲成人播放| 国产主播喷水| 一区二区三区在线不卡免费| 91精品国产91久久久久久三级| 毛片免费在线视频| 97综合久久| 久久96热在精品国产高清| 国产精品毛片一区视频播| 欧美有码在线| 欧美激情福利| 国产成人91精品免费网址在线| 亚洲国产天堂久久综合226114| 久久香蕉国产线看观看亚洲片| 亚洲美女一区| 国产自产视频一区二区三区| 日本亚洲国产一区二区三区| 亚洲 日韩 激情 无码 中出| 国产福利免费视频| 国产18在线播放| 欧美午夜网| 欧美一级夜夜爽| 日韩天堂视频| 狠狠色婷婷丁香综合久久韩国| 极品国产在线| 熟妇无码人妻| 免费人成视网站在线不卡| 欧美日韩精品综合在线一区| 国产噜噜噜视频在线观看| 国产黄色视频综合| 亚洲婷婷六月| 91免费观看视频|