999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多級連續編碼與解碼的圖像超分辨率重建算法

2023-10-08 02:28:32宋昭漾趙小強惠永永蔣紅梅
浙江大學學報(工學版) 2023年9期
關鍵詞:特征

宋昭漾,趙小強,惠永永,蔣紅梅

(1.蘭州理工大學 電氣工程與信息工程學院,甘肅 蘭州 730050;2.甘肅省工業過程先進控制重點實驗室,甘肅 蘭州730050;3.蘭州理工大學 國家級電氣與控制工程實驗教學中心,甘肅 蘭州 730050)

圖像超分辨率重建旨在從低分辨率(lowresolution, LR)圖像中重建出一副對應的高分辨率(high-resolution, HR)圖像, 是計算機視覺的重要分支[1-2], 在生活中具有廣泛的應用場景[3-5].許多深度學習[6-8]的算法致力于通過構建更深或更寬的神經網絡模型來學習LR圖像和HR圖像之間復雜的映射關系[9-12].

基于卷積神經網絡的圖像超分辨率重建算法(super-resolution convolutional neural network,SRCNN)[13]率先通過建立卷積神經網絡來學習LR圖像到HR圖像的映射關系.雖然該算法較傳統算法的性能有較大提升, 但是算法建立的神經網絡模型結構比較簡單(僅有3個卷積層), 導致該網絡模型的學習性能有限.有研究者在卷積神經網絡的基礎上提出一系列基于神經網絡的圖像超分辨率重建算法, 如基于快速的卷積神經網絡圖像超分辨率重建算法(fast super-resolution convolutional neural network, FSRCNN)[14]和基于高效的亞像素卷積網絡圖像超分辨率重建算法(Efficient sub-pixel convolutional neural network,ESPCN)[15].雖然這些算法擁有較強的學習復雜映射關系的能力, 但是在訓練過程中容易造成梯度爆炸.基于深度卷積網絡的圖像超分辨率重建算法(very deep convolution network super-resolution,VDSR)[16]在加深網絡深度和擴大網絡感受野的同時引入殘差學習.基于遞歸神經網絡的圖像超分辨率重建算法(deeply-recursive convolutional network, DRCN)[17]在殘差學習的基礎上引入全局殘差網絡.基于增強的深度殘差網絡圖像超分辨率重建算法(enhanced deep residual network for single image super-resolution, EDSR)[18]引入局部殘差并去除了殘差塊中的批歸一化層,能夠構建更深的神經網絡來學習復雜映射關系.基于密集跳線連接的圖像超分辨率重建算法(super-resolution using dense network, SRDenseNet)[19]將密集連接網絡應用于圖像超分辨率重建, 有效抑制了梯度消失問題.基于殘差密集網絡的圖像超分辨率重建算法(residual dense network, RDN)[20]在密集塊的開頭和結尾增加殘差連接和卷積運算進行特征降維, 使模型具有更強的學習能力.這些算法同等對待圖像的低、高頻特征, 耗費了大量的計算量卻未獲得圖像的深層特征.受深度神經網絡蓬勃發展的影響, 有研究者提出用各種網絡結構和學習機制來實現更好的圖像重建性能.如1)基于深度殘差通道注意力網絡的圖像超分辨率重建算法(residual channel attention network, RCAN)[21]引入通道注意機制來重點關注圖像的高頻特征并獲得更好的性能, 2)基于注意力網絡的注意力圖像超分辨率圖像算法(attention in attention network,A2N)[22]引入注意力丟失機制來動態調整注意力的權重.這些算法難以獲取LR內部的多層次信息.

1 多級連續編碼與解碼網絡

1.1 模型框架

如圖1所示為多級連續編碼與解碼的圖像超分辨率重建算法模型框架示意圖.該模型框架主要由3個部分組成, 分別為初始特征提取操作、深度特征提取操作、上采樣和重建操作.當LR圖像輸入該算法模型時, 1)由卷積核為3×3的卷積層進行初始特征提取:

圖1 多級連續編碼與解碼的圖像超分辨率重建算法的模型框架Fig.1 Model framework of image super-resolution reconstruction algorithm based on multi-level continuous encoding and decoding

式中:ILR為低分辨率圖像,F0為獲得的LR圖像初始特征,C3為卷積核為3×3的卷積層運算.該卷積層的輸入通道數為3, 輸出通道為64.2)淺層特征由K個端對端連接的多級連續編碼與解碼的注意力殘差模塊進行深度特征提取, 提取的深度特征由卷積核為3×3的中間卷積層進行融合:

式中:H1、HK分別為第1個和第K個多級連續編碼與解碼的注意力殘差模塊運算,Ff為提取到的深度特征.中間卷積層的輸入通道和輸出通道都為64.3)LR圖像的初始特征和深度特征通過全局殘差連接結合在一起, 由上采樣模塊和重建卷積層組合模塊進行上采樣和重建:

式中:Hup為上采樣模塊的運算,ISR為重建的SR圖像,Fup為上采樣的特征.重建卷積層的輸入通道數為64, 輸出通道數為3.本研究使用的上采樣模塊為亞像素卷積層.

1.2 連續編碼與解碼

圖像內部特征信息比較復雜且有連續相關性, 為此在編碼與解碼模型的基礎上構建連續編碼與解碼模型, 對比示意圖如圖2所示.

圖2 2種編碼與解碼模型的對比示意圖Fig.2 Comparison diagram of two encoding and decoding models

假設基于編碼與解碼模型的輸入為x, 輸出為y, 運算式為

式中:HEn為編碼器的運算,HDe為解碼器的運算.式(5)表示大小為H×W×C的輸入特征x經過編碼器的運算變成大小為H×W×C/r的特征, 該特征經過解碼器的運算恢復成大小為H×W×C的圖像特征,其中r為壓縮系數.

原題:The 2011 MW9.0Tohoku earthquake:Comparison of GPS and strong-motion data

連續編碼與解碼模型不僅通過多個編碼器對大小為H×W×C/r的特征進行連續編碼和解碼,還在相鄰的編碼器之間增加殘差塊來避免在連續編碼過程中信息丟失;同樣地, 該模型在相鄰的解碼器之間增加殘差塊來避免在連續解碼過程中信息恢復不充分.連續編碼與解碼模型的運算式為

式中:HE1n、HEnn分別為連續編碼器中第1個編碼器和第n個編碼器的運算,HD1e、HDne表示連續解碼器中第1個解碼器和第n個解碼器的運算,HRes為殘差塊的運算.式(6)表示大小為H×W×C的輸入特征x經過多個連續的編碼器和殘差塊的組合模塊運算得到大小為H×W×C/rk的特征, 該特征經過多個連續的編碼器和殘差塊的組合模塊運算得到大小為H×W×C/r的最終的編碼特征;對稱地,得到的編碼特征經過多個解碼器和殘差塊的組合模塊運算恢復成大小為H×W×C/rk的特征, 該特征經過多個連續的解碼器和殘差塊的組合運算恢復成大小為H×W×C的圖像特征.

1.3 多級連續編碼與解碼

圖像的像素級信息分為多個層次, 有容易重建的特征信息(如圖像輪廓), 有難以重建的特征信息(如圖像內部紋理和邊緣),為此在連續編碼與解碼模型的基礎上設計如圖3所示的多級連續編碼與解碼模型.該模型由3個不同層級的編碼與解碼塊組成, 能夠分別獲取不同層級的圖像特征信息, 該模型中第1層級的編碼與解碼塊進行圖像淺層的、容易提取的特征提取, 第2層級的連續編碼與解碼塊進行復雜的圖像特征提取, 第3層級的連續編碼與解碼塊進行深層的、難以提取的圖像特征提取.具體來說, 第1層級的編碼與解碼塊通過編碼器先對特征進行編碼, 再用解碼器對編碼的特征進行解碼來獲得特征:

圖3 多級連續編碼與解碼模型示意圖Fig.3 Schematic diagram of multi-level continuous encoding and decoding model

1.4 多級連續編碼與解碼的注意力殘差模塊

多級連續編碼與解碼模型的輸出包括圖像內部的淺層特征、復雜特征和深層特征, 其中淺層特征容易提取且需要的計算量較小, 深層特征難以提取并需要的計算量較大.如果在提取圖像內部的特征時平等地對待這些特征, 則會消耗很大的計算量.在有限的計算量情況下, 為了合理分配計算量并盡可能地提取到圖像內部的豐富特征, 設計如圖4所示的多級連續編碼與解碼的注意力殘差模塊.該模塊在多級連續編碼與解碼模型的基礎上, 對3個層級的解碼特征進行注意力運算.具體來說, 該模塊1)對3個層級的解碼特征進行級聯運算, 并用1×1卷積層進行融合:

圖4 多級連續編碼與解碼的注意力殘差模塊結構示意圖Fig.4 Schematic diagram of attention residual module structure of multi-level continuous encoding and decoding

式中:Concat(·)為級聯運算,C1為卷積核為1×1的卷積層運算,FDe為融合后的解碼特征.2)對融合后的解碼特征進行注意力運算,包括擠壓、激勵和重新校準操作3個過程.擠壓操作是通過全局平均池化層將融合后的解碼特征壓縮到通道描述符zc中 :

式中:W11、W12分別為2個1×1卷積層的不同權重,δ為ReLU激活函數的運算,σ為Sigmoid激活函數的運算.重新校準操作是通過乘法重新校準解碼特征中包含的淺層特征、復雜特征和深層特征的權重:

式中:為校準后的解碼特征.3)通過局部殘差連接將輸入的圖像特征與校準后的解碼特征結合, 更新后的圖像特征為

2 實驗結果與分析

2.1 實驗設備

深度學習框架為Pytorch0.4, 編程語言為Python3.6, 訓練和測試使用的平臺為Ubuntu18.04,CPU為Inter i9-9900 K, 內存為64 G, 使用的GPU為RTX 2080 Ti, 顯存為11 G.

2.2 實驗數據集

訓練集為DIV2K[23]數據集, 該數據集包含800張高清的HR圖像, 100張驗證圖像和100張測試圖像.使用Bicubic算法處理HR圖像, 生成對應的放大倍數分別為2、3、4的LR圖像.為了擴展數據集, 先對HR圖像和不同放大倍數下的LR圖像按照旋轉角度分別為90°、180°、270°進行旋轉, 再按照比例系數分別為0.6、0.7、0.8、0.9進行縮放, 最后對這些圖像進行裁剪.

測試集為Set5[24]、Set14[25]、BSD100[26]和Urban100[27]數據集, 分別包含5、14、100、100張不同風格的圖像(如人像、動物、風景、建筑物等).使用Bicubic算法生成和HR圖像對應的放大倍數分別為2、3、4的LR圖像.

2.3 訓練和測試細節

所提算法在深度特征提取中使用64個多級連續編碼與解碼的注意力殘差模塊.本研究使用的損失函數為L1損失函數,使用Adam[28]優化算法對損失函數進行優化.網絡訓練過程中設置的批次大小為16, 迭代輪次epoch=1 000, 學習率初始為0.000 1;epoch每隔200,學習率降為原來的一半.所提算法在測試過程中使用的性能評價指標為峰值信噪比(peak signal to noise ratio, PSNR)和結構相似度[29](structural similarity index, SSIM), 在YCbCr通道中的Y通道進行測試圖像性能測試.

2.4 實驗結果與分析

將主流的7種算法(Bicubic、SRCNN[13]、FSRCNN[14]、VDSR[16]、DBPN[30]、RFDN[31]和A2N[22])與所提算法進行算法性能的對比測試.分別在放大倍數為2、3和4的情況下,使用不同算法測試Set5、Set14、BSD100和Urban100數據集, 測試結果如表1~3所示.相比主流算法, 在放大倍數為2、3的情況下,所提算法測試4個數據集的性能評價指標均為最優, 實現了PSNR、SSIM的較大提升.相比主流算法, 在放大倍數為4的情況下,所提算法測試Urban100數據集的性能評價指標最優.具體來說, 對于測試集Set5、Set14、BSD100、Urban100,當放大倍數為2時, 所提算法獲得的PSNR比DBPN算法獲得的次優PSNR分別提升0.08、0.09、0.01、0.19 dB;當放大倍數為3時, 所提算法獲得的PSNR比A2N算法獲得的次優PSNR分別提升0.11、0.07、0.06、0.25 dB.當放大倍數為4時,對于Urban100測試集, 所提算法獲得的PSNR比DBPN算法獲得的次優PSNR值提升0.03 dB;當放大倍數為2、4時, 所提算法獲得的SSIM比DBPN算法獲得的次優SSIM分別提升0.001 8、0.002 8;當放大倍數為3時, 所提算法獲得的SSIM比A2N算法獲得的次優SSIM提升0.006 4.所提算法在特征提取過程中通過多級連續編碼與解碼的注意力殘差塊,獲取不同層級的圖像特征信息, 為不同層級的圖像特征信息分配不同計算量的權重, 能夠盡可能多地獲得圖像內部豐富的細節特征, 因此相比7種主流算法, 所提算法具有較好的超分辨率重建性能, 能夠實現PSNR、SSIM的較大提升.

表1 不同圖像重建算法在4個測試集上的性能評價指標(放大倍數為2)Tab.1 Performance evaluation indicators of different image resolution algorithms on four test sets (magnification is 2)

表2 不同圖像重建算法在4個測試集上的性能評價指標(放大倍數為3)Tab.2 Performance evaluation indicators of different image resolution algorithms on four test sets (magnification is 3)

表3 不同圖像重建算法在4個測試集上的性能評價指標(放大倍數為4)Tab.3 Performance evaluation indicators of different image resolution algorithms on four test sets (magnification is 4)

為了測試所提算法的重建圖像的視覺效果,在放大倍數為4的情況下對Urban100測試集中的3張圖像(img004、img061和img096)進行不同算法的對比測試, 對比測試的視覺效果圖如圖5~7所示.圖5中, Bicubic、SRCNN、FSRCNN和VDSR算法圖像重建的小孔存在模糊問題, DBPN、RFDN和A2N算法圖像重建的小孔存在嚴重的變形問題(如DBPN算法圖像重建的小孔存在變小和變圓問題, RFDN、A2N算法圖像重建的小孔存在變彎問題), 所提算法圖像重建的小孔基本保持了原形狀.圖6中, Bicubic、SRCNN、和FSRCNN算法圖像重建的樓層存在嚴重的模糊問題,VDSR算法圖像重建的高樓層存在嚴重的變形問題, DBPN、RFDN和A2N算法圖像重建的樓層存在嚴重的銳化問題, 所提算法圖像重建的樓層存在輕微的銳化問題, 不存在變形問題.圖7中,Bicubic、SRCNN、FSRCNN和VDSR算法圖像重建的大樓外側豎條出現嚴重的模糊不清問題,DBPN、RFDN和A2N算法圖像重建的大樓外右側豎條存在較嚴重的模糊問題, 重建的大樓外左側豎條存在輕微的扭曲問題, 所提算法圖像重建的大樓外側基本沒有模糊問題和扭曲問題.綜上所述, 所提算法相比主流算法不僅在性能測試指標方面實現較大提升, 而且在重建圖像的細節方面也具體較好的視覺效果.

圖5 不同圖像重建算法重建的img004對比圖像(放大倍數為4)Fig.5 Comparison images of img004 reconstructed by different image resolution algorithms (magnification is 4)

圖6 不同圖像重建算法重建的img061對比圖像(放大倍數為4)Fig.6 Comparison images of img061 reconstructed by different image resolution algorithms (magnification is 4)

圖7 不同圖像重建算法重建的img096對比圖像(放大倍數為4)Fig.7 Comparison images of img096 reconstructed by different image resolution algorithms (magnification is 4)

2.5 多級連續編碼與解碼的注意力殘差模塊分析

假設ED1、ED2、ED3分別為第1、2、3層級的連續編碼與解碼塊,Attention為注意力殘差塊.在放大倍數為4的情況下,使用DIV2K數據集分別訓練由上述4個模塊排列組合成的網絡, 并在Set5測試集上進行測試, PSNR 如表4所示.可以看出, 多級連續編碼與解碼的注意力殘差模塊能夠獲得最高的PSNR.原因是只使用ED1、ED2、ED3模塊的網絡模型只能夠獲取到圖像局部單一的特征, 組合使用3個模塊的網絡模型能夠獲得多層級的淺層特征、復雜特征和深層特征.在此基礎上, 結合Attention模塊, 為獲得圖像內部多層級的淺層特征、復雜特征和深層特征分配不同的計算量權重, 能夠盡可能地提取到圖像內部豐富的細節特征.

表4 多級連續編碼與解碼的注意力殘差模塊消融研究結果(放大倍數為4)Tab.4 Ablation study results of attention residual module based on multi-level continuous encoding and decoding(magnification is 4)

2.6 模型分析

使用所提算法與SRCNN、FSRCNN、VDSR、DBPN、RFDN和A2N算法在放大倍數為4的Urban100測試集中分別進行參數量n與運行時間t對比, 結果如圖8所示.相比DBPN算法,所提算法不僅參數量少, 還實現了PSNR的提升;相比A2N、RFDN、VDSR、FSRCNN和SRCNN算法, 所提算法雖然參數量較多, 但是實現了PSNR的大提升.所提算法的運行時間比DBPN算法的運行時間少, 且近似于A2N算法的運行時間.綜上所述, 所提算法的網絡模型在實現PSNR提升的同時參數量和運行時間均較少.

3 結 語

本研究提出多級連續編碼與解碼的圖像超分辨率重建算法.所提算法通過多級連續編碼與解碼的注意力殘差模塊從低分辨率圖像中提取不同層級的特征信息, 并對這些不同層級的特征信息生成不同的權重(給淺層特征分布較小的權重,給深度特征分布較大的權重), 盡可能地提取到圖像內部的豐富特征.實驗結果表明, 在放大倍數為2、3、4的測試集(Set5、Set14、BSD100和Urban100)上, 相比主流算法, 所提算法能夠實現峰值信噪比值和結構相似度值的較大提升, 同時使用所提算法重建的高分辨率圖像更清晰且包含更多的細節信息.實際應用中往往需要進行任意倍數的圖像超分辨率重建,因此,在未來的研究工作中,計劃在所提算法的基礎上進行任意倍數的圖像超分辨率重建算法研究.

猜你喜歡
特征
抓住特征巧觀察
離散型隨機變量的分布列與數字特征
具有兩個P’維非線性不可約特征標的非可解群
月震特征及與地震的對比
如何表達“特征”
被k(2≤k≤16)整除的正整數的特征
中等數學(2019年8期)2019-11-25 01:38:14
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
詈語的文化蘊含與現代特征
新聞傳播(2018年11期)2018-08-29 08:15:24
抓住特征巧觀察
基于特征篩選的模型選擇
主站蜘蛛池模板: 欧美成人免费午夜全| 日本高清成本人视频一区| 在线观看免费黄色网址| 久久黄色小视频| 欧美一区二区三区不卡免费| 五月天婷婷网亚洲综合在线| 亚洲av中文无码乱人伦在线r| 香蕉视频在线观看www| 美女视频黄又黄又免费高清| 色婷婷久久| 在线看免费无码av天堂的| 亚洲无码免费黄色网址| 少妇人妻无码首页| 一本综合久久| 久久综合色88| 九九热在线视频| 直接黄91麻豆网站| 四虎永久在线精品国产免费| 亚洲另类色| 成人免费午间影院在线观看| 久久精品人人做人人综合试看| 人妻丰满熟妇αv无码| 91精品国产综合久久不国产大片| 欧美精品在线免费| 午夜国产大片免费观看| 99性视频| 午夜精品区| 日韩大乳视频中文字幕| 手机精品视频在线观看免费| 亚洲国产欧美国产综合久久| 日本人真淫视频一区二区三区| 色老头综合网| 亚洲Aⅴ无码专区在线观看q| 国产午夜一级淫片| 国产尤物在线播放| 国产91色在线| 99伊人精品| 538精品在线观看| 天天综合色网| 久久国产高潮流白浆免费观看| 亚洲无线一二三四区男男| 欧美精品xx| 青青草原国产一区二区| 欧美一区二区三区香蕉视| 毛片网站在线播放| 国产精品主播| 刘亦菲一区二区在线观看| 国产欧美日韩综合在线第一 | 2020最新国产精品视频| 91精品国产自产在线老师啪l| 国产性爱网站| 国产日韩欧美精品区性色| 国产SUV精品一区二区| 亚洲欧美日韩成人高清在线一区| 一边摸一边做爽的视频17国产| 欧美精品在线看| 欧美在线三级| 国产欧美另类| 亚洲嫩模喷白浆| 成人在线观看不卡| 欧美午夜视频在线| 强乱中文字幕在线播放不卡| 国产精品视频猛进猛出| 亚洲人免费视频| 丝袜国产一区| 久久精品91麻豆| 久久大香香蕉国产免费网站| 欧美a在线| 亚洲天堂免费在线视频| 久久中文字幕2021精品| 亚洲第一视频区| 毛片网站观看| 日本人又色又爽的视频| 操美女免费网站| 亚洲精品日产精品乱码不卡| 亚洲色图欧美| 热re99久久精品国99热| 亚洲美女一区二区三区| 手机在线免费不卡一区二| 午夜福利无码一区二区| 国产精品亚洲综合久久小说| 91高清在线视频|