999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結合殘差塊和MLP 卷積的真實圖像去噪網絡*

2023-11-21 13:07:40周冬明周聯敏
電子器件 2023年5期
關鍵詞:特征信息方法

雷 戈,周冬明,楊 浩,周聯敏

(云南大學信息學院,云南 昆明 650504)

圖像去噪是一項重要的計算機視覺任務。在圖像采集過程中,由于成像環境和設備的限制,噪聲往往是不可避免的。因此,對于視覺質量以及其他計算機視覺任務中噪聲去除都是必不可少的步驟。許多早期基于模型的方法一般先找到自然圖像的先驗,然后運用優化算法迭代求解模型[1-2]。然而從一方面來說,這些方法不僅耗時且不能有效去除噪聲。隨著深度學習[3-6]的興起,卷積神經網絡(Convolutional Neural Network,CNN)被廣泛應用于圖像去噪任務,并取得了高質量的結果。另一方面,早期的工作常常假設噪聲是獨立且同分布的,并用加性高斯白噪聲來創建合成噪聲圖像。近年來,噪聲以更復雜的形式[7-11]出現,這些形式與空間變化以及信道有關。

而傳統的圖像去噪方法[12-17]無法適應圖像紋理和邊緣的變化,去噪效果較差。譚茹等[12]為實現自適應調節濾波參數,提出一種自適應非局部均值濾波算法,其引入最小二乘擬合法自適應為待濾波圖像選取合適的濾波參數。但該方法在噪聲像素個數大于窗口像素總數的一半時,由于灰度排序的中間值仍為噪聲像素灰度值,因此濾波效果會很差。Chang 等[14]提出了一種基于上下文建模的空間自適應小波閾值方法,上下文建模用于估計每個系數的參數,然后用于調整閾值策略。此類方法濾波后的圖像,邊緣細節信息和圖像紋理特征會變得模糊,無法獲得好的去噪效果。Buades 提出的非局部均值濾波[16](Non-Local Means,NLM)對于每個目標塊,在整幅圖像或較大鄰域范圍內搜索對比塊并計算出一個自適應的權值,但該方法在濾波過程中對原圖像的結構信息存在丟失。

隨著深度神經網絡的普及,部分研究人員將自然先驗與深度神經網絡結合起來。NLNet[18]將非局部自相似先驗與CNN 相結合,受限于自然先驗方法的設計,與端到端的CNN 方法相比,它們的性能往往會較差。DnCNN[19]引入殘差學習和批量歸一化來實現端到端去噪,但模型的泛化性能較差,只能處理特定類型的噪聲。FFDNet[20]引入噪聲電平圖作為輸入,增強了網絡對非均勻噪聲的靈活性以及模型的泛化能力。

最近,研究人員將焦點從加性高斯白噪聲轉移到真實噪聲圖像上,同時,通過捕捉真實的噪聲場景建立了幾個真實的噪聲數據集[21],這促進了對真實噪聲圖像去噪的研究。SADNet[22]提出一種空間自適應去噪網絡,從復雜的圖像內容中捕捉相關特征,同時引入可形變卷積加權空間特征,從而提升模型對真實噪聲的去噪性能。VDNet[23]提出一種基于貝葉斯框架的模型,實現噪聲估計和盲圖像去噪任務。DeamNet[24]提出了一種新的圖像先驗自適應一致性先驗ACP(Adaptive Consistency Prior)和雙元注意機制(DEAM)模塊,結合ACP 約束和DEAM 模塊,使得模型在真實噪聲圖像上獲得突出效果。然而,這些方法缺乏對圖像內容的擬合能力,并會形成過度平滑的偽像導致信息缺失。

本文提出了結合殘差塊和MLP(Multi-Layer Perceptron)卷積[25]的真實圖像去噪網絡來解決上述問題。為適應空間紋理本文提出去噪特征學習模塊(Denoising Feature Learning Module,DFM),該模塊由一個殘差網絡塊和MLP 卷積組成。殘差塊由兩個3×3 的卷積網絡串接在一起可將輸入信息繞道傳到輸出,保護信息的完整性,簡化學習目標和難度。同時,使用MLP 卷積減少參數量,增加模型的泛化能力。此外,本文將特征提取模塊(Feature Extraction Module,FEM)和去噪特征學習模塊合并到一個編碼器-解碼器結構中,以從粗到細去除噪聲。最后,文中添加多路徑擴張模塊(Multipath Expansion Module,MEM)來進一步擴大感受野和捕捉上下文信息。與最先進的方法相比,本文網絡結構在定量和視覺上均具有先進的去噪性能。

1 本文方法

本文提出的去噪網絡,能提升對真實噪聲圖像的去噪能力,其結構框圖如圖1 所示。

圖1 本文方法總體結構圖

文中首先使用一個卷積層從原始噪聲圖片提取初始特征,然后將這些特征輸入到編碼器-解碼器架構中。在編碼器組件中,文中使用密集殘差塊來提取不同尺度的特征。與原始的殘差塊不同,本文移除了歸一化批處理,并在殘差塊中添加注意力模塊(Convolutional Block Attention Module,CBAM)模塊[26],通過使用注意機制來提升網絡模型的特征表達能力。為了避免破壞圖像結構,本文限制了下采樣操作的數量,并通過一個多路徑擴張模塊進一步擴大感受野以及捕獲局部上下文信息。在解碼器組件中,本文設計了去噪特征學習模塊,用于提取和學習真實噪聲圖像中像素分布的結構特征以及關鍵信息,并進行特征融合。

為了在模型訓練過程中對輸入圖像進行優化和約束,損失函數的選擇至關重要。常用的損失函數有以下幾種,如和不對稱損失[9]。L1和L2是圖像去噪任務中最常用的兩個損失函數,L2對高斯噪聲具有良好的置信度,而L1對異常值具有更好的容忍度。因此,文中模型架構使用L1在真實圖像噪聲數據集上進行訓練。

1.1 特征提取模塊(FEM)

特征提取模塊增加了模型提取特征的能力,其由3 個卷積層和一個CBAM 結構構成,其中卷積層使用LReLU(Leaky ReLU)函數作為激活函數,該模塊結構如圖2 所示。

圖2 特征提取模塊結構

圖3 去噪特征學習模塊結構

第一個卷積層使用1×1 的卷積實現跨通道的交互和信息整合,同時細化特征。接著引入兩個卷積核為3×3 的卷積層,在引入少量參數的同時,實現局部信息的交互,增加感受野獲得全局信息。然后將特征信息傳輸入CBAM 結構中,在通道和空間兩個維度上引入注意力機制,提升網絡模型的特征提取能力以及對輸入特征進行約束增強處理。結合上述可得,特征提取模塊的計算方法如下:

式中:F表示輸入特征,L代表LReLU 激活函數,f3×3和f1×1分別代表尺寸為3×3 的卷積層和1×1 卷積層表示經過三層卷積和激活函數后的輸出特征,MC是通道注意模塊的權重系數代表通過通道注意力模塊后的輸出特征。MS是空間注意模塊的權重系數,×表示加權相乘代表輸入特征經過特征提取模塊后對應的輸出特征。

1.1.1 通道注意模塊

通道注意模塊的輸入是大小為H×W×C的特征F,首先進行空間維度的全局平均池化和最大池化得到兩個1×1×C的通道描述。接著將它們分別送入一個兩層的神經網絡,第一層神經元個數為C/r,第二層神經元個數為C,使用ReLU 為激活函數,這個兩層的神經網絡是共享的。然后將輸出的兩個特征相加后經過一個Sigmoid 激活函數得到權重系數MC。最后,將權重系數和初始特征F相乘即可得到縮放后的新特征。綜上可得,通道注意力機制的計算方法如下:

1.1.2 空間注意模塊

空間注意模塊的輸入是大小為H×W×C的特征F',首先進行通道維度的平均池化和最大池化得到兩個大小為H×W×1 的通道描述,并將這兩個描述按照通道拼接在一起。然后,經過一個尺寸大小為7×7 的卷積層,使用的激活函數為Sigmoid,得到權重系數MS。最后,將權重系數和特征F'相乘即可得到縮放后的新特征F″。因此可知,空間注意力機制的計算方法如下:

1.2 去噪特征學習模塊(DFM)

在解碼器組件中,為適應空間紋理的變化本文提出去噪特征學習模塊,該模塊由一個殘差網絡塊和MLP 卷積組成,為提高網絡的學習效率,選擇ReLU和LReLU 函數作為激活函數。殘差網絡塊由兩個3×3 的卷積網絡串接在一起可將輸入信息繞道傳到輸出,保護信息的完整性,簡化學習目標和難度。

傳統卷積運算在計算輸出特征時,著重于卷積核附近的特征,因此一些不需要的或不相關的特征會干擾輸出的計算。在當前位置靠近邊緣時,引入位于對象外部的不同特征進行加權,這可能會平滑邊緣并破壞紋理。MLP 卷積是一個輕量級、具備卷積層和MLP 的設計,為實現跨通道的交互和信息整合。MLP 卷積首先在第一個全連接(Fully Connected)層FC1引入1×1 的卷積來細化特征,接著在第二個全連接層FC2使用3×3 的卷積,從而增加MLP 階段的空間連接和局部信息交互,增強了信息流,提高了網絡的表示能力,最后引入1×1 的卷積,不僅使卷積層的輸入和輸出的通道數減小,還讓參數數量進一步減少。同時,可將從殘差網絡塊、MLP 卷積和多路徑擴張模塊中提取的特征進行融合,從而來估計輸出。綜上所述,去噪特征學習模塊的計算方法如下:

式中:F表示輸入特征,L代表LReLU 激活函數,f3×3代表尺寸為3×3 的卷積層,FC1、FC2表示二個全連接層,A″(F)對應輸入特征經過去噪特征學習模塊后對應的輸出特征。

1.3 多路徑擴張模塊(MEM)

為了在不降低空間分辨率的條件下,獲得更多上下文信息以及增加感受野。本文采用多路徑擴張模塊,其結構如圖4 所示,該模塊包含四種不同擴張率的擴張卷積,其擴張率α 分別是1、2、4 和8。

圖4 多路徑擴張模塊結構

在實驗中,本文未添加批量標準化層。同時為了簡化操作以及減少運行時長,當α=1 時,卷積核的大小設置為1×1,其余卷積核的大小設置為3×3。而且,在實驗中,將壓縮比設置為4。同理在去噪特征學習模塊中,文中使用1×1 的卷積來輸出原始特征對應的通道的融合特征。文中所提出的模型,其編碼器-解碼器體系結構共設置了四個標度,每個標度對應的通道數分別為32、64、128 和256。此外,該模塊中每個卷積都對應使用LReLU 函數作為激活函數。

2 實驗結果及分析

本章節在真實噪聲數據集上驗證了模型的有效性,文中使用Smartphone Image Denoising Dataset(SIDD[21])數據集,其訓練集是Medium_sRGB 空間的160 個包含干凈圖片和真實噪聲圖像的圖像對,驗證集則從訓練集中隨機抽取40 張圖片并裁剪成1 280 張尺寸為256×256 大小的塊。此外,測試集選取使用廣泛的標準真實數據集PolyU[27]。PloyU數據集包括Canon 5D Mark II、Canon 80D、Canon 600D、Nikon D800 和Sony A7 II 相機拍攝的40 個靜態場景的噪聲圖像,包括室內正常光照場景和暗光場景。同時裁剪了100 個大小為512×512 的區域來評估不同的去噪方法。

本文算法是基于PyTorch 框架實現,使用的硬件平臺為NVIDIA GTX 1080Ti。在每個訓練批次中,文中使用大小為128×128 的圖像塊作為輸入。本文使用ADAM 優化器和L1損失函數優化訓練模型,批次大小設置為64,初始學習速率設置為1×10-4,然后在3×105次迭代后減半。

此外,本文使用主觀評價和客觀評價兩個方面作為實驗的評價標準,主觀評價即從人眼視覺正面觀測來評估模型的去噪效果。客觀評價引入峰值信噪比(Peak Signal to Noise Ratio,PSNR/dB)和結構相似性(Structural Similarity Index Method,SSIM)來評估去噪性能。峰值信噪比是用于衡量圖像有效信息與噪聲之間的比率,能夠反映圖像是否失真,在實驗過程中,PSNR 的值越大,表示圖像的保真度越高,越接近真實圖像,模型的去噪性能越好。結構相似性是評價兩幅圖像相似度的指標,結合亮度、對比度和結構三個方面來經行評估,其為0 到1 之間的數,數值越接近于1 表示輸出圖像和無失真圖像的差距越小,即圖像質量越好。

2.1 針對SIDD 數據集降噪性能對比

為了對真實的噪聲圖像進行比較,本文使用SIDD 中型數據集來訓練模型,以便在SIDD 和PolyU 驗證數據集上進行評估。此外,文中選擇了有效性已經在真實的噪聲圖像上得到驗證的方法進行對比,包括 BM3D[17]、DnCNN[19]、FFDNet[20]、CBDNet[9]、DeamNet[24]、VDNet[23]、RIDNet[8]和AINDNet[28],對比結果如表1 中所示。

表1 不同方法在SIDD 數據集上去噪指標對比

表1 中包含各類算法針對SIDD 數據集去噪后的PSNR 值和SSIM 值,其中本文去噪方法對應的PSNR和SSIM 均值分別為39.43 dB 和0.968。相對于其他算法PSNR 提升了0.14 dB~10.64 dB,SSIM 相對提升了0.012~0.355。本文方法去噪后的圖像PSNR 均值對于傳統去噪算法BM3D 提升了10.64 dB,對于基于深度學習的去噪算法VDNet 算法提升了0.14 dB。同時,由圖5 可以看出,BM3D 算法、DnCNN 算法和CBDNet 等算法對真實噪聲圖像無較好的去噪效果。本文方法與上述算法對比,去噪后的圖像不僅視覺效果清晰更接近真實圖像的紋理和結構,還有效地保留了圖像的邊緣結構信息。如圖5 中字母“i”,本文方法去噪后的圖像更接近真實圖像,而使用別的算法恢復出的字母“i”在顏色上有失真,且存在偽影,不夠清晰。

圖5 不同方法在SIDD 數據集中視覺效果對比

2.2 針對PloyU 數據集降噪性能對比

圖6 展示不同算法對PloyU 數據集中Canon 5D和Nikon D800 圖像的去噪效果。由觀察可得,通過AINDNet 算法和DeamNet 算法去噪后的圖像中仍存在部分噪聲,無法充分移除噪聲。而使用DnCNN算法和CBDNet 算法去噪后的圖像中明顯缺失圖像細節信息且視覺感知效果較差,同時,DnCNN 算法去噪后的圖像中部分由于丟失了邊緣結構信息,視覺效果較模糊。通過FFDNet 算法、DeamNet 算法和VDNet 算法去噪后的圖像邊緣紋理信息缺失,與真實圖像之間還有一定差距。

圖6 不同方法在PolyU 測試集Canon 5D 和Nikon D800 中視覺效果對比

本文方法通過特征提取模塊、多路徑擴張模塊和去噪特征學習模塊分別獲得更具有判別性的底層像素特征[3]、兼顧全局信息和局部細節信息的空間特征以及復雜場景下的細節信息,從而有效地提升噪聲去除的效果,同時很好地保留了圖像細節信息和邊緣紋理信息,因此獲得更清晰的視覺感知效果。此外,根據表2 可知,本文去噪方法在PloyU 數據集上對應的PSNR 和SSIM 均值分別為38.38 dB 和0.980。對比其他算法PSNR 相對提升了0.8 dB~4.08 dB,SSIM 相對提高了0.019~0.067。綜上所述,本文方法在定量和視覺上均具有先進的去噪性能。

表2 不同方法在PloyU 數據集上去噪指標對比

2.3 消融實驗

表3 為文中去噪模型各模塊之間針對SIDD 數據集的消融實驗結果,包括特征提取模塊、多路徑擴張模塊以及去噪特征學習模塊。根據表3 可知在該結構中添加以上三個模塊,可提升模型的去噪性能,且將三個模塊合理結合時能達到最優去噪效果。

表3 不同模塊針對SIDD 數據集的消融實驗

3 總結

本文為解決現有的基于深度學習的圖像去噪方法缺乏對圖像內容的適應性以及會產生過度平滑的偽像的問題,提出了一種結合殘差塊和MLP 卷積的真實圖像去噪網絡來有效去除噪聲。首先,本文引入了特征提取模塊,基于圖像的內容和紋理對相關特征進行采樣加權,使模型能學習到更具判別性的像素特征。同時添加多路徑擴張模塊來捕獲上下文信息,從而更精確地估計采樣位置,提高模型的精度。通過實驗可發現去噪特征學習模塊的引入可以在強噪聲下恢復復雜場景中更豐富的細節,并在公開的真實噪聲數據集上有較強的去噪性能以及良好的視覺效果。實驗結果表明,在真實噪聲圖像數據集上,本文提出的網絡在客觀評價指標和視覺效果上均具有先進的去噪性能。

猜你喜歡
特征信息方法
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 青青青国产免费线在| 亚洲一级色| 日韩精品一区二区三区中文无码 | 国产香蕉97碰碰视频VA碰碰看| 草草影院国产第一页| 永久在线精品免费视频观看| 精品1区2区3区| 99热最新在线| 国产精品亚洲五月天高清| 波多野结衣一区二区三视频 | 国产综合亚洲欧洲区精品无码| 不卡视频国产| 国产农村妇女精品一二区| 久久久久国产一级毛片高清板| 久久96热在精品国产高清| 中文无码毛片又爽又刺激| 日本高清有码人妻| 自慰高潮喷白浆在线观看| 日韩在线1| 人妻无码中文字幕第一区| 91国内外精品自在线播放| 蜜桃视频一区| 91久久大香线蕉| 2019国产在线| 女同国产精品一区二区| 男人天堂伊人网| 欧美成人二区| 欧美高清三区| 欧美亚洲欧美| 久久综合AV免费观看| 亚洲VA中文字幕| 亚洲熟妇AV日韩熟妇在线| 日韩无码一二三区| 亚洲国产高清精品线久久| 成人在线第一页| 国产成人综合久久精品尤物| 国产在线小视频| 内射人妻无套中出无码| 97青草最新免费精品视频| 91 九色视频丝袜| 无码免费视频| 91亚洲国产视频| 国产欧美中文字幕| 色国产视频| 久久久久国产精品熟女影院| 国产免费好大好硬视频| 亚洲日本中文综合在线| 伊伊人成亚洲综合人网7777| 最新日本中文字幕| 99热亚洲精品6码| 亚洲国模精品一区| 一级做a爰片久久毛片毛片| 国产SUV精品一区二区| 中文字幕无码电影| 免费观看亚洲人成网站| 99久久精品免费观看国产| 国产91久久久久久| 激情無極限的亚洲一区免费| 好吊日免费视频| 国产在线自揄拍揄视频网站| 无码综合天天久久综合网| 又大又硬又爽免费视频| 精品久久国产综合精麻豆| 国产不卡国语在线| 久久夜色精品国产嚕嚕亚洲av| 毛片免费高清免费| 国产精品女同一区三区五区| 午夜精品福利影院| 激情在线网| 国国产a国产片免费麻豆| 亚洲av日韩av制服丝袜| 亚洲综合色婷婷| 91丝袜乱伦| 999精品在线视频| 成人午夜免费视频| 欧美精品不卡| 国产成人1024精品下载| 久久久精品国产SM调教网站| h网址在线观看| 欧美成人亚洲综合精品欧美激情| 国产91小视频| 欧美伦理一区|