999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多曝光融合與超分辨率的單圖像陰影去除*

2023-08-22 03:47:06張新怡端木春江
計算機時代 2023年8期
關鍵詞:特征融合方法

張新怡,端木春江

(浙江師范大學物理與電子信息工程學院,浙江 金華 321004)

0 引言

現今計算機視覺領域的基本任務如檢測、識別、分類、分割等,已經在一定條件下達到了較高的準確率。然而,現有技術大多只能在特定條件下進行圖像處理,例如常有指定的光照、背景和目標姿態等要求。其中,陰影對圖像的進一步處理造成較嚴重的阻礙。通常的解決辦法是在數據采集的源頭上避免陰影的產生。然而在真實世界中,背景信息的龐雜導致各種不可避免的陰影,這非常考驗各類算法的魯棒性。圖像陰影去除,對各類計算機視覺任務的預處理階段有幫助,有一定的研究價值和現實意義。

1 相關工作

隨著深度學習的發展,基于深度學習的圖像去陰影研究以其無需手動標記的全自動特性逐漸展現出較強的優勢。Qu等人提出Deshadow-Net[1]網絡模型,該方法不需要對陰影進行預測,而是直接去除比傳統方法有性能上的提升。Wang等人提出的ST-CGAN[2]網絡模型聯合進行陰影檢測和陰影去除。ST-CGAN之后,涌現出了一批利用生成對抗網絡(GAN)進行陰影去除的網絡模型,具有代表性的如Hu 等人提出的Mask-ShadowGAN[3]模型。除此之外,Hu 等人提出DSC[4]方法,利用方向感知上下文來改進陰影檢測及去除;Le 等人提出SP+M-Net[5]模型,從陰影分解的角度提出了新的陰影去除方法;Fu[6]等人提出從圖像融合角度提出新的陰影去除的方法。

2 基于多曝光融合與超分辨率的耦合反饋網絡

2.1 網絡模型

去陰影網絡總體由兩部分構成,多重曝光網絡與多曝光融合與超分辨率耦合反饋網絡,其兩部分構成關系如圖1所示。

圖1 網絡模型

圖1 中,網絡輸入為陰影圖像與其對應的掩膜圖像。這樣成對的陰影-掩膜圖像作為網絡的共同輸入,首先送入多重曝光網絡,對陰影圖像做多次過曝光處理,輸出生成多幅過曝光圖像,曝光后圖像的陰影區域與原圖像的非陰影區域有相同的顏色以及亮度,此后其共同作為下一模塊的輸入。此時的問題轉化成如何把陰影圖像的非陰影區域與多重過曝光圖像的陰影區域結合成統一模式,本文提出多曝光融合與超分辨率耦合反饋網絡SR-MEF-net,利用圖像融合的方式對多重曝光圖像進行融合,同時用超分辨率方法,降低融合過程中圖像的退化程度。

2.2 SR-MEF-net

本文提出一種多曝光融合級聯超分辯率模塊的耦合反饋的神經網絡,旨在充分利用圖像融合以及超分辨率之間的交互與協作,以一對陰影與其對應的掩膜圖像生成一幅高分辨率的去陰影圖像。其模塊化網絡結構如圖2所示。

圖2 SR-MEF-net網絡結構

提取的初級特征送入超分辨率模塊(SRB),提取圖像的更多高級特征Gi,為后續的融合模塊提供支持。此時圖像高級特征為初始高級特征

此時取高分辨率特征直接送入重建模塊(R),能夠得到對應的超分辨率殘差,并與低分辨率圖像的上采樣進行加和,即可生成原低分辨率陰影圖像的超分辨率重建圖像ISR。

G和的目的在于,提供互補信息用來提高融合性能。然而經過單個MCFB 不能令圖像之間的特征充分得到反饋而收集到足夠的融合信息,所以在模型種設置T 個MCFB,每個MCFB 的輸出是具有更高融合特征的,此時的得到充分的反饋信息:

經過T個MCFB輸出充分融合后的融合高分辨率特征。融合高分辨率特征送入重建模塊(R),得到對應的融合超分辨率殘差圖像,并與LR 圖像的上采樣級聯,即可生成對應具有融合特征的超分辨率圖像:

為具有融合特征的高分辨率圖像。得到N 個具有高度融合特征的超分辨率圖像后,進行加權融合后,得到最終的陰影去除圖像Iout:

ωi為各自對應的權重,Iout為最終輸出的陰影去除后的超分辨率重建圖像。

2.3 損失函數

陰影去除網絡的損失函數由三部分構成:①在多重曝光網絡中,生成一系列多重過曝光圖像Ii與地面真實圖像Ifree之間的損失,以均方誤差作為損失函數。②在SR-MEF-net 中,地面真實圖像Ifree與其未經融合的超分辨率重建圖像ISR與之間的損失,以平均結構差異指數度量作為損失函數。③在SR-MEF-net 中,地面真實圖像Ifree與經過SR-MEF-net 曝光融合過后的超分辨率重建去陰影圖像Iout之間的損失,以L1 損失作為損失函數。

由于網絡是端到端訓練的,三種損失配以各自的權重,其和為本陰影去除網絡的總損失函數。通過最小化損失函數實現對網絡的訓練。

3 實驗結果與分析

與其他去陰影研究保持一致,采用RMSE 作為評價陰影去除網絡性能的指標,包括陰影區域,非陰影區域以及整體圖像的RMSE。采用峰值信噪比PSNR和結構相似度SSIM 作為評價SR 性能的指標。對于公開去陰影模型,選取DSC[4]、Fu et.al[6]、SP+M+D-net[5];對于超分辨率重建模型,選取EDSR[7]、RCAN[8]、SRFBN[9]進行對照。表1、表2為ISTD+數據集上放大因子為×2時,描述超分辨率性能和去陰影性能的數據指標。

表1 ISTD+數據集上放大因子為×2時,描述超分辨率性能的指標

表2 ISTD+數據集上放大因子為×2時,描述去陰影性能的指標RMSE

可以發現,本文模型較其他方法有一定的性能提升,在SR 表現上,本文方法比次優方法PSNR 提高了2.333dB,SSIM 提高了0.0318。在陰影去除表現上,本文方法比次優方法RMSE-Shadow 降低了8.0730,RSME-Non降低了4.041,RMSE-All降低了5.3393。

圖3 為ISTD+數據集上放大因子為×2 時不同方法的陰影去除超分辨率重建圖像。可以觀察到,本文方法能夠在有效去除陰影的同時,最大程度地保持圖像質量。其他方法或不能完全去除陰影,或在陰影去除過程中產生了不理想的模糊和噪聲。

圖3 放大因子為×2視覺對比

4 總結與展望

本文提出一種基于圖像融合與圖像超分辨率重建相結合的方法用于圖像陰影去除。通過LR 多重過曝光圖像作為網絡輸入,以耦合反饋的方法將多重圖像進行融合生成無陰影圖像,同時能有效減少圖像失真,最終輸出無陰影的超分辨重建圖像。在公共數據集上得到驗證,并證明優于部分方法。受計算資源的限制,本文訓練集較小,在今后的工作中,可以選用更大的數據集,提高泛化能力。

猜你喜歡
特征融合方法
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 91麻豆精品国产高清在线| 亚洲精品视频在线观看视频| 欧洲免费精品视频在线| 中文字幕欧美日韩高清| 婷婷激情五月网| 欧美19综合中文字幕| 91在线免费公开视频| 国产va在线| 国产噜噜噜视频在线观看| 国产制服丝袜91在线| AV老司机AV天堂| 国产丝袜无码精品| 欧美激情,国产精品| 亚洲高清国产拍精品26u| 婷婷六月激情综合一区| 亚洲日韩高清在线亚洲专区| 欧美α片免费观看| 亚洲国产成人麻豆精品| 国产精品99久久久久久董美香 | 精品国产成人av免费| 91福利国产成人精品导航| 亚洲制服丝袜第一页| 成人综合在线观看| 国产熟睡乱子伦视频网站| 一本无码在线观看| 国产高清在线观看| 2020最新国产精品视频| 中文无码精品A∨在线观看不卡 | 伊人精品成人久久综合| 亚洲中文字幕无码爆乳| 久久男人资源站| 国产微拍一区二区三区四区| 在线va视频| 日韩AV无码一区| 色爽网免费视频| 午夜国产精品视频黄| 色综合久久无码网| 国产精品九九视频| 欧美一级大片在线观看| 亚洲最新网址| 欧美全免费aaaaaa特黄在线| 中文字幕首页系列人妻| 欧美日韩国产成人高清视频| 91九色国产porny| 久久香蕉国产线看精品| 亚洲色图在线观看| 欧美视频免费一区二区三区| 美女一级毛片无遮挡内谢| 欧美亚洲香蕉| 日韩毛片视频| 无码免费的亚洲视频| 91久久国产热精品免费| 日韩在线观看网站| 国产高潮流白浆视频| 71pao成人国产永久免费视频| 中文字幕日韩久久综合影院| www中文字幕在线观看| 91精品免费久久久| 欧美日韩中文国产va另类| 久久精品国产999大香线焦| 久久久久国产精品嫩草影院| 亚洲香蕉在线| 久久精品aⅴ无码中文字幕| 欧美日韩第二页| 天天综合天天综合| 露脸一二三区国语对白| 在线精品欧美日韩| 九色视频线上播放| 久久免费视频6| 人妻丰满熟妇AV无码区| 99久久精品免费视频| 国产精品免费久久久久影院无码| 中文字幕永久视频| 欧美成人A视频| 六月婷婷激情综合| 久久青草免费91线频观看不卡| 国产激爽大片在线播放| 青青青国产视频| 亚洲欧洲美色一区二区三区| 日本高清免费一本在线观看| 成人午夜网址| 久久夜色精品国产嚕嚕亚洲av|