999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進譜殘差顯著性圖的紅外與可見光圖像融合

2020-12-14 09:10:52李辰陽
紅外技術 2020年11期
關鍵詞:融合

李辰陽,丁 坤,翁 帥,王 立

〈圖像處理與仿真〉

基于改進譜殘差顯著性圖的紅外與可見光圖像融合

李辰陽1,丁 坤1,2,翁 帥1,王 立1

(1. 河海大學,江蘇 常州 213022;2. 常州市光伏系統集成與生產裝備技術重點實驗室,江蘇 常州 213022)

為了將可見光圖像與紅外圖像中的細節信息更多的呈現在融合圖像中,突出目標特征并獲得更好的圖像視覺效果,本文提出一種基于改進譜殘差顯著性圖的紅外與可見光圖像融合方法。首先用改進的譜殘差顯著性檢測算法提取紅外圖像的顯著性圖并獲得融合圖像的顯著性系數,然后對源圖像進行雙樹復小波分解,并根據特定的融合規則分別對圖像的低頻部分以及高頻部分進行融合,最后采用雙樹復小波逆變換重構獲得最終的融合圖像。實驗表明,本文融合方法相較于傳統融合方法融合質量更高并且在視覺效果上有顯著提升。

譜殘差顯著性;圖像融合;雙樹復小波分解;融合規則

0 引言

圖像融合是指將多源信道對同一目標采集到的多幅圖像綜合成一幅高質量圖像[1]。紅外成像傳感器根據測量目標本身與背景紅外輻射的差異成像,抗干擾能力強,但分辨率較低,容易丟失細節信息;而可見光圖像通常具有較高的對比度以及分辨率,能體現更多細節信息。因此紅外圖像與可見光圖像有著良好的互補性,紅外圖像與可見光圖像的融合也成為圖像融合技術的研究熱點,在軍事、遙感等領域已取得了廣泛的應用[2]。

基于多尺度分解的方法一直是圖像融合技術研究的熱點。余美晨等人在梯度金字塔變換[3]的基礎上采取不同的層次融合策略生成融合圖像。Ashish等人將多尺度局部形狀算子與拉普拉斯金字塔變換[4]相結合提出了一種新型的圖像融合方法。但常用的金字塔變換缺乏方向性且數據冗余度高,融合后圖像不夠清晰,圖像信息量較少。Gonzalo等人提出了基于小波變換[5]的圖像融合算法,克服了數據冗余的問題,但缺乏方向選擇性以及平移不變性。Seal等人將Curvelet變換[6]應用于多尺度圖像融合,雖然能夠分析任意角度的方向,但計算量太大,圖像處理效率較低。雙樹復小波變換[7]在小波變換的基礎上進行改進,保留小波變換優點的同時,具有多方向選擇性以及近似平移不變性,其計算效率高、重構效果好,融合圖像質量較高,因此本文使用雙樹復小波變換進行多尺度變換。

圖像融合規則也是影響融合圖像質量的重要因素,傳統基于平均(AVE)的融合規則往往會降低圖像的對比度,融合圖像的視覺效果較差[8]。針對這一問題,本文提出一種基于改進譜殘差(Spectral Residual,SR)顯著性圖的融合算法,應用改進的譜殘差顯著性模型對紅外圖像進行顯著性分析獲得融合圖像的顯著性權重,并根據顯著性權重設計低頻部分的融合規則,高頻部分則采用局部方差最大值融合規則。

1 算法思想

1.1 紅外圖像的譜殘差顯著性分析

視覺顯著性是指針對某一特定場景,人類的視覺系統會選擇性地忽略不感興趣的區域,并自動關注感興趣區域[9]。而如何對圖像中的顯著性區域進行量化已經成為近年來計算機視覺領域的研究熱點。

從信息論的角度,圖像信息(Image)可以分成兩部分:

(Image)=(Innovation)+(Prior) (1)

式中:(Innovation)表示圖像中顯著的部分,而(Prior)表示圖像中的冗余信息。Spectral Residual算法[10]就是基于這種思想,分析處理輸入圖像的對數譜,去除圖像中的冗余部分,得到輸入圖像的顯著部分。

首先對輸入圖像進行傅里葉變換,獲取振幅譜()以及相位譜()作為先驗信息:

()=R(á[()]) (2)

()=S(á[()]) (3)

然后根據振幅譜()求輸入圖像的殘差譜,譜殘差為圖像Log譜與平均頻譜的差值,計算公式如下:

()=log(()) (4)

()=()*h() (5)

()=()-() (7)

式中:()表示圖像的Log譜;()表示平均頻譜;h()表示局部×均值濾波器;()表示輸入圖像的殘差譜。

最后根據殘差譜()與先驗信息中的相位譜()進行傅里葉逆變換,就能夠得到輸入圖像的顯著性譜(),計算公式如下:

雖然Spectral Residual顯著性檢測算法運算效率高,但其只能在一定程度上給出顯著性區域的位置,并不能得到視覺效果良好的顯著性圖,如圖1~圖2所示。

圖2 場景2紅外圖像以及顯著性圖

為了得到視覺效果更好的顯著性圖,本文在SR顯著性檢測算法的基礎上進行改進,引入輸入圖像中每個像素點的全局對比度,計算公式如下:

式中:contrast(I)表示輸入圖像中像素點的全局對比度;I表示像素點的灰度值;I表示輸入圖像中任意像素點的灰度值;II的取值都在[0,255]范圍內,||×||表示灰度距離度量。然后分別對殘差譜()與全局對比度contrast(I)進行歸一化處理:

在map()與map()中,系數越大表示顯著性越強,因此在對map()與map()進行融合時,采用最大值選擇規則,具體的融合規則如下:

改進前后的顯著性圖如圖3~圖4所示:

圖3 場景1算法改進前后顯著性圖

圖4 場景2算法改進前后顯著性圖

經過改進后的顯著性圖不僅有效地保留了紅外圖像中顯著性目標的邊緣信息,顯著性圖的視覺效果也有了明顯的提升。

1.2 雙樹復小波變換

為了克服傳統小波變換在方向選擇性以及平移不變性上的局限,Kingsbury對傳統小波變換進行了改進,提出雙樹復小波變換[7]:雙樹復小波變換對輸入圖像的行和列分別進行獨立的離散小波變換(兩個獨立的離散小波變換也稱為雙樹復小波變換中的樹a和樹b),最終形成一種雙樹結構。

如圖5所示,樹a作用于輸入圖像的行,樹b作用于輸入圖像的列,0表示樹a對應的低通濾波器,1表示樹a對應的高通濾波器,0表示樹b對應的低通濾波器,1表示樹b對應的高通濾波器,ˉ2表示降采樣(隔點采樣)。每一級分解能夠得到兩個低頻子帶(+1,1)、(+1,2),低頻子帶還可以繼續分解從而得到不同尺度下的高、低頻成分;每一級分解獲得低頻子帶的同時,還能夠得到6個不同方向上的高頻子帶(+1,),(=1, …, 6),高頻子帶的方向分別為±15°、±45°、±75°。

相較于傳統小波變換,雙樹復小波變換不僅保留了傳統小波變換的優點,還具備方向選擇性(6個方向:±15°、±45°、±75°)以及近似平移不變性,能有效提高輸入圖像分解以及重構的精度,提高圖像融合的質量。

圖5 雙樹復小波分解示意圖

1.3 圖像融合規則設計

本文圖像融合算法主要分為低頻部分融合以及高頻部分融合兩部分,具體的融合算法流程如圖6所示。

圖6 融合算法流程圖

1.3.1 低頻系數融合

經過雙樹復小波變換后,源圖像的能量主要集中在低頻部分,為使融合后的圖像具有高對比度以及良好的視覺效果,本文在上述工作的基礎上利用紅外圖像的顯著性圖進行低頻系數的融合,具體的融合規則如下:

F()=()×IR()+[1-()]×Ⅵ() (13)

式中:F()表示融合圖像的低頻部分;IR()表示紅外圖像低頻部分;Ⅵ表示可見光圖像低頻部分;()為改進后的顯著性系數。

1.3.2 高頻系數融合

經過雙樹復小波變換得到的源圖像的高頻部分反映圖像的邊緣信息,會對融合圖像的細節產生較大影響。局部方差是度量高頻部分不同區域包含源圖像信息量多少的常用方法[11],局部方差計算公式如下:

局部方差越大表明對應區域所包含的源圖像的信息量越多,因此可以根據局部方差極大值規則進行圖像高頻部分的融合,具體的融合規則如下:

2 實驗結果及分析

為了驗證本文基于改進譜殘差顯著性圖的紅外與可見光圖像融合算法的有效性,本文選取3組已配準的紅外與可見光圖像,并使用多種經典的融合算法對選取的圖像進行融合,評估不同融合算法的融合效果。本文使用的對比融合方法包括:拉普拉斯金字塔變換(Laplacian Pyramid,LP)、離散小波變換(Discrete Wavelet Transform,DWT)、基于視覺顯著性與對比度增強的圖像融合(Guided-filtering Nonsubsample Contourlet Transform,GFNSCT)[12]以及本文提出的基于改進譜殘差顯著性圖的紅外與可見光圖像融合算法,其中用于對比實驗的拉普拉斯金字塔變換、離散小波變換,在低頻部分直接進行算術平均,高頻部分取絕對值最大系數。

2.1 圖像主觀評價

各種對比算法融合結果如圖7~圖9所示。

圖7 場景1融合結果

圖8 場景2融合結果

圖9 場景3融合結果

從主觀上評價,本文提出的融合算法呈現了更多的圖像細節,在圖7中車輛以及商鋪輪廓清晰,圖8、圖9中樹枝處的紋理細節也清晰可見。與此同時本文提出的融合算法在對比度方面也有著明顯的提高,并且在融合圖像的視覺效果方面明顯優于傳統的融合算法,這點在圖7中體現得最為明顯。

2.2 圖像客觀分析

在本文中采用標準差(Standard Deviation,SD)、信息熵(Information Entropy,IE)、空間頻率(Spatial Frequency,SF)、互信息(Mutual Information,MI)[13]以及c[14]5個客觀評價指標對融合結果進行量化評價。

式中:表示圖像灰度的平均值,SD反映融合圖像的對比度,標準差越大融合圖像對比越明顯。

式中:RF與CF分別為圖像的行頻率與列頻率;空間頻率體現融合圖像頻譜的豐富度;空間頻率越大融合圖像越清晰。

式中:R,F(,)為理想圖像R與融合圖像F的歸一化聯合直方圖分布;R()與F()分別為圖像的歸一化邊緣直方圖分布;為灰度級數。互信息反映融合圖像從源圖像中獲取信息的豐富程度,互信息越高,表明融合圖像與源圖像關聯度高。

式中:p表示圖像中灰度值為的像素所占的比例。圖像信息熵是一種特征的統計形式,能夠反映圖像平均信息量的多少。

c是基于人眼視覺系統提出的融合圖像評價標準,c值越大表明融合圖像的視覺效果越好。

本文所有運算均在同一臺電腦上運行,配置1.8GHz四核CPU,16GB運行內存,所有實驗都建立在Matlab 2014a平臺上。

客觀評價指標如表1所示。從表中可以看出,本文算法在信息熵、空間頻率、互信息以及c等5方面明顯優于傳統算法,證明其在圖像信息量、對比度以及人眼視覺效果等方面比傳統融合算法有著顯著提升,與上文主觀評價所得到的結果一致。與GFNSCT融合算法相比,對于空間頻率這一指標的差距并不明顯,這是因為本文算法所選擇的雙樹復小波變換方法雖然具有近似平移不變性,但仍需進行上、下采樣,導致融合圖像清晰度不高,最終體現于空間頻率這一指標并不突出;但對其他4個指標而言,本文算法均有明顯提升,其中c的提升最為明顯,說明本文算法在融合圖像視覺效果方面的提升尤為明顯。

3 結語

本文在改進譜殘差顯著性模型的基礎上,提出了一種基于顯著性圖的紅外與可見光圖像融合方法。首先對紅外圖像進行顯著性分析,提取顯著性圖,接著對源圖像進行雙數復小波變換,并根據顯著性圖設計低頻部分的融合規則,最終得到質量更高的融合圖像。實驗結果表明,本文方法有效可行,且得到的融合圖像在圖像信息、圖像對比度尤其是視覺效果這些方面有著顯著提升。

表1 融合圖像客觀評價結果

Table 1 The objective evaluation results of fused images

[1] 敬忠良, 肖剛, 李振華. 圖像融合——理論與應用[M]. 北京: 高等教育出版社, 2007.

JING Zhongliang, XIAO Gang, LI Zhenhua.[M]. Beijing: Higher Education Press, 2007.

[2] 劉信樂. 熱紅外圖像與可見光圖像融合方法研究[D]. 成都: 電子科技大學, 2013.

LIU Xinle. Research on Fusion Method of infrared image and visible image[D]. Chengdu: University of Electronic Science and Technology of China, 2013.

[3] 余美晨, 孫玉秋, 王超. 基于拉普拉斯金字塔的圖像融合算法研究[J].長江大學學報: 自然科學版, 2016, 13(34): 770-776.

YU Meichen, SUN Yuqiu, WANG Chao. Image fusion algorithm based on Laplacian pyramid[J]., 2016, 13(34): 770-776.

[4] Ashish V Vanmali, Vikram M Gadre. Visible and NIR image fusion using weight-map-guided Laplacian–Gaussian pyramid for improving scene visibility[J]., 2017(6): 1063-1082.

[5] Gonzalo P, Jesus M A wavelet-based image fusion tutorial[J]., 2004, 37(9):1855-1872.

[6] Seal Ayan, Bhattacharjee Debotosh, NasipuriMita. A trous wavelet transform based hybrid image fusion for face recognition using region classifiers[J]., 2018(12): 2185-2188.

[7] 王少杰, 潘晉孝, 陳平. 基于雙樹復小波變換的圖像融合[J]. 核電子學與探測技術, 2015, 35(7): 726-728.

WANG Shaojie, PAN Jinxiao, CHEN Ping. Image fusion based on DT-CWT[J].2015, 35(7): 726-728.

[8] 林子慧, 魏宇星, 張建林, 等. 基于顯著性圖的紅外與可見光圖像融合[J]. 紅外技術, 2019, 41(7): 640-645.

LIN Zihui, WEI Yuxing, ZHANG Jianglin, et al. Image fusion of infrared image and visible image based on saliency map[J]., 2019, 41(7): 640-645.

[9] TIAN Huawei, FANG Yuming. Salient region detection by fusing bottom-up and top-down features extracted from single image[J]., 2014, 23(10): 4389-4397.

[10] HOU X, ZHANG L. Salient detection: A spectral residual approach[C]//, 2007: 18-23.

[11] 郭玲, 楊斌. 基于視覺顯著性的紅外與可見光圖像融合[J]. 計算機科學, 2015, 42(6): 211-214.

GUO Ling, YANG Bin. Image fusion of infrared image and visible image based on visual saliency[J]., 2015, 42(6): 211-214.

[12] 張承鴻, 李范鳴, 吳瀅躍.基于視覺顯著性與對比度增強的紅外圖像融合[J]. 紅外技術, 2017, 39(5): 421-426.

ZHANG Chenghong, LI Fanming, WU Yingyue. Image fusion of infrared image and visible image based onvisual saliency and contrast enhancement[J]., 2017, 39(5): 421-426.

[13] ZHENG Y F, Essock E. A new metric based on extended spatial frequency and its application to DWT based fusion algorithms[J]., 2007, 8(2): 177-192.

[14] QU G, ZHANG D, YAN P. Information measure for performance of image fusion[J]., 2002, 38(7): 313-315.

Image Fusion of Infrared and Visible Images Based on Residual Significance

LI Chenyang1,DING Kun1,2,WENG Shuai1,WANG Li1

(1. Hohai University, Changzhou 213022, China; 2. Photovoltaic Key Laboratory of Jiangsu Province, Changzhou 213022, China)

To make the fusion image show more image details and to obtain a better image visual effect, a fusion method based on residual significance is proposed. First, the infrared image is analyzed using residual significance to obtain its significance coefficients. Then, the source images are decomposed using a dual-tree complex wavelet transform, and the low- and high-frequency components are fused according to different fusion rules. Finally, the fusion image is reconstructed using the inverse transformation of a dual-tree complex wavelet. Experimental results showed that the fusion method proposed in this paper produced higher quality images and better visual effects than those of the traditional fusion method.

spectral residual significance, image fusion, dual-tree complex wavelet transform, fusion rules

TP751.1

A

1001-8891(2020)11-1042-06

2019-12-15;

2020-09-07.

李辰陽(1995-),男,碩士研究生,主要從事圖像處理方面的研究。E-mail:576419467@qq.com

國家自然基金項目(51777059);江蘇高校“青藍工程”;六大人才高峰工程(GDZB-006)。

猜你喜歡
融合
一次函數“四融合”
兩個壓縮體融合為一個壓縮體的充分必要條件
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
寬窄融合便攜箱TPFS500
寬窄融合便攜箱IPFS500
從創新出發,與高考數列相遇、融合
寬窄融合便攜箱IPFS500
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
“四心融合”架起頤養“幸福橋”
福利中國(2015年4期)2015-01-03 08:03:38
主站蜘蛛池模板: 国产欧美综合在线观看第七页| 亚洲精品无码不卡在线播放| 99免费在线观看视频| yy6080理论大片一级久久| 亚洲国产成人精品一二区| 人妻精品久久无码区| 成人福利在线观看| 国产成人乱码一区二区三区在线| 成人一级免费视频| 国产精品成人不卡在线观看| 国产精品精品视频| 蜜臀AVWWW国产天堂| 亚洲成a∧人片在线观看无码| 天天做天天爱夜夜爽毛片毛片| 谁有在线观看日韩亚洲最新视频 | 99色亚洲国产精品11p| 国产精品美女免费视频大全| 亚洲第一黄片大全| 国产人成网线在线播放va| 成人亚洲天堂| 欧美福利在线| 国产99精品视频| 欧美一区二区三区不卡免费| 女人毛片a级大学毛片免费| 日韩高清在线观看不卡一区二区| 日本黄色a视频| 91精品伊人久久大香线蕉| 欧美日韩91| 伊人AV天堂| 69av免费视频| 国产精品开放后亚洲| 亚洲福利一区二区三区| 国产精品内射视频| 一区二区午夜| 中文字幕在线观| 精品日韩亚洲欧美高清a | 欧美亚洲另类在线观看| 婷婷色丁香综合激情| 欧美日韩国产高清一区二区三区| 国产 在线视频无码| 国产永久在线视频| 精品中文字幕一区在线| 青青网在线国产| 日韩欧美中文| 日韩欧美亚洲国产成人综合| 国产成人在线小视频| 国产亚洲精品在天天在线麻豆| 成人精品在线观看| 制服丝袜一区| 91色爱欧美精品www| 国产精品自在在线午夜区app| 欧美在线视频a| 国产SUV精品一区二区6| 国产在线精品美女观看| 亚洲无码高清免费视频亚洲| 国产精品免费电影| 91在线精品免费免费播放| 国产91视频观看| 亚洲欧美人成人让影院| 亚洲AV成人一区国产精品| 在线观看欧美国产| 波多野结衣一区二区三区四区| 在线va视频| 国产鲁鲁视频在线观看| 亚洲无码日韩一区| 久久国产高清视频| 女同久久精品国产99国| 久久亚洲中文字幕精品一区| 久久亚洲欧美综合| 欧美激情网址| 日本在线免费网站| 国产91无码福利在线| 亚洲中文字幕国产av| 女同国产精品一区二区| 四虎在线高清无码| 在线播放精品一区二区啪视频| 青草91视频免费观看| 亚洲国产亚洲综合在线尤物| 久久美女精品| 国产精品浪潮Av| 乱系列中文字幕在线视频| 亚洲色图在线观看|