999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進l1范數(shù)和稀疏表示的SAR與可見光圖像快速融合算法

2017-11-21 02:17:26
傳感器世界 2017年4期
關鍵詞:融合評價

商丘工學院信息與電子工程學院,河南商丘 476000

關鍵字:合成孔徑雷達(SAR); 圖像融合;支持度變換(SVT);稀疏表示;l1范數(shù)

一、引言

合成孔徑雷達(Synthetic Aperture Radar,SAR)是一種高分辨率成像雷達,其成像依據(jù)于物體的幾何特性和介電特性。由于不同目標的微波反射特性受頻率、反射角和極化方式的影響而不同,使得在 SAR圖像上呈現(xiàn)較多的地物紋理特征。但SAR 圖像同時也具有相干斑噪聲較強、信噪比較低等缺點,嚴重影響了場景中目標的識別。可見光圖像具有較高的成像分辨率,且對目標的物理和化學屬性更為敏感,能夠反映不同地物的輪廓和光譜信息,所以對SAR圖像和可見光圖像進行融合,能夠獲得信息量更大、更加滿足實際需要的新圖像。

目前的SAR與可見光圖像融合算法主要以多分辨率分解的方法為主。文獻[1-3]提出了基于小波變換的SAR與多光譜圖像融合方法,對SAR圖像進行特征提取并補充到多光譜圖像中,保留了原始多光譜圖像的光譜特性,但所加入的SAR圖像目標多表現(xiàn)為離散的點狀目標,容易造成SAR圖像中重要目標缺失[1-3]。文獻[4-5]提出了基于Curvelet和Contourlet變換的融合方法,由于Curvelet和Contourlet分解所獲得圖像尺寸不同,不利于根據(jù)變換系數(shù)之間的特征去設計更為有效的融合規(guī)則,導致融合后的圖像存在較明顯的噪聲干擾,細節(jié)信息不清楚,圖像整體對比度低[4-5]。非下采樣Contourlet變換(NSCT)[6-7]是在Contourlet變換的基礎上提出的,相比于Curvelet和Contourlet直接產(chǎn)生于離散域,是一種真正的2維圖像表示方法,具有更靈活的多分辨率、多方向的圖像表示能力和平移不變性,能夠有效捕捉圖像中的幾何特征,為圖像融合提供更多的有用信息,同時,分解后的系數(shù)圖像具有相同大小的尺寸,利于融合規(guī)則的設計。

本文提出一種多尺度分解和過完備稀疏表示相結合的SAR與可見光圖像快速融合算法。首先對源圖像進行基于支持度變換(SupportValueTransform,SVT)的多尺度分解,對分解得到的低頻子帶系數(shù)采用一種改進l1范數(shù)的稀疏系數(shù)融合規(guī)則進行融合,以解決多尺度分解時其低頻子帶系數(shù)中近似為零的個數(shù)很少,難以有效的表達圖像低頻信息的不足,并進行零均值化加快算法運行速度;接著對高頻子帶系數(shù)采用基于區(qū)域能量的融合規(guī)則最大化保留邊緣紋理等細節(jié)信息。實驗結果證明了本文算法的有效性。

二、過完備稀疏表示方法

1、圖像的過完備稀疏表示

相對于采用傳統(tǒng)的正交基函數(shù),利用過完備基對圖像進行分解,在這些過完備基中尋找適當元素來表示圖像的特征,由于基函數(shù)本身的冗余性較大,因此其分解結果具有更好的稀疏表達能力[8]。相對于簡單圖像y∈Rn×1來說,可以通過求解式(1)的最優(yōu)解來得到其稀疏系數(shù):

其中,D∈Rn×K—表示超完備字典,其每一列表示字典中的一個原子;

x∈RK×1—表示稀疏系數(shù)的向量;

ε—表示容許誤差。

上式中最優(yōu)化求解過程也被稱作“稀疏編碼”。

從式(1)可以看出,通過選取適當?shù)倪^完備基函數(shù),我們可以通過計算直接得到圖像的稀疏系數(shù),但是其不能直接用于圖像融合,一方面是計算的復雜度限制了能被訓練的原子尺寸,另一方面融合圖像依賴于源圖像的局部信息。

所以本文在實際處理過程中,首先采用滑動窗口對圖像進行分塊處理,然后對圖像的稀疏分解轉(zhuǎn)換為對圖像塊的稀疏分解,最終對圖像塊的稀疏系數(shù)進行處理得到所需融合圖像。這里采用的圖像塊大小為8×8。

2、基于SVT分解系數(shù)的K-SVD字典訓練

字典的選擇已經(jīng)成為圖像稀疏分解的核心問題。K-SVD算法是應用最廣的構建訓練字典算法[9],其通過求解式(2)來獲得訓練字典:

其中,Y=[y1,y2…yN]∈Rn×N—表示訓練樣本集,即訓練圖像塊的集合;

X∈RK×N—表示稀疏系數(shù)矩陣;

xi—X的第i列;

T—稀疏度。

基于此,為了在SVT分解域中對圖像進行稀疏表示,我們應首先獲得一個低通過完備字典,其可以通過對式(2)修正得到:

這里我們首先對訓練圖像I進行SVT分解,用WS表示SVT的分解算子,有:

其中,CS—表示圖像經(jīng)過SVT分解得到的低頻系數(shù)。將式(4)代入式(3)可以得到:

可以看出,我們可以對SVT分解后的子帶圖像進行訓練得到對應字典,但是SVT分解后的低頻子帶圖像具有較大的幅值,包含源圖像更多的信息,而高頻子帶圖像幅值較小,通常在0附近,包含信息較小,且很可能具有較多的冗余。所以本文主要利用低頻子帶圖像進行字典訓練。

三、融合算法

1、融合算法的實現(xiàn)過程

圖像融合算法流程如圖1所示。首先利用SVT分解的低頻子帶圖像進行字典訓練,并對低頻圖像進行基于稀疏融合,以盡可能多的保留兩幅源圖像中的目標信息;并采用區(qū)域能量取大的融合規(guī)則實現(xiàn)高頻子帶圖像的融合,以較好保留源圖像的細節(jié)紋理信息。

在低頻子帶圖像的融合過程中,采用了零均值化處理,提升了稀疏編碼的效率。融合流程如圖2所示,具體過程如下:

(1)將滑動窗口逐步移動,步長step∈[1,n],劃分兩幅源圖像為n×n的圖像塊,且將各個圖像塊轉(zhuǎn)換成對應的列向量,進行有序排列得到圖像矩陣:

其中,Vi1、Vi2—分別表示源圖像的第i個列向量;

[M,N]—源圖像的尺寸。

(2)對Vik進行零均值化處理,即:。然后利用OMP算法對每個位置i處的向量Vik進行稀疏表示,得到其稀疏系數(shù):。

(3)采用改進l1范數(shù)融合規(guī)則,對SAR與可見光圖像相應圖像塊的稀疏系數(shù)xik進行融合得到融合系數(shù)xif;

(4)針對所有圖像塊,重復進行步驟(2)和(3)的操作,得到融合稀疏系數(shù)矩陣,然后通過下式計算得到融合圖像塊:

其中,D—表示經(jīng)過K-SVD算法訓練得到的字典;

(5)依據(jù)步驟(1)的塊圖像劃分策略,通過計算各個位置處像素均值得到最終的低頻融合圖像。

2、融合規(guī)則

對于低頻系數(shù)的稀疏融合,這里提出了一種改進的基于l1范數(shù)的規(guī)則。其具體計算過程如下:

(1)假設xiA、xiB為兩幅源圖像的對應待融合低頻稀疏系數(shù)向量,可以通過式(8)、(9)得到其對應的l1范數(shù)ciA、cBi:

(2)計算待融合稀疏系數(shù)向量l1范數(shù)、的相似度Si,具體如下:

(3)按相似度Si大小來選擇融合規(guī)則,融合后的系數(shù)向量為xiF。

當Si≥T時,有:

其中,ωA、ωB—分別為待融合系數(shù)向量對應的加權因子,可由以下公式計算得到:

當Si〈T時,有:

其中,T—閾值,經(jīng)實驗驗證T∈[0.8 1]融合效果較好,本文選取T=0.9。

四、實驗結果及其分析

為了驗證算法的有效性,將本文算法與基于SVT的融合方法(簡稱SVT方法)及常用的基于稀疏表示的融合方法(簡稱SP方法)進行對比。在本文算法中,從20幅自然圖像中隨機選取10000個圖像塊作為訓練樣本,利用K-SVD算法得到超完備字典。圖像塊大小為8×8,字典尺寸為64×256,設定容許誤差ε=0.01,字典訓練過程的稀疏度T=10,步長step=4。實驗的運行環(huán)境為:計算機CPU奔騰4、2.66GHz,內(nèi)存2GB,windows XP professional,編程語言為MATlab7.1。這里用兩組SAR圖像與可見光圖像進行融合效果驗證,融合結果如圖3和4所示。

1、主觀評價

(1)與源圖像相比

在圖3和4中,融合圖像與源圖像相比都綜合了兩幅圖像的信息,包括圖像中的房屋、跑道、草地等。

(2)三幅融合圖像進行對比

從總體上看,圖3(c)亮度最低,圖3(e)亮度最高;從區(qū)域1中可以看出,圖3(d)中邊緣紋理保持能力最差,圖3(e)中邊緣紋理最為清晰;從區(qū)域2看以看出,圖3(d)和圖4都很好地保留了SAR圖像中的目標信息。因此綜合來看,圖3(e)的視覺效果最好。

從圖4可以看出,圖4(e)亮度最好,清晰度最大,且在目標區(qū)域1中,圖4(e)中紋理最為豐富,清晰度也最好;在目標區(qū)域2中,圖4(e)目標亮度最好,目標背景對比度最好。

因此,從主觀評價來看,本文方法融合效果最好。

2、客觀評價

為定量評價融合圖像的性能,這里同樣采用標準差、信息熵、平均梯度和Piella指標中Q0、QE、QW、QAB/F作為融合質(zhì)量評價指標,使用運行時間作為融合效率評價指標,評價結果如表1和表2所示。其中表1為第一組圖像融合效果客觀評價指標,表2為第二組圖像融合效果客觀評價指標。

從表1和2中可以看出,SVT方法和SP方法的融合指標各有優(yōu)劣。而本文算法除運行時間外均為最大值,這與主觀評價效果相符。且采用本文方法與SVT方法的融合結果進行對比,表1和表2中標準差各提升了20.72%和133%,信息熵提高了3.31%和2.35%,平均梯度提高了16.60%和9.71%,Piella指標平均提升了11.56%和7.97%。總體來看,各個質(zhì)量平均指標均有提升,充分證明了本文算法的優(yōu)越性。從運行效率來看,本文算法的運行時間比常規(guī)的SP算法大大降低,這說明本文算法改進的有效性。

表1 第一組圖像融合效果客觀評價指標

表2 第二組圖像融合效果客觀評價指標

五、小結

通過實驗仿真驗證可得到如下結論:

(1)將多尺度分解和稀疏表示相結合用于SAR與可見光圖像融合,取得了比常規(guī)多尺度分解算法更好的融合效果。

(2)通過對圖像塊的零均值化處理,提升了稀疏分解效率。

(3)提出了一種自適應加權平均和l1范數(shù)取大相結合的稀疏系數(shù)融合規(guī)則,用于SAR和可見光圖像經(jīng)SVT分解后的低頻圖像融合,實驗結果證明了融合規(guī)則的有效性。

猜你喜歡
融合評價
一次函數(shù)“四融合”
村企黨建聯(lián)建融合共贏
SBR改性瀝青的穩(wěn)定性評價
石油瀝青(2021年4期)2021-10-14 08:50:44
融合菜
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
中藥治療室性早搏系統(tǒng)評價再評價
寬窄融合便攜箱IPFS500
《融合》
基于Moodle的學習評價
關于項目后評價中“專項”后評價的探討
主站蜘蛛池模板: 国产91麻豆免费观看| 日韩精品久久久久久久电影蜜臀| 538国产在线| 午夜福利免费视频| 99色亚洲国产精品11p| 国产精品香蕉| 亚洲欧州色色免费AV| a级毛片在线免费观看| 日本一区二区不卡视频| 中国国产A一级毛片| 黄网站欧美内射| 超清无码一区二区三区| 国产91全国探花系列在线播放| 欧美日本在线播放| 伊人天堂网| 国产福利影院在线观看| 婷婷开心中文字幕| 国产精品一区二区久久精品无码| 国产一区二区色淫影院| 99久久精品视香蕉蕉| 国产在线麻豆波多野结衣| 国产一在线| 成人午夜网址| 国产无吗一区二区三区在线欢| 无码AV高清毛片中国一级毛片| 国产成人欧美| 色播五月婷婷| 国产成人免费手机在线观看视频| 亚洲国产精品不卡在线| 欧美日韩在线第一页| 四虎成人精品在永久免费| 亚洲色大成网站www国产| 久久精品丝袜| 日韩无码视频播放| a毛片基地免费大全| 免费av一区二区三区在线| 91区国产福利在线观看午夜| 国产玖玖玖精品视频| 欧美国产在线一区| 91破解版在线亚洲| 91区国产福利在线观看午夜 | 国外欧美一区另类中文字幕| a网站在线观看| 日本久久免费| 久久综合伊人77777| 国产网友愉拍精品视频| 日韩小视频在线播放| 亚洲一区二区成人| 色香蕉影院| 在线观看国产精品日本不卡网| 亚洲无码免费黄色网址| a色毛片免费视频| 亚洲天堂2014| 精品自窥自偷在线看| 亚洲欧美日韩动漫| 久久综合亚洲鲁鲁九月天| 全部无卡免费的毛片在线看| 国产精品浪潮Av| 青草视频网站在线观看| 91小视频在线播放| 91综合色区亚洲熟妇p| 中文无码日韩精品| 成年人免费国产视频| 国产成人精品视频一区二区电影| 91成人在线观看视频| 亚洲成A人V欧美综合| 欧美在线网| 91九色最新地址| 在线观看热码亚洲av每日更新| 国产成人久久777777| 怡红院美国分院一区二区| 亚洲一区黄色| 亚洲αv毛片| 第九色区aⅴ天堂久久香| 国产视频大全| 国产黑丝一区| 欧美日韩福利| 欧美一区精品| 在线观看国产黄色| 日韩免费毛片视频| 中文无码精品a∨在线观看| 日韩毛片在线播放|