李明,劉帆,李婧芝
(太原理工大學(xué) 大數(shù)據(jù)學(xué)院,山西 晉中 030600)
遙感圖像融合的目的是將多源圖像綜合成高質(zhì)量圖像,以提高圖像信息的利用率、提升原始圖像的空間分辨率和光譜分辨率,利于監(jiān)測(cè)[1]。其中,全色圖像具有較高的空間分辨率,多光譜圖像具有豐富的光譜信息,利用其互補(bǔ)信息生成具有高空間分辨率的多光譜波段圖像[2],提高圖像的可視效果。
目前遙感圖像融合的方法主要分為四種類(lèi)型[2]:1)分量替換(Component Substitution,CS),如強(qiáng)度-色調(diào)-飽和度(Intensity Hue Saturation,IHS)變換[3],主成分分析(Principal Component Analysis,PCA)[4]和Gram-Schmidt(GS)[1]等;2)多分辨率分析(Multiresolution Analysis,MRA),如非下采樣Contourlet 變換(Non-Subsample Contourlet Transform,NSCT)[5]和非下采樣剪切波變換(Non-Subsample Shearlet Transform,NSST)[2]等;3)變分優(yōu)化(Variational Optimization,VO),如基于貝葉斯[6]和稀疏表示[7]等;4)機(jī)器學(xué)習(xí)(Machine Learning,ML)[2],如基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[8]、對(duì)抗神經(jīng)網(wǎng)絡(luò)(Generative Adversarial Networks,GAN)[9]和條件隨機(jī)場(chǎng)(Conditional Random Field,CRF)[10]等。然而大部分算法需要設(shè)計(jì)復(fù)雜的融合規(guī)則,且仍然存在不同程度的細(xì)節(jié)缺失和光譜失真情況。近年來(lái),基于VO/ML 算法與CS/MRA 算法的混合模型算法被提出,并取得顯著的效果。混合模型算法將光譜信息與空間細(xì)節(jié)信息分開(kāi)處理,在光譜信息保留上有了很大的提升,如基于稀疏表示的細(xì)節(jié)注入(Detail injection based Sparse Representation,SR-D)[11]與基于卷積神經(jīng)網(wǎng)絡(luò)的遙感圖像融合(Detail injection based Convolutional Neural Network,Di-PNN)[12]。但是僅依靠淺層網(wǎng)絡(luò)獲取的融合圖像仍存在圖形特征提取不完全,導(dǎo)致圖像信息保留不全面、信息缺失和冗余信息等問(wèn)題[2],使得融合圖像的空間信息和光譜信息沒(méi)有得到有效的表達(dá),在細(xì)節(jié)信息和光譜信息上有很大的提升空間。
為了解決上述問(wèn)題,本文提出結(jié)合卷積注意模塊、高斯濾波器和卷積自編碼器作為新的混合模型的融合算法。……