999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多形態(tài)卷積神經網絡的遙感圖像融合方法

2022-10-03 05:17:44張應剛
制造業(yè)自動化 2022年9期
關鍵詞:融合方法

張應剛

(中國機械科學研究總院集團有限公司,北京 100044)

0 引言

對全色(PANchromatic,PAN)圖像和多光譜(Multi-Spectral,MS)圖像進行融合,可以獲得同時具有高空間分辨率和高光譜分辨率的遙感圖像。經典的分量替換法(Component Substitute,CS)[1~3],多分辨率分析法(Multi-resolution Analysis,MRA)[4,5]和基于模型的方法[6,7]等已取得了一定得融合效果,但仍存在空間細節(jié)和光譜失真問題[8]。大多數融合算法將源圖像視為單個成分并直接對其進行處理,而沒有考慮具有不同屬性的圖像的特性差異很大,因此通常會忽略源圖像中的某些細節(jié)。

Starck等人[9,10]提出了一種信號稀疏表示方法——形態(tài)成分分析(Morphological Component Analysis,MCA)。MCA在圖像分解[11]、圖像去噪[12]、圖像修復[13]等方向中都取得了良好的成效,它集合了多種經典變換基的優(yōu)點,把圖像分解為多個形態(tài)成分,有效的表達了圖像成分。

隨著深度學習技術的迅速發(fā)展與廣泛應用[14],越來越多的研究人員將深度學習引入遙感圖像分類[15]、圖像融合[16]等。其中卷積神經網絡(Convolution Neural Network,CNN)[17,18]能夠更加出色的提取圖像的非線性特征,相較于眾多傳統(tǒng)的遙感圖像融合方法,基于卷積神經網絡的遙感圖像融合方法能夠學習全色圖像和多光譜圖像波段間的相關性,從而使該方法取得了顯著的融合效果,且端到端的融合更加便捷。

因獲取遙感圖像常攜帶高頻的噪聲和干擾,現有的經典融合算法和深度學習法把源圖像視為單個成分并直接對其進行處理,而沒有考慮具有不同源圖像的差異性,常會忽略圖像內容中的某些細節(jié)。因此,本文結合稀疏分解MCA法和CNN,提出了一種基于多形態(tài)卷積神經網絡(Multi-morphological Convolution Neural Network,MCNN)的遙感圖像融合方法,對待融合的源圖像先進行多形態(tài)成分的稀疏分解,獲得不同源圖像的紋理成分和平滑的卡通成分,然后利用CNN最終獲得具有高空間分辨率的多光譜圖像。

1 基于多形態(tài)卷積神經網絡的遙感圖像融合

1.1 基于形態(tài)成分分析圖像分解

聯(lián)合局部離散余弦變換(Local Discrete cosine Transform,LDCT)和曲波變換(Curved Wave Transform,CT)作為MCA的字典,分別對單通道的PAN圖像和三個通道的MS圖像進行形態(tài)成分分析,提取其紋理成分和卡通成分?;贛CA的PAN圖像和MS圖像的稀疏分解分別如式(1)、式(2)所示。

假設待處理圖像是僅包含紋理或卡通成分且大小為的圖像,將該圖像表示為長度為的一維向量,該圖像就可以通過LDCT字典D1和CT字典D2來提取其紋理成分和卡通成份,即:

1.2 網絡的選取與設置

在融合網絡中,假設F(i,j)是融合圖像在(i,j)處的像素,PAN(i,j)和MS(i,j)分別是PAN和MS圖像的對應像素,T(i,j)和C(i,j)分別是紋理成分和卡通成分的對應像素。卷積運算定義為式(6)所示:

其中,x是卷積的輸入,w是卷積核,ReLU為非線性激活函數。

融合網絡包含10個卷積層,其中6個卷積層的大小為N×N(N>1),其余為(1×1)。通過這個網絡來表示融合函數F(PAN,MS)→F。設Tk(k=1,2,3)和Ck(k=1,2,3)分別表示紋理成分和卡通成分的第k層卷積層的輸出。

通過T(i,j)和C(i,j)計算融合像素F(i,j)。融合過程如式(6)所示:

在卷積運算的整個過程中,每一層都是在融合過程中參考前一層的融合結果,即多尺度成分融合,通過卷積運算獲得的最終融合圖像是不同成分比例圖像融合的結果。

1.3 MCNN算法流程

基于MCNN的遙感圖像融合方法的流程圖如圖1所示。詳細步驟如下:

圖1 MCNN算法流程圖

1)聯(lián)合LDCT基D1和CT基D2作為形態(tài)成分分析的分解字典D=[D1,D2],對輸入的源圖像PAN和MS分別進行形態(tài)成分分析,提取兩幅圖像的紋理和卡通成分。

3)將步驟2輸出的紋理分量和卡通分量再次作為輸入圖像,經過卷積神經網絡的融合后,得到最終輸出的融合圖像。

1.4 MCNN網絡結構

基于MCNN的遙感圖像融合方法的網絡結構如圖2所示。

圖2 MCNN 網絡結構圖

較大的卷積核和深度網絡會削弱融合的特性,增加計算的代價,因此在CNN模型中,我們將卷積核的大小N設為3,網絡深度設為4。根據原始圖像分別計算兩幅圖像的紋理成分和卡通成分。在生成Ti(i,j)和Ci(i,j)時,分別使用了兩個大小為3×3和1×1的卷積層,T1(i,j)/C1(i,j),T2(i,j)/C2(i,j),T3(i,j)/C3(i,j)的特征圖個數分別為32,64和128。最終的融合圖像有三個特征圖(R,G,B三通道),在生成融合的特征圖是,使用了3個1×1的卷積層,且特征圖的個數相同。

2 實驗結果與分析

2.1 實驗數據

選取了兩組地形區(qū)域不同的遙感圖像進行融合效果測試。第一組實驗數據(圖2(a)~圖3(j))分別取自Landsat-TM影像中分辨率為30m的MS圖像和SPOT影像中分辨率為4m的PAN圖像,實驗區(qū)位于吉林地區(qū),涵蓋了植被、建筑用地、交通道路等多種類型,圖像大小為256×256像素。第二組實驗數據(圖3(a)~圖3(j))分別取自中巴地球資源一號衛(wèi)星(CBERS)影像中分辨率為19.5m的MS圖像和Landsat ETM+影像中分辨率15m的PAN圖像,實驗區(qū)位于廣東省珠海市斗門區(qū),包含林地、水體、農業(yè)用地等,圖像大小為512×512像素。

2.2 損失函數

本文使用回歸模型訓練融合函數:

其中為訓練集的原始圖像,PAN是全色圖像,MS是低分辨率多光譜圖像。F(θ;PAN,MS)是模型輸出的融合函數,n是訓練樣本的個數,我們通過最小化函數I來求解融合函數F。另外,圖像的像素值范圍為0~255,在輸入模型之前歸一化到區(qū)間[0,1]。

模型的優(yōu)化算法為Adam算法,這是一種基于隨機梯度下降的自適應學習率優(yōu)化算法。該模型的初始學習率設置為0.001,在訓練階段總數的50%和75%時除以10??傆柧殨r間為40分鐘,模型最終訓練均方差為0.00012。

2.3 評價指標

為了能夠客觀的驗證不同方法的性能,選取了以下五種常用的客觀評價指標對實驗結果圖像進行了評價,分別是相對平均光譜誤差(Relative Average Spectral Error Index,RASE)、均方根誤差(Root Mean Square Error,RMSE)、全局相對光譜損失(Erreur Relative Globale Adimensionnelle de Synthese,ERGAS)、光譜信息散度(Spectral Information Divergence,SID)、峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)。其中,RASE反映所有通道平均光譜表現,融合圖像光譜質量越高,則RASE越低,理想值為0。RMSE是計算融合圖像與參考圖像之間像素值差異,差異越小說明光譜保持越好,理想值為0。ERGAS是評價融合圖像的空間和光譜質量,其值越小說明融合圖像質量越好,理想值為0。SID是基于信息論衡量兩幅光譜差異的方法,值越小說明差異越小,即光譜保留越好,理想值為0。PSNR反映了圖像的噪聲和失真水平,PSNR值越大,圖像與參考圖像越接近,質量越好。

2.4 實驗結果

實驗對HIS[1]、PCA[2]、Brovey[3]、DWT[4]、NSCT[5],ATWT[6]、FCNN[19]和本文的MCNN融合方法進行了結果的比較。

第一組遙感數據中不同融合方法的結果如圖2所示。從對比實驗中可以看出,與輸入的PAN圖像和MS圖像相比,這些方法都可以一定程度的提高融合圖像的質量。然而,圖3(c)~圖3(i)都呈現了不同程度的失真,圖3(c)和圖3(d)發(fā)生了融合過飽和的情況,圖3(e)~圖3(h)可以明顯的看出,都具有不同程度的頻譜失真,圖3(i)的紋理和光譜信息相較于輸入原圖像,都得到了很好的保留,但是MCNN融合法在光譜信息的保留方面仍優(yōu)于FCNN。

圖3 第一組遙感影像數據的不同融合方法實驗結果

圖4是第二組遙感數據通過不同融合方法的最終結果。圖4(c)~圖4(i)都具有不同程度的空間結構模糊和光譜畸變,圖4(c)~圖4(d)在左上角的山體部分和右下角的植被部分都有著明顯的光譜失真,色度偏暗,圖4(e)~圖4(g)中,可以看到整體的光譜畸變情況嚴重,分別存在著光譜過為深重和過為明亮的情況,圖4(h)的光譜信息保留較好,但是可以看出在山體與林地的交界處,邊緣較為模糊,紋理的可視程度差;圖4(i)~圖4(j)從主觀視覺效果來看,無論是在光譜保留方面還是紋理細節(jié)方面,均優(yōu)于其他算法。

圖4 第二組遙感影像數據的不同融合方法實驗結果

表1列出了通過對第一組數據進行不同融合而產生的結果的客觀評估指標。表1中的粗體數字表示各評價指標的最佳值。可以看出,MCNN除了SID指標以外,均取得最高結果。綜合圖2的視覺效果,MCNN優(yōu)于其他融合方法。

表1 吉林省實驗數據融合結果的評價指標

表2所示為第二組數據融合結果的評價指標,其中粗體數字表示每個評價指標的最佳值。與其他七種方法相比,MCNN具有更好的評價指標結果。結合圖3主觀視覺效果,MCNN優(yōu)于其他融合方法。

表2 廣東省實驗數據融合結果的評價指標

3 結語

本文提出了一種基于多形態(tài)卷積神經網絡的遙感圖像融合方法,通過形態(tài)成分分析提取遙感圖像的紋理成分和卡通成分,并將該方法與卷積神經網絡相結合,在避免源圖像信息丟失的同時又加強了對輸入圖像細節(jié)的提取。通過對不同的衛(wèi)星獲取的不同類型的數據進行融合實驗與結果分析,結果表明本文的方法能夠較好地保持光譜信息,且獲得了更為豐富的空間細節(jié)。

猜你喜歡
融合方法
一次函數“四融合”
村企黨建聯(lián)建融合共贏
融合菜
從創(chuàng)新出發(fā),與高考數列相遇、融合
寬窄融合便攜箱IPFS500
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
學習方法
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
主站蜘蛛池模板: 国产精品无码翘臀在线看纯欲| 亚洲人视频在线观看| 久久一色本道亚洲| 国产不卡网| 好久久免费视频高清| 国产91无毒不卡在线观看| 欧美中文字幕在线视频 | 97se亚洲综合不卡| 婷婷六月激情综合一区| 国产后式a一视频| www精品久久| 久久国产乱子| 欧洲日本亚洲中文字幕| 国产美女丝袜高潮| a天堂视频在线| 午夜福利在线观看入口| 久久久精品国产亚洲AV日韩| 国产成人精品18| 欧美激情视频一区二区三区免费| 国产无码网站在线观看| 精品无码一区二区三区电影| 中国毛片网| 国产激爽大片高清在线观看| 日韩123欧美字幕| 都市激情亚洲综合久久| 婷婷成人综合| 国产精品一区二区国产主播| 在线免费观看AV| 中国精品久久| 99国产精品一区二区| 国产日韩久久久久无码精品| 欧美专区日韩专区| 亚洲第一黄色网| 国产乱人伦精品一区二区| 一区二区三区毛片无码| 国产乱码精品一区二区三区中文| 综合网天天| 99在线视频网站| 精品国产一区91在线| 114级毛片免费观看| 久996视频精品免费观看| 99热这里都是国产精品| 尤物视频一区| 国产欧美在线观看一区| 欧美国产精品不卡在线观看| 精品一区二区三区四区五区| 国产亚洲精品yxsp| 国产在线小视频| 91成人免费观看在线观看| 亚洲成a人片在线观看88| 国产乱人伦AV在线A| 伊人久综合| 色婷婷色丁香| 国产91精品久久| 中文字幕啪啪| 无遮挡国产高潮视频免费观看| 动漫精品啪啪一区二区三区| 国产情侣一区| 国产主播喷水| 中文纯内无码H| 亚洲视频免费播放| 国产毛片一区| 欧美 亚洲 日韩 国产| 日本爱爱精品一区二区| 亚洲人视频在线观看| 成人精品免费视频| 欧美五月婷婷| 91丝袜美腿高跟国产极品老师| 久久永久视频| 亚洲精品第一在线观看视频| 国产欧美精品午夜在线播放| 久久婷婷五月综合97色| 91久久精品国产| 国产黄色片在线看| 成人夜夜嗨| 国产色婷婷视频在线观看| 91精品啪在线观看国产91九色| jizz亚洲高清在线观看| 丁香婷婷综合激情| 日韩福利视频导航| 激情五月婷婷综合网| 精品无码一区二区在线观看|