999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

洪澇災(zāi)害地域時(shí)空數(shù)據(jù)融合算法的性能評估與對比研究

2024-05-03 05:42:08李奇澤
信息記錄材料 2024年3期
關(guān)鍵詞:特征融合

李奇澤

(太原學(xué)院計(jì)算機(jī)科學(xué)與技術(shù)系 山西 太原 030032)

0 引言

洪澇災(zāi)害一直是對人類生命和財(cái)產(chǎn)安全構(gòu)成重大威脅的自然災(zāi)害之一。準(zhǔn)確測定受災(zāi)面積有助于及時(shí)了解災(zāi)情的嚴(yán)重程度,有針對性地展開救援行動(dòng),并為災(zāi)后評估提供可靠的數(shù)據(jù)支持。通過對受災(zāi)面積的精準(zhǔn)測算,政府和救援機(jī)構(gòu)能夠更有效地分配資源、協(xié)調(diào)救援行動(dòng),最大限度地減少災(zāi)害帶來的損失,加快受災(zāi)地區(qū)的恢復(fù)重建進(jìn)程。遙感衛(wèi)星圖像具有全面性、高空間分辨率、定期觀測、自動(dòng)化和多波段數(shù)據(jù)等特點(diǎn),為各種應(yīng)用領(lǐng)域提供了重要的數(shù)據(jù)支持和技術(shù)手段,同樣提供了有效的手段來及時(shí)發(fā)現(xiàn)和跟蹤洪水的形成和演變。目前洪水監(jiān)測過程采用哨兵二號等數(shù)據(jù),然而哨兵二號數(shù)據(jù)獲取比較困難,在實(shí)際中多采用中分辨率成像光譜儀(moderate-resolution imaging spectroradiometer,MODIS)等獲取的低空間分辨率數(shù)據(jù),例如吳黎等[1]基于MODIS 數(shù)據(jù)對黑龍江省2013 年發(fā)生的洪澇災(zāi)害進(jìn)行監(jiān)測。李斌等[2]對長江中游三個(gè)湖區(qū)的水體淹沒范圍進(jìn)行提取,并分析其洪澇特征。然而該類低空間分辨率數(shù)據(jù)分辨率較低,并且同一像元中可能包含幾種不同的地物類型,實(shí)際分析過程中存在很大挑戰(zhàn)。因此,亟需高時(shí)間分辨率與高空間分辨率圖像來精確地進(jìn)行洪水監(jiān)測。時(shí)空融合算法為洪水監(jiān)測等問題提供了解決思路,能夠?qū)崿F(xiàn)在不同空間分辨率影像之間的有效信息整合,以便用于洪水監(jiān)測。

深度學(xué)習(xí)能夠從大量數(shù)據(jù)中學(xué)習(xí)復(fù)雜的特征和模式,能夠更有效地處理不同分辨率和時(shí)序的遙感數(shù)據(jù),能夠獲取同時(shí)具備高時(shí)間和高空間分辨率的遙感衛(wèi)星圖像[3]。Tan 等[4]提出的基于生成對抗網(wǎng)絡(luò)的時(shí)空融合(generative adversarial network-based spatiotemporal fusion model,GANSTFM)算法能夠使用隨機(jī)時(shí)刻的參考圖像進(jìn)行預(yù)測;Li等[5]提出的傳感器偏差驅(qū)動(dòng)的時(shí)空融合(sensor biasdriven spatial temporal fusion,BiaSTF)算法考慮了傳感器差異;Song 等[6]提出的基于生成對抗網(wǎng)絡(luò)的多級特征融合( multi-level feature fusion with generative adversarial network,MLFF-GAN)算法設(shè)計(jì)了編碼器-解碼器網(wǎng)絡(luò)結(jié)構(gòu)來提取并融合生成不同級別特征。為了解決洪水等突變區(qū)域高時(shí)空數(shù)據(jù)獲取困難的問題,本文選用以上三種算法重建高時(shí)空分辨率數(shù)據(jù),為實(shí)際洪水監(jiān)測提供決策支持。

1 典型的深度學(xué)習(xí)時(shí)空融合算法

1.1 GAN-STFM 算法

GAN-STFM 算法使用預(yù)測時(shí)刻低分辨率圖像與任意時(shí)刻高分辨率圖像進(jìn)行融合,克服對參考圖像的時(shí)間限制。生成器采用編碼器-解碼器結(jié)構(gòu),通過編碼器將輸入的低分辨率圖像轉(zhuǎn)換為潛在空間表示,并通過解碼器將潛在表示轉(zhuǎn)換為高分辨率圖像,并利用卷積操作來輸出重建的圖像。生成器編解碼結(jié)構(gòu)使得生成器能夠有效地學(xué)習(xí)到時(shí)空信息的變化規(guī)律,并生成與輸入圖像相匹配的高分辨率圖像。

為了提高融合結(jié)果的質(zhì)量和穩(wěn)定性,GAN-STFM 算法采用了多尺度判別器。該判別器利用了跳過連接方式來提取圖像的特征,并結(jié)合了Sigmoid 分類器來判斷生成圖像的真實(shí)性。多尺度判別器能夠在不同尺度上對生成圖像進(jìn)行全面評估,從而提高了對抗訓(xùn)練的效果和收斂速度。此外,為了減少模型輸入的限制,GAN-STFM 算法采用了歸一化技術(shù),能夠?qū)⑤斎霐?shù)據(jù)進(jìn)行適當(dāng)?shù)臍w一化處理,使得模型更容易學(xué)習(xí)到數(shù)據(jù)之間的相關(guān)性和模式,從而提高了融合的效果。GAN-STFM 算法網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

圖1 GAN-STFM 算法網(wǎng)絡(luò)結(jié)構(gòu)圖

1.2 BiaSTF 算法

傳統(tǒng)的時(shí)空融合方法通常假設(shè)圖像之間的變化可以直接從一個(gè)傳感器轉(zhuǎn)移到另一個(gè)傳感器,從而實(shí)現(xiàn)對高時(shí)空分辨率圖像的重建。此假設(shè)的前提是圖像之間存在著穩(wěn)定的空間和時(shí)間關(guān)系,使得可以通過簡單的插值或變換方法將低分辨率圖像與高分辨率圖像進(jìn)行匹配和融合。然而,實(shí)際情況往往更加復(fù)雜,可能會(huì)導(dǎo)致融合結(jié)果的失真和不準(zhǔn)確性。因此,BiaSTF 算法考慮了不同傳感器在融合過程中引入的偏差,以減輕傳統(tǒng)方法中光譜和空間畸變之間的差異。該方法采用了一種新的基于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)的設(shè)計(jì),能夠有效地學(xué)習(xí)圖像之間的變化信息和傳感器之間的偏差。

具體來說,使用變化學(xué)習(xí)網(wǎng)絡(luò)來學(xué)習(xí)圖像之間的變化信息,它能夠捕捉到不同時(shí)間或不同傳感器下圖像之間的變化模式,并將變化信息用于后續(xù)的融合過程;使用偏差學(xué)習(xí)網(wǎng)絡(luò)來學(xué)習(xí)傳感器之間的偏差,偏差學(xué)習(xí)網(wǎng)絡(luò)能夠提取不同傳感器采集的數(shù)據(jù)間的差異,并在訓(xùn)練中對傳感器差異進(jìn)行建模和學(xué)習(xí),從而降低了傳感器偏差對融合結(jié)果的影響,提高了融合的準(zhǔn)確性和穩(wěn)健性。BiaSTF 算法的網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示。

圖2 BiaSTF 算法網(wǎng)絡(luò)結(jié)構(gòu)圖

1.3 MLFF-GAN 算法

MLFF-GAN 算法設(shè)計(jì)了基于GAN 的編解碼結(jié)構(gòu)來學(xué)習(xí)圖像融合的多層特征。生成器包括特征提取、特征融合和特征重建。生成器結(jié)構(gòu)如圖3 所示,特征提取和特征重建組成編碼解碼結(jié)構(gòu),以提取和重建多層次特征,從而解決高分辨率圖像與低分辨率圖像之間的巨大分辨率差異。編碼器負(fù)責(zé)將輸入的低分辨率圖像轉(zhuǎn)換為多層次的特征表示,而解碼器則負(fù)責(zé)將多層次特征表示轉(zhuǎn)換回高分辨率圖像,從而實(shí)現(xiàn)更精確的重建。

圖3 MLFF-GAN 算法生成器網(wǎng)絡(luò)結(jié)構(gòu)圖

在融合階段,引入自適應(yīng)實(shí)例規(guī)范塊來優(yōu)化全局光譜分布。自適應(yīng)實(shí)例歸一化是一種用于神經(jīng)網(wǎng)絡(luò)中的歸一化技術(shù),它允許將輸入的特征圖與另一個(gè)樣式圖的統(tǒng)計(jì)信息進(jìn)行匹配和調(diào)整,主要思想是根據(jù)樣式圖的統(tǒng)計(jì)信息來調(diào)整輸入特征的均值和方差,從而實(shí)現(xiàn)對特征的風(fēng)格轉(zhuǎn)換或風(fēng)格遷移。在MLFF-GAN 算法網(wǎng)絡(luò)中,自適應(yīng)實(shí)例規(guī)范塊能夠?qū)⒉煌瑫r(shí)態(tài)的特征圖之間的統(tǒng)計(jì)信息進(jìn)行對齊和調(diào)整,從而實(shí)現(xiàn)對時(shí)空信息的全局融合。此外,特征融合過程中還使用注意力模塊來學(xué)習(xí)小區(qū)域變化時(shí)的局部信息權(quán)值。注意力模塊能夠有效地捕捉到圖像中重要的局部特征,并將其融合到生成的高分辨率圖像中,從而提高了融合結(jié)果的質(zhì)量和準(zhǔn)確性。

MLFF-GAN 算法的鑒別器采用基本的分類神經(jīng)網(wǎng)絡(luò),鑒別器主要任務(wù)是將生成的圖像與真實(shí)圖像進(jìn)行區(qū)分,由多個(gè)卷積塊組成,每個(gè)卷積塊包含卷積層、批歸一化層和LeakyReLU 激活函數(shù),該卷積塊能夠有效地提取圖像的特征,并將其映射到一個(gè)介于0 和1 之間的值。

2 實(shí)驗(yàn)

2.1 研究區(qū)域和數(shù)據(jù)集

在實(shí)驗(yàn)過程中,本文選擇位于澳大利亞新南威爾士州北部的圭迪爾河下游集水區(qū)(lower Gwydir catchment,LGC),其占地面積為5 440 km2,該區(qū)域2004 年4 月至2005 年4 月期間共獲得14 對無云的Landsat-MODIS 數(shù)據(jù)。在2004 年12 月中旬,由于洪水原因,研究區(qū)域的植被被淹沒,導(dǎo)致濕度指數(shù)偏離正常數(shù)值。據(jù)估計(jì),洪水及其后續(xù)淹沒現(xiàn)象涵蓋了約44%的廣闊區(qū)域。此次洪水事件使得圭迪爾河地區(qū)被視為時(shí)間上更為動(dòng)態(tài)的地點(diǎn)。洪水事件對研究人員所研究的異質(zhì)性地區(qū)具有重要意義,因?yàn)樗l(fā)了時(shí)空響應(yīng)的變化,從而影響了研究區(qū)的動(dòng)態(tài)性和光譜特征。

2.2 評價(jià)指標(biāo)

(1)均方誤差

均方根誤差(root mean square error,RMSE)是一種用于衡量預(yù)測圖像與真實(shí)圖像之間差異的指標(biāo)。RMSE 的值越小,表示預(yù)測圖像與真實(shí)圖像之間的差異越小,融合精度越高。具體可以使用式(2)進(jìn)行表示:

式(2)中,h表示圖像的高,w表示圖像的寬,L表示真實(shí)圖像,表示重建的預(yù)測時(shí)刻圖像。

(2)光譜角

光譜角(spectral angle mapper,SAM)用于衡量預(yù)測圖像與真實(shí)圖像之間不同波段的光譜相關(guān)程度,SAM 的值越小,兩張圖像越相似。具體如公式(3)所示:

式(3)中,N表示圖像波段的數(shù)量,M表示圖像像元的數(shù)量,yi表示真實(shí)圖像的第i個(gè)像元,表示重建圖像的第i個(gè)像元。

(3)結(jié)構(gòu)相似度

結(jié)構(gòu)相似度(structure similarity index measure,SSIM)廣泛用于計(jì)算機(jī)視覺領(lǐng)域,通過均值、標(biāo)準(zhǔn)差和協(xié)方差來綜合衡量兩張圖像的相似度。SSIM 的值越大,說明兩幅圖像在紋理結(jié)構(gòu)上更相似。具體可以使用式(4)表示:

式(4)中,表示重建預(yù)測時(shí)刻圖像與真實(shí)圖像之間的協(xié)方差,σy和σy^分別為真實(shí)圖像與預(yù)測圖像的標(biāo)準(zhǔn)差,μy和μy^分別為真實(shí)圖像與預(yù)測圖像的均值,C1和C2是額外添加的非零常數(shù)項(xiàng),避免出現(xiàn)分母為0 的情況。

2.3 實(shí)驗(yàn)過程與結(jié)果

本文針對洪水區(qū)域數(shù)據(jù)選取了GAN-STFM、BiaSTF 和MLFF-GAN 三種基于深度學(xué)習(xí)的時(shí)空融合算法,采用RMSE、SAM 和SSIM 三個(gè)評價(jià)指標(biāo)對融合結(jié)果進(jìn)行評估,具體結(jié)果見表1。綜合評價(jià)來看,BiaSTF 算法的表現(xiàn)最差,而MLFF-GAN 算法的表現(xiàn)最佳。在各指標(biāo)中:GANSTFM 算法獲得了SAM 的最優(yōu)值,表明重建圖像與真實(shí)圖像光譜之間的差異最小;而MLFF-GAN 算法的結(jié)果顯示,在像素差異和結(jié)構(gòu)相似性方面與真實(shí)圖像的擬合度最高。

表1 融合精度評估

本文對不同算法重建圖像的結(jié)果進(jìn)行了進(jìn)一步可視化分析,如圖4 所示。分析顯示:BiaSTF 算法在洪水區(qū)域邊界產(chǎn)生了大量錯(cuò)誤細(xì)節(jié),重建效果明顯較差;GANSTFM 算法雖然在某些區(qū)域可以較好地進(jìn)行重建,但在左側(cè)洪水大面積淹沒地區(qū)表現(xiàn)不佳;MLFF-GAN 算法雖然在精度評估中取得了最佳結(jié)果,但在洪水區(qū)域的重建方面仍存在不足。

圖4 三種算法重建圖像比較

3 結(jié)語

高時(shí)空分辨率的遙感圖像為監(jiān)測洪水災(zāi)害提供了可靠的途徑。為了能夠獲取具有高時(shí)空分辨率的遙感圖像,本文選取GAN-STFM、BiaSTF 和MLFF-GAN 三種算法,以LGC 數(shù)據(jù)集為研究對象展開對洪澇災(zāi)害地域時(shí)空數(shù)據(jù)融合算法的性能評估與對比研究。結(jié)果表明三種算法可以用于洪水監(jiān)測中,MLFF-GAN 算法雖然在融合精度評估方面表現(xiàn)最佳,但是無法有效重建洪水區(qū)域;BiaSTF 算法考慮了傳感器差異,雖然能夠重建洪水區(qū)域,但無法準(zhǔn)確重建邊緣細(xì)節(jié),GAN-STFM 算法只能重建部分洪水區(qū)域。綜上,進(jìn)一步的研究方向可以聚焦于優(yōu)化現(xiàn)有算法和探索混合方法,以實(shí)現(xiàn)更高的融合精度和洪澇災(zāi)害管理的魯棒性。

猜你喜歡
特征融合
抓住特征巧觀察
一次函數(shù)“四融合”
村企黨建聯(lián)建融合共贏
融合菜
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
寬窄融合便攜箱IPFS500
新型冠狀病毒及其流行病學(xué)特征認(rèn)識
《融合》
如何表達(dá)“特征”
不忠誠的四個(gè)特征
主站蜘蛛池模板: 久久久久国产精品免费免费不卡| 美女免费精品高清毛片在线视| 伦精品一区二区三区视频| 国产精品美女网站| 青青草国产在线视频| 亚洲欧美成aⅴ人在线观看| 亚洲男人天堂网址| 在线无码私拍| 国产爽爽视频| 性色生活片在线观看| 国产真实乱子伦视频播放| 国产正在播放| 欧美日韩一区二区三区四区在线观看 | 91精品国产一区自在线拍| 久草性视频| 久久久久人妻一区精品色奶水| 色综合五月婷婷| 成年免费在线观看| 国产一区二区三区夜色| 国产亚洲高清视频| 国产在线一二三区| 午夜久久影院| 欧美激情视频一区| 欧美不卡视频在线| 国产一级一级毛片永久| 国产99视频在线| 国产美女在线免费观看| 国产日韩丝袜一二三区| 动漫精品中文字幕无码| 在线免费观看AV| 91国内外精品自在线播放| 精品成人一区二区三区电影 | 成人精品区| 福利片91| 男人的天堂久久精品激情| 在线人成精品免费视频| 伊人国产无码高清视频| 国产伦片中文免费观看| 亚洲精品中文字幕无乱码| 国产成人免费手机在线观看视频 | 免费一级毛片不卡在线播放| 亚洲一区二区约美女探花| 国产中文在线亚洲精品官网| 狠狠色综合网| 免费看a毛片| 国产视频a| 亚洲美女久久| 欧美性久久久久| 无码免费视频| 久久这里只有精品23| 美女毛片在线| 欧美亚洲国产精品久久蜜芽| 婷婷色中文| 国产第一页屁屁影院| 亚洲美女高潮久久久久久久| 99re这里只有国产中文精品国产精品 | 亚洲天堂网视频| 久青草免费在线视频| www欧美在线观看| 国产成人免费高清AⅤ| 精品国产美女福到在线不卡f| 天天做天天爱天天爽综合区| 91日本在线观看亚洲精品| 欧美精品v欧洲精品| 久久夜色精品| 亚洲精品在线观看91| 青青极品在线| 日韩高清一区 | 在线中文字幕日韩| 色视频国产| 亚洲视频一区在线| 免费在线观看av| 亚洲系列中文字幕一区二区| 亚洲福利视频一区二区| 夜夜操狠狠操| 五月激激激综合网色播免费| 亚洲欧美在线综合图区| 精品自拍视频在线观看| 秋霞国产在线| 久久久波多野结衣av一区二区| 一级成人a做片免费| 中文字幕丝袜一区二区|