999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結構增強型生成對抗網絡SAR圖像超分辨率重建

2021-04-15 10:11:34銳,楊志,董玉,4,陳
地理與地理信息科學 2021年2期
關鍵詞:模型

閔 銳,楊 學 志,董 張 玉,4,陳 鯨

(1.合肥工業大學計算機與信息學院,安徽 合肥 230009;2.工業安全與應急技術安徽省重點實驗室,安徽 合肥 230009;3.合肥工業大學軟件學院,安徽 合肥 230009;4.智能互聯系統安徽省實驗室,安徽 合肥 230009)

0 引言

SAR(Synthetic Aperture Radar)系統[1-3]具備全天時、全天候、多極化等優點,在遙感領域具有重要研究/應用價值,然而受系統設備以及成像過程不可抗干擾等因素影響,實際獲取的SAR圖像空間分辨率較低,難以滿足應用需求。由于SAR系統硬件設備昂貴,目前一般從軟件算法方向[4]提升SAR圖像空間分辨率,重建后的SAR圖像可更好用于目標識別分類[5]、災害監測[6]等任務。

傳統圖像重建方法分為三大類:1)基于插值[7]的方法,如最近鄰插值[8](Nearest Neighbor Interpolation,NNI)、雙線性插值[9]和雙三次(Bicubic)插值[10]算法,該類方法主要通過插值函數估計待插值位置像素值以完成圖像重建,原理簡單、重建速度快,但插值后圖像質量較差、缺乏高頻信息,導致重建圖像紋理粗糙、邊緣模糊;2)基于重建的方法,如凸集投影法[11](Projection Onto Convex Sets,POCS)、迭代反投影法[12](Iterative Back Projection,IBP)和最大后驗概率法[13](Maximum A Posteriori,MAP),該類方法旨在通過正則化約束制約解空間,以尋求高分辨率圖像近似估計,在圖像邊緣和細節重建方面比插值算法效果更好,但解不唯一且易受初始值影響;3)基于學習的方法[14],其核心為以學習的方式獲取低分辨率到高分辨率圖像的非線性映射關系,通過選取合適的學習方法獲取重建模型,與基于重建的方法相比,該類方法通過訓練樣本獲得額外先驗知識,在重建圖像高頻細節信息部分效果更好。深度學習生成對抗網絡(Generative Adversarial Network,GAN)[15]具有強大的特征提取和特征表達能力,基于GAN網絡的超分辨率圖像重建算法相比傳統方法效果更好。例如:Legid等[16]首次將GAN網絡用于圖像重建,提出超分辨率生成對抗網絡(Super-Resolution Generative Adversarial Network,SRGAN),不同于超分辨率卷積網絡(Super-Resolution Convolutional Neural Network,SRCNN)[17-19],SRGAN網絡具有生成和判別雙網絡,博弈對抗訓練方式保證了生成網絡重建圖像質量隨著判別網絡性能增強而提升,效果顯著優于傳統方法;為進一步提升重建圖像質量,Wang等[20]提出增強型超分辨率生成對抗網絡(Enhanced Super-Resolution Generative Adversarial Network,ESRGAN)模型,該模型通過改進生成網絡和感知域損失函數,有效增強了重建圖像細節信息和視覺效果,進一步提升了生成對抗網絡超分辨率重建優勢,但仍存在重建圖像邊緣細節信息不足和局部“偽影”等問題。為解決此問題,本文提出一種基于生成對抗網絡的SAR圖像重建算法,以期有效增強重建圖像邊緣細節信息,改善“偽影”現象,并與其他算法進行比較,探索該算法在圖像重建方面的優勢。

1 研究方法

1.1 GAN原理

GAN是一種無監督深度學習模型,主要由生成器G(Generator)和判別器D(Discriminator)組成,G用于學習訓練數據分布,從而產生符合真實數據分布的新樣本數據,D用于判別G生成新樣本真假,二者交替訓練提升各自網絡性能,形成博弈對抗關系,最終使整個網絡達到“納什均衡”[21]。GAN數學模型表達式為:

(1)

式中:E表示函數期望值;Pdata(x)為真實樣本數據集;Pz(z)為先驗數據集,z為隨機噪聲數據;D(G(z))表示D判別生成樣本G(z)的真實概率,值越接近1,表示生成數據越接近真實樣本,同理D(x)表示D判別真實樣本x的真實概率。

GAN對抗訓練流程為:1)初始化生成器G和判別器D參數;2)從真實樣本Pdata(x)中隨機采集n個樣本x,從先驗分布Pz(z)中隨機采集n個噪聲z,并通過生成器G生成n個生成樣本G(z);3)固定生成器G,訓練判別器D以盡可能準確判別真實樣本和生成樣本,循環多次更新D參數,增大D(x)數值,減小D(G(z))數值;4)固定判別器D,訓練生成器G以盡可能縮小生成樣本與真實樣本差距,循環多次更新G參數,增大D(G(z))數值;5)重復步驟3)和步驟4),使得D(x)≈D(G(z))≈0.5,即網絡最終達到“納什均衡”。

1.2 結構增強型生成對抗網絡框架

近現代圖像超分辨率重建研究多圍繞光學圖像展開,鑒于成像后階段SAR圖像與光學灰度圖像存儲方式和通道數相同,二者存在一定相似性,本文參考ESRGAN[20]光學網絡模型,對其重建SAR圖像存在的邊緣細節信息不足與“偽影”現象進行改進,提出一種結構增強型生成對抗網絡(Enhanced Structural Generative Adversarial Network,ES-GAN)SAR圖像重建算法,ES-GAN模型生成器網絡結構按模塊功能可分為特征提取模塊A、特征增強模塊B和上采樣重建模塊C(圖1),各模塊網絡層參數如表1所示。

圖1 ES-GAN生成器網絡結構

表1 ES-GAN網絡參數

(1)特征提取模塊A,由第一個卷積層組成?;凇案哳l邊緣細節信息傾向于被較小卷積核所提取,而較為粗糙的結構內容信息更適合較大尺寸卷積核提取”[22],為保留更多SAR圖像邊緣細節信息,同時降低計算復雜度,本文網絡使用3×3小卷積核提取輸入SAR圖像特征信息。用ILR表示輸入低分辨率SAR圖像,fconv1表示第一個卷積過程,xconv1表示卷積輸出結果,則模塊A可表示為:

xconv1=fconv1(ILR)

(2)

(3)

xconv2=fconv2(xRRDB)

(4)

圖2 RRDB模塊結構

(3)上采樣重建模塊C,由上采樣和第三個卷積層組成。不同于ESRGAN網絡模型采用單一上采樣方式,本文交替使用最近鄰插值(NNI)和亞像素卷積(Sub-Pixel Convolution,SPC)方式進行上采樣,NNI執行空域變換,SPC執行depth-to-space變換,二者交替有助于提升空間結構信息與深層抽象信息的交互融合,同時SPC上采樣方式有助于降低參數量和時間復雜度。本文網絡上采樣重建模塊結構如圖3所示,其中,Trunk A和Trunk B分別代表NNI和SPC上采樣模塊,每個采樣模塊放大倍數scale=2,使用PReLU(Parametric Rectified Linear Unit)作為激活函數,因為PReLU函數能夠使網絡稀疏性更好,從而提升訓練精度,同時在反向傳播過程中能夠保持較好的流動性,從而加快網絡訓練速度[23]。最后采用卷積網絡將多通道特征圖融合為單通道特征圖并輸出,進而參考Shang等[24]的研究提出模型上采樣部分結構,采用LReLU函數提高模型特征融合過程中的非線性擬合性能。定義NNI上采樣模塊函數為fTrunkA,SPC上采樣模塊函數為fTrunkB,第3、4個卷積層函數分別為fconv3、fconv4,LReLU函數為fLReLU,最后模型輸出ISR可表示為:

ISR=fconv4(fLReLU(fconv3(fTrunkB(fTrunkA(xconv1+xconv2)))))

(5)

圖3 上采樣重建模塊結構

1.3 損失函數

(1)VGG感知損失LVGG:網絡用VGG19模型進行預訓練,φij表示VGG19模型中第i層池化層和第j層卷積層之間的特征映射圖,(i,j)為相應特征圖維度,低分辨率圖像ILR尺寸為W×H,則定義LVGG為重建圖像ISR與參考圖像IHR之間的歐氏距離,公式為:

(6)

(7)

(3)像素損失Lpix:定義超分辨率放大尺寸為r,則重建圖像ISR尺寸為rW×rH,Lpix可表示為:

(8)

(9)

綜上,本文網絡生成器總損失函數Ltotal公式為:

(10)

2 實驗結果與分析

2.1 SAR數據集

(1)訓練數據集:從哥白尼數據開放中心(https://scihub.copernicus.eu)下載125張哨兵-1B GRD級別SAR數據,空間分辨率為10 m,VH極化,重訪周期6 d。對圖像進行預處理:利用ENVI軟件自動配準工具對SAR數據進行配準成像,配準誤差小于1個像元;采用BM3D[25]濾波算法對SAR圖像相干斑噪聲進行降噪;將原圖像裁剪為256×256大小。為使網絡訓練效果更佳,對有限數據集進行擴展:對預處理后的SAR圖像進行0°、90°、180°、270°旋轉及鏡像操作,得到8倍增樣本,最終得到1 000張256×256高分辨率參考圖像IHR;再利用雙三次插值算法對參考圖像IHR4倍降采樣,得到1 000張64×64低分辨率圖像ILR。

(2)測試數據集:選取由分享網站(https://down.itsvse.com/item/15937.html)提供的TerraSAR-X衛星拍攝的3幅不同場景SAR圖像(成像時間為直布羅陀:2008年3月,荷蘭納爾登:2009年3月,西班牙安達素爾:2013年3月),成像模式均為高分辨率聚束模式(High Resolution SpotLight,HS)、VV或HH單極化,分辨率為1 m×1 m,重訪周期為11 d。由于圖像中含有大量山體、農田和建筑等地物,內容和紋理信息豐富,適合作為驗證圖像。將3幅SAR圖像裁剪為256×256大小,并選取其中10幅紋理細節豐富的SAR圖像塊,制作成測試數據集,如圖4所示。

圖4 測試數據集

2.2 實驗環境及參數設置

本文實驗環境為Window 10-64位操作系統,CPU為Intel(R) Xeon(R)Silver 4114 CPU@2.20 GHz 2.19 GHz,內存為128 GB RAM,GPU為NVIDIA Tesla P100-PCIE,顯存16 GB,使用Pytorch框架搭建ES-GAN網絡模型,實驗統一進行放大倍數scale=4 的SAR圖像超分辨率重建實驗,并與傳統雙三次(Bicubic)插值、深度學習SRCNN和ESRGAN模型進行對比分析。生成器網絡使用Adam優化器(β1=0.9,β2=0.000),初始化學習率為1×10-4,每批次數量為batch_size=32,最大迭代次數epochs=20 000,λ=0.02,η=0.05,ζ=0.005。

2.3 模型對比分析

選用峰值信噪比(PSNR)、結構相似性(SSIM)和測試時間作為算法評價指標,使用圖4測試數據集對本文ES-GAN網絡模型與Bicubic、SRCNN[16]、ESRGAN[18]超分辨率網絡模型進行實驗。依次采用各算法模型對測試數據集進行重建,并記錄每幅重建圖像的PSNR、SSIM和重建時間,PSNR和SSIM取10幅圖像的平均值,測試時間求和,得到各算法最終評價指標(表2)??梢钥闯觯?)Bicubic方法忽略了像素間的空間聯系,導致其PSNR和SSIM最低;深度學習方法中,采用對抗訓練方式的ESRGAN和ES-GAN模型重建指標更優;針對對抗訓練方式所造成的“偽影”現象,ES-GAN模型從網絡結構和損失函數兩方面加以改進,故重建圖像PSNR和SSIM最高,空間信息保持最好。2)Bicubic插值方法原理最簡單,測試時間最短;深度學習方法中,ES-GAN與SRCNN模型測試時間大致相當,由于ES-GAN模型采用傳統插值和亞像素卷積方式交替上采樣,其比ESRGAN模型采用單一亞像素卷積上采樣方式用時更短,算法效率更佳,更適合海量遙感衛星數據超分辨率重建。

表2 各模型評價指標對比

為進一步證明本文算法有效性,選取兩幅紋理邊緣信息豐富影像(TS_2和TS_3)的局部區域(圖5a、圖5f中白框部分)進行說明(圖5)。對于TS_2影像而言,因插值算法忽略了像素間的空間聯系,導致Bicubic重建圖像視覺效果較模糊,像素間“鋸齒”現象較嚴重(圖5b);深度學習模型(圖5c-圖5e)中,ESRGAN和本文ES-GAN模型由于網絡層數更多,對特征提取更充分,因此重建圖像更加清晰,視覺效果更好,尤其是本文ES-GAN模型重建結果(圖5e)邊緣紋理更加清晰、真實,層次感更強,結構更合理,但ESRGAN模型重建結果(圖5d)部分紋理出現錯亂現象。上述分析結果對于TS_3影像同樣適用。

圖5 ES-GAN結果的定性對比

2.4 消融實驗

表3 ES-GAN模型結構消融對比

選用不同模式下的ES-GAN模型依次對測試數據集的10幅SAR圖像進行重建,并選取紋理信息較豐富、結構層次感較強的3張重建圖像(TS_1、TS_4和TS_5)進行效果對比(圖6)。

(1)重建模塊:對比圖6中第二、三列子圖發現,在損失函數相同的情況下,交替采用SPC和NNI進行上采樣的第三列子圖更清晰,邊緣紋理細節更突出(如圖6f和圖6g框內部分),視覺效果明顯優于僅采用SPC上采樣的第二列子圖;同時對比圖6a-圖6c及圖6i-圖6k中框內部分可以發現,重建圖像均出現一定程度紋理錯亂,圖像結構與原圖有明顯差異,仍存在與參考圖像結構紋理信息不符的“偽影”現象。

圖6 ES-GAN消融實驗效果

3 結論

本文在ESRGAN模型基礎上對原網絡結構和損失函數加以改進,提出一種結構增強型生成對抗網絡SAR圖像重建算法,該算法特點為:1)網絡結構上,改進原網絡上采樣模塊,采用NNI和SPC交替上采樣方式,促進了空間深度信息交互融合,增強了重建圖像邊緣細節信息;2)損失函數上,在原網絡損失函數基礎上引入結構損失函數,通過每批次反向傳播調節生成網絡參數,達到緩解網絡“偽影”目的。通過視覺效果和質量評價對算法有效性進行驗證,結果表明:本文算法重建圖像內容結構保持更好,紋理細節信息更豐富,證明了交替采樣方式和結構損失函數對重建圖像細節提升、緩解“偽影”現象的有效作用;本文算法對于結構內容單一圖像的重建效果提升不明顯,更適用于紋理信息豐富的SAR圖像。本文仍存在不足之處:在數據驗證方面,由于沒有公開SAR圖像超分辨率驗證數據集,驗證結果缺乏可比性;在圖像處理上,對SAR圖像固有的乘性光斑噪聲、SAR圖像存儲方式等特性考慮不足,后續實驗將進一步結合SAR圖像自身特性,同時關注算法在災害監測、目標識別等方面的實用價值。

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 欧美自慰一级看片免费| 久久99热这里只有精品免费看| 国产精品无码久久久久AV| JIZZ亚洲国产| 亚洲无码免费黄色网址| 亚洲欧美综合精品久久成人网| 欧美日韩精品一区二区在线线| 国产成人一级| 中文字幕久久亚洲一区| 伊人网址在线| 国产精品久久久精品三级| 亚洲黄色视频在线观看一区| 极品国产一区二区三区| 三上悠亚在线精品二区| 国产高清又黄又嫩的免费视频网站| 亚洲视频免| 91无码网站| 成人年鲁鲁在线观看视频| julia中文字幕久久亚洲| 国产精品三级av及在线观看| 又爽又大又黄a级毛片在线视频| 毛片免费高清免费| 丁香五月激情图片| 狠狠操夜夜爽| 五月婷婷综合色| 亚洲综合专区| 欧美色视频在线| 亚洲综合经典在线一区二区| 国产97区一区二区三区无码| 国产精品林美惠子在线观看| 国产精品尤物铁牛tv| 亚洲精品无码日韩国产不卡| 中文字幕无码制服中字| 特级毛片免费视频| 国产成人调教在线视频| 久久亚洲日本不卡一区二区| 欧美黄网站免费观看| 欧美精品黑人粗大| 亚洲人成在线免费观看| 国产成人免费| 精品剧情v国产在线观看| 国语少妇高潮| 三区在线视频| 露脸国产精品自产在线播| 无码专区在线观看| 国产成人亚洲精品无码电影| 国产打屁股免费区网站| 亚洲三级a| 九色免费视频| 在线播放真实国产乱子伦| 18禁高潮出水呻吟娇喘蜜芽| 欧美成人日韩| 精品国产成人三级在线观看| 国产在线精彩视频二区| 国产一在线观看| 亚洲日韩日本中文在线| 狠狠色婷婷丁香综合久久韩国| 欧美黑人欧美精品刺激| 2021无码专区人妻系列日韩| 国产一国产一有一级毛片视频| 久久国产亚洲偷自| 激情六月丁香婷婷| 免费播放毛片| 久久精品视频亚洲| 亚洲一区二区精品无码久久久| 99爱视频精品免视看| 国产精品伦视频观看免费| 亚瑟天堂久久一区二区影院| 人妻无码AⅤ中文字| 欧美国产日韩在线| 亚洲另类国产欧美一区二区| 国产va视频| 免费国产高清视频| 91九色最新地址| 国产va视频| 欧美一级在线播放| 精品91自产拍在线| 被公侵犯人妻少妇一区二区三区| 国产一级小视频| 亚洲国产精品久久久久秋霞影院| 91精品国产91久久久久久三级| 亚洲中文无码av永久伊人|