999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于GLNet和HRNet的高分辨率遙感影像語義分割

2021-05-29 01:25:18趙紫旋
紅外技術 2021年5期
關鍵詞:語義特征

趙紫旋,吳 謹,朱 磊

基于GLNet和HRNet的高分辨率遙感影像語義分割

趙紫旋1,2,吳 謹1,2,朱 磊1,3

(1. 武漢科技大學 信息科學與工程學院,湖北 武漢 430081;2. 冶金自動化與檢測技術教育部工程中心,湖北 武漢 430000;3. 中冶南方連鑄技術工程有限責任公司,湖北 武漢 430223)

在GLNet(Global-Local Network)中,全局分支采用ResNet(Residual Network)作為主干網絡,其側邊輸出的特征圖分辨率較低,而且表征能力不足,局部分支融合全局分支中未充分學習的特征圖,造成分割準確率欠佳。針對上述問題,提出了一種基于GLNet和HRNet(High-Resolution Network)的改進網絡用于高分辨率遙感影像語義分割。首先,利用HRNet取代全局分支中原有的ResNet主干,獲取表征能力更強,分辨率更高的特征圖。然后,采用多級損失函數對網絡進行優化,使輸出結果與人工標記更為相似。最后,獨立訓練局部分支,以消除全局分支中特征圖所帶來的混淆。在高分辨率遙感影像數據集上,對所提出的改進網絡進行訓練和測試,實驗結果表明,改進網絡在全局分支和局部分支上的平均絕對誤差(Mean Absolute Error,MAE)分別為0.0630和0.0479,在分割準確率和平均絕對誤差方面均優于GLNet。

高分辨率遙感影像;語義分割;全局分支;局部分支;獨立訓練

0 引言

圖像的語義分割將屬于相同目標類別的圖像子區域聚合起來,是高分辨率遙感影像信息提取和場景理解的基礎,也是實現從數據到信息對象化提取的關鍵步驟,具有重要的意義。

在對高分辨率遙感影像進行語義分割時,傳統方法的抗噪性能較差,難以獲得較好的分割準確率和分割速度。隨著大規模數據集和硬件計算能力的發展,深度學習的方法在圖像處理任務中取得了較好的成績,基于深度學習的圖像語義分割方法也可以更好地應用于實際任務。

目前,基于深度學習的圖像語義分割可以分為兩類:基于區域分類的圖像語義分割和基于像素分類的圖像語義分割。其中,基于像素分類的圖像語義分割方法增加了模型的整體契合度,而且可以有效提升分割準確率和分割速度。在實際應用中,多采用全監督學習的像素分類方式進行訓練[1]。

全卷積網絡[2](Fully Convolutional Network, FCN)是最早實現基于像素分類的圖像語義分割網絡之一,在牛津大學計算機視覺組(Visual Geometry Group, VGG)所提出的VGG-16[3]網絡的基礎上進行改進,將全連接層替換為卷積層以實現逐像素的密集預測,該方法可以分割出圖像的大致輪廓,但是結果較為粗糙。在FCN[2]的基礎上,U-Net[4]采用編碼器-解碼器的對稱網絡結構,并通過跳層連接(skip-connection)的方式將低級特征融合至高級特征,DeconvNet[5]和SegNet[6]也采用了類似的結構。Deeplab[7]采用空洞卷積的方式來擴大卷積的感受野,大感受野下所獲取的特征能夠有效地編碼圖像中的上下文信息。然而,這些網絡應用于高分辨率遙感影像時,隨著計算量增加,需要占用更多的GPU內存,造成運行速度減慢等問題。

隨著語義分割在許多實時應用中變得越來越重要,高效和快速的分割網絡得到了更多的關注。ENet[8]在進行語義分割時,采用分解濾波器策略,通過低階近似(low-rank approximation)的方法簡化卷積操作,以減少運算。圖像級聯網絡(Image Cascade Network, ICNet)[9]將不同尺寸的低分辨率圖像輸入主干網絡得到粗糙分割圖,然后通過級聯特征融合單元來融合高分辨率特征圖,提高了分割速度。盡管實時性能得到提升,但這些網絡對于高分辨率遙感影像的分割準確率不佳。

GLNet[10]由全局分支(global branch)和局部分支(local branch)構成,分別以降采樣的全局圖像和全分辨率的裁剪圖像作為輸入,有效保留了細節信息和全局上下文信息,并能減少GPU內存的使用量,該網絡以ResNet[11]和特征金字塔網絡(Feature Pyramid Network,FPN)[12]作為兩個分支的主干。GLNet在保證高分辨率圖像分割準確率的前提下,提高了內存的使用效率,但是其全局分支主干網絡側邊輸出的特征圖分辨率較低,而且表征能力不足,局部分支的學習也存在被混淆的問題。

HRNet[13]能夠全程保持高分辨率的特征圖,得到更為精準的空間信息,其多尺度融合策略也可以得到更為豐富的高分辨率表征,使預測的熱點圖(heatmap)更為準確。采用HRNet替代GLNet中的全局分支ResNet,可以得到分辨率更高,而且特征信息更為豐富的側邊輸出特征圖,可以提高分割的準確率。

本文基于HRNet和GLNet提出了一種改進網絡用于高分辨率遙感影像的語義分割。在全局分支中,將GLNet中的ResNet調整為HRNet,以HRNet和FPN作為主干網絡,在保持高分辨率特征圖的同時,融合豐富的多尺度信息,得到更具代表性的表征。將輔助損失函數修改為多級損失結構優化網絡[14],使分割結果更為準確。在局部分支中,采用ResNet和FPN作為主干網絡,獨立訓練該部分網絡,不采用原有的特征共享策略,以消除全局分支中,未充分學習的特征圖所帶來的混淆。GLNet和改進網絡的流程,分別如圖1(a)和圖1(b)所示,在高分辨率遙感影像數據集上對兩者進行比較,實驗結果表明,該網絡在分割準確率上優于GLNet,得到了更好的結果。

圖1 GLNet和本文改進網絡的流程對比

1 HRNet

HRNet并行連接由高到低的子網絡,在不采用中間熱點圖監督的條件下,重復融合子網絡產生的表征,得到可靠的高分辨率表征。與通過由低到高的上采樣進程,聚合低層和高層表征的大多數網絡相比,HRNet具有較好的計算復雜度和參數效率。

1.1 并行多分辨率子網

并行多分辨率子網通過并行連接由高分辨率到低分辨率的子網構建而成,每個子網包含多個卷積序列,臨近的子網間存在降采樣層,以將特征圖分辨率減半。以高分辨率子網作為第一個階段,逐步增加由高到低分辨率的子網,組成新的階段,然后并行連接多個分辨率子網。并行子網后一階段的分辨率由前一階段的分辨率和下一階段的分辨率組成。通過4個并行子網組成的網絡結構,如圖2(a)所示。圖中:N表示在第階段的子網,其分辨率為初始階段圖像的1/(2-1)。

圖2 HRNet的基本網絡結構

1.2 重復的尺度融合

HRNet引入跨并行子網的交換單元,使每個子網多次接收來自其它子網的信息。信息交換單元的示例如圖2(b)所示,將第3階段分隔為多個交換塊,而每個交換塊由3個并行卷積單元和1個交換單元組成。圖中:C表示第階段的第個交換塊,其交換單元的分辨率為初始階段的1/(2-1),而表示相應的交換單元。HRNet中交換單元聚合不同分辨率特征信息的具體實現,如圖3所示。

圖3 HRNet的交換單元

(X,)表示將輸入X的分辨率由變換到的過程,通過降采樣或上采樣的方式實現。HRNet的交換單元采用步長為2的3×3卷積進行降采樣,而上采樣則利用雙線性插值的方式實現。值得注意的是,如果=,則(x,)表示恒等映射,即(x,)=x

2 基于HRNet和GLNet的網絡

基于HRNet和GLNet的網絡由全局和局部兩個分支構成。全局分支以降采樣后的整體圖像作為輸入,保留了圖像的全局上下文信息,但缺少了部分的細節信息;局部分支以全分辨率的裁剪圖像作為輸入,高分辨率圖像保留了細節信息,但缺少了空間信息和鄰近區域依賴信息。本文改進的網絡在全局分支采用了HRNet的結構提高了特征圖的分辨率,在局部分支采用獨立訓練的方式保證網絡學習效率,并有效整合兩個分支,實現更好的分割性能。

2.1 全局分支和局部分支

在全局分支中,采用HRNet作為主干網絡。其并行連接由高分辨率到低分辨率的子網,重復融合多分辨率特征,生成了可靠的高分辨率表征。與原有ResNet網絡相比,提高了特征圖的分辨率,在豐富了全局上下文信息的同時,保留了更多的細節信息,提高了分割效率,其網絡結構如圖4所示。

在局部分支中,仍采用ResNet作為主干網絡。與原有網絡不同,本文所提出的改進網絡并未與全局分支深度共享特征圖。全局分支在對局部分支缺少的上下文信息進行補充的同時,也對其特征圖的學習造成混淆。因此,采用獨立訓練的方式,以提高局部分支的分割效果,局部分支的網絡結構如圖5所示。

圖4 GLNet的全局分支結構

圖5 GLNet的局部分支網絡結構

2.2 分支聚合

如圖6所示,令兩個分支間的聚合層為AGG,該層由3×3卷積構成,實現了兩個分支特征圖之間的聚合(ensemble)。從局部分支和全局分支中提取的特征圖可以分為層,分別用X,i和X,i表示,其中∈,=4,將最后一層特征圖沿著維度相連,通過聚合層AGG得到最后的分割圖,令其為AGG。除了針對于AGG的主損失函數,本文還采用了2個輔助損失函數,分別使全局分支的分割圖為S,L、局部分支的分割輸出為S,L,與相對應的人工標記結果(Ground Truth,GT)更為接近,該操作也使得訓練過程更為穩定。

圖6 聚合過程

3 實驗結果

3.1 實現細節

在全局分支,采用HRNet和FPN作為主干網絡,其中,HRNet包含4個并行子網,每個子網分辨率遞減一半,而通道數增加至上一階段的2倍。HRNet的第一階段由4個與ResNet-50結構一致的殘差單元構成;第二,三,四階段分別包含有1,4,3個交換塊,每個交換塊在相同分辨率之間包含有2個3×3卷積,而在不同分辨率之間包含1個交換單元。在進入第一階段前,HRNet需要經過2次降采樣,本文實驗,在輸入降采樣后的遙感圖像前提下,僅通過1次降采樣即可實現最優效果。

在局部分支,仍采用ResNet和FPN作為主干網絡,提取ResNet在從第2個至第5個殘差塊的側邊輸出進行學習。

全局分支輸入的降采樣圖像與局部分支輸入的裁剪圖像均采用500×500的像素大小。局部分支中相鄰的裁剪子圖有50個像素的重疊,以避免卷積層的邊界消失,并采用=6的主損失函數和兩個輔助損失函數來優化目標[15],全局分支采用多級損失[14]的計算方式,每條分支的損失權重平均分配為1,局部分支采用二元交叉熵損失函數。

實驗是在PyTorch深度學習框架下進行,采用Adam優化器[16](1=0.9,2=0.999),全局分支的學習率設置為1×10-4,局部分支的學習率設置為2×10-5,所有分支訓練時批量處理的數量均為6。

3.2 實驗數據及評估標準

在遙感數據集上進行訓練和測試,數據集中包含有759幅高分辨率的遙感影像(分辨率為2248×2248),以及對應的人工標記結果。將數據集按8:2的比例劃分成訓練集和驗證集,607幅遙感影像用于訓練,152幅遙感影像用于測試。

在實驗過程中,采用平均絕對誤差作為評估標準。MAE是單個觀測值與標準值的偏差的絕對值平均,所有個體差異在平均值上的權重都相等,可以更好地反映預測值誤差的實際情況,其表達式如下所示:

式中:表示輸入數據集;表示中數據的總量;表示預測過程;(x)和y分別表示第個數據的預測值和標準值。

在Linux實驗環境下,通過Nvidia-smi命令調取并記錄GPU的內存占用情況。

3.3 實驗結果

分別采用GLNet和改進網絡對兩幅相同的高分辨率遙感影像進行分割,結果對比如圖7所示。

在全局分支上,將本文所提出的改進網絡與GLNet進行對比。平均絕對誤差和內存占用量的對比數據如表1所示。

表1 Global分支實驗對比

在局部分支上,將本文所提出的改進網絡與GLNet中特征圖共享的網絡結構進行對比。平均絕對誤差和內存占用量的對比數據如表2所示。

表2 Local分支實驗對比

精度召回率(Precision Recall,PR)曲線是衡量學習器優劣的標準之一,其曲線下的面積(Area Under Curve,AUC)用以定量的評估分割效果。本文所提出的改進網絡和GLNet的PR曲線如圖8所示。

圖8 高分辨率遙感圖像PR曲線圖

在全局分支,本文基于HRNet主干結構的MAE=0.0630,平均絕對誤差相比于GLNet降低了0.01,由圖7所見,改進網絡全局分支的分割結果圖也明顯優于GLNet,證明本文所提出的結構在全局分支可以更好地進行高分辨率遙感影像語義分割;在局部分支,未融入全局分支特征圖的方法,MAE=0.0479,平均絕對誤差更低,可以推斷全局分支對局部分支的學習造成了混淆,從分割圖也可看出,不采用特征圖共享的結構分割效果更好。由圖8中的PR曲線定量分析可知,改進網絡在融合、局部和全局模塊的AUC均高于GLNet的對應模塊,分別為0.9265、0.9221和0.9017,具有更好的分割效果。綜上所述,本文基于HRNet和GLNet的方法,在分割準確度和平均絕對誤差方面性能更優。值得注意的是,該方法在內存使用效率方面,稍弱于GLNet,全局分支的GPU內存使用僅比GLNet多了735M,優于多數主流分割網絡(U-Net:5507M,FCN-8s:5227M,PSPNet[17]:6289M,SegNet[6]:10339M)。

4 結論

高分辨率遙感影像分割是當前非常重要的計算機視覺技術之一。GLNet在保證分割效率的同時,優化GPU內存的使用效率。本文在GLNet的基礎上,對分割準確率進一步提升。在全局分支,采用HRNet作為主干網絡,并采用多級損失函數優化網絡;在局部分支,獨立訓練該部分網絡,證明了全局分支中的特征圖對局部分支特征圖的學習造成了混淆。實驗結果表明,本文所提出改進網絡的平均絕對誤差更低,且分割準確率更優,該方法可有效用于高分辨率遙感影像的語義分割。

[1] 田萱, 王亮, 丁琪. 基于深度學習的圖像語義分割方法綜述[J]. 軟件學報, 2019, 30(2): 250-278.

TIAN X, WANG L, DING Q. Review of Image Semantic Segmentation Based on Deep Learning[J]., 2019, 30(2): 440-468.

[2] LONG J, Shelhamer E, Darrell T. Fully convolutional networks for semantic segmentation[C]//, 2015: 3431-3440.

[3] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[C]//, 2015: 1-13.

[4] Ronneberger O, Fischer P, Brox T. U-net: Convolutional networks for biomedical image segmentation[C]//, 2015: 234-241.

[5] Noh H, Hong S, Han B. Learning deconvolution network for semantic segmentation[C]//, 2015: 1520-1528.

[6] Badrinarayanan V, Kendall A, Cipolla R. Segnet: A deep convolutional encoder-decoder architecture for image segmentation[J]., 2017, 39(12): 2481-2495.

[7] CHEN L C, Papandreou G, Kokkinos I, et al. DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs[J]., 2018, 40(4):834.

[8] Paszke A, Chaurasia A, Kim S, et al. Enet: A deep neural network architecture for real-time semantic segmentation[J/OL]., 2016,https://arxiv.org/abs/1606.02147.

[9] ZHAO H, QI X, SHEN X, et al. Icnet for real-time semantic segmentation on high-resolution images[C]//, 2018: 405-420.

[10] CHEN W, JIANG Z, WANG Z, et al. Collaborative global-local networks for memory-efficient segmentation of ultra-high resolution images[C]//,2019: 8924-8933.

[11] HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]//,2016: 770-778.

[12] LIN T Y, Dollár P, Girshick R, et al. Feature pyramid networks for object detection[C]//,2017: 2117-2125.

[13] SUN K, XIAO B, LIU D, et al. Deep high-resolution representation learning for human pose estimation[C]//, 2019: 5693-5703.

[14] HOU Q, CHENG M M, HU X, et al. Deeply supervised salient object detection with short connections[C]//,2017: 3203-3212.

[15] LIN T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection[C]//, 2017: 2980-2988.

[16] Kingma D P, Ba J. Adam: A method for stochastic optimization[J/OL]. arXiv preprint arXiv:1412.6980, 2014.

[17] ZHAO H, SHI J, QI X, et al. Pyramid scene parsing network[C]//,2017: 2881-2890.

High-resolution Remote Sensing Image Semantic Segmentation Based on GLNet and HRNet

ZHAO Zixuan1,2,WU Jin1,2,ZHU Lei1,3

(1.,430081,;2.,430000,;3.,430223,)

The backbone of a convolutional neural network global branch, a residual network (ResNet), obtains low-resolution feature maps at side outputs that lack feature representation. The local branch aggregates the feature maps in the global branch, which are not fully learned, resulting in a negative impact on image segmentation. To solve these problems in GLNet (Global-Local Network), a new semantic segmentation network based on GLNet and High-Resolution Network (HRNet) is proposed. First, we replaced the original backbone of the global branch with HRNet to obtain high-level feature maps with stronger representation. Second, the loss calculation method was modified using a multi-loss function, causing the outputs of the global branch to become more similar to the ground truth. Finally, the local branch was trained independently to eliminate the confusion produced by the global branch. The improved network was trained and tested on the remote sensing image dataset. The results show that the mean absolute errors of the global and local branches are 0.0630 and 0.0479, respectively, and the improved network outperforms GLNet in terms of segmentation accuracy and mean absolute errors.

high-resolution remote sensing image, semantic segmentation, global branch, local branch, trained independently

TP751.1

A

1001-8891(2021)05-0437-06

2020-04-08;

2020-06-23.

趙紫旋(1997-),女,湖北武漢人,碩士研究生,研究方向為圖像處理、深度學習。E-mail:zhaozixuan19970708@163.com。

吳謹(1967-),女,安徽蕪湖人,博士,教授,研究方向為圖像處理與模式識別、信號處理與多媒體通信等。E-mail:wujin@wust.edu.cn。

國家自然科學基金青年基金項目資助(61502358,61702384)。

猜你喜歡
語義特征
抓住特征巧觀察
新型冠狀病毒及其流行病學特征認識
語言與語義
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
認知范疇模糊與語義模糊
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
“深+N季”組配的認知語義分析
當代修辭學(2011年6期)2011-01-29 02:49:50
主站蜘蛛池模板: 国产乱人乱偷精品视频a人人澡| 欧美不卡视频一区发布| 亚洲无码久久久久| 永久免费无码成人网站| 国产一区二区三区精品欧美日韩| 在线观看视频一区二区| 久久99国产综合精品1| 国产午夜一级淫片| 久久无码高潮喷水| 婷婷亚洲天堂| 在线播放国产99re| 色婷婷综合在线| 99手机在线视频| 88av在线看| 99热国产这里只有精品9九| 国产欧美日韩18| 久久精品最新免费国产成人| 国产精品黑色丝袜的老师| 欧美福利在线| 午夜少妇精品视频小电影| 九九热视频在线免费观看| 国产真实自在自线免费精品| 99在线视频免费| 亚洲成aⅴ人在线观看| 中文字幕在线看| 54pao国产成人免费视频| 性网站在线观看| 第一区免费在线观看| 九色最新网址| 国产成人91精品| 亚洲侵犯无码网址在线观看| 国产亚洲欧美日韩在线一区| 在线观看免费国产| 欧美视频在线不卡| 91在线中文| 亚洲一级无毛片无码在线免费视频| 国产精品久久久久久久久久久久| 日本草草视频在线观看| 成人va亚洲va欧美天堂| 99久久人妻精品免费二区| 亚洲综合婷婷激情| 制服丝袜 91视频| 久久精品aⅴ无码中文字幕 | 毛片免费试看| 韩国v欧美v亚洲v日本v| 中文字幕在线看| 国产在线专区| 久久综合九九亚洲一区| 久久人体视频| 91日本在线观看亚洲精品| 欧美高清三区| 中文字幕在线视频免费| 国产一区免费在线观看| 欧美精品v欧洲精品| 久久鸭综合久久国产| 国产va在线观看免费| 免费无码网站| 欧亚日韩Av| 欧美精品成人| 欧美色视频日本| 国产美女在线观看| 五月婷婷伊人网| 欧美色香蕉| 日本妇乱子伦视频| 毛片基地视频| 亚洲日本精品一区二区| 成人一级免费视频| 91在线日韩在线播放| 99精品福利视频| 亚洲欧美日韩另类| 这里只有精品免费视频| 国产乱人伦精品一区二区| 欧美激情第一区| 国产精品性| 91久久国产综合精品| 国产a v无码专区亚洲av| 一区二区自拍| 免费国产黄线在线观看| 亚洲国产天堂久久九九九| 国产视频一二三区| 国产尤物在线播放| 亚洲成人黄色在线|