袁偉,許文波,周甜
1. 成都大學 建筑與土木工程學院,成都 610106 2. 電子科技大學 資源與環境學院,成都 610097
傳統的遙感影像語義分割是利用影像的光譜特性,依靠某種算法進行變換后,設定一個閾值,將具有相似值的像素進行歸類[1-5],但由于同物異譜現象的存在,提取效果不夠理想。深度學習出現以后,因其可以自動提取特征等優勢,現已成為遙感圖像語義分割的主流方法,如文獻[6]將建筑物的輪廓信息、區域信息和建筑物區域內至邊緣的距離信息作為標簽內容進行多任務訓練,提高了建筑物的分割精度。文獻[7]對UNet++進行了改進,在房屋提取上取得了更好的效果。文獻[8]將DSM作為輔助信息進行學習,效果比SVM、GBDT、FCN-8s模型更好。文獻[9]將注意力機制引入深度學習網絡,在ISPRS的在線競賽中總體精度排名第一。文獻[10]聯合深度學習和條件隨機場進行遙感影像的云檢測,取得了不錯的效果。
有時,輔助信息難以獲得。本文通過挖掘圖片自身的信息,提出一種融合色差的方法,將像素與鄰域的色差信息作為第4通道,共同輸入到PSPnet[11]網絡中進行特征提取。
對于一幅圖像而言,鄰近的像素如果顏色不同不一定是不同的物體;然而鄰近的像素如果顏色相似,則往往是同一物體。根據這一原則,可以將圖像中的每個像素與鄰域像素之間的顏色相似程度,作為已完成預處理的特征,以第4通道的形式融合到原始圖像中,以彌補卷積運算無法進行平方和開方這類復雜運算的缺點,增強深度學習網絡提取特征的能力。……