譚???趙志誠,謝新林,張大珩
(1.太原科技大學 電子信息工程學院,太原 030024;2.先進控制與裝備智能化山西省重點實驗室,太原 030024)
圖像語義分割在人臉識別、圖像檢索、物體檢測等視覺任務中有著重要的作用[1-2],通過對圖像進行分割,提取語義信息,從而進一步理解圖像的內容,再以此為基礎應用到實際生活中。然而,實現更高精度的圖像語義分割仍存在很多的問題[3-4],深度學習能提取到傳統方法提取不到的抽象特征,對復雜場景有很好的解析能力,因此結合深度學習解決復雜交通場景中語義分割問題具有現實的意義[5-6]。
2015年,由Jonathan Long等人提出以卷積神經網絡(Convolutional Neural Network,CNN)[7]為基礎的全卷積神經網絡(Fully Convolutional Networks,FCN)[8],該網絡利用VGG-16網絡作為主網絡,將網絡的全連接層替換為卷積層,利用轉置卷積進行上采樣操作恢復特征圖的尺寸,首次實現了端到端的圖像像素級別的語義分割。但FCN網絡利用一系列的卷積操作、池化操作對輸入圖像進行下采樣操作,導致預測特征圖的分辨率大大降低且分割邊緣模糊。He等人于2016年提出殘差學習網絡架構,該網絡主要由殘差塊堆疊而成的。殘差學習網絡架構的提出,可以解決由神經網絡層數加深引起的梯度消失、梯度爆炸等問題[9-11]。
基于此,本文在全卷積FCN深度神經網絡模型的基礎上,提出了一種基于可分離卷積殘差網絡、融合深層跳躍連接的車輛圖像語義分割方法。首先利用一系列的可分離卷積殘差網絡塊取代FCN網絡中的VGG-16網絡,降低網絡結構的復雜性,得到更高的網絡分割精度;其次,融合更深層次的跳躍連接將深層的語義特征信息與淺層的細節特征信息相結合,最后采用網絡分支丟棄的訓練方法對網絡進行訓練,實現更高精度的車輛語義分割?!?br>