曲長文,劉 晨,周 強,李 智,李健偉
(海軍航空大學,山東 煙臺 264001)
隨著合成孔徑雷達系統的應用日益廣泛,圖像分辨率的不斷提升以及待處理圖像數目的增多,對SAR圖像的處理技術也提出了更高的要求,快速準確地從SAR圖像中檢測到目標成為目前研究的一個熱點。目前,恒虛警率(Constant False Alarm Rate,CFAR)方法應用最為廣泛。該方法根據背景雜波的統計特性自適應地選取閾值,在簡單場景下的檢測效果較好,但是算法的計算速度和復雜場景下的檢測性能還有待于進一步提升。為提升CFAR的檢測性能,文獻[1]在局部窗口檢測過程中,引入篩選機制,提出了一種雙閾值的快速CFAR檢測算法;文獻[2]提出了一種自選擇混合分布的CFAR檢測方法,通過對混合分布模型的學習來對每塊圖像進行建模;文獻[3]為提高參數估計的速度,將積分圖運用到參數估計中,但需要較大的內存開銷;文獻[4]針對大場景的SAR圖像,提出了一種基于分塊CFAR的SAR圖像艦船目標快速檢測算法。
卷積神經網絡是深度學習中的一種網絡結構,具有分層學習的能力,通過權值共享的方法降低了網絡結構復雜度,減少了訓練參數的數目。對于每幅輸入圖像,通過分層特征提取的方式可以自動提取數據中的復雜結構,相比于傳統人工設計的特征具有更好的泛化能力。目前,卷積神經網絡在各個領域都得到了越來越多的關注,如:行人檢測[5]、語音識別[6]、醫學圖像識別[7]等。
本文主要研究卷積神經網絡在SAR圖像艦船目標檢測上的應用。依據卷積神經網絡在光學圖像上優異的檢測識別效果,將其用于SAR圖像上,提升SAR圖像艦船目標檢測的速度和精度。
OTSU又稱大律法[8],是一種經典的圖像閾值分割方法。該方法對每個灰度值計算圖像目標和背景之間的方差,最終方差最大的灰度值即為所求閾值。圖像中每個灰度級的概率可表示為:

式中,n為所有像素點的數目,nq是灰度為q的像素點數目,L為灰度級數。
當閾值為 k 時,圖像分為 C1=[0,1,…,k],C2=[k+1,k+2,…,L-1]兩部分。使 C1和 C2類間方差最大的k即為所求閾值。類間方差的計算公式為:

式(2)還可以寫為:

式中,m(k)表示直到灰度級 k 的平均灰度[9]。
OTSU算法在小場景SAR圖像中可以得到較好的分割效果,但是對于大場景下的SAR圖像,采用OTSU全局閾值的處理辦法效果不理想。因此,為提升大場景下SAR圖像的分割效果,本文對圖像的分割閾值進行了初步篩選。SAR圖像的灰度直方圖是一個長拖尾的曲線,小場景和大場景下的SAR圖像灰度直方圖如圖1所示。

圖1 不同場景下的SAR圖像灰度直方圖
從圖1可以看出,由于大場景下的SAR圖像背景像素點較多,導致艦船目標完全被淹沒在了背景中,因此,通過OTSU方法得到的分割閾值過小,導致圖像分割效果較差。為提升圖像的分割效果,本文通過計算C2類的方差,將方差最大的灰度級k1作為初始閾值,計算公式如下所示:


圖2 大場景SAR圖像方差曲線
從圖中可以看出,當方差曲線達到最大時,大場景SAR圖像的灰度直方圖已經越過了波峰位置并且開始進入長拖尾部分。去除低于初始閾值的大場景SAR圖像灰度直方圖如圖3所示。

圖3 處理后的灰度直方圖
從圖3可以看出,當去掉大量背景像素之后,新的灰度級范圍內的像素個數差別不大,對新灰度級范圍內的圖像用OTSU方法即可求得大場景SAR圖像的分割閾值。實驗采用直布羅陀海域的Ter-raSAR_X衛星圖像,分辨率為3 m,圖像分辨率為2 312×4 314,實驗效果如圖4所示。

圖4 改進OTSU方法的分割效果
為進一步對分割后的SAR艦船目標進行判斷,通過最小外接矩形提取出疑似艦船目標的位置坐標,并且依據矩形的中心坐標在原始SAR圖像中選取固定大小的候選區域。實驗流程如圖5所示。

圖5 候選區域選取流程
為提升艦船目標的檢測效果,針對SAR圖像艦船樣本數據集過小的問題,本文采用卷積神經網絡與超限學習機相結合的網絡結構,對SAR圖像艦船目標進行檢測。
通過遷移學習[10]保持卷積神經網絡的參數不變,將卷積神經網絡的后面兩層用超限學習機層代替,新的網絡結構如圖6所示。
卷積神經網絡由5層網絡結構組成,第1層卷積層由8個大小為5*5的濾波器組成,第2層下采樣層采用大小為2*2的均值下采樣,第3層卷積層包含16個大小為4*4的濾波器,第4層下采樣與第2層一樣,最后一層為全連接層,激活函數采用RELU函數。

圖6 遷移學習后的網絡結構
訓練數據采用分辨率為0.3 m×0.3 m的MSTAR數據庫,圖像大小為128×128像素,采用其中的 BRDM2、BTR60、D7、2S1 4類目標作為樣本(訓練樣本1 140個,測試樣本1 010個)。每次實驗用10個樣本進行學習,迭代次數為10次。為進一步提升網絡的訓練效果,數據采用ZCA白化和PCA降維相結合的方法對圖像進行預處理。圖像處理效果如圖7所示。

圖7 圖像預處理
訓練數據來自于2幅TerraSAR-X圖像(距離向和方位向的分辨率為2 m×1.5 m)和3幅Radarset-2圖像(距離向和方位向的分辨率為1 m×1 m),經過目標檢測后獲得船只的圖像切片,通過解譯專家對所有船只進行人工標注(訓練樣本300個,測試樣本100個)。
為驗證本文方法的有效性,在CPU為2.13 GHz,內存8 GB的硬件環境進行實驗,采用Matlab進行仿真。實驗來自于多幅TerraSAR-X和Sentinel-1雷達圖像。
選取其中兩幅圖像進行檢測結果分析,圖像1為TerraSAR-X衛星拍攝的圖像,分辨率為3 m,成像區域在(N54.5°E8.3°)附近的海域,圖像大小為4 199×2 288,如下頁圖8(a)所示。圖像2為Sentinel-1雷達拍攝的圖像,分辨率為5 m,工作在Stripmap模式,圖像大小為2 368 x 1 994,如下頁圖8(b)所示。
對圖像進行人工判讀,圖8(a)中有34艘船,圖b中有31艘船,對艦船的標記結果如下頁圖9所示。

圖8 實驗圖像

圖9 人工圖像判別結果
首先對原始圖像進行分割處理,結果如圖10所示。

圖10 分割后圖像
從圖10可以看出,改進后的OTSU方法對大場景下的SAR圖像有較好的分割效果,在保證將艦船目標留下的同時僅有少量雜波。但是分割后的艦船目標仍然存在不完整的問題,為進一步提升檢測效果,對分割后的圖像進行膨脹和腐蝕操作,處理結果如圖11所示。

圖11 膨脹腐蝕效果圖
從圖11可以看出,通過對分割后的圖像膨脹和腐蝕操作保證了艦船整體形態的完整性。然后通過最小外接矩形方法將圖像中疑似艦船的目標標記出來,如圖12所示。

圖12 疑似目標標記
在原始圖像中根據矩形中心選取出大小為42×42的候選區域,然后將候選區域輸入到訓練好的卷積神經網絡進行分類識別,最后將真實艦船目標標記出來,如下頁圖13所示。
本文方法的檢測結果如表1所示。

表1 檢測結果

圖13 實驗結果
為驗證本文方法的有效性,利用不同分布下的雙閾值 CFAR 方法對圖(a)進行檢測[1],第 1虛警率設為Pfa1=10-2,第2虛警率設為Pfa2=10-6.5,雙閾值CFAR的檢測結果如圖14所示。

圖14 雙閾值CFAR檢測結果
將3種不同分布下的雙閾值CFAR的各項性能指標域本文方法對比結果如表2所示。
從實驗對比結果可以看出,本文方法相對于其他方法虛警率更低,檢測速度有明顯的提升。
本文針對SAR圖像艦船目標檢測過程中虛警率高,檢測時間過長的問題,提出了一種基于卷積神經網絡的SAR圖像艦船目標檢測算法,通過訓練好的卷積神經網絡對分割后的SAR圖像進行判別,去除虛警。結果表明,該方法在SAR圖像艦船目標檢測中可以得到較好的效果。

表2 實驗結果對比