崔亞楠,吳建平,2,3,朱辰龍,閆相如
(1.云南大學 信息學院,云南 昆明 650504; 2.云南省電子計算中心,云南 昆明 650223; 3.云南省高校數字媒體技術重點實驗室,云南 昆明 650223)
合成孔徑雷達(synthetic aperture radar,SAR)是一種多平臺協同工作的主動微波成像雷達系統。相較于可見光、紅外等光學成像方式,SAR具有全天候,全天時且不受天氣、光照等外界條件限制的獨特優勢。近年來,已經被廣泛運用到軍事、工業、農業等諸多領域。隨著SAR系統與成像技術的發展與完善,SAR圖像的應用得到廣泛關注,從而大量SAR圖像目標的自動識別(automatic target recognition,ATR)成為學者們研究的熱點問題。
國內外對SAR圖像目標的自動識別進行了研究并提出了一些方法。早期對SAR圖像目標識別的研究主要基于特征提取,如文獻[1]運用非負矩陣分解特征進行SAR圖像目標識別;文獻[2]通過提取圖像局部判別嵌入特征進行目標識別;文獻[3]基于電磁散射特征提取方法識別SAR圖像目標。以上特征提取方法均會忽略掉圖像的細節信息,從而無法充分提取目標的特征,導致目標識別效果不佳。深度學習[4]的出現為SAR圖像目標識別提供更多的可能。AlexNet[5]、VGG[6]、GoogleNet[7]、ResNet[8]等深度學習網絡模型在ImageNet大賽中表現優越,這些神經網絡模型也逐漸引入到SAR圖像目標識別研究中。
卷積神經網絡(CNN)模型訓練時往往需要大量的數據,對于數據較少的SAR圖像數據集在訓練過程中大概率會出現過擬合,從而導致模型魯棒性差,識別效果不佳。在以往的研究中,文獻[9]通過增強數據集獲取更多SAR圖像,再對CNN模型進行訓練,最終達到了96.42%的識別率。文獻[10]基于模型遷移,引入超限學習機(ELM)對目標進行學習,最終取得了97.23%的識別率。文獻[11]提出一種CMNet網絡模型,通過增加卷積層個數減少圖像相干斑噪聲的影響,并利用Softmax損失與中心損失共同監督網絡訓練提高模型的泛化能力,最終獲得了99.30%的識別率。
為了更有效地解決SAR圖像樣本不足的問題,一些學者提出仿真SAR圖像的概念,如文獻[12]基于一種射線追蹤技術的SAR信號級仿真方法構建地面車輛目標SAR仿真場景物理模型,得到相應的SAR仿真圖像,擴充了SAR圖像數據。一定程度上能夠解決SAR圖像數據缺乏的問題。在此基礎上,文中提出基于卷積網絡神經仿真SAR圖像遷移學習的方法,利用SAR仿真數據集[13]預訓練卷積神經網絡至網絡收斂,得到相應的網絡參數。再將預訓練得到的網絡參數遷移到目標網絡對SAR圖像數據進行訓練。實驗結果表明,該算法優于傳統機器學習方法,獲得了更好的識別效果,進一步提高了SAR識別的實用價值。
卷積神經網絡主要由卷積層、池化層、全連接層構成。卷積層和池化層在卷積神經網絡中交替疊加出現,組成了提取特征的部分。卷積神經網絡相比其他神經網絡,其獨特優勢在于具有權值共享和局部感知的特性,很大程度上減少了網絡參數,降低了計算量。
(1)卷積層。
卷積層中包含多種尺寸的卷積核,作用是對圖像的深層特征進行提取。其次利用激活函數對其進行非線性激活得到新的特征。具體計算過程如下:
(1)
其中,Yi,j是第i行,第j列的特征輸出值;N為卷積核的大??;wl,k為第l行,第k列的權重;Wb為偏置項;f為激活函數。ReLU函數相較于其他激活函數有更快的收斂速度且能夠緩解梯度消失的問題,因此文中選用ReLU函數作為非線性激活函數。其函數表達式為:
ReLU(x)=max(x,0)
(2)
(2)池化層。
池化層分為平均池化(average pooling)和最大池化(max pooling)兩種形式,作用在于減少網絡參數量,防止過擬合,使網絡優化更加容易。
(3)全連接層。
全連接層作為卷積神經網絡的“分類器”,其每個節點與上一層所有節點完全連接,將經過卷積層和池化層所得到的全部特征匯總,最終輸出的節點數即為目標識別的類別數。
遷移學習是在兩個領域具有一定相關性的條件下,用其中一個領域學習到的知識解決另一個領域存在的問題的方法[14]。遷移學習分為基于實例遷移學習、基于特征遷移學習、基于模型遷移學習和基于關系遷移學習四大類別。傳統機器學習在訓練一個好的網絡模型時需要訓練大量數據進行學習,對于一些數據較少的樣本往往訓練效果不佳。遷移學習能有效解決小樣本數據的學習問題,提升卷積神經網絡對小樣本數據目標分類識別的準確率。
在遷移學習中,被學習的領域稱為源域(source domain),待解決問題的領域稱為目標域(target domain),公式如下:
D(s)={xs,P(xs)}
(3)
D(t)={xt,P(xt)}
(4)
其中,D(s)為源域;D(t)為目標域;xs為源域的特征空間;xt為目標域的特征空間;P(xs)是與xs對應的邊際概率分布;P(xt)是與xt對應的邊際概率分布。
生成仿真SAR目標圖像過程:首先,利用Ulaby方法結合粗糙面散射理論建立SAR車輛目標仿真場景模型,再利用蒙特卡羅(Monte Carlo)方法獲取雷達與目標以及地面環境的空間幾何關系,進一步通過隨機散射法等技術獲取地面的粗糙特性。隨后,利用射線彈跳法、等效邊緣流法等建立目標、地面場景的電磁散射模型。最后,基于電磁散射模型與場景模型計算SAR目標的掃頻數據,通過時頻變換與成像算法得到仿真SAR目標圖像。不同方位角的部分仿真SAR圖像如圖1所示。

圖1 部分仿真SAR圖像
遙感雷達圖像具有較大的相干斑點噪聲,一定程度上影響了網絡性能的提升。文中采用一種增強的Lee濾波算法[15]先對MSTAR數據集中的圖像進行濾波去噪,減少噪聲在神經網絡模型訓練中產生的影響,有效提高了網絡性能。
隨著卷積神經網絡在圖像識別領域的深入發展,對網絡性能有更高的要求。前期擴充網絡的深度與高度的作法,出現了網絡過擬合、計算量大等問題。而Inception網絡模型有效緩解了該問題。Inception v1網絡[7]通過稀疏矩陣類聚成相對密集的子矩陣的方法提高網絡計算性能。Inception v2網絡[16]在輸入時增加了batch_normal,使網絡訓練收斂得更快。Inception v3網絡[16]利用多個小卷積核串聯取代較大卷積核的方式,改善了網絡的非線性,減小了網絡過擬合的概率。Inception v4網絡與Inception v3網絡相比具有更統一的簡化架構。Inception v4網絡與Inception-ResNet-v2網絡結構相似,不同點在于Inception-ResNet-v2網絡結合了殘差網絡的思想可以將網絡深度增加[17]。
Inception-ResNet-v2網絡結合了殘差網絡思想,在增加神經網絡深度的同時降低了梯度消失的問題,該網絡性能最佳。因此,文中采用Inception-ResNet-v2網絡作為訓練模型,將原始模型的Dropout rate改為0.5,最后利用Adam算法對模型進行優化,其采用的網絡架構如圖2所示。

圖2 Inception-ResNet-v2網絡總體架構
其中,Inception-ResNet-v2網絡結構又由Stem模塊、Inception-ResNet-A模塊、Reduction-A模塊、Inception-ResNet-B模塊、Reduction-B模塊、Inception-ResNet-C模塊等組成。
2.2.1 Dropout的設計
對于參數量大,訓練樣本少的神經網絡訓練時很容易產生過擬合,Dropout的提出有效解決了這一問題。Dropout在訓練網絡時會隨機丟棄部分神經元,從而達到減少網絡參數、提升模型魯棒性的目的,同時,有效緩解過擬合對網絡的影響。文中模型中Dropout rate設置為0.5。
2.2.2 Softmax分類器設計
Softmax函數是基于多項邏輯損失的組合,常用于圖像等多分類問題來表示類別之間的概率分布,其基本原理是將輸入映射為0到1之間的實數,實現分類向量的歸一化。Softmax分類器的目的是實現估計分類概率和真實分布之間交叉熵的最小化。
交叉熵函數表達式為:

(5)
其中,p表示真實分布,q表示估計分布。
Softmax函數表達式為:
(6)
其中,i表示第i類別,k表示總的類別數,H(zi)表示第i類別的概率。
文中基于遷移學習實現Inception-ResNet-v2網絡模型的預訓練、訓練以及優化等,遷移模型如圖3所示。算法的具體實現過程如下:
(1)將仿真SAR數據集中的七類圖像作為源域識別任務,仿真SAR數據集作為源域訓練樣本。對Inception-ResNet-v2模型進行預訓練,得到預訓練模型參數。
(2)構建與源域模型相同的目標域模型。
(3)將MSTAR數據集中的十類圖像作為目標域識別任務,MSTAR數據集作為目標域的訓練樣本。將上述預訓練模型中的參數作為目標域模型的初始化參數對目標域模型進行訓練。
(4)采用Adam算法優化網絡。
(5)最終通過Softmax分類器實現目標的分類。

圖3 SAR遷移學習的模型
實驗在tensorflow1.10+keras2.2.2框架下實現神經網絡的搭建。實驗環境配置:win10操作系統、i7-8750h處理器、GTX1060顯卡、16 G內存。
文中選用SAR仿真數據集作為預訓練模型的數據集。該數據集包含三種不同場景下的七類SAR仿真圖像,每類圖像由七個不同方向角下仿真獲取,總計21 168張仿真圖像。
為驗證文中算法的有效性,實驗選用MSTAR數據集作為實測數據集。MSTAR數據集包含了2S1、BMP2、BRDM2、BTR60等十類目標圖像,其中十類目標的光學圖像與其對應的SAR圖像如圖4所示。文中選用常用的17°方位角下的2 746張SAR圖像與15°方位角下的2 426張SAR圖像作為訓練及測試樣本。將兩個方位角下的同類目標圖像混合,并按照6∶4的比例隨機在每類中抽取60%作為訓練集,剩余的40%作為測試集,具體如表1所示。

圖4 十類目標光學圖像與其對應的SAR圖像

表1 實測SAR數據
輸入圖片的大小為224×224;學習率值為0.000 1;batchsize值為12;dropout值為0.5;迭代7 770次,通過實驗結果數據分析,在迭代到6 475次時準確率達到最高。
十類SAR目標圖像的識別結果如表2的混淆矩陣所示,其中BTR70裝甲車、D7推土機、T72坦克、ZIL131卡車識別率達到100%。BMP2坦克識別率最低,但準確率也達到了98.84%。最終在測試集上的平均識別率為99.57%。

表2 十類SAR目標圖像識別結果

續表2
對比實驗一:
在該實驗中,不對網絡進行預訓練。直接用17°方位角下SAR目標的訓練集對網絡進行訓練,網絡參數隨機初始化,學習率、batchsize、dropout等值與文中實驗保持不變。最終在15°方位角下SAR目標的測試集識別率僅達到91.64%。
用小樣本數據集直接對神經網絡進行訓練,得到局部最優解的概率較大,訓練出來的網絡魯棒性較差,不能充分提取圖像更多的細節特征,所以識別的準確率較低。
對比實驗二:
選用ImageNet數據集取代SAR仿真數據集對網絡預訓練,并保留預訓練網絡的相關參數。將預訓練得到的參數作為目標模型的初始化參數,再用17°方位角下SAR目標的訓練集對網絡進一步訓練至收斂。學習率、batchsize、dropout等值保持不變。最終在15°方位角下SAR目標的測試集識別率達到了97.47%,仍低于文中提出的方法。
與ImageNet數據集圖像相比,仿真SAR圖像的特征與目標SAR圖像特征相似度更高,所以仿真SAR圖像訓練的模型具有更好的泛化能力。

圖5 準確率對比
文中方法與兩個對比實驗的SAR識別準確率以及訓練誤差對比如圖5和圖6所示??偣灿柧?0輪,其中每輪訓練大約為259次,共計訓練7 770次。

圖6 訓練誤差對比
不同的SAR圖像目標識別研究方法與文中識別方法的對比結果如表3所示。

表3 不同方法的網絡模型性能對比
提出了一種基于卷積神經網絡仿真SAR圖像遷移學習的目標識別方法,能有效緩解現存SAR數據集較小帶來的問題:使用Inception-ResNet-v2網絡并融合Inception-v4網絡的特征與殘差網絡的思路,在提高識別準確率的同時能夠緩解梯度消失問題。還通過仿真SAR目標圖像對Inception-ResNet-v2網絡預訓練,得到網絡參數。將預訓練獲得的網絡參數作為目標網絡的初始化參數進行遷移學習,并利用SAR目標圖像對網絡進一步訓練并更新權重等參數直至網絡收斂。最終在測試集上獲得了99.57%的識別率。該方法一定程度上避免了小樣本數據集在網絡訓練過程中容易陷入局部最優解的問題,在實測SAR圖像集上對其有效性進行了驗證。
在現代太空立體化戰爭中,高效、準確地識別出對方地面投入戰場的或后方的軍備SAR圖像極為重要。文中方法可為SAR圖像目標的識別研究和進一步應用提供參考。