楊 維,姚 桐,耿修堂,王 越,劉學超
(西北機電工程研究所, 陜西 咸陽 712099)
現代戰爭中陸軍防空武器裝備除需打擊傳統作戰飛機、武裝直升機和無人機等目標外,還需打擊以低空和超低空突防的精確制導武器,作戰目標類型多樣。防空武器的火力配置一般為導彈或彈炮結合方式,要充分發揮出武器裝備的火力毀傷效能,需要針對不同的空中目標,使用不同的火力攔截方式,或根據目標類型進行進攻和逃逸區域計算,實現高效毀傷。因此,空中目標識別是防空武器必不可少的能力之一。
目前針對空中目標的主要探測手段有雷達、可見光和紅外等。其中雷達探測的優點為搜索范圍大、搜索速度快等,缺點為目標定位相對光電精度低,并且為主動發射雷達波,容易暴露自身位置。可見光的優點為圖像分辨率高,缺點為夜晚、大霧等能見度差條件下不能有效探測目標。紅外優點為全天候使用,在能見度較低的條件下也能有效探測目標,目標定位精度高,并且探測方式為被動,不會主動發射信號,暴露自身位置,因此常用來檢測空中目標。
深度學習是近年來機器學習領域的一個新的研究方向,其目的在于建立模擬人腦進行分析學習的神經網絡。由于其在語音、文本、圖像、視頻等諸多方面較傳統方法取得了一定的進展和突破,深度學習已成為目前計算機科學中最引人注目的研究課題。在目標識別方面,深度學習主要分為2種:一種是基于候選區域的方法,代表性的有R-CNN、SPPNet、Fast R-CNN;另一種是基于回歸思想的方法,代表性的有YOLO、SSD。2種研究方法在檢測精度和檢測速度上各有優勢,基于YOLO系列算法的檢測精度略低于基于候選框的算法,但檢測速度遙遙領先,非常適合防空武器對空中目標的識別需求。
考慮到防空武器截獲概率和目標跟蹤識別的指標匹配情況,紅外傳感器一般采用雙視場進行設計,與之對應的空中目標識別技術主要包括兩方面內容:① 目標檢測階段利用深度學習目標檢測算法,對大視場圖像進行全圖識別,得到目標位置、目標大小和目標類型;② 目標跟蹤階段利用深度學習圖像超分辨算法和目標分類算法,對小視場跟蹤目標局部圖像進行超分辨重構,將目標局部圖像分辨率擴大,利用目標分類網絡,得到目標的類型。具體流程如圖1所示。
圖像處理模塊接收到紅外探測器輸出的紅外圖像,針對空中目標進行全圖目標檢測,處理流程為:① 對圖像進行預處理,完成紅外圖像增強;② 傳統方法為對增強后圖像進行sobel變換,得到目標潛在位置,提取區部區域進行頂帽變換和圖像分割算法提取目標,輸出檢測目標的位置、長寬等信息,主要適用于提取像素小于16×16成像較小目標;③ 基于Yolo的全圖目標檢測算法,針對紅外增強后的圖像進行深度卷積網絡,輸出檢測目標位置、長寬、置信度和目標類型等信息,主要適用于提取像素大于16×16成像較大目標;④ 對傳統方法和基于Yolo的目標檢測算法進行融合,綜合得到全圖目標檢測結果。

圖1 紅外目標識別流程框圖
目標檢測和識別技術需要大量的樣本數據,用于深度神經網絡訓練和目標識別準確性評價。樣本數據集一般包括訓練集、驗證集和測試集等3個獨立的部分,各部分的主要功能為:
1) 使用訓練集學習模型中的權重等參數;
2) 使用驗證集對學習的模型進行調優,如調整模型隱藏單元的個數,防止模型在訓練集上過擬合;
3) 使用測試集對訓練好的模型效果檢測。
通過建立部分典型空中目標紅外圖像樣本庫,包括戰斗機、直升機、固定翼無人機、旋翼無人機等。由于樣本庫規模對模型訓練效果、識別魯棒性等有較大影響,理論上樣本越豐富,訓練后的模型識別效果越好。因此采用數據增廣算法對數據集進行擴充,讓數據集多樣化,使得訓練的模型具有更強的泛化能力。數據增廣方式主要包括:水平/垂直翻轉、旋轉、縮放、裁剪、剪切、平移、對比度、噪聲等。
由于空中目標紅外圖像部分區域存在高亮區域,導致圖像出現橫條紋等噪聲,對目標的檢測識別有一定影響。需要對紅外圖像進行降噪處理,采用頻域和空域降噪方法,在抑制噪聲的同時,盡量保持成像細節,改善紅外圖像的成像效果,圖像降噪如圖2所示。同時,針對弱小目標,采用背景抑制和空間域濾波算法實現抑制起伏和目標信號增強,圖像增強如圖3所示。

圖2 紅外圖像降噪示意圖
YOLO基于Darknet-53骨干網絡實現,Darknet-53利用恒等映射方法短接網絡,使得網絡層數增加,但在訓練數據集上的準確率不會下降,通過這樣的操作,可以獲得目標更深層次的特征,提升檢測精度。YOLO利用特征金字塔結構可以輸出3種不同的特征圖譜,采用三層特征融合的方式,對輸入訓練圖尺寸歸一化后,最后輸出的featuremap為13×13,26×26,52×52,featuremap上每個格子在原圖上的感受野分別為32×32,16×16,8×8,充分利用底層特征圖中的細粒度特征,在保證檢測速度的同時,對不同尺度的目標進行檢測,同時增加了小目標的檢測率和召回率,其網絡結構如圖4所示。

圖4 YOLO網絡結構框圖
傳統利用線性插值將圖像放大,造成人為噪聲,且目標圖像存在明顯的塊狀,細節較差,不利于目標識別分類。圖像超分辨重建是對目標局部區域圖像進行分辨率提升的一種技術,探測傳感器不作任何變化,將原有圖像分辨率提升。利用海思Hi3559A平臺中的深度學習加速單元,對目標檢測部分輸出的目標局部區域圖像,通過超分辨率重建,使得目標分辨率不小于12×16個像元,重建模型如圖5所示。傳統線性插值放大圖像和圖像超分辨重建圖像如圖6所示,通過圖像超分辨率重建,可以增加目標細節,提升目標識別分類概率。
基于殘差學習的深度網絡模型,從學習層級間的隱含映射關系轉換為通過優化輸入數據與映射以后的輸出數據之間的殘差,殘差值越接近0,網絡提取的特征與原始的輸入越接近,網絡學習抽象特征提取能力越好。殘差流程模型如圖7所示。

圖5 圖像超分辨重建示意圖

圖6 傳統線性插值放大圖像和超分辨重建圖像

圖7 殘差流程模型框圖
深度殘差網絡模型Resnet算法如圖8所示,該網絡共有34層,是由卷積層堆疊組成的,卷積層為 3×3 的卷積核,因為較小的卷積核可以提取圖像豐富的信息,減少訓練參數。每一個卷積層都會緊跟著一個ReLU激活函數,由于池化層操作會造成信息的損失,使用一個步長為2的卷積操作代替池化層。接收超分辨重建后的目標圖像,完成目標類型的識別。
針對防空項目的積累需求,建立了固定翼戰斗機、直升機、旋翼無人機、固定翼無人機、氣球等5類目標的樣本庫。這里常用的目標分類網絡包括googlenet、squeezenet、vgg16、resnet及超分配+傳統算法,對上述5類目標進行測試,多類目標綜合識別結果如表1所示。單幀圖像針對googlenet、squeezenet、vgg16、resnet這4種網絡在海思3559平臺上前向推理運算時間如表2所示。

圖8 目標分類網絡模型Resnet算法框圖

表1 不同網絡識別結果

表2 不同網絡海思平臺的運算時間
通過表1、表2可以看出,本文采用的超分辨+resnet算法的識別正確率最高,對于固定翼戰斗機、直升機、旋翼無人機、固定翼無人機、氣球這5類目標的正確識別率均超過90%。常用的紅外傳感器幀頻為100 Hz和50 Hz,超分辨+resnet算法在海思3559平臺上的運算時間不超過10 ms,能夠滿足項目需求。
研究了深度學習在防空武器目標識別領域的應用。在預處理階段,采用頻域和空域降噪方法,改善紅外圖像的成像效果,增強弱小目標信號;在全圖目標檢測階段,采用傳統檢測算法與YOLO目標檢測網絡相結合的方法,對全圖目標識別定位;在跟蹤目標識別分類階段,對目標局部區域圖像進行超分辨率重建,增加目標細節,提升目標識別分類概率;構建基于殘差學習的深度網絡模型,實現對跟蹤目標的識別分類。試驗結果表明基于深度學習的紅外目標識別技術,可以適用于防空武器對典型空中目標的分類識別,為防空武器的火力打擊提供決策依據。