王 俊, 曾朝陽, 吳曉強
(陸軍工程大學 野戰工程學院, 江蘇 南京 210007)
近年來, 得益于大數據和計算機算力的巨大進步和有力支撐, 深度學習的相關理論和實際應用得到迅猛發展,并在目標檢測領域大放異彩。而自動目標檢測技術發展至今,一直是國防和軍事領域的研究重點。相比于傳統目標檢測模型, 基于深度學習的目標檢測模型在檢測速率和檢測精度上具有極大優勢。因此,作為智能化武器系統的重要環節之一,基于深度學習的目標檢測技術在軍事領域的應用和推廣一直備受世界各國的重視。
由于軍事目標高度保密的特性, 目前并沒有公開的軍事目標數據集。關于軍事目標檢測的研究,學者們多是通過網絡收集或自行采集軍事目標圖片制作數據集,存在樣本數量較少的問題。 復雜的戰場環境和多變的戰場態勢使得軍事目標檢測面臨更嚴峻的考驗, 由于探測手段的限制, 敵我雙方想要采集對方的軍事目標圖片作為訓練數據十分困難, 且雙方在戰爭過程中會對己方目標采取何種偽裝技術措施難以預估, 從而在根本上影響依賴于數據的基于深度學習的目標檢測模型的檢測效能。而假目標作為隱真示假的重要偽裝技術措施之一, 在現代戰爭中仍發揮著影響全局的作用, 因此面對基于機器視覺的目標檢測系統的探測, 基于人眼探測的假目標偽裝措施會存在怎樣的暴露征候是需要我們亟需探究的問題。 本文通過改變假目標的位置、背景及其顏色、大小、亮度等目標特性, 探究小樣本條件下假目標在基于機器視覺的目標檢測下“以假亂真”的效果,為下步戰場假目標應用提供參考。
利用大疆無人機在野外條件和良好光照條件下,采集了367 張軍事車輛目標圖片, 圖片尺寸為5472×3048。為貼近實際偵察效果,拍攝時選取不同高度,不同俯仰,不同角度等進行拍攝。 圖片包含樹林、河流、土路、公路、居民建筑物等不同的特征背景。
通過翻轉,旋轉,裁剪,縮放,顏色增強等數據增強的方式將數據集擴展至1780 張,并采用labelimg 標注工具將其標注制作成PASCAL VOC 格式數據集。 采集的圖像及圖像標注如圖1 所示,圖1(c)、(d)分別為圖1(a)、(b)圖片標注后所對應的標簽。

圖1 數據集標注Fig.1 Dataset annotation
利用數據集進行訓練時, 按照8:1:1 的比例隨機將擴展后的軍事車輛目標數據集分為訓練集、 驗證集和測試集。 考慮到假目標相比于真目標在光電特征上存在的差異,通過對真目標進行高斯模糊來模擬細節差異;通過疊加15%不透明度的軍綠色 (#0215E21) 來模擬顏色差異;將真目標縮小為90%原面積大小以模擬大小差異。
在作戰區域內, 由于假目標的配置須符合真目標的戰場使用要求, 其配置區域無法預判且可能因作戰需求而發生變動。故需引入假目標位置和背景變化因素,在原背景中改變假目標的位置,如圖2 所示。圖2(b)、(d)分別為圖2(a)、(c)進行目標位置變換后的圖像。 將假目標按照相關配置要求置于包含其它地物特征的三個背景中,如圖3 所示。

圖2 不同位置測試集Fig.2 Different location testset

圖3 不同背景測試集Fig.3 Different background testset
在作戰過程中, 敵我雙方對軍事目標采取的各種偽裝技術措施將導致目標特性發生變化, 為探究假目標顏色、大小、亮度等目標特性的改變對檢測效果的影響,對假目標分別疊加20%、40%、60%、80%不透明度的軍綠色(#0215E21)來改變顏色特性;通過在原基礎上分別調整-150、-100、-50、50、100、150 個亮度單位來改變亮度特性;將假目標面積調整為原面積大小的0.5、0.75、1.25、1.5 倍來改變大小特性。
現今而言,目標檢測算法大致可分為三類。
(1)二階段(two-stage)目標檢測算法。 如R-CNN[1]、SPP-net[2]、Fast R-CNN[3]、Faster R-CNN[4]、FPN[5]、Mask RCNN[6]、Cascade R-CNN[7]和TridentNet[8]等。 該類算法先從輸入圖像中提取出可能包含目標的候選區域, 然后對候選區域進行分類, 通過邊界框回歸來調整邊界框的大小和位置,最后利用NMS(Non-Maximum Supression,非極大值抑制)方法清除冗余框。
(2)單階段(one-stage)目標檢測算法。 如YOLO[9]、YOLO v2[10]、YOLO v3[11]、YOLO v4[12]、SSD[13]、DSSD[14]、FSSD[15]、RetianNet[16]等。該類算法則無需提取候選區域,而是將目標檢測問題轉換為回歸問題, 直接對目標分類和邊框預測進行回歸分析,相對來說精度有所損失,但速度較two-stage 檢測算法更快。
(3)anchor-free 目標檢測算法。 如CornerNet[17]、CenterNet[18]、FCOS[19]等。 該類算法不引入錨框機制,通過全卷機神經網絡得出的熱點圖確定目標中心點, 進而回歸得出目標尺寸、3D 坐標方向、姿態信息等。
本文采用檢測速率和檢測精度出色平衡的YOLO v4目標檢測模型,在單個目標小樣本的情況下進行多次迭代訓練, 選取最終迭代損失最小的權重值作為預測權重,分別對假目標的位置、背景、顏色、大小和亮度等因素變化前后的測試集進行檢測,探究這些因素對檢測效果的影響。
實驗條件:本實驗采用基于Tensorflow 深度學習框架的YOLO v4 目標檢測模型,CPU 為i9-10980XE,內存為128GB,GPU 為NVIDIA TITAN V。
對YOLO v4 網絡模型進行訓練,訓練階段初始學習率為0.001, 每次迭代訓練100 輪, 前50 輪batchsize 為8,后50 輪batchsize 為2。 將前一次迭代得到的最低訓練損失權重作為下一次迭代訓練的預訓練權重。
YOLO v4 目標檢測網絡模型多次迭代訓練的訓練損失值逐步收斂穩定在4 左右,選取最低訓練損失值4.073所對應的權重作為檢測模型的預測權重。 YOLO v4 目標檢測網絡模型多次迭代訓練的訓練損失值收斂曲線見圖4。

圖4 YOLO v4 訓練損失Fig.4 YOLO v4 Training loss
2.3.1 實驗一
將隨機獲得的測試集輸入訓練好的YOLO v4 目標檢測模型中進行預測, 圖中軍事目標標注為Car 這一目標類別,則模型在測試集上的平均精度均值(mean Average Precision,mAP)即為該類的平均精度(Average Precision,AP),由此來衡量模型訓練的好壞。平均精度(AP)越高,即該檢測模型的性能越好。 平均精度(AP)從精確率(Precision)和召回率(Recall)兩個方面進行衡量。
預測目標時預測值與真實值相同,記為T(True),預測值與真實值相反,記為F(False);預測值為正例,記為P(Positive),預測值為反例,記為N(Negative)。 故TP 指真實值和預測值同為正樣本的樣本數,TN 指真實值和預測值同為負樣本的樣本數,FP 指真實值為負樣本但預測值為正樣本的樣本數,FN指真實值為正樣本而預測值為負樣本的樣本數,見圖5。

圖5 模型預測Fig.5 Model prediction
(1)Precision (精 確率)和Recall(召回率):精確率又稱為查準率,是針對預測結果而言的,它表示預測結果為正樣本的樣本中真實值也為正樣本的樣本所占比例; 召回率又稱為查全率, 是針對測試樣本而言的, 它表示真實值為正樣本的樣本中預測值也為正樣本的樣本所占比例。 計算公式如下所示:

(2)AP(Average-Precision,平均精度)和mAP(mean Average Precision,平均精度均值):AP 指Precision-Recall曲線下面的面積。 mAP 是多個類別AP 的平均值。
YOLO v4 檢測模型在測試集上檢測結果如圖6 所示。

圖6 YOLO v4 的AP 曲線Fig.6 AP curve of YOLO v4
2.3.2 實驗二
對假目標位置和背景變化前后的測試集圖像進行預測,檢測結果見表1。

表1 位置和背景變化的檢測結果Tab.1 Test results of position and background change
從表格數據中可看出:
(1)位置和背景變化前,假目標檢測平均精度高達98.67%,說明在相同背景和相同位置情況下,模型將假目標識別為真目標的概率很高,假目標“以假亂真”的效果較好。
(2)位置變化使假目標的檢測精度從98.67%下降至46.68%;背景變化使假目標的檢測精度從98.67%分別下降為35.07%、53.27%和44.93%。
位置和背景變化后, 假目標的檢測平均精度都有一定幅度的下降,但仍控制在一定程度,說明位置和背景的改變對目標檢測效果有一定影響,但程度有限,模型對目標的識別主要基于目標本身特征的識別, 而不是目標與位置和背景的空間關系。
2.3.3 實驗三
在假目標所處的位置和背景保持不變的情況下,對進行目標特性變化前后的假目標測試集進行模型預測,檢測結果如表2~表4 所示。

表2 顏色變化的檢測結果Tab.2 Test results of color change

表3 亮度變化的檢測結果Tab.3 Test results of brightness change

表4 大小變化的檢測結果Tab.4 Test results of size change
從表格數據中可看出:
(1)隨著顏色變化程度的增大,假目標的檢測平均精度從98.67%逐步下降至83.58%。可知在假目標位置和背景保持不變的情況下,單種軍綠色(#0215E21)的疊加變化對檢測效果的影響十分有限。
(2)假目標的檢測平均精度隨著亮度的增加由98.67%逐漸下降至72.5%, 隨亮度的減少先上升后下降并穩定在97.88%左右。 亮度增大使得目標的部分特征丟失,導致檢測準確度的下降但影響較為有限; 而亮度的降低反而能在一定程度上稍微提高檢測效果。
(3)假目標的檢測平均精度隨大小的逐漸增大而逐步上升,但變化程度較為有限。目標特性變化后,假目標的檢測平均精度波動范圍較小,與真目標的檢測平均精度較為接近,說明檢測模型將假目標誤判為真目標的概率很大。
為探究假目標對目標檢測效果的影響, 本文基于YOLO v4 目標檢測模型,對比分析了假目標的位置、背景及其顏色、亮度、大小等特征變化前后的檢測平均精度。結果表明,對經過多次迭代、訓練效果良好的檢測模型,假目標的位置和背景變化會導致檢測平均精度有明顯的降低,而目標特性的變化對檢測效果的影響卻較為有限。
當然, 上述結論只能作為基于本次實驗數據集的探究結果,不具備普適意義,且實驗設置的前提條件是小樣本數據和未將假目標作為訓練數據進行訓練。 但實驗結果也在一定程度上說明了目標檢測模型對數據的依賴,在數據不足的情況下, 假目標和目標特性控制技術能對檢測效果產生重要影響。 這一結論對軍事目標檢測和假目標的配置使用有一定的參考意義。