999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于改進Yolov3的彈載圖像多目標檢測方法*

2020-09-17 06:15:26楊傳棟馬翰宇謝瑞超
彈箭與制導學報 2020年4期
關鍵詞:特征檢測

楊傳棟,劉 楨,馬翰宇,謝瑞超

(1 陸軍炮兵防空兵學院, 合肥 230031;2 陸軍炮兵防空兵學院高過載彈藥制導控制與信息感知實驗室, 合肥 230031)

0 引言

圖像末制導彈藥是信息化彈藥重要組成,其中彈載圖像目標檢測算法作為圖像制導中的關鍵環節,提供打擊點的準確性和實時性對于調整彈藥命中目標至關重要,受到高度重視。

圖像末制導技術通常有基于圖像分割的方法[1]、基于匹配的方法[2]和基于統計的機器學習方法[3]。傳統分割方法僅適用于簡單背景且目標與背景對比度差異明顯情況,基于匹配的方法和傳統的基于統計的機器學習方法利用模板或者手動設計特征結合分類器實現檢測,對彈載環境下目標旋轉、尺度、光照和背景變化等因素應對不足,并且基于滑動窗口的區域選擇策略時間復雜度高,實時性受到影響。近年來基于CNN的方法依靠大數據優勢,省去了人工設計特征的環節,通過監督學習具有更有效的特征表達能力,成為當前圖像目標檢測領域最熱門的深度學習模型。目前該方法可分為基于候選框的兩階段檢測算法[4]、基于回歸的單階段檢測算法[5]及無候選框的單階段檢測算法[6]。其中以YOLO[7]為代表的基于回歸的單階段檢測算法在檢測速度上達到了實時的要求。通過網絡壓縮和加速等技術,該類算法部署在FPGA等常用的彈載硬件平臺上能夠達到上百幀每秒的速度。

YOLO算法在精度上有一定的不足,具有提升空間。對于軍事偵察打擊任務,除了要求算法快速之外,仍需達到較高的精度,保證任務順利完成。文獻[8]指出基于L1或L2的傳統回歸損失對尺度不具備不變性,會對訓練結果的精度造成影響,文中使用改進的IoU(GIoU)對訓練階段中的邊界框位置損失進行優化,針對特定數據集設置先驗框在不同尺度特征圖上進行檢測,并通過快速非極大值抑制(NMS)綜合提高檢測速度和精度。

1 YOLOv3目標檢測框架

基于YOLOv3的目標檢測框架首先利用采集設備對多類軍事目標進行采集構建數據集,在訓練集上進行模型訓練,得到網絡權重文件。利用訓練好的模型通過一次前向傳播并經過非極大值抑制即可輸出最終預測的類別和位置,完成檢測任務。框架核心為YOLOv3檢測網絡模型,包括了特征提取網絡、多尺度預測分支網絡及訓練損失函數等。

1.1 檢測網絡結構

文中使用的網絡結構如圖1所示。

圖1 目標檢測網絡結構

特征提取網絡選擇Darknet53結構,以416×416×3尺寸的圖像輸入為例,整個網絡包含了5次卷積下采樣模塊(圖中“”),特征圖每次經過卷積下采樣模塊后,特征圖尺寸減半,使得通道數增加一倍。各個下采樣層之間設計了殘差模塊(ResBlock),用以充分融合特征,如圖2所示。

圖2 ResBlock模塊

為了應對目標尺度變化的問題,在3個不同尺度特征圖上分別進行預測,構成多尺度預測分支結構。選擇第11個、第19個、第23個ResBlock輸出特征圖作為基本預測層,在預測前設計了ConvBlock模塊對基本預測層的特征進一步提取和融合。ConvBlock模塊結構如圖3所示。經過ConvBlock后,通過Conv 3×3和1×1卷積得到在不同尺度的特征圖上的預測結果,長寬尺度仍然跟提取層保持一致。對于淺層大尺度的特征圖,經過ConvBlock前,將高層經過ConvBlock輸出的特征進行上采樣并疊加(Concat)構成新的特征,能夠起到提高預測能力的效果。

圖3 ConvBlock模塊

預測向量維度可分為類別預測和位置預測。以26×26特征圖為例,得到的預測特征維度為26×26×3×(4+1+C)。每個單元格設置了3個不同比例的先驗框,每個單元格針對一個先驗框預測4個坐標信息(tx,ty,tw,th),1個置信度分數,C個類別分數。

1.2 位置預測編碼

為了能夠更好地對邊界框位置進行回歸訓練,針對不同尺度特征圖分別設置了3種預設邊界框,將直接預測相對于該尺度特征圖的預測坐標(bx,by,bw,bh)編碼為相對于每個網格點先驗框偏移量和寬高縮放比(tx,ty,tw,th)。位置編碼方式按照式(1)計算。

(1)

式中:(cx,cy)為預設邊界框在該層特征圖上的中心坐標;(pw,ph)為預設邊界框的寬高;通過sigmoid函數將偏移量約束在[0,1]之間,使得最后的結果始終在該網格中。

1.3 多任務損失函數

(2)

坐標誤差通過計算預測邊界框與真實邊界框的SmoothL1[10]距離偏差實現。在訓練中,認為每個預測網格中只包含一個真值框,并只有一個最優先驗框與其匹配,并且只有包含目標的網格的預測結果會被計算邊界損失和分類損失。綜上,多任務損失函數可表示為:

L=λc,objLc,obj+λc,noobjLc_noobj+λclsLcls+λboxLbox

(3)

式中,λ為各項損失對應的平衡系數。

2 改進算法

YOLO算法雖然在COCO等標準數據集上取得了優越的檢測效果,考慮到彈載目標檢測具有目標尺度變化大、位置定位精度要求高、實時性要求高等特點,針對算法不足做如下改進:

1)尺度先驗框設置。通過K-means算法對不同預測分支的特征圖上的先驗框尺寸進行維度聚類,重新定義先驗框大小。

2)位置損失改進。利用GIoU損失代替傳統的距離損失進行模型訓練,能夠得到更高的位置精度。

3)快速非極大值抑制(NMS)算法。并行地對每個邊界框進行篩選或保留, 已經刪除的檢測框仍然能夠用來抑制其他結果,提高了預測速度,便于硬件加速。

2.1 先驗框設置

在構建的數據集上對3個預測分支特征圖上的先驗框的尺寸進行K-means維度聚類,具體步驟如下:

1)輸入訓練數據集中所有目標的真值框寬高;(xj,yj,wj,hj),j∈{1,2,…,N},并令k=9得到9個初始聚類中心(Wi,Hi),i∈{1,2,…,k}。

2)按照中心重合的方式,計算每個真值框和每個聚類中心(先驗框)的IoUji。

3)計算每個真值框樣本與k個中心的距離dji(dji=1-IoUji),按照距離最小原則分配到最近的聚類中心。

5)重復步驟2)~4),直到聚類中心改變量達到要求。

6)輸出k個聚類中心,即先驗框聚類結果。

得到相對于輸入原圖尺寸如表1所示。大尺度特征圖使用小先驗框,主要針對小目標;小尺度特征圖使用大先驗框,主要針對大目標。結合多尺度預測,在特定數據集上網絡具有更強的目標尺度適應能力。

表1 特征圖先驗框參數

2.2 邊界框損失函數

對于邊界框回歸指標,普遍做法是用MSE、SmoothL1等距離損失衡量距離,這些方式計算損失值實際上是通過間接的相對距離計算,而忽略了檢測框本身最顯著的IoU性質。但IoU無法直接作為回歸距離,文中使用GIoU距離作為邊界框的損失評價標準,更直接的逼近真值,具備更高的位置精度。GIoU距離計算具體步驟如下:

2)計算矩形框Bg、Bp面積,交集I、并集U面積。

6)輸出GIoU距離LGIoU=1-GIoU。

2.3 快速NMS算法

傳統NMS算法首先按照置信度對檢測出來的邊界框進行降序排序,然后刪除大于交并比閾值的邊界框,保留小于交并比閾值的邊界框,直到遍歷所有候選框。該種方法是采用順序遍歷的方式,需要對每一個類別進行排序篩選,會造成算法速度上的損失。文中使用了并行處理的方式,并行地對每個邊界框進行篩選或保留, 具體步驟表述如下:

1)輸入未經過篩選的網絡預測結果Pcn,表示c類每類n個檢測結果,對應置信度Ccn,IoU閾值t,置信度閾值f;

2)每個類別取不超過n個檢測結果,按照置信度分數降序排列;

3)對每一類檢測框psn兩兩計算交并比,得到c×n×n維的IoU矩陣Xcnn;

4)Xcnn中的對角線元素和下三角為自交并比和重復計算,將其置為0,即Xkij=0,?k,j,i≥j;

6)大于IoU閾值t及小于閾值f全部置0進行濾除;

7)輸出經過篩選的檢測結果。

3 實驗

3.1 數據集建立及評價方法

數據采集方式通過彈載相機拍攝、網絡爬取和數據增強多種方式相結合。使用標注軟件按照模型要求標注數據,完成數據集的構建。數據集包含坦克、遠程火箭炮、導彈發射車、自行火炮、飛機、跑道、機庫、艦船、航母共11類目標,平均每類目標圖像數量約3 000張。

對于某類目標檢測,設置TP表示被正確識別出的目標,FP表示被識別成目標的錯檢目標,FN表示沒有被檢測出來的漏檢目標。檢測準確率(precision)和召回率(recall)計算如式(4):

(4)

AP=1/(M(∑r∈{1/M,2/M,…,M/M}P(r)))

對于多類目標,對各個AP取平均值,即為平均檢測精度均值mAP,衡量模型在所有類別上的好壞。

(5)

3.2 實驗環境和訓練設置

實驗使用配置有內存為16 GB和英偉達1 070 GPU的PC機,操作系統為ubuntu16.04,基于pytorch深度學習框架對算法模型編程實現。訓練中部分參數設置為:學習率取0.001,動量取0.9,權重衰減為0.000 5,批處理圖像數為16,平衡系數設為λc_obj=5,λc_noobj=1,λbox=2,λcls=1,檢測非極大值抑制閾值取0.3。

訓練迭代次數為48 000次,每100次迭代進行一次驗證,并記錄訓練損失、召回率、準確率和平均檢測精度,通過可視化輸出。為了驗證文中模型優越性,在同等環境下對YOLOv3進行訓練,并將二者數據輸出于同一個坐標系,如圖4所示。其中藍色曲線是文中模型數據,橘黃色曲線為YOLOv3算法數據。可以看到,在訓練過程中,模型的訓練損失能夠快速下降且達到較低的水平,最后的損失值低于YOLOv3算法。同時在驗證集上的驗證結果表明,召回率、準確率和平均檢測精度均在大約10 000次迭代之后超過了傳統的YOLO算法并能達到更高的水平,證明了訓練能夠有效進行及模型的有效性。

圖4 訓練損失曲線及驗證集驗證曲線

3.3 算法結果和對比

在11類軍事目標測試集上,文中模型達到了最高的檢測精度93.08%,相對比傳統的YOLOv3提高了3.49%。其中坦克類目標達到最高的96.2%,最低為跑道類檢測精度為86.5%。整體看該模型在構建的數據集上能夠達到較高的檢測精度。

圖5 各類別檢測精度

與對比算法相比,文中模型在不同交并比下的檢測精度均高于對比算法。隨著交并比不斷增加,檢測精度下降小于其他算法,說明文中算法預測的邊界框具有更高的準確度。使用快速NMS算法使網絡在預測過程中加速了1.14幀/s,實時性更好。

表2 性能比較

圖6為算法在測試集上的檢測結果樣例。可以看到,算法能夠較好的應對不同尺度大小和不同旋轉方向的目標,正確識別包含自行火炮、坦克、遠程火箭炮、導彈發射車四類裝甲目標圖像,算法能夠應對公路、草地等不同環境和光線特性,整體上具有較強的適應性。同時坦克炮管等細小部件包含在輸出的目標框范圍內,識別精度高。算法可以較好的應對艦船類目標的旋轉特性,區分出航母和普通艦船之間的差別,同時,艦船指揮塔作為艦船類目標重要組成部分,具有更高的打擊價值,因此在識別艦船本身基礎上,同時識別出指揮塔位置,更有實際價值。模型實現了對機場多要素識別,對機庫、機場指揮塔、密集地停在機場的飛機及遠處跑道均能夠完整的檢測,達到較好的識別效果。

圖6 測試集測試樣例

4 結論

基于改進的YOLOv3方法對多尺度預測分支的先驗框尺寸進行聚類設置,增強了對不同尺度目標的檢測能力;使用改進位置損失函數提高位置定位能力;使用快速NMS算法提高網絡實時性。在所構建的軍事目標數據集上達到更高的檢測精度和速度,能更好的完成目標檢測任務。

猜你喜歡
特征檢測
抓住特征巧觀察
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: 国产大片喷水在线在线视频| 精品国产电影久久九九| 国产农村妇女精品一二区| 91精品国产自产91精品资源| 最新国语自产精品视频在| 欧美区国产区| 亚洲午夜天堂| 中文字幕人成乱码熟女免费| 久久精品国产精品一区二区| 亚洲Av激情网五月天| 国产精品19p| a免费毛片在线播放| 在线国产欧美| 亚洲第一精品福利| 国产拍在线| 成人欧美日韩| 成人福利在线视频| 国产在线无码一区二区三区| 露脸真实国语乱在线观看| 亚洲精品无码日韩国产不卡| 18黑白丝水手服自慰喷水网站| 亚洲av无码人妻| 欧美啪啪视频免码| 99热这里只有精品5| 特级毛片免费视频| 亚洲第一色视频| 伊人狠狠丁香婷婷综合色| 亚洲成A人V欧美综合天堂| 在线看免费无码av天堂的| 97久久免费视频| 狠狠干欧美| 五月天综合婷婷| 中日韩一区二区三区中文免费视频 | 亚洲天堂成人在线观看| 国产激情无码一区二区APP| 国产极品嫩模在线观看91| 国产精品久久久久无码网站| 又大又硬又爽免费视频| 激情亚洲天堂| 91成人在线免费观看| 蜜桃臀无码内射一区二区三区| 欧美亚洲一区二区三区在线| 亚瑟天堂久久一区二区影院| 国内老司机精品视频在线播出| 欧美国产在线一区| 亚洲首页在线观看| 久久无码av三级| 成人精品在线观看| 国模私拍一区二区| 亚洲精品视频免费| 黄色不卡视频| 666精品国产精品亚洲| 最新日本中文字幕| 狠狠色狠狠色综合久久第一次| 国产精品va免费视频| 国产成熟女人性满足视频| 97视频精品全国免费观看| 国产成年女人特黄特色毛片免| 麻豆国产精品视频| 国产在线观看一区精品| 午夜三级在线| 毛片手机在线看| 98超碰在线观看| 2019国产在线| 丁香婷婷激情综合激情| 国产精品手机在线观看你懂的| 亚洲男人天堂2020| 极品性荡少妇一区二区色欲| 国产一级在线播放| 国产一级毛片在线| 国产精品成人观看视频国产| 特级精品毛片免费观看| 国产精品嫩草影院视频| 国产精品护士| 亚洲国产成人久久精品软件| 久久久噜噜噜| 国产91精品久久| 国产地址二永久伊甸园| 亚洲大尺码专区影院| 亚洲国产中文在线二区三区免| 另类综合视频| 99精品一区二区免费视频|