999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLOv4的海上目標識別技術研究

2022-05-09 02:43:36羅亞松
兵器裝備工程學報 2022年4期
關鍵詞:檢測模型

張 坤,羅亞松,劉 忠

(海軍工程大學兵器工程學院,武漢 430033)

1 引言

為滿足艦炮對海射擊脫靶量自動化測試需求,檢靶系統需要針對海上彈丸水柱和靶球進行準確識別并定位。海上目標識別算法屬于檢靶系統的關鍵技術,其性能優劣直接決定著檢靶系統的可靠性與實用性。當前海上目標檢測研究的主要對象是水面艦船,但與靜止的艦船目標相比,彈丸水柱和靶球檢測更加具有挑戰性:水柱在形態和顏色上隨時間不斷變化,初始時和浪花極為相似,發展變化過程很快,從出現到消散只有3~5 s,在消散階段,水柱由凝實轉為濃霧狀,對其他目標造成遮擋,并改變了周圍環境亮度,導致檢測環境更加復雜;靶球目標體積小,隨波漂浮,在監控畫面上呈現出時隱時現的特點,單靶球的外形表現為被部分遮擋的球形,多靶球的外形表現則更加復雜。本文設計一種海上目標識別算法,對海上水柱目標和靶球目標進行快速有效識別。

2 網絡選擇及原理介紹

2.1 網絡選擇

檢靶系統使用高清光電攝像機作為圖像輸入設備,以無人艇為觀測平臺,實現目標方位信息在復雜環境下(包括濃霧、陰雨天、四級以下海況、逆光、齊射、遠距離、目標重疊等極端情況)的高精度實時檢測。系統必須保證能迅速準確地識別出相應目標,因此對目標識別技術的準確率和實時性都提出了很高要求。為滿足使用要求,選用的識別算法網絡模型需要同時具備強大的檢測能力和輕量化的網絡結構,具備多目標識別能力和較強的抗干擾能力,能夠應對復雜多變的海上環境。

本文在研究對比了多種目標識別技術后(見表1),最終選定使用各方面性能表現較好且運行穩定的YOLOv4深度學習網絡作為基礎模型,在基礎上進行改進,以適應檢靶系統的識別要求。

表1 多種深度學習模型的海上目標識別效果Table 1 Comparison of maritime target recognition effects for a variety of deep learning models

2.2 YOLO算法介紹

YOLO系列模型是典型的單階段目標檢測算法網絡模型,能一次性快速識別多種目標,在識別效率上有較大優勢,其識別效果如圖1所示。

圖1 YOLO算法識別效果圖

2016年,Joseph Chet Redmon等提出了YOLOv1目標識別模型,奠定了YOLO系列模型的基本檢測流程:輸入圖片并壓縮至規定大小,將圖像劃分為×個方格,用不同尺寸的錨定框對每個格子進行檢測得到每個格子預測出的Bounding Boxes及其置信度和一張表示每個格子分類可能性的圖,經過非極大值抑制(NMS)操作得到輸出結果。經過幾年的發展和改進,2020年Alexey Bochkovskiy等提出了YOLOv4模型,YOLOv4融合了近年來深度學習領域涌現的一些優秀檢測技巧,在精度和速度上都得到很大提升。在網絡結構方面,YOLOv4可分為輸入(input)、骨干(backbone)、頸部(neck)、頭部(head)4個部分,其中backbone部分采用了在檢測速率、參數數量、模型層數等方面表現更加優異的CSPDarknet53網絡;neck部分則采用了空間金字塔池化層(Spatial Pyramid Pooling,SPP)作為附加模塊,采用路徑聚合網絡(Path Aggregation Network,PANet)作為路徑聚合模塊;head部分則沿用了YOLOv3的YOLO-head。以上組成了YOLOv4模型的整體框架。在檢測技巧方面,YOLOv4將它們分為Bag of Freebies(BoF)和Bag of Specials(BoS)兩類并應用到模型框架的各個部位,以優化檢測性能,提高檢測精度和速度。

2.3 檢測流程

圖2為YOLOv4的網絡結構圖,如圖2(a)所示,YOLOv4在輸入端將圖像尺寸調整為固定大小輸入檢測網絡,圖像數據進入CSPDarknet53骨干網絡,CSPDarknet53網絡是由階段交叉梯度模型(cross stage partial,CSP)和Darknet53網絡組合而成,將CBM(CNN-BN-Mish)卷積層和多個殘差組件Resunit堆疊而成的CSP模塊通過route層插入到卷積層中,一方面加深了網絡模型的深度,使網絡能獲取更高層次的語義信息和更多的特征圖;另一方面通過引入多個殘差網絡和route分流,使各層的計算量得到一定程度的平衡,提高了運算速度,同時也有效防止了網絡深度增加導致的梯度爆炸或梯度消失問題。圖像數據在骨干網中經過多次降維處理,分別在骨干網末端、倒數第一次降維和倒數第二次降維處引出三條數據通道通向網絡的頸部,用于檢測不同尺度的目標。三條通道的數據經過CBL(CNN-BN-Leaky)模塊、SPP結構網絡后按照PANet結構的方式進行卷積、上采樣和route層融合,最后輸入到頭部。這種處理方式使淺層特征和高級語義特征得到融合,使多個尺度的感受區域得到融合,進一步強化了網絡對不同層級特征的利用效率,能有效改善小目標丟失問題并提高檢測精度。在網絡頭部,數據圖像最終被處理成為19×19、38×38、76×76三種不同大小的柵格圖,分別用于實現對大型目標、中型目標和小型目標的檢測。

圖2(b)中,CBM是使用了批量歸一化(Batch Nomalization,BN)和Mish激活函數的卷積層,圖2(c)CBL則是使用了批量歸一化和Leaky激活函數的卷積層。Mish激活函數比Leaky激活函數更有助于保持小的負值從而穩定網絡中的梯度流,使更多的權重能夠得到更新,具有更好的泛化能力,有效提高了檢測結果的質量。圖2(d)表示Resunit模塊的組成,“add”表示將相同尺寸大小的特征圖數據進行相加。圖2(e)為CSP模塊的組成結構,CSP模塊由多個Resunit模塊和卷積模塊的殘差網絡堆疊而成。圖2(f)為SPP模塊的組成結構,將骨干網輸出的特征圖分別進行尺度為5×5、9×9、13×13的最大池化,再將未池化數據和3種池化結果聚合,其中“concat”表示將不同尺寸的特征圖數據進行拼接。

圖2 YOLOv4網絡結構圖

3 YOLOv4算法改進

3.1 K-means聚類算法

YOLOv4網絡在使用時需要預設9個錨定框(Anchor Box)用于預先確定檢測目標的長寬比,并在每個格子中都生成9個錨定框對框內物體進行檢測,預測出目標的Bounding box。由于水柱目標不是靜態的,它的尺寸、外形隨著時間在不斷變化,YOLOv4默認的Anchor Box并不適用這種單一類型的動態目標檢測,因此本文使用-means聚類算法對水柱數據集中的目標尺寸進行聚類,求出合適的Anchor Box值。

-means聚類算法是一種無監督的聚類算法,本文將檢靶數據集中標注好的目標邊框的長、寬作為初始數據集輸入聚類算法中,算法隨機選擇9個質心,然后分別求數據集中每個點到各個質心的距離,并將該點的類別標記為與它距離最近的質心的類別,再對當前各個類別的點求新的質心,基于新的質心對所有點重新分類,再求質心,多次重復前面2個操作直到質心不再改變,最終得到一組比較優的Anchor Box值。

3.2 SE注意力機制

HU等提出SE模塊,SE注意力機制如圖3所示。這是一種輕量級的注意力機制模塊,能夠輕易地加入網絡模型中且只增加少量的模型復雜度和計算開支。在檢測任務中,隨著數據流在網絡中不斷加深,目標特征表現逐漸微弱,容易造成小目標和弱目標的漏檢。通過在網絡中的適當位置嵌入SE注意力模塊,可以增強網絡對重要通道的學習能力,提高識別率。為了在小目標特征消失前對通道特征進行強化,本研究考慮將SE注意力模塊嵌入YOLOv4骨干網絡的中段,具體結構如圖4所示。將SE模塊添加到Resunit模塊中,形成新的SE-Resunit模塊,并替換原CSP模塊中的Resunit,再在CSP模塊的concat后添加SE模塊,形成新的SE-CSP模塊替換位于Backbone中的所有CSP模塊。

圖3 SE注意力機制框圖

圖4 SE-YOLOv4算法具體結構示意圖

4 圖像預處理

4.1 基于灰度共生矩陣的海天線檢測

從無人艇平臺的角度進行觀測,可以發現水柱和靶球的位置幾乎都處于海天線附近,找到海天線位置能夠進一步提高檢測率,降低誤檢率。論文基于灰度共生矩陣原理設計了一套海天線快速檢測程序,對輸入圖像進行高效計算,能在0.02 s內完成一幅1 920×1 080高清圖像的海天線檢測。

灰度共生矩陣是一種描述圖像紋理特征的方法,在圖像分析領域有著廣泛應用。其原理是統計灰度圖上任意一點與它0°、45°、90°、135°四個方向固定步長所對應的點所形成的灰度對(,)的數量。這4個方向的灰度統計就是灰度共生矩陣,通過它可以較好地展示出圖像的紋理特征,從而找到海天線位置。因為需要對原圖進行多次遍歷操作,當圖像尺寸較大且灰度值較大時將產生巨大的計算量。受景宏磊等啟發,論文中在計算灰度矩陣前將×高清圖像平均劃分為16×16個矩形區域,每個區域的大小為×,分別求每個區域內的灰度和,再將灰度和按比例降低至16以內并取整,形成灰度壓縮后的新灰度圖:

(1)

式中,(′,′)為點(′,′)處的灰度值;(,)為(,)區域向下取整后的灰度和。

新灰度圖的尺寸為16×16,灰度級也為16。圖像在質量上有所損失,但海天線檢測對清晰度要求不高,因此不影響檢測效果。對壓縮后的灰度圖求灰度共生矩陣

(2)

式中,=0°、45°、90°、135°;為點和點之間的距離;#()表示集合中的元素個數。

對4個方向的灰度共生矩陣分別進行歸一化處理:

(,)=(,,,)

(3)

再利用灰度共生矩陣(,)計算對比度Con:

(4)

取豎直方向對比度變化最大的位置作為海天線位置,并截取其上50像素,下25像素的范圍作為算法的檢測區域。考慮到海天線檢測對于藍色比較敏感,因此以圖像的藍色通道作為輸入。檢測效果如圖5所示。

由圖5中可以看出,GLCM算法能清晰呈現出海天線的紋理,且該算法對于傾斜度達到45°的海天線和濃霧背景下的海天線都具有良好的檢測能力。

圖5 基于灰度共生矩陣的海天線檢測效果圖

4.2 圖像相似性快速檢測

當YOLOv4算法在視頻流中對目標進行檢測時,算法將對每一幀的圖像數據都進行檢測。對于不同的圖像來說,每次檢測到的目標位置都存在一些偏差,也會有誤檢和漏檢,從而導致對視頻流進行檢測時檢測框不斷閃爍變換。短時間內,目標的形狀、位置在前后幀圖片中相差不大,若逐幀檢測不僅浪費算力,還會影響對檢測效果的判斷。本文采用圖像相似性快速檢測的方式,剔除視頻流中相似性程度較高的圖像,改善視頻流檢測效果。

結構相似性檢測,是一種從圖像組成的角度來評價兩幅圖像相似程度的算法。它將圖像失真度定義為圖像亮度、對比度和結構3個獨立因素的組合。

(5)

(6)

(7)

本文先利用滑動窗口將圖像分為塊,再計算每個對應分塊的SSIM值,最后求所有SSIM的均值MSSIM:

(8)

(9)

MSSIM值越大,兩張圖像越相似。以上一幀輸入網絡中的圖像為參考幀,計算當前圖像與參考幀之間的MSSIM值,當該值超過設定的閾值時,當前圖像不進入檢測網絡,并和上一幀檢測結果共同輸出;當該值小于閾值時,則將當前圖像輸入檢測網絡中,并將該圖像更新為新的參考幀。

5 試驗與結果分析

5.1 目標檢測環境搭建

為 驗證改進后YOLOv4網絡的有效性,本文在檢靶數據集上開展實驗。本次實驗平臺環境如下:

操作系統:Windows 10

深度學習框架:Tensorflow2.3.0-GPU

CPU:AMD Ryzen 7 4800H with Radeon Graphics

內存:32 GB

顯卡:NVIDIA GeForce RTX 2060

顯存:6 GB

5.2 遷移學習

在對比實驗中,需要分別訓練原始YOLOv4網絡與改進后的YOLOv4網絡。在訓練原始YOLOv4網絡時,若隨機生成初始權重對網絡進行訓練,不僅花費的訓練時間較長,而且訓練效果和訓練進程不易把握。考慮到COCO數據集包含內容較為廣泛,其網絡權重具有更好的泛用性,因此本文采用遷移學習的辦法,將已訓練完成的COCO網絡權重作為對照網絡的初始權重進行訓練,可在得到良好效果的同時大大縮短訓練時間。

5.3 結果分析

本文采用準確率(Precision)、召回率(Recall)、各類別平均值(mean Average Precision)、幀率(Frame Per Second)4個指標對網絡性能進行判斷。以交并比為判定依據,當≥0.5時認為該目標被正確識別。

參數設置:輸入圖片尺寸為512×512,錨定框數量為9(Anchor Box=5,8;10,36;11,16;14,55;17,76;19,53;27,24;28,71;45,140),錨定框放大比例XYSCALE設置為[1.2,1.2,1.05],學習率設置為0.001,BATCHSIZE設置為2。

實驗首先對YOLOv4_0、YOLOv4_1、YOLOv4_3、YOLOv4_4模型進行遷移學習,訓練Epochs設置為180。對于引入了SE注意力機制的YOLOv4_2、YOLOv4_5、YOLOv4_6、YOLOv4_7模型由于算法結構發生改變,不能使用遷移學習,需從頭開始訓練,因此需要提高訓練循環次數,將Epochs設置為 1 000。使用測試集圖片和檢靶視頻對訓練好的模型進行檢驗,具體結果如表2所示。

表2 不同模型在數據集上的效能評估Table 2 Effectiveness evaluation of different models on data sets

通過對比實驗結果可以發現,-means聚類對網絡運行速度沒有影響,卻能夠有效提升檢測精度,使值提升了12.8%;SE注意力機制因為嵌入在骨干網絡中增加了計算量,使FPS值略有下降,但該算法對提升檢測精度有重要作用,強化了網絡對小目標的檢測能力,提高網絡對云層和水柱的分辨能力,也提升了召回率,值比初始網絡提升了22.1%;由于修改后的GLCM快速算法依然有較大計算量,引入海天線檢測算法使值受到了較大影響,但該算法對網絡檢測精度的提升作用較明顯,原因是該算法將檢測區域集中到海天線附近,有效避免了艦船尾流對水柱檢測的干擾;SSIM相似性檢測對算法的檢測精度和查準率提升貢獻不大,反而有一些負面影響,但它能減少計算量并提高視頻流的檢測效果。從上述數據可以看出,所提出的幾種算法對YOLOv4網絡的檢測性能都有較好的提升作用,將它們同時應用到YOLOv4網絡中檢測效果能相互疊加,最終修改后的網絡值達到了83.4%,為36幀/s。修改后的網絡在檢測水柱目標和靶球目標方面比初始YOLOv4網絡檢測精度提高了29.9%。

6 結論

為實現對海上水柱目標和靶球目標的準確識別,根據目標特征制定針對性的改進方案,最終使目標識別網絡的檢測能力提高了29.9%,值達到了83.4%。

但是本次實驗受到數據集規模限制,無法對海況、光照、氣候等影響檢測效果的變量進行充分地對照實驗,難以考察檢測算法的魯棒性。下一步要繼續擴大數據集規模,并考慮將數據集按場景分類,訓練多個模型以更好地適應不同場景下的檢測需求。此外由于本算法對檢測實時性要求較高,在一定程度上犧牲了算法的檢測精度,后續研究將考慮設計檢測精度更高的目標識別算法用于離線檢靶。

猜你喜歡
檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 欧美日韩国产精品va| 午夜无码一区二区三区| 亚洲狼网站狼狼鲁亚洲下载| 日韩精品专区免费无码aⅴ| 亚洲人成高清| 久热re国产手机在线观看| 少妇人妻无码首页| 毛片最新网址| 国产亚洲精品资源在线26u| 露脸一二三区国语对白| 一级爆乳无码av| 久久青草精品一区二区三区| 亚洲性日韩精品一区二区| 亚洲成人动漫在线| 亚洲天堂777| 夜夜拍夜夜爽| 永久免费无码成人网站| 国产在线精彩视频论坛| 亚洲福利片无码最新在线播放| 在线视频亚洲色图| 人妻夜夜爽天天爽| 亚洲一区波多野结衣二区三区| 丁香婷婷综合激情| 午夜成人在线视频| 亚洲精品欧美重口| 国产69精品久久久久妇女| 九九热免费在线视频| 婷婷六月激情综合一区| 亚洲精品无码日韩国产不卡| 日本www在线视频| 992tv国产人成在线观看| 亚洲一级毛片在线播放| 久久久久久午夜精品| 国产成人亚洲毛片| 国产成人a在线观看视频| 精品少妇人妻一区二区| 97亚洲色综久久精品| 最新日本中文字幕| 国产一级小视频| 色窝窝免费一区二区三区| 强奷白丝美女在线观看| 最新国语自产精品视频在| 不卡午夜视频| 亚洲黄网在线| 黑色丝袜高跟国产在线91| 亚洲AV成人一区国产精品| 欧美成人看片一区二区三区| 国产成人乱码一区二区三区在线| 国产门事件在线| 国产成人91精品免费网址在线 | 亚洲Av激情网五月天| 久久人体视频| 欧美国产日本高清不卡| 色男人的天堂久久综合| 99在线观看国产| 亚洲综合第一页| 97国内精品久久久久不卡| 亚洲日韩国产精品综合在线观看| 99热在线只有精品| 国产欧美视频在线观看| 久久精品视频亚洲| 亚洲天堂视频网站| 思思热在线视频精品| 一区二区三区四区在线| 一级毛片免费观看不卡视频| 精品国产91爱| 狠狠色成人综合首页| 婷婷亚洲最大| 亚洲欧美在线看片AI| 在线欧美a| 国产精品吹潮在线观看中文| 亚洲第一区在线| 国产成人乱无码视频| 国产日本欧美亚洲精品视| 国产SUV精品一区二区6| 久久精品国产999大香线焦| 91青青草视频| AV网站中文| 婷婷开心中文字幕| 美女视频黄频a免费高清不卡| 亚洲女同一区二区| 国产精品综合久久久|