999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLO 模型的SAR 艦船目標檢測方法研究

2023-09-08 07:13:44姜賦坤黃香誠張曉波周興華
海洋技術學報 2023年4期
關鍵詞:結構檢測模型

姜賦坤,黃香誠,張曉波,周興華

(1.山東科技大學海洋科學與工程學院,山東 青島 266590;2.自然資源部第一海洋研究所,山東 青島 266100)

當今社會,信息技術在人們日常生活的各方面都產生著巨大影響,而圖像擁有著更大的信息量和更強的可理解性,因而以圖像目標識別為典型代表的圖像處理技術已體現出更為廣闊的應用前景和更高的科研價值[1]。隨著衛星遙感技術的發展,能夠獲取到的高分辨率遙感衛星影像越來越多。與此同時,隨著我國海上漁業及航行運輸活動增多,海上艦船遙感圖像的目標識別在艦船追蹤與監控、精確制導、路徑規劃等領域也逐漸得到應用,憑借此項技術可以有效地解決海上事故多發、我國領土及漁民權益遭到侵犯等問題。在衛星遙感領域中,SAR技術具有天氣無關性、全天候性、云層穿透性等優點,可以提供高分辨率的圖像,因此被廣泛應用于海上目標的檢測[2-3]。

早期的SAR 船舶檢測方法主要基于傳統特征,如紋理、形狀、邊緣等,可以分為3 個步驟:預處理、候選區域提取和判別。以候選區域提取算法多采用恒虛警率自適應雷達檢測(Constant False Alarm Rate,CFAR)[4],其本質上是一種基于分割的算法,即根據灰度大小將像素分為兩類(船舶或非船舶),然后將船舶像素區域合并為船舶區域。判別一般是通過使用人工設計的特征和訓練分類器來實現。這些傳統方法對參數設置和圖像質量要求較高,且適應性和泛化能力較差,難以應對復雜多變的實際場景。后來,隨著機器學習技術的不斷發展,越來越多的基于傳統機器學習算法的SAR 船舶檢測方法被提出。這些方法通常利用支持向量機(Support Vector Machine,SVM)[5]、隨機森林(Random Forest,RF)[6]等算法進行分類,以實現對SAR圖像中船舶目標的自動識別和檢測。相比于傳統的手工設計算法,這些基于機器學習的方法能夠更好地適應不同的數據場景和變化情況。然而,傳統機器學習算法的特征提取器需要手工設計,而且對參數設置和圖像質量要求較高,使得這些方法難以應對如今愈加復雜多變的實際場景。傳統機器學習算法通常采用分類器進行目標檢測,而分類器本身存在一定的局限性。例如,SVM 只能處理二分類問題,而RF 等算法對數據分布敏感,這限制了這些算法在處理多類別和復雜數據時的應用能力。此外,傳統機器學習算法通常需要大量的手工標注數據進行訓練,且訓練時間較長。這使得這些方法在實際應用中面臨著數據獲取困難、訓練時間長等問題,影響了其在實際環境下的使用。由此可見,機器學習方法對SAR 圖像中的艦船目標實現自動識別仍存在諸多困難。

近年來,目標檢測領域基于人工設計特征的傳統檢測方法逐漸被利用卷積神經網絡自動學習圖像特征的方法所取代。此方法能夠根據算法對數據集的訓練及測試結果自主調整特征提取參數,且提取到的特征具有極佳的自適應性,經過人工對測試后的參數進行合理化修改后,可極大地減少人為多次特征提取的復雜步驟[7]。因此,隨著深度學習技術的發展,基于深度學習的SAR 船舶檢測方法也在逐漸興起,利用神經網絡模型進行特征提取和分類,可以自動學習更加復雜、抽象的特征信息,從而實現更加準確、高效的SAR 船舶檢測。該方法首先是基于候選框的兩階段(Two-stage)[8]檢測算法,如R-CNN[9]、快速區域卷積神經網絡(Fast RCNN)[10]和Faster R-CNN[11]等,需要先從輸入的圖像中生成一系列區域,用以提取特征來構造目標分類器,最終在候選區域上進行回歸和分類[12],隨著遙感圖像識別需求的不斷增加,其較低的計算效率已經難以滿足要求。其次是基于免候選框的單階段(One-stage)[8]檢測算法,最典型的是YOLO[13]系列算法。作為經典的單階段算法,YOLO 系列的算法由于省略了粗定位的過程,且可以在單階段中一次性計算包含邊界框及其所屬類別的概率并輸出,具有比兩階段算法Faster R-CNN 更高的檢測效率[14],可以滿足快速檢測的需求。近年來,研究者們開始將YOLO 算法應用于SAR 目標檢測任務中,并取得了一定的成果。例如一種名為Lira-YOLO 的輕量級模型結合了YOLOv3[15]和RetinaNet[16]的優點,在保證檢測精度的同時大大減少了參數量和計算復雜度[17]。此外,還有一些基于YOLO 算法進行改進和優化的SAR 目標檢測方法,如Anchor-free SAR Ship Detector[18]、Network slimming method[19]等。這些方法在SAR 圖像中實現了較高水平的目標檢測性能。

目前,YOLO 系列算法已由YOLOv1 優化改進到YOLOv7,同時在圖像識別領域已有諸多應用,例如行人檢測[20]、行車障礙檢測[21]等。從YOLO 系列網絡結構的更新迭代過程來看,Backbone 部分結構的提升可以很大程度上決定每一代算法的性能,并且YOLOv4 及其后續算法其實都是沿用YOLOv3的框架,只是加了各自的工業上提升檢測速度和精度的方法,因此基于第三代算法結構的研究方法對于后續算法的研究具有極高的價值。同時,對YOLO 歷代模型的結構進行一個系統的對比分析也是十分必要的。

針對上述問題及研究現狀,本文首先將YOLO系列模型進行了橫向和縱向的對比分析,然后利用重新標注的SSDD[22],在精度和效率兩方面,對第三代開始的YOLO 系列算法進行重點分析,并將其應用于SAR 艦船圖像的識別。同時,將YOLO 系列算法與兩階段深度學習算法Faster R-CNN 的識別精度與效率進行對比。最后,在效果最好的YOLO算法基礎上對網絡結構進行優化修改,建立了一種基于注意力機制的艦船目標識別深度學習網絡——YOLOv5.SAM,在識別精度和對密集目標的檢測性能方面均實現了提升,從而證明該方法在SAR 艦船目標識別方面的有效性。

1 YOLO 系列深度學習框架結構及對比

從結構上來看,YOLO 系列的每一代算法均由前一代算法在結構方面進行添減或改進而產生,具有極強的關聯性。因此,通過分析網絡結構上的差異即可在一定程度上實現算法性能方面的對比。

YOLO 網絡實現圖像識別的核心思想就是利用整張圖片作為網絡的輸入,將其分為N 伊N 個網格(Grid Cell),當某個物體的中心落在網格中時,此網格就用以預測對應的物體,最終在輸出層回歸邊界框(Bounding Box)的位置及其所屬的類別[13]。

網絡結構方面,YOLO 主要由輸入端、Backbone、頸部結構(Neck)和頭部結構(Head)4 部分組成,如圖1 所示,其中輸入端以圖片作為網絡的輸入對象進行分割;Backbone 部分在不同圖像細粒度上聚合并形成圖像特征的卷積神經網絡;Neck部分將提取出圖像特征進行多尺度融合;Head 部分是對圖像的特征進行預測并生成邊界框及類別。

圖1 YOLO 系列總體結構

網絡深度方面,每一代YOLO 通常有多種量級的網絡結構,以S、L、M 等命名。其中S 是所有結構中網絡深度最淺且訓練速度最快的網絡,其他結構的網絡層數依次增加。

1.1 輸入端結構分析

輸入端部分針對不同的數據集YOLO 都需要設定不同長寬的錨點框,訓練時模型在初始錨點的基礎上生成對應的預測框并將其與真實框進行比較,對數據進行反向更新。YOLOv4 至YOLOv7 使用了Mosaic 數據增強操作提升模型的訓練速度與精度,相當于將四張圖片合成一張新的圖片傳入神經網絡中進行學習。在測試階段,由于輸入圖片的尺寸存在差異,因此算法會對圖片按預定尺度進行縮放,并且自適應地補充最少的冗余信息,通過此方法將尺寸不同的圖片一致化,極大地提升了算法的運行速度。

1.2 Backbone 部分結構分析

前文提到,Backbone 網絡的提升之所以能很大程度上決定YOLO 每一代的提升,正是由于Backbone 作為網絡的一個核心特征提取器決定了模型的特征提取精度。YOLOv1 只是把最后的特征分成了7 伊7 個網格,到了YOLOv2 就變成了13 伊13 個網格,再到YOLOv3 開始向多尺度化發展,結構愈加復雜,如圖2 所示。

圖2 Backbone 結構示意圖

YOLOv3 加深了網絡層數,并引入了殘差網絡(Residual Network,ResNet) 中的殘差思想,使得YOLOv3 將Backbone 深度大幅擴展至含有53 個卷積層的新主干網絡結構(Darknet-53)。同時優化了無池化層的下采樣方式,采用卷積層來實現,浮點運算更少、速度更快。如圖2(a)所示,卷積塊層(Convolutional Block Layer,CBL)結構包含一個卷積層一個批量歸一化連接層(Batch Normalization,BN) 和一個名為帶泄露的修正線性單元(Leaky Rectified Linear Unit,Leaky ReLU) 的激活函數,CBL 結構的主要作用是提取輸入特征,并通過BN層進行規范化,Leaky ReLU 激活函數則可以使得網絡具有更好的非線性擬合能力;殘差塊結構(Residual Block,Res)包含兩個串聯的CBL 結構及一個加法層(Addition Layer,add),后面的數字表示N 個該結構,Res 結構的主要作用是解決深度神經網絡中的梯度消失和梯度爆炸等問題。

YOLOv4 中所使用的Backbone 是在YOLOv3 的基礎上,將多個跨階段部分網絡結構(Cross-Stage Partial Network,CSP)進行組合設計成為新的主干網絡,名為CSP Darknet-53,CSP 結構通過將輸入特征圖分成兩個部分,分別進行卷積操作,并使用殘差連接將兩部分特征圖進行融合,從而實現了網絡的高效和穩定。同時使用了一種自正則化的非單調神經激活函數(A Self Regularized Non-Monotonic Neural Activation Function),簡稱為Mish 激活函數,Mish 激活函數的特點是具有自正則化的性質,可以有效地緩解神經網絡中的過擬合問題,并提高模型的泛化能力。CSPDarknet-53 總共有72 層卷積層,能起到特征提取與逐步下采樣的作用,從而提升模型的學習能力,降低計算瓶頸,同時提高硬件利用率,使模型輕量化,并降低模型的內存占用。如圖2(b)所示,卷積塊模塊(Convolutional Block Module,CBM)結構包含一個卷積層、一個BN 連接函數和一個Mish 激活函數,CBM 模塊的主要作用是提取輸入特征,并進行規范化和非線性變換,可以有效地提高網絡的性能和準確率;帶有額外連接的跨階段部分網絡(Cross-Stage Partial Network with Extra Connections,CSPX)結構是由兩個分支的CBM結構分別經過處理后通過連接層(Concatenate,Concat) 將兩個輸入張量在指定的維度上進行拼接,并輸出拼接后的結果。

YOLOv5 的Backbone 同樣沿用了YOLOv4 中的CSPDarknet-53。如圖2(c)所示,CBL 和CSP 結構同YOLOv3;空間金字塔池化(Spatial Pyramid Pooling,SPP)結構是由CBL 結構、3 個最大池化層及Concat 連接結構組成;從第六版開始就舍棄了焦點層(Yolo-Focus,Focus) 結構改用常規卷積,其產生的參數更少,效果更好。

YOLOv5 使用的CSPDarknet-53 對于圖形處理器(Graphics Processing Unit,GPU)等硬件來說會增加延遲,同時也會減小內存帶寬利用率。針對此問題YOLOv6 對結構進行了重新設計,應用RepVGG style 結構(一種新型的卷積神經網絡結構),提高了GPU 計算能力的同時,優化了編譯特性,加強了網絡表征能力。YOLOv6 的Backbone 中將普通卷積都替換成了參數重組卷積(ReparameterizedConvolution,RepConv)結構,通過參數重組來減少卷積層的計算量和內存消耗,同時,將多尺度空間金字塔特征金字塔網絡(Spatial Pyramid Pooling-Feature Pyramid Network,SPPF)優化設計為更加高效的簡單空間金字塔特征融合網絡(Simple Spatial Pyramid Fusion,SimSPPF),增加特征重用的效率。如圖2(d)所示,帶有歸一化的重新著色和可視化的Backbone 1 模型(Recoloring and Visualizing Backbone 1 with Normalization,RVB1_N) 結構由Rep-玉和Rep-域組成,N 表示有N 個該結構相連;Rep-玉包含兩個并列的由卷積層和BN 連接層組成的卷積塊(Convolutional Block,CB) 結構、add 結構和一個名為修正線性單元(Rectified Linear Unit,ReLU)的激活函數,Rep-域比Rep-玉多一個CB 結構;SPPF 即為優化后的SimSPPF。

YOLOv7 的Backbone 部分在YOLOv5 的基礎上,使用了具有非局部塊的高效輕量級架構集合(Ensemble of Efficient-Lightweight Architectures with Non-local blocks,E-LAN)代替了原來的CSPDarknet-53,同時設計了下采樣卷積(Downsampled Convolution,DownC)代替普通卷積進行下采樣,可以實現更豐富的梯度組合,減少計算量。同時設計了最大池化(Max Pooling,MP)結構,此結構由常規卷積與最大池化雙路徑組成,增加了模型對特征的提取融合能力。如圖2(e)所示, 具有空間注意力機制的交叉階段部分網絡(Cross Stage Partial Network with Spatial Attention,CBS)結構包含一個卷積層、BN 連接函數和SiLU 激活函數,其主要作用是引入了空間注意力機制和交叉階段部分網絡,以提高目標檢測的性能和準確率;MP1 由最大池化層和CBS結構經過Concat 連接組成。

1.3 Neck 部分結構分析

Neck 結構開始設計于YOLOv3 版本,其中的特征融合思想最初在特征金字塔網絡(Feature Pyramid Networks,FPN)網絡中提出,在YOLOv3中進行結構的微調,最終成為YOLO 后續系列不可或缺的部分,如圖3 所示。

圖3 Neck 結構示意圖

很多傳統的目標檢測算法都只是采用高層特征進行預測,高層的特征優勢在于具有大量的語義信息,但其分辨率低,目標位置粗略。高層特征圖中一個像素可能對應輸出小目標圖像的特征,隨著網絡加深,此像素會存在丟失的現象。相較于高層特征,低層的特征雖然語義信息比較少,但是目標位置準確。FPN 正是將二者進行融合,進行了多尺度特征的獨立預測,明顯地提升針對小目標的檢測效果。

YOLOv3 采用了FPN 結構,通過精細的特征網格來提高Head 部分的識別精度。如圖3(a)所示,其中,N伊CBL 中的N 表示N 個該結構相連;UP 表示上采樣結構;Concat 結構表示concatenate 連接運算。

YOLOv4 添加了SPP 和路徑聚合網絡(Path Aggregation Network,PAN)結構,SPP 結構包括3個并列的最大池化層并將得到的特征按通道融合,更有利于獲得多尺度特征,提高訓練速度。PAN 結構與FPN 結構共同構成了特征金字塔結構,提高特征的提取能力。在最后的特征融合部分將原來的add 操作轉變為Concat,增加了特征圖的通道數。如圖3(b)所示,CBL 結構同YOLOv3;SPP 結構由3 個并列的最大池化層和Concat 連接結構匯總組成;UP(Up Sampling)代表上采樣結構。

YOLOv5 的Neck 部分也沿用了SPP 和PAN 的特征金字塔結構,但是在PAN 模塊進行融合后,將YOLOv4 中使用的常規CBL 模塊替換成借鑒CSPNet 設計的CSP 結構。降低了計算和內存的成本,加強網絡特征融合的能力。如圖3(c)所示,其中,UP 結構代表上采樣,其余結構含義同Backbone 部分。

YOLOv6 的Neck 部分基于RepVGG style 設計了可重復參數化、效率更高的可重復金字塔聚合網絡(Repeatable Pyramid Aggregation Network,Rep-PAN),替換了YOLOv5 中的CSP 結構,提高了GPU計算能力的同時加強了網絡表征能力。如圖3(d)所示,RVB2_N 結構與RVB1 類似只是輸出通道不同,N 同樣代表有N 個該結構相連。

YOLOv7 的Neck 部分在YOLOv5 的SPP 模塊的基礎上增加了Concat 模塊,并用E-LAN 模塊取代了最初的CSP 模塊,同時用MP2 層替換了下采樣。在保留了原始梯度路徑的基礎上,提高了網絡的學習能力。如圖3(e)所示,基于空間金字塔池化和可分離金字塔卷積的上下文聚合(Spatial Pyramid Pooling-based Context aggregation via Separable Pyramidal Convolution,SPPCSPC)結構與SPP 類似,參數與計算增多;MP2 與MP1 區別在于通道數翻倍;E-LAN 結構相較于Backbone 中Concat 數不同;REP 即為RepConv,由兩個卷積層和一個BN 連接層并列組成。

1.4 Head 部分結構分析

YOLO 系列的Head 部分負責預測框的回歸與后處理,其結構主要包括基于先驗框的預測頭部分、損失函數部分和后處理優化策略部分。目標檢測任務的損失函數一般由分類損失函數(Classificition Loss)和回歸損失函數(Bounding Box Regeression Loss) 兩部分構成。在目標檢測的后處理過程中,針對很多目標框的篩選,通常需要非極大值抑制(Non-Maximum Suppression,NMS)操作,從算法保留的多個預測框中通過對交集比率(Intersection Over Union,IoU) 的重疊度進行多次比較,選取一定閾值下可能性最高的目標,如圖4 所示。

圖4 不同網絡的Head 結構示意圖

YOLOv3 在Neck 部分的基礎上融合了3 個尺度,并對融合后的特征圖進行獨立檢測。如圖4(a)所示,Conv 代表卷積層。

YOLOv4 Head 部分沿用了YOLOv3 的整體結構。如圖4(b)所示,各結構與YOLOv3 Head 相同。

損失函數采用完整的交并比損失函數(Complete Intersection over Union Loss,CIoU_Loss) 的回歸方式,同時改進了傳統的非極大值抑制操作,在

CIoU_Loss 的基礎上采用DIoU_nms 的方式。

CIoU_Loss 回歸函數同時考慮到了重疊面積、中心點距離、長寬比,解決了傳統的IoU 無法優化兩個無重疊目標框的比值的問題,通過相交尺度的衡量方式彌補了此項的不足,可以更好地度量任意兩個目標框,使得預測框回歸具有更高的精度與速度。使用距離交并比(Distance-IoU,DIoU) 作為非極大值抑制的標準,可以同時考慮重疊區域和中心點距離,用以檢測被遮擋的目標,進而達到在不增加運算成本的基礎上提高針對所有目標的檢測精度的目的。

YOLOv5 的Head 部分在YOLOv4 的基礎上引入了自適應先驗框(Auto Learning Bounding Box Anchors)和鄰域正負樣本分配策略。YOLOv5 的先驗框是自適應于訓練數據的,會根據不同的訓練數據進行自動學習適配。相較于YOLOv4 中一個真值只能匹配一個正樣本,YOLOv5 能夠在多個grid cell中都分配到正樣本,有助于訓練加速和正負樣本平衡。如圖4(c)所示,CONV 結構代表卷積層。

YOLOv6 Head 部分不同于YOLOv5,其分別對3 層輸出進行預測,借鑒了解耦頭設計,并進行了改進。每一層結構如圖4(d)所示。

回歸損失方面,YOLOv6 采用了標準化交并比損失函數(Standardized Intersection over Union Loss,SIoU_Loss)。每個分支上先對特征圖進行卷積和特征融合,之后再分成兩個分支:一個分支通過兩個卷積完成分類任務,另一個分支卷積后再分成兩個分支,最后通過Concat 結構進行通道融合。進一步加快了網絡收斂,提高了回歸精度,在進行后處理后即可得到最終結果。

YOLOv7 的Head 側使用了和YOLOv5 一樣的損失函數,引入RepVGG style 改造了Head 網絡結構,并使用了輔助頭(Auxiliary head) 訓練及相應的正負樣本匹配策略。加入了深度監督(Deep supervision)和標簽分類器(Label assigner),利用多種tricks(一些實用的技巧和方法,用于優化和提高深度學習模型的訓練和性能) 結合來提升推理速度與精度。如圖4(e)所示。

1.5 YOLO 系列深度學習模型結構總體對比

基于上文YOLO 系列算法的結構敘述,本文對各模型總體結構進行歸納總結,如表1 所示。

表1 YOLO 系列各部分結構對比

2 基于艦船圖像的深度學習數據集的構建

眾所周知,YOLO 系列深度學習模型屬于監督學習的范疇,其特點是需要依靠數據集實現深度神經網絡的訓練和測試。本文為實現遙感圖像中艦船的識別,構建了基于SAR 艦船圖像的深度學習數據集。

2.1 數據集樣本來源

實驗所使用的數據集樣本來源于已有的SSDD數據集。SSDD 是國內外公開的第一個專門用于SAR 圖像艦船目標檢測的數據集,共有1 160 個圖像和2 456 個艦船,平均每個圖像有2.12 個艦船[22]。該數據集類別只含有艦船,且目標尺度多樣,背景復雜程度不一,既包含簡單背景下的小尺度目標,也包含背景復雜的港口環境,可以滿足深度學習算法對目標樣本的訓練需求。因此,SSDD 數據集的出現意味著SAR 圖像艦船檢測領域進入了深度學習時代。但由于SSDD 數據集發布時間較早,其標注的準確度有限,且訓練集和測試集的劃分模糊,因此我們對該數據集中的樣本目標進行了重新標注并實現格式轉換。

數據集部分樣本如圖5 所示,分別為簡單背景圖像、復雜背景圖像和靠岸艦船圖像。

圖5 數據集圖樣

2.2 數據集的制作

在數據集SSDD 樣本的基礎上,在開源網站Make Sense(https://www.makesense.ai/)中進行艦船目標的手動標注,并導出為YOLO 格式。標注過程如圖6 所示。

圖6 數據集標注

為保證實驗數據的泛化性,在訓練集和測試集的劃分方面,本文將數據集按9 頤1 的比例隨機劃分出訓練集與驗證集,用以訓練模型。在模型測試時,均采用同一份樣本。如圖7 所示,其背景復雜,目標大小方向各異,具有更強的說服力。

圖7 測試圖樣

2.3 數據集對比

SSDD 所包含的目標相比較于其他SAR 數據集具有其獨特的優勢,本文選取了兩個以艦船為主要目標的數據集進行對比,分別為高分辨率衛星影像人工結構目標檢測數據集(High-Resolution SAR Images Dataset,HRSID)[23]和空中合成孔徑雷達艦船數據集1.0 版(AIR-SARShip-1.0)[24]。

2.3.1 經典艦船數據集的簡介

HRSID 是由電子科技大學發布的高分辨率數據集。大多用于艦船檢測、語義分割和實例分割任務。該數據集共包含5 604 張高分辨率SAR 圖像和16 951 個艦船實例,SAR 圖像的分辨率分別為0.5 m、1 m 和3 m。

AIR-SARShip-1.0 數據集均由高分三號衛星獲取。圖像場景復雜,包含港口、島礁及不同等級海況的海面,目標覆蓋十余類近千艘艦船,圖像分辨率包括1 m 和3 m。

2.3.2 數據集信息的對比

數據集信息對比如表2 所示,SSDD 數據集相較于其他數據集而言,具有復雜的場景、多樣的目標尺寸、完善的信息標注和更大的分辨率范圍,更有利于SAR 艦船目標檢測算法的訓練與測試。因此本文數據集的樣本采用SSDD 數據集。

表2 數據集信息對比

3 深度學習算法應用于艦船目標識別的性能對比

目前深度學習已經廣泛應用于目標識別領域,且YOLO 系列算法的發展日漸成熟。為驗證兩階段深度學習算法和YOLO 系列算法在艦船目標識別方面的性能,以及YOLO 系列算法中哪一代更適合應用于SAR 圖像中艦船目標的識別,本文基于上述數據集針對YOLO 系列算法和Faster R-CNN 算法開展了對比實驗。

由于當今社會對于目標識別的精度與速度的需求與日俱增,因此本文的評價指標及實驗記錄的數據主要包括識別精度和訓練效率兩個方面。本文也將在此實驗的數據基礎上對實驗的算法進行評估。

在得到效果最好的模型后,本文對其網絡結構進行優化修改,將注意力機制與其結合,以使YOLO模型在SAR 目標檢測領域中達到更高的精度。

3.1 兩階段深度學習算法與YOLO 系列的對比實驗

實驗的軟硬件環境方面如表3 所示。

表3 實驗環境

在上述環境下,基于前期構建的數據集,首先對YOLO 系列的v3~v7 每一代算法及Faster R-CNN進行參數調試,以達到最優的訓練效果。然后進行各算法的對比實驗,以相同的圖片尺寸和批處理量訓練迭代400 次(epoch),得到的精度數據如表4所示。其中,P(Precision)代表的是準確率,R(Recall)代表的是召回率,AP(Average Precision)是一種用于評價目標檢測算法性能的指標,它是對不同置信度下的準確度-召回率曲線(Precision-Recall Curve)進行積分得到的平均精度。在本實驗中,將置信度下IoU 值從0.5 到0.95 按照0.05 的間隔進行劃分,并計算每個IoU 閾值下的精度和召回率,然后根據這些數據繪制出準確度-召回率曲線,并計算其下面積作為AP@0.5 頤0.95 值,同理AP@0.5 指的是IoU 為0.5 時的AP 值。平均精度均值(mean Average Precision,mAP) 則是對多個類別或多個測試集進行平均化得到的AP 值,在只有一個類別時,mAP 值等于AP 值。本實驗使用mAP@0.5、mAP@0.5 頤0.95、P 和R 作為精度的評價指標。

表4 各網絡精度數據

同時對訓練時間進行記錄,如表5 所示。

表5 各網絡訓練時長

最后,對每一種算法以同一張圖片進行驗證,以驗證算法在實際環境下的適用性,得到結果如圖8 所示。

圖8 各算法實際識別效果圖

3.2 實驗結果對比分析

從檢測精度的角度來看,YOLO 系列算法在艦船目標檢測任務上取得了較高的精度,其中mAP在0.5IOU 下幾乎都在0.9 以上。通過分析檢測結果圖片可以清晰地看出,YOLO 系列算法對艦船目標的檢測置信度基本達到0.8 以上。實驗過程中,即使在復雜的背景下,YOLO 系列算法也很少出現漏檢或誤檢情況,完全可以滿足當前海上艦船目標檢測的精度需求。其中,YOLOv3 的檢測精度最高,與Faster R-CNN 算法相比,提高了近20%。

在訓練速度方面,YOLOv4 及其之后的算法與兩階段檢測方法相比,提高了近一倍。YOLOv7 的訓練速度與前幾代算法相比提高了近50%,大幅降低了模型訓練的時間成本。通過實驗數據可以清晰地看出,YOLO 系列模型的訓練效果優于Faster R-CNN算法。在YOLO 系列模型中,YOLOv5 具有與YOLOv3相近的檢測精度,但在訓練時間上有明顯的優勢,因此YOLOv5 更適用于海上艦船目標檢測。

總之,從檢測精度和訓練速度兩個方面綜合考慮,YOLO 系列算法特別是YOLOv5 在海上艦船目標檢測任務上,與Faster R-CNN 算法相比更加優秀,更加適用于實際應用。YOLOv5 可以充分滿足當前海上艦船目標檢測的精度需求,且其訓練過程更快、成本更低。

綜上,YOLOv5 是一種高精度且高效的深度學習目標檢測算法,在艦船目標檢測領域具有廣闊的應用前景。其高精度的檢測性能可以為海上目標跟蹤等提供準確可靠的檢測結果,這為進一步研究海上目標跟蹤和行為分析等相關內容打下了基礎。

4 YOLOv5 模型優化

實驗中雖然YOLOv5 模型在SAR 圖像艦船識別方面達到了較高的檢測精度,但在多個小目標以及復雜場景下仍會出現錯檢漏檢的情況,針對該問題,我們對YOLOv5 模型的結構進行了優化,引入了

SimAM(Simple, Parameter -Free Attention Module)注意力機制[25]。SimAM 是一個簡單而高效的卷積神經網絡注意力機制。它不需要添加額外的參數,通過推斷特征圖的3D 注意力權重來實現。該模塊通過優化能量函數來確定每個神經元的重要性,可以方便地應用于任何網絡。

本文將該注意力機制應用在了YOLOv5 模型的Backbone 部分,添加在SPP 模塊之前,構建了YOLOv5.SAM 模型。通過注意力機制來實現特征權重的優化,增強網絡對重要特征的關注,以達到提高檢測精度的目的。

4.1 常規YOLOv5 與YOLOv5s.SAM 的對比實驗

在上文提到的數據集的基礎上,通過參數的調整使兩個模型達到了最佳的訓練效果,并對二者在同一環境下進行了測試實驗。

首先,在訓練過程中,對兩個模型的訓練時間及精度進行了記錄,評價指標與上文相同。記錄的數據如表6 所示。

表6 兩模型訓練精度對比

從表6 中可以看出,在同樣不進行預訓練的前提下,添加了SimAM 注意力機制的YOLOv5.SAM的訓練精度明顯高于常規的YOLOv5 模型,在原本模型較高的精度上實現了一個較大的提升。其中各項指標均有提高,較大的提升體現在mAP@0.5 頤0.95上,兩模型的對比曲線如圖9 所示。

圖9 兩模型mAP@0.5 頤0.95 對比圖

其次,本文采用相同的SAR 圖像對訓練好的模型進行測試,得到的效果如圖10 所示,樣本圖原圖如圖11 所示。

圖10 兩模型識別效果對比圖

圖11 樣本原圖

4.2 實驗結果對比分析

從圖11 可以看出,圖10(a)和圖10(b)所框選的兩個位置是YOLOv5 模型在檢測時存在的誤檢和漏檢情況。在圖10(a)左上角,YOLOv5 模型錯誤地將港口識別為艦船目標,產生了誤檢。在圖10(b)右下角,3 個艦船位置YOLOv5 模型僅識別出兩個目標,出現了漏檢。而改進的YOLOv5.SAM 模型在這兩處檢測難點上表現出較好的檢測性能。同時,在目標的置信度方面,YOLOv5.SAM 模型也更高,展示出了更高的精確度。

由此可見,YOLOv5.SAM 模型在密集目標和復雜環境下的誤檢率和漏檢率都低于常規的YOLOv5模型,且具有更高的精度,很好地彌補了常規YOLOv5 模型在密集目標和復雜背景下難以實現精確檢測的缺陷。

具體來說,在圖10(a)中,YOLOv5 模型把港口錯誤檢測為艦船目標,而YOLOv5.SAM 模型沒有此誤檢,表現出更高的準確率。在圖10(b)中,常規YOLOv5模型漏檢了一個艦船目標,而YOLOv5.SAM 模型檢測出全部3 個艦船目標,錯檢率和漏檢率更低。此外,YOLOv5.SAM 模型給出的置信度更高,表明其檢測結果更加精確可靠。

總體來說,YOLOv5.SAM 模型在復雜場景和密集目標檢測方面,具有更高的精度、更低的誤檢率和漏檢率,可以更好地彌補YOLOv5 模型在SAR檢測目標識別方面的不足,為SAR 艦船目標檢測提供更精確和可靠的檢測結果。

5 結 論

隨著海上交通業業務需求的不斷增加,如何對SAR 圖像中的艦船目標實現準確高效的自動識別是目前社會亟待解決的問題。針對現有的識別算法,本文對YOLO 系列算法之間及其與兩階段目標識別算法Faster R-CNN 在艦船目標識別領域從效率和精度兩方面進行了對比,并對YOLOv5s 模型進行了優化。研究成果主要包括以下幾部分。

(1)本文歸納總結了當前基于深度學習的目標檢測算法的研究現狀,并且按結構匯總了YOLOv3至v7 各部分的改進之處,從原理上說明了YOLO系列每一代算法在不斷提高效率與精度的同時都發展出了相應的獨特之處,在不同領域內各有所長。

(2)在數據集樣本選取方面,本文選取了應用廣泛且極具代表性的幾個艦船遙感圖像數據集,經過綜合對比后選定了類別單一、分辨率范圍廣并且目標尺寸多樣的SSDD 數據集作為本文數據集構建的樣本來源,通過對樣本中的艦船目標進行手動標注構建出了更適合YOLO 模型訓練的數據集。

(3)針對本實驗中的以艦船為目標的數據集識別效果而言,在YOLO 系列模型中,YOLOv3 具有更高的檢測精度,但訓練時間較長;YOLOv7 算法作為YOLO 系列的最新之作展現出了極高的訓練效率,但識別精度不高;YOLOv5 計算精度和效率的綜合效果最優。通過實驗數據的直觀對比,在艦船檢測方面,YOLO 系列算法具有較快的訓練速度和較高的訓練精度,明顯優于兩階段目標檢測方法。

(4)基于本文所建立的SAR 艦船圖像數據集的實驗結果表明,原YOLOv5 模型對密集目標的識別精度有待提升。因此本文建立了一種基于注意力機制的艦船目標識別深度學習網絡——YOLOv5.SAM,并將其與常規的YOLOv5 模型進行了對比試驗。從對比結果來看,本文提出的YOLOv5.SAM 模型在識別精度和對密集目標的檢測性能方面均實現了提升,其mAP 值達到0.79,從而證明該方法在SAR艦船目標識別方面的有效性。

基于上述結論,YOLO 方法完全可以滿足當前對于海上艦船目標識別的需求,并且可以根據對速度與精度需求的不同來選取更合適的版本。同時,在統合了注意力機制后可以更好地檢測小目標與復雜背景下的目標,具有極佳的可塑性。因此,YOLO 方法在SAR 艦船目標識別領域具有極高的研究價值與廣闊的應用前景。

目前海上艦船目標的精確識別領域仍然存在諸多亟待解決的問題,如雷達性能限制導致SAR 圖像成像質量不佳;海上惡劣的氣象條件對于圖像清晰度的干擾;SAR 圖像數據量大,質量復雜,需要進行預處理和后處理等問題。說明目前的數據來源及檢測方法仍具有較大的提升空間,以上的問題也將是日后研究的重點方向。

猜你喜歡
結構檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
《形而上學》△卷的結構和位置
哲學評論(2021年2期)2021-08-22 01:53:34
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
論結構
中華詩詞(2019年7期)2019-11-25 01:43:04
論《日出》的結構
3D打印中的模型分割與打包
主站蜘蛛池模板: a亚洲天堂| 福利视频99| 亚洲天堂免费观看| 日韩在线永久免费播放| 午夜在线不卡| 国产午夜一级淫片| 国产精品一线天| 天堂中文在线资源| 国产玖玖玖精品视频| 国产精品成人观看视频国产 | 久久中文电影| 99热这里只有精品5| 国产91精品久久| 女人18毛片一级毛片在线 | 456亚洲人成高清在线| 日韩av在线直播| 亚洲色图综合在线| 一本大道AV人久久综合| 成人福利在线观看| 午夜精品久久久久久久99热下载| 国产成人8x视频一区二区| 亚洲中文制服丝袜欧美精品| 国产微拍一区二区三区四区| 亚洲人成网址| 无码精品国产dvd在线观看9久| 欧美日韩高清| 久久久久久久97| 国产欧美视频在线观看| a级毛片免费在线观看| 国产精品极品美女自在线| 91无码人妻精品一区| 久久精品人妻中文视频| 亚洲黄网视频| 欧美视频二区| 成年女人a毛片免费视频| 99久久亚洲综合精品TS| 日韩午夜福利在线观看| 她的性爱视频| 911亚洲精品| 欧美一级特黄aaaaaa在线看片| 97精品国产高清久久久久蜜芽| 国产一区二区三区夜色| 亚洲成肉网| 国产永久免费视频m3u8| 在线观看免费黄色网址| 一级福利视频| 免费A∨中文乱码专区| 在线观看精品国产入口| 国产精品亚洲综合久久小说| 中文字幕波多野不卡一区 | 亚洲国产亚综合在线区| 精品1区2区3区| 人妻精品久久无码区| 欧美一区国产| 午夜日本永久乱码免费播放片| 国产日韩精品一区在线不卡| 欧美一区二区三区国产精品| 国产成人狂喷潮在线观看2345 | 动漫精品中文字幕无码| 欧美一区二区啪啪| 92午夜福利影院一区二区三区| 久久综合色视频| 久久国产精品夜色| 一级毛片中文字幕| 夜色爽爽影院18禁妓女影院| 国产理论最新国产精品视频| 成人午夜精品一级毛片| 丝袜国产一区| 免费精品一区二区h| 亚洲欧美精品一中文字幕| 久久伊人色| 成人欧美日韩| 久久99精品国产麻豆宅宅| 久久国产精品娇妻素人| аv天堂最新中文在线| 五月天天天色| 国产亚洲精久久久久久久91| 91年精品国产福利线观看久久 | 永久免费AⅤ无码网站在线观看| 久久精品日日躁夜夜躁欧美| 爽爽影院十八禁在线观看| 色悠久久久久久久综合网伊人|