999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進YOLOv5的機場跑道異物目標檢測算法

2023-01-29 13:20:38李小軍鄧月明陳正浩
計算機工程與應用 2023年2期
關鍵詞:特征融合實驗

李小軍,鄧月明,陳正浩,何 鑫

1.湖南師范大學 信息科學與工程學院,長沙410081

2.湖南華諾星空電子技術有限公司,長沙410221

機場跑道異物(foreign object debris,FOD)主要指在機場跑道路面會對飛機安全起降帶來隱患的外來物質,包括金屬器件、碎石塊、紙制品、動植物等[1]。FOD給飛機的起飛與降落帶來嚴重的安全隱患,其在威脅乘客生命的同時,也給社會造成了不可估量的財產損失。目前,大多數機場主要采用人工目視巡場方式對跑道進行定期的檢查和清掃,該方式需要在巡查時關閉跑道,這不但降低了機場容量,而且受巡查人員自身素質和天氣條件制約,難以保證足夠的檢測率。因此,針對性能更好和效率更高的FOD探測方法的研究具有重要意義。

傳統的FOD檢測方法中,主要采用雷達探測技術和圖像處理技術實現對FOD的檢測,在雷達信號處理方向上,常采用恒虛警率(constant false-alarm rate,CFAR)檢測方法和一些檢測分類方法作為FOD檢測處理器[2-3]。文獻[4]中提出了一種基于毫米波雷達的迭代自適應(iterative adaptive approach,IAA)算法,通過對數據預處理獲得粗糙FOD目標信息,再進行融合處理,從而獲得準確的FOD目標信息。文獻[5]提出了一種毫米波監視雷達FOD自動目標檢測的綜合算法,實現在超過660 m的遠程條件下對小目標的檢測。文獻[6]針對FOD檢測中大氣擾動和系統硬件造成的系統相位漂移,提出了一種高分辨率雷達異物碎片探測系統相位漂移校正方法,有效改善探測系統的檢測性能。上述基于毫米波的FOD探測技術雖然精度高、位置準確,但毫米波雷達仍存在制造與維護成本高、目標特征信息少、信號處理復雜等問題。

隨著人工智能技術的廣泛應用以及基于深度學習與計算機視覺的目標檢測技術的發展,基于卷積神經網絡(convolutional neural network,CNN)的目標檢測算法在檢測、識別方面比傳統機器學習方法表現更優,促使許多基于CNN的FOD檢測方法被提出。Cao等人[7]提出了一種基于改進區域提議網絡(region proposal network,RPN)和基于空間變換網絡(spatial transformer network,STN)的CNN分類器來實現對FOD的檢測。蔣進等人[8]提出了一種基于Faster-RCNN的機場跑道異物識別定位系統,運用Faster-RCNN算法完成異物種類識別,再通過無人機位置信息換算求解,得到FOD的類別與位置信息。上述以Fast-RCNN[9]、Faster-RCNN[10]、Mask R-CNN[11]等為代表的基于區域候選的目標檢測算法檢測精度相對較高,但存在檢測速度慢的缺點,無法滿足實時性要求。文獻[12-13]均在YOLOv3的基礎上,優化網絡結構,解決原YOLOv3存在的定位精度偏低和漏檢問題。文獻[14]同樣在YOLOv3的基礎上,通過計算anchor、改進損失函數提高了道路小目標的檢測精度。以YOLO系列[15-16]為代表的基于回歸的目標檢測算法憑借其檢測速度快以及不錯的檢測性能在工業界得到了廣泛的應用,但該算法設計專注于對中等大小目標的檢測。考慮到FOD目標尺度小、圖像占比小,在小目標檢測方向上,YOLO算法要實現對FOD的實時精準檢測仍有挑戰。

針對以上問題,本文提出一種基于改進YOLOv5的目標檢測算法,通過添加較小目標檢測層、裁減大目標檢測層,提高較小目標檢測精度并減少網絡推理計算量;引用輕量高效的卷積注意力模塊(convolutional block attention module,CBAM),讓網絡更加關注于有用信息;采用簡單有效的RepVGG模塊,增加特征融合能力;替換邊框回歸損失函數,提高回歸速度與精度。為了驗證改進模型在FOD檢測上的性能,在自制FOD數據集上進行實驗論證。

1 YOLOv5目標檢測算法

YOLO系列算法在整個深度學習目標檢測領域的地位舉足輕重,從V1到V5,隨著版本的迭代,模型性能也越來越好。而YOLOv5作為SOTA算法,憑借其優良的檢測性能,受到了工業界廣泛的應用。

如圖1所示,YOLOv5的Backbone基于具有空間金字塔池層(spatial pyramid pooling,SPP)的跨階段局部網絡(cross stage partial network,CSPNet)構成,其中,YOLOv5借鑒CSPNet的設計思路,設計了包含3個標準卷積層以及多個Bottleneck的C3模塊,并且將其用于Backbone層和Neck層,其中Neck層的C3_1模塊即為不含殘差連接的C3模塊,C3模塊主要是對殘差特征進行學習,同時在準確性不變或者提高的基礎上可以減少網絡參數量。SPPF在SPP基礎上減少了網絡層,去除冗余運算,以更快速度進行特征融合。Neck層上YOLOv5采用特征金字塔(feature pyramid network,FPN)+路徑聚合網絡(perceptual adversarial network,PAN)結合的方式進行特征融合,其中FPN以自頂向下的方式,通過上采樣將高層特征和低層特征做融合獲得不同尺度進行預測的特征圖。PAN則是在FPN層的后面添加了一個自底向上的特征金字塔。這樣結合操作,FPN層自頂向下傳達強語義特征,而PAN則自底向上傳達強定位特征,兩兩聯手,在不同的主干層對不同的檢測層進行參數聚合。最后在Head層對small、medium、large三種尺寸目標做出預測。

圖1 YOLOv5網絡結構圖Fig.1 Network structure diagram of YOLOv5

2 改進的YOLOv5算法

針對YOLOv5對小目標檢測準確度不高、定位精度偏低和漏檢問題,對其進行了改進,改進的網絡結構如圖2所示,具體改進如下:(1)在Neck層增加P2層的融合與檢測,刪除大目標檢測層,在增加較小目標的檢測精度的同時,有效減少網絡推理計算量,提高FOD檢測速度;(2)引入輕量高效的卷積注意力模塊(CBAM),該模塊能進行自適應特征優化,讓網絡更加專注于有用的信息,提高算法檢測精度;(3)Neck層使用Repblock模塊替換原有的C3_1模塊,有效提升其特征融合的能力,其簡單的模塊設計同時也能極大提高模型推理的速度;(4)通過引入SIoU邊框損失函數來監督網絡的學習,加速網絡收斂,進一步提高回歸精度。

圖2 改進后的YOLOv5網絡結構圖Fig.2 Network structure diagram of improved YOLOv5

2.1 多尺度檢測的改進

如圖3(a)所示,YOLOv5通過FPN+PAN的方式融合P3、P4層的特征,并對P3、P4、P5層分別以8倍、16倍、32倍進行多尺度檢測,也就是在輸入圖片尺寸為640×640的情況下,P3、P4、P5分別對應生成80×80、40×40、20×20的特征圖。YOLOv5使用20×20尺寸的特征圖來檢測大目標;然后通過上采樣與拼接操作融合20×20與40×40的特征圖,將不同的語義信息以及定位信息融合,用融合后的40×40尺寸特征圖來檢測中等大小目標;最后使用相同操作將40×40與80×80的特征圖融合檢測小尺寸目標。

在目前大多數基于FPN的目標檢測器中,小目標往往是從高分辨率的特征圖中檢測出來的,而在寬闊的機場跑道背景下,FOD目標尺寸在圖像像素中占比小,原始YOLOv5使用的80×80尺寸檢測層無法完成對更小目標的精準檢測。同時鑒于小目標更容易在高分辨率特征圖中被檢測的特點,因此本文對多尺度檢測層進行了改進:如圖3(b)所示,通過upsample+concat操作融合P2層的特征,并添加對160×160特征圖的檢測頭用來檢測更小的目標,在檢測頭部應用更高分辨率的特征圖后,小目標能夠占據更多的像素,因此更容易被檢測,而不是在backbone的卷積階段“丟失”。同時,由于FOD大都為中小尺寸目標,在檢測部分裁減掉20×20尺寸的大目標檢測層,減少網絡計算推理量,加快模型推理速度。

圖3 多尺度特征融合與檢測改進圖Fig.3 Multi-scale feature fusion and detection improvement graph

2.2 引入注意力模塊

注意力機制(attention mechanism)源于對人類視覺的研究。在認知科學中,由于信息處理的瓶頸,人類會選擇性地關注全局信息的一部分,同時忽略其他可見的信息。而在計算機視覺領域,注意力機制被用來進行視覺信息處理,傳統的局部圖像特征提取、滑動窗口法等都可以看作一種注意力機制。在深度學習中,注意力模塊通常是一個獨立的模塊,通過對輸入的不同部分分配不同的權重,讓網絡更加專注于有用信息,忽略其他的不重要信息;而在廣闊的機場跑道背景下,為了實現對FOD的精準檢測,注意力模塊恰恰能夠使網絡更加專注于小目標的檢測。因此,本文引入了CBAM模塊。

CBAM模塊是一個簡單且有效的輕量級注意力模塊,可以實現端到端的訓練方式。如圖4所示,給定一張中間特征圖F∈?C×H×W作為輸入,CBAM首先通過通道注意力模塊(channel attention module,CAM),利用特征圖通道間的關系生成通道注意力圖Mc∈?C×1×1,然后與輸入特征殘差相乘,將得到的注意力圖與輸入特征圖進行自適應特征細化,同理,將經過通道自適應細化后的特征圖沿著空間注意力模塊(spatial attention module,SAM)生成空間注意力圖Ms∈?1×H×W,最后殘差相乘輸出空間自適應細化后的特征。整體注意力過程如公式(1)、(2)所示:

圖4 CBAM模塊示意圖Fig.4 Schematic diagram of CBAM module

式中,?表示加權相乘,特征F經過通道注意力模塊輸出F′,然后作為輸入經過空間注意力模塊得到最終輸出結果F″。

根據文獻[17]的實驗結果,CBAM對模型的性能有較好的提高,并證明了其在目標檢測、圖像分類任務中的有效性。相比于傳統的僅關注通道或僅關注空間的注意力機制方案,CBAM將兩者結合使用,能夠獲得更好的效果。但目前并沒有理論研究得出具體將CBAM模塊嵌入到網絡某一部分使得模型性能最佳,因此,本文在改進多尺度融合與檢測的基礎上,對Neck部分嵌入CBAM設計了兩種結構,如圖5所示,一種是在Neck層的每個C3_F模塊后嵌入CBAM模塊,生成的新模型命名為YOLOv5-P-C1,另外一種是在每個檢測層前嵌入CBAM模塊,命名為YOLOv5-P-C2。

圖5 YOLOv5+CBAM網絡結構示意圖Fig.5 Schematic diagram of YOLOv5+CBAM network structure

2.3 引入RepVGG模塊

RepVGG模塊是由文獻[18]中提出的一種由3×3 Conv和ReLU組成的簡單體系結構,特別適用于GPU和專用推理芯片。如圖6所示,RepVGG模塊受ResNet的啟發,應用了結構重參數化方法,該方法在訓練期間將一個模塊拆分為多個相同或不同的模塊分支,并在推理期間將多個分支模塊集成為完全等效的模塊。ResNet中,該模塊顯式構造快捷分支,將信息流建模為y=x+f(x),使用殘差方式學習f;當x與f(x)的通道數不匹配時,將其變為y=g(x)+f(x),其中,g(x)為一個1×1的卷積,通過該卷積將殘差部分通道數與f(x)相匹配,ResNet的成功解釋了該方法對模型性能有較好的提升。RepVGG則借鑒該方法,將信息流建模為y=x+g(x)+f(x),由于多分支架構在推理上存在缺陷,RepVGG僅在訓練階段簡單地堆疊上述塊構造訓練模塊。而在推理階段,通過重參數化方法RepVGG將訓練好的塊轉換到單個3×3卷積上進行推理。該模塊在硬件上達到高效推理的同時,能夠保持較好的多尺度特征融合能力。

圖6 RepVGG模塊示意圖Fig.6 Schematic diagram of RepVGG module

YOLOv5在neck層使用不帶殘差連接的C3_F模塊,其在特征融合方面具有一定局限性,因此本文通過堆疊n個RepVGG塊組成RepBlock模塊,使用RepBlock模塊替換C3_F模塊,該模塊極大提升網絡的多尺度特征融合能力,同時能有效提高推理速度。為了得到效果提升最優的RepBlock模塊,本文設計了三種RepBlock模塊:RepBlock_1、RepBlock_2、RepBlock_3,結構如圖7所示。

圖7 RepBlock模塊示意圖Fig.7 Schematic diagram of RepBlock module

2.4 損失函數改進

損失函數是衡量模型預測結果的準確性的一種方法。YOLOv5使用CIoU Loss作為Bounding box的損失函數,同時采用Logits損失函數和二進制交叉熵(BCE)分別計算目標得分和類概率的損失。其中CIoU計算方法如公式(3)、(4)所示:

式中,IoU表示真實框與預測框交并比,ρ2(b,bgt)表示求預測框與地面真值框中心點之間的歐式距離,c表示預測框與地面真值框的最小包圍框的最短對角線長度,a為正平衡參數,v表示預測框與地面真值框長寬比的一致性,a與v的計算方法如公式(5)、(6)所示:

式中,wgt、hgt和w、h分別表示地面真值框與預測框的寬度與高度。

CIoU Loss綜合考慮覆蓋面積、中心點距離和長寬比,能夠很好衡量其相對位置,同時能夠解決預測框的水平與垂直方向優化的問題,但是該方法并沒有考慮預測框與目標框之間方向的匹配性,這種不足導致收斂速度較慢。針對以上問題,本文采用SIoU Loss[19]損失函數替換CIoU Loss損失函數。SIoU計算方法如公式(7)、(8)所示:

式中,B、BGT表示預測框與真值框,Ω表示形狀成本,Δ表示考慮角度成本后,重新定義的距離成本,Ω、Δ公式定義為:

SIoU通過引入了所需回歸之間的向量角度,重新定義了距離損失,有效降低了回歸的自由度,加快網絡收斂,進一步提升了回歸精度。因此,本文將SIoU Loss作為邊框回歸的損失函數。

3 實驗與結果分析

3.1 數據集制作

目前,國內外沒有公開的FOD數據集,為了驗證本文改進的目標檢測算法的檢測性能,本文采用自制的FOD數據集。為了完成各種復雜場景、極端天氣條件下的FOD檢測任務,數據集應包含不同距離、不同光照條件、不同天氣氣候條件下的FOD圖像,本文通過在國內某機場跑道上放置不同距離的FOD樣本,然后使用高精度、高分辨率攝像機采集在不同光照條件下(正午、黃昏等不同時間段下)、不同聚焦下的視頻圖像,將采集到的視頻切片處理成圖片,通過使用ImageLabeler標注軟件對每張圖片上的FOD進行標注,得到最終的FOD數據集。本文采用的FOD樣本由螺絲、圓柱、金屬球組成,部分FOD數據集圖片樣本如圖8所示。

圖8 FOD數據集展示Fig.8 FOD dataset display

本文一共采集并制作了5 578張FOD數據集,并以8∶1∶1的比例將數據集隨機劃分為訓練集、驗證集與測試集,劃分后的具體圖像張數如表1所示。

表1 FOD數據集劃分Table 1 FOD dataset partition

現階段大部分目標檢測算法更適用于中等大小目標,對小目標檢測存在檢測精度不高的問題。COCO數據集依據目標占圖像像素的多少將目標尺寸劃分為small、medium、large三類,具體分類如表2。

表2 目標尺寸圖Table 2 Target size chart

根據COCO目標尺寸分類,FOD目標尺寸在12~42像素之間,且大多為small類別。圖9為FOD數據集標簽大小分布圖,其中,橫坐標與縱坐標分別表示標簽框的寬度與高度。由圖可知,大部分FOD目標聚集在圖中左下角,進一步說明FOD數據集目標尺寸是以小目標為主,與FOD在相機中成像尺寸相符。因此,本文提出的針對YOLOv5在小目標檢測性能方向上進行改進與優化與問題契合。

圖9 FOD數據集標簽分布圖Fig.9 FOD dataset label distribution map

3.2 實驗環境與評估指標

本文的實驗環境為,CPU:Intel?Xeon?W-2102 CPU@2.90 GHz×4,運行內存64 GB,GPU為:GeForce RTX 2080Ti,顯存11 GB,操作系統為:64位Ubuntu18.04.3 LTS,PyTorch深度學習框架,CUDA版本為10.1。本文主要以mAP50、計算量(GFLOPs)、參數量、檢測速度(FPS)作為模型性能評估指標,其中mAP50表示IoU閾值為0.5時的平均檢測精度,GFLOPs則代表每秒10億次的浮點運算數,用于衡量訓練模型所需的計算量,參數量衡量模型對內存資源的消耗量,FPS是指目標檢測網絡每秒可以處理多少張圖片,用于衡量模型檢測速度。

3.3 模型訓練

本文選擇YOLOv5m作為FOD目標檢測的原始模型,訓練配置如下:輸入尺寸為640×640,epoch設置為500,batch_size為16,采用mosaic數據增強,為了得到最優的檢測性能,本文采用K-means聚類算法對自制FOD數據集目標框進行聚類,得到適合的anchor尺寸。

3.4 多尺度融合與檢測改進對比實驗

為了驗證多尺度融合與檢測改進的有效性,本文在YOLOv5m的基礎上,對多尺度融合與檢測進行改進,改進后的算法命名為YOLOv5-P,如圖3所示,即增加P2層的融合與檢測的同時,裁減P5層的檢測,最終輸出對P2、P3、P4的檢測。本文采用對比實驗,在FOD數據集上分別對兩種算法進行實驗對比,實驗結果如表3所示。

表3 多尺度融合與檢測改進驗證實驗Table 3 Multi-scale fusion and detection improvement verification experiment

由表3可知,在檢測速度下降10 FPS、計算量增加4.2 GFLOPs的情況下,檢測精度提升了2.17%,同時參數量少了4.3×106。該對比實驗驗證了多尺度融合與檢測改進的有效性,增加高分辨率特征圖的檢測在降低推理速度的情況下,有效提升FOD的檢測精度,同時,裁減P5檢測層,減少了網絡推理計算量。

3.5 注意力模塊對比實驗

為了驗證CBAM模塊對FOD目標檢測算法的有效性以及探究該模塊的最佳嵌入方式,本文在3.4節的基礎上,對兩種嵌入方式進行對比實驗,如圖5所示,其中YOLOv5-P-C1是在Neck層的C3_1模塊后均嵌入CBAM模塊,YOLOv5-P-C2則僅在檢測前嵌入CBAM模塊,實驗結果如表4所示。

表4 注意力模塊驗證實驗Table 4 Attention module verification experiment

表4中YOLOv5-P-C1、YOLOv5-P-C2與YOLOv5m-P對比可得,在參數量與計算量沒有很大變化的情況下,引入CBAM模塊使得模型檢測精度均有提升,其中,YOLOv5-P-C1的mAP提升了0.03個百分點,YOLOv5-P-C2的mAP提升了0.19個百分點。該數據證明引入CBAM模塊能夠提高算法的檢測精度,讓網絡更加專注于有用的信息。而兩種嵌入方式的結果對比可知,YOLOv5-P-C2的網絡檢測精度的提升更高,且檢測速度優于前者。因此,最終的改進算法選擇第二種CBAM嵌入方式。為了進一步驗證CBAM模塊的有效性,本文在YOLOv5-P的基礎上分別引入SE[20]、ECA[21]、CA[22]注意力模塊與第二種CBAM嵌入方式進行橫向對比實驗,并采用mAP50、FPS作為評價指標,實驗結果如表5所示。

表5 注意力模塊橫向對比實驗Table 5 Lateral comparison experiment of attention module

由表5注意力模塊橫向對比實驗可得,引入的注意力模塊對FOD的檢測精度均有提升,其中,SE、ECA、CA分別提升了0.12、0.15、0.18個百分點的檢測精度,而CBAM檢測精度提升最大,達到了94.59%;對比檢測速度,引入注意力模塊均有一定程度的降低,但引入CBAM的模型檢測速度損失最少。綜上所述,本文提出的在檢測層前引入CBAM模塊相比于其他注意力模塊對FOD檢測性能提升更優。

3.6 RepVGG模塊對比實驗

為了驗證RepVGG模塊的引入對模型檢測效果提升的有效性,如圖7所示,本文通過堆疊不同數量的RepVGG設 計 三 種RepBlock模 塊:RepBlock_1、RepBlock_2、RepBlock_3,并采用該模塊替換原始模塊C3_1,提出三種算法模型:YOLOv5-R1、YOLOv5-R2、YOLOv5-R3。對三種算法模型與原始算法YOLOv5m在FOD數據集上進行對比實驗,結果如表6所示。

表6 RepBlock模塊驗證實驗Table 6 RepBlock module verification experiment

對比表6中不同算法模型的實驗結果,可以證明引入RepBlock模塊對模型性能提升的有效性,具體分析為:YOLOv5-R1相較于YOLOv5m,檢測精度提高了1.04個百分點,檢測速度提升了14 FPS;YOLOv5-R2相較于其他算法,雖然檢測速度略低于YOLOv5-R3和YOLOv5m,但檢測精度提升最大,比YOLOv5m高1.47個百分點;YOLOv5-R3檢測精度提升了1.37個百分點,但檢測速度僅有85 FPS。從表5中三種改進算法實驗結果可知,引入單個RepVGG模塊,既能提升檢測精度又加快了檢測速度,說明RepBlock模塊的優越性;引入兩個RepVGG模塊,檢測精度進一步提升,而隨著參數量的增加推理速度降低,引入三個RepVGG模塊的實驗結果可以說明,網絡層數過深導致模型檢測精度與速度降低。其中,RepBlock_2模塊對模型檢測精度提升最大,因此本文選擇該模塊進行算法改進。

3.7 損失函數對比實驗

為了驗證本文提出的改進損失函數的有效性,將本文采用的損失函數SIoU與原始損失函數CIoU進行對比實驗,對比實驗結果如表7所示。

表7 損失函數驗證實驗Table 7 Loss function verification experiment

在表7實驗中,通過僅替換算法中的損失函數,對兩種損失函數CIoU Loss、SIoU Loss進行橫向對比實驗,epoch設置為500,并采用mAP、FPS作為評價指標。從表中結果可以明顯看出SIoU Loss相比于CIoU Loss,在檢測速度基本保持不變的條件下,模型檢測精度提升了0.35個百分點,該實驗證明了SIoU損失函數的優越性,對模型性能提升更高。圖10為損失函數訓練時檢測精度對比圖,由圖可以看出SIoU Loss前230個epoch精度低于CIoU Loss,后面的批次的檢測精度均優于CIoU,且最佳的mAP優于CIoU,進一步證明引入SIoU的有效性。

圖10 損失函數訓練時mAP對比圖Fig.10 mAP comparison chart during loss function training

3.8 消融實驗

為了驗證本文提出的改進算法的有效性,在前四節基礎上對各個模塊進行消融實驗。首先在原算法YOLOv5m的基礎上改進多尺度融合與檢測(P),即對P2~P4特征圖進行檢測;其次在每個特征檢測層前引入CBAM模塊;然后在3.6節對比實驗基礎上,采用RepBlock_2模塊替換C3_1模塊;最后,采用SIoU Loss替換CIoU Loss作為損失函數,生成最終的改進算法模型,與原始算法YOLOv5m進行對比實驗。采用mAP50、mAP50:95、FPS作為評價指標,其中,mAP50:95表示計算從0.5~0.95的10個閾值下的檢測精度平均值。對比實驗結果如表8所示。

表8實驗結果可以看出,相比于序號1(原始YOLOv5m),序號2改進多尺度融合與檢測部分,檢測精度(mAP50)提升2.17個百分點,說明多尺度融合與檢測改進的有效性;在序號2的基礎上引入CBAM模塊,雖然檢測速度降至70 FPS,但mAP50提升了2.36個百分點,證明了引入CBAM的有效性;序號4表示在前者基礎上采用RepBlock模塊替換C3_1模塊,與YOLOv5m相比檢測精度提升了2.48個百分點,同時,檢測速度比序號3提升了9 FPS,證明RepBlock在提升檢測速度與精度上的有效性;最后,序號5表示采用SIoU Loss作為回歸損失函數形成的最終改進模型,與序號4相比檢測速度沒有降低,檢測精度達到了95.01%、相比于序號1提升了2.78個百分點,證明了SIoU對模型性能提升的優越性。上述實驗數據分析證明本文提出的改進算法在FOD檢測上的有效性與優越性。

表8 消融實驗Table 8 Ablation experiment

圖11為改進后的算法與原算法訓練時的mAP對比圖,由圖可以明顯看出,最終的改進模型檢測精度優于原始YOLOv5m,且有極大的提升,取得了更好的檢測效果。

圖11 改進后算法與原算法訓練時mAP對比圖Fig.11 Comparison of mAP between improved algorithm and original algorithm during training

3.9 主流算法對比實驗

為了驗證本文提出的改進算法相比于主流目標檢測算法的優越性,將本文改進算法與RetinaNet[23]、

Cascade R-CNN[24]、FCOS[25]、Faster R-CNN、YOLOv5m、YOLOv4、YOLOX[26]、YOLOR[27]等主流目標檢測算法在相同條件下進行對比實驗,并均采用640×640的圖片輸入尺寸,實驗結果如表9所示。

通過對比表9各項參數可得,相較于其他主流目標檢測算法,本文所提改進算法具有最高的檢測精度。相較于Faster R-CNN、Cascade R-CNN等兩階段主流目標檢測算法以及RetinaNet經典目標檢測算法,本文改進算法在檢測精度與檢測速度上優勢明顯;與原始算法YOLOv5m,本文所提改進算法在損失一定檢測速度的情況下,檢測精度提升了2.78個百分點;YOLOv4在圖片輸入尺寸640×640的情況下,實現了92.9%的檢測精度,而本文所提改進算法檢測精度比YOLOv4高2.11個百分點,同時檢測速度提升了38 FPS;相比于基于Anchor-free的FCOS與YOLOX,本文所提算法檢測精度分別提升了11.4與2.21個百分點,檢測速度分別提升了46 FPS、26 FPS;YOLOR在FOD數據集上檢測精度達到了93.26%,比YOLOv5m高1.03個百分點,但檢測速度僅有36 FPS,而本文提出的改進目標檢測算法在FOD數據集上檢測精度達到了95.01%,檢測速度達到了79 FPS,比YOLOR分別高1.75個百分點、43 FPS。綜上所述,本文改進算法相比于主流目標檢測算法,檢測精度優勢明顯,且具有較快的檢測速度,證明了本文所提改進算法的優越性。

表9 主流算法對比實驗Table 9 Mainstream algorithm comparison experiment

4 結論

本文針對機場跑道異物檢測問題,提出了一種基于改進YOLOv5的目標檢測算法。該算法意在解決在機場跑道寬闊、FOD目標圖像占比小的情況下檢測精度低的問題,以YOLOv5m為基礎,改進多尺度融合與檢測,有效提高較小目標檢測精度;引入輕量高效的CBAM注意力模塊,增強網絡關注目標特征的能力;采用RepVGG模塊替換C3_1模塊,優化特征融合的能力,有效提高檢測精度與檢測速度;采用SIoU Loss損失函數作為損失函數,加速模型收斂速度并提升檢測精度。同時,在自制的FOD數據集上進行對比實驗可得,本文提出的改進算法在保證實時檢測的前提下,檢測精度達到了95.01%,提升了2.78個百分點,實現了減少FOD目標漏檢、誤檢的目的,與主流目標檢測算法相比,本文改進算法更具有優越性。

猜你喜歡
特征融合實驗
記一次有趣的實驗
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
NO與NO2相互轉化實驗的改進
主站蜘蛛池模板: 欧美第一页在线| 97人妻精品专区久久久久| www.亚洲一区二区三区| 亚洲无码四虎黄色网站| 韩日免费小视频| 成人免费黄色小视频| 无码网站免费观看| 怡红院美国分院一区二区| 国产丝袜啪啪| 日韩视频免费| 欧美在线伊人| 色欲综合久久中文字幕网| 日本人妻丰满熟妇区| 中日无码在线观看| 一区二区在线视频免费观看| 999精品视频在线| 欧美性猛交xxxx乱大交极品| 国产SUV精品一区二区6| 精品一区二区三区自慰喷水| 国产午夜不卡| 欧美日本视频在线观看| 三区在线视频| 欧美日韩v| 国产成人做受免费视频| 免费不卡视频| 国产免费羞羞视频| 日本高清有码人妻| 手机成人午夜在线视频| 成人另类稀缺在线观看| 亚洲成a∧人片在线观看无码| 久久久久无码精品国产免费| 好吊色国产欧美日韩免费观看| 一级片免费网站| 在线观看无码a∨| 毛片网站免费在线观看| 免费人欧美成又黄又爽的视频| 免费看av在线网站网址| 香港一级毛片免费看| 在线播放国产99re| 色视频国产| 国产一区二区三区免费观看 | 国产99欧美精品久久精品久久| 大陆精大陆国产国语精品1024| 精品国产电影久久九九| 亚洲色欲色欲www网| 手机精品福利在线观看| 9啪在线视频| 中文国产成人精品久久| 免费福利视频网站| 亚洲一级毛片在线观播放| 欧美精品一二三区| 日本国产在线| 伊人国产无码高清视频| 国产成人你懂的在线观看| 99久久国产精品无码| 免费一级成人毛片| 国产一区二区人大臿蕉香蕉| 亚洲日韩国产精品综合在线观看| 日韩免费毛片| 亚洲AⅤ永久无码精品毛片| 欧美成人精品在线| 丰满人妻中出白浆| 色婷婷综合激情视频免费看| 99热6这里只有精品| 国产美女自慰在线观看| 免费啪啪网址| 国产高清在线丝袜精品一区| 国产精品va免费视频| 在线a网站| 国产91丝袜在线观看| 激情综合五月网| 精品久久久久久久久久久| 2020国产精品视频| 四虎成人免费毛片| 日本国产精品一区久久久| 经典三级久久| 99er这里只有精品| 54pao国产成人免费视频| 97影院午夜在线观看视频| 国产国语一级毛片| 中文字幕在线视频免费| 亚洲国产精品无码久久一线|