999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于注意力機制的YOLOv5算法在跑道異物檢測中的應用

2023-04-13 11:39:52王元濟李彥冬
現代計算機 2023年3期
關鍵詞:機制特征檢測

程 擎,王元濟,李彥冬

(中國民用航空飛行學院空中交通管理學院,廣漢 618300)

0 引言

機場跑道異物(foreign object debris,FOD)是指飛行區內可能會損傷航空器、設備或威脅機場工作人員和乘客生命安全的外來物體[1]。常見的機場跑道異物包括螺絲、輪胎碎片、維修工具等,大部分的跑道異物體積微小,直徑一般不超過5 cm,卻具有強大的破壞力,嚴重影響著民航客機的飛行安全。全球民航業每年因機場跑道異物而產生的直接損失高達11 億美元[2]。目前,我國大部分現有機場的跑道異物檢測工作是靠人工完成的,由專人步行或乘車進行撒網式巡檢的方法,該模式占用跑道時間較長,效率低下,易出現漏檢;新建的樞紐型機場配備了雷達和光電復合式自動檢測系統,無需占用跑道,實時檢測效率高,但設備成本高昂,難以普及。因此,基于圖像的跑道異物檢測方法的研究成為民航領域的一個熱點。

傳統的目標檢測算法由于滑動窗口法時間冗余度高,手工設計的特征魯棒性差,其檢測速度和精度都受到了很大程度的限制。2013 年以來,人工智能得到了跨越式發展,國內外有眾多學者針對機場跑道異物檢測任務,展開了對深度學習檢測算法的研究和創新。Xu 等[3]創建了一個FOD 圖像數據集,并提出了一種基于遷移學習和主流深度卷積神經網絡(D-CNN)模型的新型FOD 識別方法。郭曉靜等[4]針對機場跑道異物的小目標特點,提出了一種以YOLOv3網絡為基礎,采用運算復雜度相對更低的Darknet-49 作為特征提取網絡的FOD 目標檢測算法,該算法有效解決了原YOLOv3存在的定位精度偏低和漏檢問題。蘭庭信等[5]設計了一種基于無人機的FOD 檢測與定位系統,采用多架無人機迂回飛行,采集機場跑道圖像,使用Faster R-CNN 算法實現對FOD 的檢測與定位。馮明寬[6]設計并實現了基于高分辨率網絡、基于IoU閾值級聯、基于全局上下文信息的三種FOD 檢測算法,在FOD3數據集上的實驗結果表明,這三種算法均顯著提升了對FOD 中小目標的檢測準確率。

上述研究表明,機場跑道異物檢測在實際生產環境中需要兼顧速度與精度,因此本文選擇了2020 年發布的高精度、高速度YOLOv5 網絡作為研究對象,在保持模型輕量化和高效率的同時,針對機場跑道異物的漏檢率高和小目標占比高的特點,對YOLOv5 網絡進行有效改進,從而實現更高精度的跑道異物檢測。

1 YOLOv5算法介紹

YOLOv5 目標檢測算法于2020 年首次發布,是 由Ultralytics LLC 團 隊 基 于YOLOv3[7]和YOLOv4[8]進行改進的目標檢測網絡。YOLOv5 提供了4 個版本(s/m/l/x),其中YOLOv5s 的模型深度和寬度均為最小,另外三種可認為在前者的基礎上進行了加深和加寬,提高了檢測精度的同時也增加了運算時間。考慮到跑道異物檢測的實時性需求,本文選擇檢測速度最快的YOLOv5s 檢測網絡作為基礎算法進行改進。如圖1所示,YOLOv5 的網絡模型可分為4 個部分,包括輸入端、主干網絡、頸部網絡和輸出端。

圖1 YOLOv5網絡結構圖

YOLOv5 網絡在輸入端采用了Mosiac 增強、自適應錨框和自適應圖片縮放等策略。輸入端相較于YOLOv4的一個創新,是采用了自適應錨框計算,即根據不同數據集的標簽,采用K-means聚類和遺傳算法自動學習,調整YOLOv5預設的錨框尺寸。

YOLOv5 采用CSPDarknet53 作為主干網絡進行特征提取,在主干網絡使用Focus 模塊、CBL 模塊、CSP 模塊和SPP 模塊。其中,Focus模塊結構是首次出現在YOLO 系列網絡中,其主要思想是通過切片操作對輸入圖片直接進行裁剪處理,在減少信息丟失的同時,提升了運算速度。

頸部網絡使用SPP+PANet 的結構,該結構可以提高網絡的多尺度預測能力。路徑聚合網絡(PANet)結構[9]由特征金字塔網絡(FPN)和金字塔特征層級(PAN)結構共同組成,兩種結構從不同的主干層對不同的檢測層進行參數聚合,完成了對高層級特征圖中豐富的語義信息和低層級特征圖中豐富的位置信息的有效融合。

YOLOv5在輸出端采用三種損失函數分別計算分類、定位和置信度損失,并通過非極大值抑制方法解決多目標和遮擋嚴重導致檢測不準確的問題,提高網絡預測的準確度。YOLOv5采用CIoU Loss作為損失函數和邊界框預測函數。

2 算法改進

本文考慮到機場跑道異物數據集的小目標占比高和背景干擾強兩種特性,在主干網絡引入了有效通道注意力機制模塊(ECA-Net)[10],并在頸部網絡使用Bi-FPN 替換PAN-Net,最后在邊界框預測部分使用EIoU Loss 更換CIoU Loss。

2.1 有效通道注意力機制模塊(ECA-Net)

計算機視覺中的注意力機制就是借鑒了人類的視覺注意機制,從圖像背景的大量信息中篩選出與目標最相關的區域,利用加權的方法強化重要特征并抑制非必要特征,從而高效捕獲目標。常見的注意力機制有通道注意力機制(SENet)、坐標注意力(CA)、卷積注意力(CBAM)和瓶頸注意力(BAM)等,其中SENet 注重使用通道注意力,CA 將位置信息嵌入到了通道注意力中,CBAM 則同時運用了通道注意力機制和空間注意力機制。

本文的主干有效通道注意力機制模塊(ECANet),該模塊是由Wang等[10]于2019年提出的一個簡單而高效的注意力模塊。ECA-Net可以簡單視為通道注意力機制(SENet)的改進,SENet 的結構如圖2 所示。通過避免SE 模塊多次降維的負面影響,以及改進低效的局部跨通道交互,設計了基于快速的一維卷積產生通道注意的ECA-Net,該模塊能夠通過增加少量的參數,而帶來明顯的性能增益,其結構如圖3所示。

圖2 通道注意力機制的結構示意圖

圖3 有效通道注意力機制模塊結構示意圖

該注意力機制模塊具備添加在YOLOv5網絡任何位置的特性,本文選擇將ECA-Net 模塊與C3模塊相結合,以提升其性能表現。

2.2 多尺度特征融合

本文在頸部網絡使用加權雙向特征金字塔網絡結構(Bi-FPN)替換PANet,以獲取更高效的多尺度融合。Bi-FPN 是谷歌公司團隊在EfficientDet[11]中提出的一種加權的雙向特征金字塔網絡,它允許簡單和快速的多尺度特征融合,其內部結構如圖4所示。傳統的特征金字塔只能進行單向的特征融合,PANe 則在此基礎上添加了一個自底向上的路徑,Bi-FPN 則更進一步地處理每個雙向路徑(自頂向下和自底而上)作為一個特征網絡層,并重復同一層多次,以實現更高層次的特征融合。

圖4 Bi-FPN結構示意圖

為了提高特征融合的效率,Bi-FPN 針對跨尺度連接,優化掉了信息貢獻量少的只有一條輸入邊的節點,從而降低了網絡的復雜程度。相比于傳統的特征金字塔平等地對待不同尺度特征的融合方式,Bi-FPN 專門引入了權重,在特征融合過程中為每個輸入添加一個額外的權重,讓網絡來學習每個輸入特征的重要性,更好地平衡不同尺度的特征信息。

2.3 損失函數

損失函數能夠反映模型和實際數據間存在的差異,YOLOv5 默認使用CIoU 函數進行邊框界預測計算,該函數的特點是不僅關注真實框與預測框的重疊區域、非重疊區域,還綜合考慮了兩框之間的重疊率、中心點距離、長寬比等關鍵因素。其計算公式如式(1)和式(2)所示。

本文使用EIoU[12]替代CIoU 作為目標框回歸的損失函數,CIoU 僅將長寬比作為影響因子,沒有考慮到真實框與預測框的長寬比相同、值不同的情形,導致與回歸目標不相符。EIoU 在此基礎上綜合考慮了長度損失和寬度損失,并且添加了Focal loss 解決樣本的類別不平衡和難度差異問題,使得目標框回歸過程中更加穩定,收斂的精度更高,其計算公式見式(3)和式(4)。

式中:b和bgt分別表示檢測框和目標框的中心點;w和h分別表示兩個框的寬度和高度;ρ表示兩個中心點間的歐式距離;c為覆蓋檢測框和目標框之間最小矩形的斜距;α是一個平衡參數,不參與梯度計算;v是用來衡量長寬比一致性的參數;γ是用來表示異常值抑制程度的參數。

3 實驗

3.1 實驗環境介紹

本文進行實驗的軟件環境采用Windows 10操作系統,使用Python編程語言,CUDA版本為11.1,Pytorch版本為1.8.0。訓練循環100次,圖片輸入尺寸為300像素。

3.2 數據集介紹

目前網絡上公開發布的機場跑道異物數據集較少,本文使用的數據集是FOD-A(FOD in airports)數據集[13],包含31 個種類,圖片總量超過3萬張。盡管該數據集的總量巨大,但其圖像內部之間存在相似度較高的問題,易導致出現泛化能力差的現象。因此本文選擇其中具有代表性、差異性的占比約10%的圖像,并且加入了500 張自制圖像,建成了一個包含3479 張跑道圖像的數據集。在原數據集基礎上,擴充了訓練樣本的豐富程度,為YOLOv5網絡模型提供了更多的特征信息,降低了過擬合現象的可能性。

3.3 評價指標

本文使用均值平均精度(mean average precision, mAP)作為模型檢測準確性能的評價指標,平均精度綜合考慮了目標檢測的精確率(precision, P),召回率(recall, R)以及平均精度(average precision,AP)。

3.4 實驗結果

圖5分別展示了改進前后檢測算法的效果實例,表1 展示了原YOLOv5s 網絡以及本文改進后的YOLOv5s 網絡在FOD-A 數據集上的檢測結果。本文改進的YOLOv5s 網絡,其均值平均檢測精度mAP@0.5 相比于原YOLOv5s 網絡提升了1.6個百分點。

圖5 檢測結果

表1 模型評價指標對比結果 單位:%

4 結語

本文針對跑道異物檢測任務,提出了一種改進的YOLOv5目標檢測算法。在主干網絡添加有效通道注意力機制模塊(ECA-Net),提高了算法提取全局特征的能力;在頸部網絡,使用Bi-FPN 模塊替換原有的PA-Net,以獲取更高效的多尺度融合;最后采用EIoU Loss 作為損失函數,加快了函數的收斂速度,提升了回歸精確度。改進后的檢測算法能夠有效避免漏檢和誤檢,提高了對跑道異物小目標的檢測能力,改進后算法的均值平均精度mAP@0.5 相比于YOLOv5 網絡提升了1.6 個百分點,滿足在機場復雜環境下對跑道異物檢測的準確性需求。

猜你喜歡
機制特征檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
自制力是一種很好的篩選機制
文苑(2018年21期)2018-11-09 01:23:06
抓住特征巧觀察
小波變換在PCB缺陷檢測中的應用
破除舊機制要分步推進
中國衛生(2015年9期)2015-11-10 03:11:12
注重機制的相互配合
中國衛生(2014年3期)2014-11-12 13:18:12
主站蜘蛛池模板: 亚洲福利片无码最新在线播放| 亚洲天堂久久新| 2020久久国产综合精品swag| 日韩无码一二三区| 国产av剧情无码精品色午夜| 欧美精品v| 精品少妇人妻av无码久久| 日韩欧美中文字幕在线韩免费| 亚洲无码视频图片| 99re在线视频观看| 日韩国产无码一区| 免费在线a视频| 亚洲AV无码一二区三区在线播放| 国产精品xxx| 二级特黄绝大片免费视频大片| 国产真实自在自线免费精品| 欧美天天干| 综合亚洲色图| 久久99国产精品成人欧美| 中国一级特黄视频| 91国内外精品自在线播放| 免费精品一区二区h| 一级片一区| 全部免费毛片免费播放 | 2021精品国产自在现线看| 国产人人射| 91精品啪在线观看国产60岁 | 亚洲精品在线观看91| 亚欧乱色视频网站大全| 免费人成视网站在线不卡| 免费A∨中文乱码专区| 日韩黄色大片免费看| 亚洲愉拍一区二区精品| 久久人人爽人人爽人人片aV东京热| 一级做a爰片久久免费| 日韩中文精品亚洲第三区| 尤物成AV人片在线观看| 国产乱子伦精品视频| 麻豆a级片| 欧美在线免费| 亚洲九九视频| 国产美女91视频| 中国一级特黄大片在线观看| 极品国产一区二区三区| 韩日无码在线不卡| 在线免费不卡视频| m男亚洲一区中文字幕| 天天摸天天操免费播放小视频| 亚洲精品免费网站| 亚洲伊人久久精品影院| 国产欧美日韩91| 午夜激情婷婷| 亚洲国产精品一区二区高清无码久久| 久久9966精品国产免费| 欧美亚洲一区二区三区在线| 四虎永久在线| 综合社区亚洲熟妇p| 国内老司机精品视频在线播出| 无遮挡一级毛片呦女视频| 国产精品久久久久久久久kt| 国产精品丝袜视频| 免费又黄又爽又猛大片午夜| 精品午夜国产福利观看| 久久国产乱子| 精品無碼一區在線觀看 | 日韩精品一区二区三区免费在线观看| 婷婷色在线视频| 精品人妻系列无码专区久久| 国产一二视频| 自偷自拍三级全三级视频| 国产99精品视频| 国产又爽又黄无遮挡免费观看| 中文字幕永久在线看| 国产色婷婷| 国产精品亚洲一区二区在线观看| 精品一區二區久久久久久久網站 | 四虎永久在线视频| 日本黄色a视频| 久久精品亚洲中文字幕乱码| 色婷婷电影网| 国产91丝袜在线播放动漫 | 乱码国产乱码精品精在线播放|