999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向小目標的改進YOLOv8安全帽檢測算法

2025-04-20 00:00:00程翔宇楊碩徐森
物聯(lián)網技術 2025年8期

摘 要:現如今小目標安全帽檢測算法存在如檢測精度較低以及漏檢等問題,為解決上述問題,提出一種改進的YOLOv8算法。首先,在C2f中引入一種空間選擇核機制(LSKBlock),提高對小目標的檢測精度。其次,在主干網絡中添加ECA高效通道注意力機制,從而提高檢測精度。再次,在Head模塊中添加小目標檢測頭,提高模型對多尺度目標的檢測精度。最后,將原模型的CIoU改為動態(tài)非單調聚焦機制Wise-IoU,提高模型的泛化能力。實驗結果表明,與原YOLOv8模型相比,改進后的YOLOv8模型的精確度、召回率、平均檢測精度分別達到了89.4%、78.3%、87.1%,相比原模型分別提高了1.0、3.7、3.5個百分點。

關鍵詞:安全帽;YOLOv8;LSKBlock;注意力機制;CIoU;Wise-IoU

中圖分類號:TP391.4 文獻標識碼:A 文章編號:2095-1302(2025)08-00-06

0 引 言

安全帽是工地工人的重要防護工具。然而現實是,很多工人缺乏佩戴安全帽的意識,導致工地上安全事故頻

發(fā)[1]。傳統(tǒng)研究都是通過人工提取圖像特征來檢測安全帽,文獻[2]采用HOG對工人進行檢測,然后利用基于顏色的方法和圓霍夫變換完成安全帽檢測。文獻[3]將工人與安全帽的空間信息進行匹配,依據特征中的關鍵點判斷工人是否配佩戴安全帽。

二階段目標檢測作為目標檢測中的經典算法之一,主要包括R-CNN[4]、Faster R-CNN[5]等算法。2014年,文獻[4-5]設計了R-CNN單階段目標檢測算法,通過候選框實現物體檢測,并且以人工設計特征的形式促進卷積神經網絡在物體檢測方面迅速發(fā)展。文獻[6]研究了一種基于Faster R-CNN的自動非安全帽檢測器,精度極高。文獻[7]利用Retinex圖像增強技術提高圖像質量。網絡中引入k-means++算法來聚類圖像中頭盔的尺寸,然后使用Faster R-CNN檢測頭盔佩戴情況。文獻[8]通過比較幾種目標檢測算法的原理和性能,發(fā)現Faster R-CNN對于大規(guī)模目標檢測具有較高的精度。

單階段目標檢測結構簡單且快速,只需提取一次特征便能完成對物體的分類以及位置預測。文獻[9]使用自制的數據集在不同版本的YOLO上實現了對六類物體的檢測。文獻[10]提出了一種基于深度學習的方法,以較高的檢測速度來實現安全帽是否佩戴的檢測。文獻[11]為了提高對遮擋以及小目標物體的檢測速度和檢測精度,將YOLOv5模型作為基礎模型,提出了一種高效的檢測器模型。文獻[12]研究了一種改進的SSD模型來提高對小目標的檢測精度,此算法中包含一種新的聚合框架且傳播能力更強。文獻[13]研究了一種改進的YOLOv4安全帽檢測算法(SMD-YOLOv4),此算法在一定的網絡推理速度以及復雜環(huán)境下能夠有效獲取更多目標特征。文獻[14]將cordatt協(xié)調注意力機制加入YOLOv5骨干網絡中,以增強對小目標的特征提取。文獻[15]以YOLOv7-tiny為基礎模型,提出了參數量更少的tiny-BiFPN,該模型對于多尺度目標的檢測有較好的效果,但是在目標復雜場景下以及小目標等場景下的檢測還不夠精確。

1 YOLOv8算法與改進后的YOLOv8算法

YOLOv8算法由Ultralytics公司發(fā)布。YOLOv8算法相較于之前的YOLO版本在網絡模型的精化下檢測精度也有所提升。YOLOv8網絡有5個版本,分別為YOLOv8n、YOLOv8s、YOLOv8m、YOLOv8l和YOLOv8x,本文采用YOLOv8n作為基礎模型。

改進后的YOLOv8n網絡結構如圖1所示。改進后的模型在C2f模塊中添加了一種空間選擇核機制(LSKBlock)[16],從而有效提升了對小目標的特征提取能力;其次在backbone最后一層添加了ECA[17]注意力機制來增強特征提取的能力,并在Head部分增加了小目標檢測頭;最后將原模型的損失函數CIoU替換為Wise-IoU[18]損失函數。

1.1 C2f-LSKBlock結構

2023年南開大學在ICCV會議上提出了LSKNet (Large Selective Kernel Network)。目前的網絡對于復雜場景以及小目標的特征提取能力有限,對于小目標的圖像特征捕捉能力不盡人意。LSKNet中存在一種大內核選擇子塊(LK Selection),將LSK模塊嵌入LK Selection中(LK Selection中包括一系列大核卷積和一個空間核選擇機制)。本文將LSKNet中的空間核選擇機制添加到YOLOv8網絡中的C2f模塊,形成C2f-LSKBlock,如圖2所示。

1.2 增加小目標檢測頭

YOLOv8中的Head網絡包含三個目標檢測頭,輸入到檢測頭的特征圖尺寸由小到大分別為20×20、40×40、80×80,對應的檢測頭用來檢測32×32像素、16×16像素、8×8像素的目標。但是在安全帽檢測過程中存在小目標,導致網絡在檢測過程中將小目標特征圖當作背景圖,造成漏檢。因此將Backbone網絡中輸出尺寸為160×160的特征圖與Neck網絡中尺寸為80×80的特征圖采樣后進行Concat操作,從而得到一個特征圖為160×160,檢測圖尺寸為4×4像素的小目標檢測頭。

1.3 ECA注意力機制

ECA(Efficient Channel Attention)注意力機制通過SENet改進而成,但SENet在收到特征圖后,單個通道進行了平均池化、全連接層、Sigmoid激活操作后,導致在進行全連接層降維操作時會對渠道注意力預測產生副作用,并且導致網絡計算量增大。

ECA模塊如圖3所示。為兼顧通道維度完整性與跨通道交互特征捕獲,本文引入ECA注意力機制。其實現流程為:首先采用通道全局平均池化進行特征聚合,保持原始通道維度;其次動態(tài)確定一維卷積核尺寸K,實施輕量級一維卷積運算;最終通過Sigmoid激活函數生成通道注意力權重。該機制在僅增加少量可學習參數的情況下,實現了檢測精度的顯著提升。

1.4 Wise-IoU(WIoU)損失函數

損失函數對于網絡檢測性能也起到了關鍵性作用。在訓練過程中,通過計算預測值與真實值之間的差異使下一次迭代可有效優(yōu)化。

YOLOv8原模型采用CIoU損失函數對Bbox的中心點以及寬高進行回歸,CIoU損失函數公式如下:

式中:IoU(Intersection Over Union)為交并比,是指預測框與真實框相交部分的面積與合并部分的面積之比;b和bgt分別表示預測框與真實框的中心點;ρ2(b, bgt)表示b和bgt之間的距離,即預測框與真實框中心點的距離;c為包含預測框與真實框的最小區(qū)域的對角線距離;α為權重函數;v為度量長寬比。

由于本文數據集中包含自制數據集,所以CIoU可能會存在長寬比的引入問題,從而降低模型的泛化能力。

基于此,本文采用WIoU替換CIoU,WIoU采用動態(tài)非單調的聚焦機制評價錨框質量。WIoU原理如圖4所示。

2 實驗設計與結果分析

2.1 數據集準備

大部分研究者都采用Safety Helmet Wearing Dataset(SHWD)[19-20]數據集進行安全帽佩戴檢測,SHWD數據集中僅包含兩種分類,即佩戴安全帽、未佩戴安全帽。但是在實際情況中,人們經常會將安全帽置于不同位置。

基于以上情況,為了區(qū)分場景中安全帽的不同佩戴狀態(tài)。本實驗數據集由公共數據集加自制數據集組成,自制數據集的獲取采用視頻逐幀截取的方式,標注工具為Labelimg,數據集保存為YOLO格式,標簽為txt格式。數據集共有3 000張,

其中自制數據集有300張,包含helmet、head、head with helmet、person with helmet、face、person no helmet 6個類型,將數據集按7∶1.5∶1.5分為訓練集、測試集、驗證集。

2.2 實驗環(huán)境

實驗環(huán)境配置為12核CPU,采用RTX2080ti顯卡,11 GB顯存。深度學習框架為PyTroch1.10.0,CUDA 11.3 Python 3.8。在實驗過程中,初始學習率設為0.01,動量因子為0.937,權重衰減因子為0.000 5。batch size設為16,epoch設為150,圖像預處理時的尺寸為640×640。

2.3 評價指標

2.4 消融實驗

在原YOLOv8模型的基礎上進行消融實驗,通過消融實驗了解各模塊對模型精度提升的效果。此改進模型共包括4大部分,即C2f-LSKBlock、ECA、小目標層檢測頭、WIoU。由表1可知,本實驗主要采用精確度(P)、召回率(R)、mAP@0.5以及mAP@0.5:0.9作為評估指標。在相同配置環(huán)境下,對每個模塊進行消融實驗,共進行了8類實驗。P、R、mAP@0.5、mAP@0.5:0.9分別提升了1.0、3.7、3.5、1.9個百分點。

2.5 對比實驗

本文的模塊對比實驗包括添加小目標檢測頭對比、注意力機制對比、ECA和C2f-LSKBlock結合情況與CBAM注意力機制進行對比、損失函數對比、WIoU損失函數版本(v1、v2、v3)對比。

添加小目標檢測頭以及不添加小目標檢測頭實驗效果對比見表2。

通過添加小目標檢測頭可知,P、mAP指標分別提升了0.1、3.3個百分點,其中mAP得到大幅度提升。顯而易見,在Head模塊添加小目標檢測頭可大幅度提升小目標物體的檢測精度。

為了驗證ECA注意力機制在模型性能方面的提升效果,本文將SimAM、SE、CBAM、ECA四種注意力機制進行效果對比,對比結果見表3。

由表3可知,在分別添加了四種注意力機制之后,相比未添加小目標檢測頭的情況,mAP分別提升了0.2、0.3、0.3、0.6個百分點,這說明在骨干網絡中引入注意力機制有助于檢測精度的提升,其中ECA注意力機制在安全帽檢測中更有優(yōu)勢。

CBAM注意力機制結合通道與空間結構對特征進行監(jiān)督,ECA注意力機制針對通道方式監(jiān)督特征信息,本文應用的C2f-LSKBlock結構中的LSKBlock針對空間方面實現信息提取。實驗結果見表4。

由表4可知,ECA+C2f-LSKBlock模塊效果優(yōu)于CBAM注意力機制。實驗對比了CIoU、GIoU、SIoU、DIoU、WIoU五種損失函數在本數據集上的性能,實驗結果見表5。

通過不同的損失函數對比實驗可知,WIoU模塊的效果遠遠優(yōu)于其他四種損失函數。WIoU(v1、v2、v3)三個版本的實驗數據對比見表6。

由表6可知,v1版本與v2版本在此實驗中的精確度低于v3版本,基于此實驗結果可知,v3版本更適合小目標安全帽檢測。

為了驗證本文算法在安全帽檢測任務中的有效性,將本文算法與一些主流算法進行對比實驗,實驗結果見表7。由表7內數據可知,本文改進的模型在精確度(P)方面最高;召回率(R)卻低于YOLOv7-tiny以及YOLOv8s;在平均精確度(mAP)方面,與YOLOv8s算法同為87.1%,優(yōu)于其他三種算法;參數量遠遠低于YOLOv5s、YOLOv7-tiny、YOLOv8s算法;計算量比原模型高出4.6,但是mAP卻比原模型高了3.5個百分點,在犧牲了較小計算量的基礎上,精確度得到了較大提高。

2.6 模型改進前后檢測對比

為了更好地驗證改進后模型的檢測效果,本實驗采用數據集中部分圖像進行測試。對比圖5(b),發(fā)現兩個工人的倒影未被檢測到。對比圖5(c),發(fā)現工人在燈光照射情況下,原模型存在漏檢情況。但是在改進模型中可以發(fā)現,圖5(b)、圖5(c)中漏檢的目標被檢測出來了。對比圖5(a),遠距離小目標的檢測精度在改進后的模型中有大幅提升。由三組對比圖可知,改進后的模型對小目標檢測準確率更高,檢測效果也更好。

3 結 語

基于工地安全帽佩戴問題,本文充分驗證了改進的YOLOv8n模型在檢測小目標安全帽的準確性方面有較大提升。在Backbone網絡的C2f結構中加入空間選擇核機制(LSKBlock),有效提升了對小目標的檢測性能。為了提升特征提取的準確性,Neck網絡結構引入的ECA注意力機制,有利于關鍵特征的提取。YOLOv8模型的Head網絡部分添加了一種檢測4×4像素的檢測頭,模型的檢測性能得到了充分提升。最后將原模型的CIoU替換為WIoU,以此來平衡樣本之間的差異,從而提高模型的泛化能力。與原YOLOv8相比,本文改進模型的mAP@0.5提升了3.5個百分點,mAP@0.5:0.9提升了1.9個百分點。

參考文獻

[1]仇昕. 建筑安全事故發(fā)生原因分析及控制措施[J].建筑與預算,2022(5):37-39.

[2] RUBAIYAT A H M, TAIJIN T T, MASOUMEH K K, et al. Automatic detection of helmet uses for construction safety [C]// 2016 IEEE/WIC/ACM International Conference on Web Intelligence Workshops (WIW). Omaha, NE, USA: IEEE, 2016: 135-142.

[3] MNEYMNEH B E, ABBAS M, KHOURY H. Vision-based framework for intelligent monitoring of hardhat wearing on construction sites [J]. Journal of computing in civil engineering, 2019, 33(2): 04018066.

[4] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]// 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA: IEEE, 2014: 580-587.

[5] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards realtime object detection with region proposal networks [J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 39(6): 1137-1149.

[6] FANG Q, LI H, LUO X, et al. Detecting non-hardhat-use by a deep learning method from far-field surveillance videos [J]. Automat construct, 2018, 85: 1-9.

[7] CHEN S, TANG W, JI T, et al. Detection of safety helmet wearing based on improved faster R-CNN [C]// 2023 International Joint Conference on Neural Networks (IJCNN). Gold Coast, Australia: IEEE, 2023: 18-23.

[8] FAN Z, PENG C, DAI L, et al. A deep learning-based ensemble method for helmet-wearing detection [J]. PeerJ computer science, 2020(12): 311.

[9] WANG Z, WU Y, YANG L, et al. Fast personal protective equipment detection for real construction sites using deep learning approaches [J].Sensors, 2021, 21(10): 3478.

[10] HAN K, ZENG X. Deep learning-based workers safety helmet wearing detection on construction sites using multi-scale features [J]. in IEEE access, 2022, 10: 718-729.

[11] LI Y, ZHANG J, HU Y, et al. Real-time safety helmet-wearing detection based on improved yolov5 [J]. Computer systems science and engineering, 2022, 43(3): 1219-1230.

[12] WU J, CAI N, CHEN W, et al. (2019) Automatic detection of hardhats worn by construction personnel: a deep learning approach and benchmark dataset [J]. Automation in construction, 2019, 106: 102894.

[13] YANG B, WANG J. Improved YOLOv4 helmet detection algorithm in complex scenarios [J]. International journal of foundations of computer science, 2022, 33(6): 887-902.

[14] REN Q, ZHU H, CHEN C, et al. Safety helmet wearing detection based on improved YOLOv5s algorithm [J]. Engineering, computer science, 2023, 59(2): 194-201.

[15]趙敏,楊國亮,王吉祥,等.改進YOLOv7-tiny的安全帽實時檢測算法[J]. 無線電工程,2023,53(8):1741-1749.

[16] LI, Y X, HOU Q B, LI X. Large selective kernel network for remote sensing object detection [C]// 2023 IEEE/CVF International Conference on Computer Vision(ICCV). [S.l.]: [s.n.], 2023: 16748-16759.

[17] WANG Q L, WU B G, ZHU P F, et al. ECA-Net:efficient channel attention for deep convolutional neural networks [C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle, WA, USA: IEEE, 2019: 11531-11539.

[18] TONG Z J. Wise-IoU: bounding box regression loss with dynamic focusing mechanism [J]. ArXiv: 2301. 10051(2023).

[19] ZENG L P, DUAN X L, PAN Y H, et al. Research on the algorithm of helmet-wearing detection based on the optimized YOLOv4 [J]. The visual computer, 2022, 39: 2165-2175.

[20] WANG L, ZHANG X, YANG H. Safety helmet wearing detection model based on improved YOLOm [J]. IEEE access, 2023, 11: 26247-26257.

主站蜘蛛池模板: 欧美精品亚洲精品日韩专| 性网站在线观看| 亚洲码在线中文在线观看| 亚洲欧美极品| 毛片网站免费在线观看| 国产av剧情无码精品色午夜| 欧美三级不卡在线观看视频| 中文字幕1区2区| 国产精品嫩草影院av| www精品久久| 69国产精品视频免费| 国产一区二区三区在线无码| 欧美成人免费一区在线播放| 91精品综合| 欧美日本在线观看| 99re这里只有国产中文精品国产精品| 国产草草影院18成年视频| 国产99免费视频| 成年人午夜免费视频| 欧美无专区| 欧美成人手机在线观看网址| 午夜色综合| 国产视频自拍一区| 狠狠色噜噜狠狠狠狠色综合久| 国产一区二区影院| 国模在线视频一区二区三区| 制服丝袜亚洲| 又爽又大又黄a级毛片在线视频| 欧美午夜一区| 精品久久国产综合精麻豆| 国产精选自拍| 热久久这里是精品6免费观看| 久久无码高潮喷水| 久久国产亚洲偷自| 日韩高清一区 | 91久久夜色精品国产网站| 色婷婷在线播放| 国产在线高清一级毛片| 亚洲乱亚洲乱妇24p| 伊人成人在线| 手机看片1024久久精品你懂的| 亚洲第一区在线| 99热这里只有免费国产精品 | 99re这里只有国产中文精品国产精品 | 日韩黄色精品| 精品无码人妻一区二区| 亚洲欧美另类中文字幕| 久久精品国产免费观看频道| 日韩黄色在线| 国产亚洲美日韩AV中文字幕无码成人| 伊人久久大线影院首页| 性69交片免费看| aaa国产一级毛片| 国产黑人在线| 不卡无码网| 91视频国产高清| 久久综合色播五月男人的天堂| 国产成人三级在线观看视频| 91精品国产综合久久香蕉922 | 欧美性猛交xxxx乱大交极品| 久久亚洲日本不卡一区二区| 久久久久免费看成人影片| 久久久久中文字幕精品视频| 乱人伦中文视频在线观看免费| 国产欧美视频一区二区三区| 亚洲无码免费黄色网址| 亚洲乱强伦| 在线看国产精品| 亚洲视频色图| 色婷婷电影网| 国产农村1级毛片| 亚洲va欧美va国产综合下载| 9久久伊人精品综合| 亚洲天堂色色人体| 99在线观看国产| 中文成人无码国产亚洲| 丁香六月综合网| 97在线公开视频| 亚洲精品中文字幕无乱码| 国产高清在线精品一区二区三区| 久久精品视频一| 欧美日韩国产在线播放|