999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv5的電工著裝檢測方法研究

2024-12-31 00:00:00李恭樂
現代信息科技 2024年10期

摘" 要:文章針對水電廠中工作人員著裝不規范問題,提出一種基于改進YOLOv5的著裝檢測方法,即采用目標檢測技術對工作人員是否佩戴安全帽以及工作服穿著規范與否進行自動檢測。針對安全帽這類小目標檢測問題,在YOLOv5網絡模型的基礎上嵌入輕量級ECAnet注意力機制模塊,以減少無用信息通道的計算量,在保證YOLOv5檢測速度優勢的同時提高了小目標特征提取能力。結果表明,改進后模型的準確率、召回率、mAP@0.5分別提升了4.3%、2.1%、1.4%。

關鍵詞:目標檢測;著裝識別;YOLOv5s;注意力機制

中圖分類號:TP391.4" " 文獻標識碼:A" 文章編號:2096-4706(2024)10-0060-05

Research on Electrician Dressing Inspection Method Based on Improved YOLOv5

LI Gongle

(Nanjing Institute of Technology, Nanjing" 211167, China)

Abstract: This paper proposes a dressing detection method based on improved YOLOv5 to address the issue of non-standard dressing among working personnel in hydroelectric power plants. This method uses object detection technology to automatically detect whether working personnel are wearing safety helmets and their work clothes are wearing properly. For small object detection such as helmets, a lightweight ECAnet attention mechanism module is embedded on the basis of the YOLOv5 network model to reduce the computational complexity of useless information channels, while ensuring the advantage of YOLOv5 detection speed, the ability to extract small object features is improved. The results show that the accuracy, recall, and mAP@0.5 of the improved module increased by 4.3%, 2.1%, and 1.4% respectively.

Keywords: target detection; dressing recognition; YOLOv5s; attention mechanism

0" 引" 言

水電廠電力生產過程中由于工作人員繁多、工作內容相對復雜及危險,工人的著裝問題經常出現問題,為了保障水電廠工作人員的人身安全,安全帽的佩戴及安全著裝顯得尤為重要。在電力生產過程中,存在小部分施工人員安全防范意識薄弱,未佩戴安全帽或未安全著裝[1]就進入工作地點,更有甚者為了一時方便,在工作過程中會脫下安全帽和脫下工作服,給電力建設帶來了很多安全隱患,故很多作業現場就不得不以人工監督的原始方式進行預防[2],但此種方式效率低下,無法24小時對員工進行不安全行為的監督。圖1(a)展示了電廠員工在進行帶電作業時未佩戴了絕緣手套,屬于不規范著裝的示例;圖1(b)展示了電廠員工在進行帶電作業時佩戴了絕緣手套,屬于規范著裝示例。

隨著計算機視覺技術的快速發展,可以將機器視覺技術運用到水電廠中的監控系統中,通過相關技術的應用可以有效克服人工監督效率低下和成本過高的問題。

近年來國內外研究人員對于著裝檢測展開了大量的工作。Dahiya [3]等人提出一種摩托車駕駛員安全帽檢測方法,該算法對小目標駕駛員安全帽佩戴情況檢測效果欠佳。通過在SSD目標檢測方法的基礎上加入注意力機制改進了該算法,但該算法對復雜背景視頻流下的著裝小目標[4]的檢測仍有所欠缺,并且模型的計算量較大。施輝[5]等人利用YOLOv3在安全帽的檢測中提出多尺度融合的方法,再經過特征提取對安全帽進行識別,模型的計算量同樣較大。烏民雨等人[6]也提出了一種基于改進YOLOv3的安全帽檢測方法,但是對于受背景因素影響大有誤檢錯檢情況。張錦[7]等人采用K-means++算法融入YOLOv5算法中,然而大大增加了其中的參數量和計算量。

目前對于著裝檢測任務的研究已經取得了初步成果,但是仍有值得改進的地方。現有的研究方法大多注重檢測算法的推理速度,從而忽略了對小目標的檢測精度。本文提出一種基于改進型YOLOv5的水電廠電工的著裝不規范的檢測方法,在YOLOv5網絡的基礎上,融合了ECAnet注意力機制模塊,將NMS替換成DIOU-NMS。

本文方法可以有效降低背景特征對圖像檢測的影響,提高檢測目標的特征情況,有效緩解水電廠工作現場復雜背景帶來的漏檢現象,同時提高對安全帽、絕緣手套、絕緣靴等小目標的檢測能力。

1" 網絡結構

1.1" YOLOv5網絡結構

YOLOv5具有網絡模型小,推理速度快的特點。本文選擇使用YOLOv5s網絡作為基礎模型,既滿足水電廠作業現場實時檢測需求,同時模型大小屬于輕量級,適合監控視頻下目標檢測任務。如圖2所示為YOLOv5的網絡結構。

YOLOv5s的網絡結構可以分為Input輸入端、Backbone特征提取端、Neck頸部端以及Prediction輸出端四個部分組成。其中輸入端采用Mosaic增強方法能夠進行隨機比例、隨機剪裁和隨機順序將圖像拼接在一起,豐富檢測物體的背景,有效增強小目標檢測效果,適用于安全規范著裝檢測任務。

Backbone的特征提取端采用CSPDarknet53網絡結構,利用Conv(k = 6,s = 2,p = 2)結構進行切片操作,提高速度,并且方便導出其他模型。帶殘差的CSP1_X結構可以避免梯度消失和網絡退化,SPPF空間池化塔結構進行圖像尺寸統一。CSP網絡結構和切片Focus結構增強了特征圖上的感受野,減少原始圖像信息丟失和降低了計算量,提高了檢測速度。

Neck網絡結構采用自上而下的金字塔FPN和自下而上的PAN復合結構。FPN可以將深層語義特征轉移到平面層,改善多尺度上的語義表達;PAN將平面位置信息傳輸到深層,提高多尺度上的定位能力。FPN+PAN復合結構使不同尺寸的特征圖都包含圖像語義信息和圖像特征信息,保證了對不同尺寸的圖片的準確預測。

Prediction輸出端能夠獲取關于圖像中檢測到的目標的詳細信息,包括其位置、類別和置信度得分,根據這些信息繪制邊界框、過濾低置信度的檢測結果、計算目標的具體位置。

1.2" 注意力機制

注意力機制可以使得模型增大重要信息權重,削弱無用信息權重,從而在保持參數不變的情況下,依然能提高任務效率。ECAnet [8]注意力機制可以顯著提高模型的檢測精度和魯棒性,降低無用信息的干擾,獲取重要信息特征,提高模型的泛化能力。此外,ECAnet注意力機制還可以幫助模型在處理小目標時,提高檢測精度,從而使模型更適合于處理復雜場景下的目標檢測任務??傊瑢CAnet注意力機制插入到YOLOv5中,可以有效提高模型的性能,進一步提高物體檢測的準確性和實用性,該模塊只涉及少量參數,同時帶來明顯的性能增益。圖3為ECA注意力機制結構圖,實現過程如下:

1)輸入特征圖經過全局平均池化(GAP)后,特征圖向量從[h,w,c]變成[1,1,c]矩陣。

2)得到自適應一維卷積核k進行通道間的交互。

3)一維卷積運算后,得到特征圖中每個通道的權重σ。

4)將歸一化權重和原輸入特征圖逐通道相乘,生成加權后的特征圖輸出。

ECAnet使用一個矩陣Wk來學習通道注意力,Wk的計算式為:

Wk =(1)

顯然,Wk的數量與k通道中的特征圖通道數c相關,一共涉及了k×c個參數。

權值wi的計算式為:

可以看出,權值yi的計算僅涉及與其k個鄰居通道之間的直接交互。σ為Sigmoid函數,用于將交互權重限制在0到1之間。Ω為相關權重的參數集合。這種權值計算方法可以幫助強化對特定通道的注意力,以更好地捕捉特定特征通道的信息。

假設所有通道共享相同的學習參數,那么就簡化了式(2),得到:

上述過程可以通過一個大小為k的一維卷積核來簡化實現:

其中,C1D是一維卷積。

式(4)由ECAnet調用,它僅使用k個參數。k的值可以通過一個自適應的函數,該函數與輸入特征的通道維度C有關,計算式為:

在卷積神經網絡中,當處理小目標時,特征提取過程中的信息會因為多次降維縮小而遭受損失。為了應對這個問題,在主干網絡的SPPF(Spatial Pyramid Pooling Feature)前一層,我們引入了ECAnet注意力機制網絡模塊。這個模塊的作用是加強小目標信息的檢測,更好地保留小目標的細節信息,同時強調重要信息特征,減弱非重要信息特征。具體的結構示意圖如圖4所示。

1.3" 非最大抑制(NMS)算法改進

非最大抑制(NMS)在目標檢測的預測階段時,會輸出許多候選的Anchor box,其中有很多是明顯重疊的預測邊界框都圍繞著同一個目標,這時候就可以使用NMS來合并同一目標的類似邊界框。但不適用于多類別任務和重疊目標,在多類別目標檢測任務中,傳統的NMS可能需要分別應用于每個類別,這可能導致類別間的相互競爭,從而影響檢測結果;當目標之間有重疊時,NMS可能會導致一些目標的丟失。將NMS替換為DIOU-NMS,可初步改善YOLOv5對重疊遮擋目標的識別。鑒于水電廠工作區域內人員密集,采用結合DIoU和NMS的方法,旨在減少漏檢情況。

DIoU-NMS公式如式(7)所示:

其中,M為具有最高分類分數的一個預測框,而Bi用于確定是否應該移除其他預測框,具體移除規則由Si為的分類分數和ε為的NMS閾值決定。RDIoU為兩個邊界框的中心點之間的距離,式(8)中描述了相關計算公式:

其中,ρ2(?)為歐式距離,b和bgt分別為預測邊界框和真實邊界框的中心點,而c為兩個預測框之間的最小包圍框的最短對角線長度。用這些來計算邊界框之間的距離,以便在目標檢測中評估它們之間的相似性或重疊程度。

故本文采用DIoU-NMS效果更符合實際,效果更佳,進而改善了目標檢測中的漏檢問題,有效提高了檢測的精度。

2" 實驗與分析

2.1" 數據集構建

2.1.1" 數據集預處理

水電廠作業現場要求佩戴安全帽、絕緣手套、絕緣靴子、工作服等,針對水電廠目前并沒有公開的真實場景的數據集,且網絡上研究的樣本量較少,所以一般需在真實場景中進行數據采集。故本文采用的數據集選自網絡數據集以及個人自建的數據集。為了提高數據集的多樣性,對樣本圖片采用翻轉、旋轉、縮放、裁剪、高斯噪聲等數據增強方式,提高模型泛化能力[9],獲得達到更好的目標檢測效果的作用[10],最終獲得5 000張數據樣本圖,用于本文中進行人員的著裝檢測訓練。

2.1.2" 圖片標注

利用LabelImg作圖像的標注工具,其中根據規范化安全著裝檢測目標,規定了安全帽、非安全帽等10種類別的檢測標簽,并將數據集分別按8:2劃分為訓練集和測試集,如圖5所示為目標在數據集中所占圖像數量分布。

2.2" 實驗環境和參數設置

實驗代碼基于PyTorch深度框架,實驗環境配置:Windows 10、GPU GeForce GTX 3060、CUDA11.2、Python 3.9。模型衰減權重未為0.000 05,Batch-size設置為16,epoch設置為300epoch。GPU測試時圖像輸入為640×640,考慮到大多數移動設備并沒有圖形卡加速,因此同時進行CPU測試模擬移動端的情況,CPU測試時輸入為320×320。

2.3" 評價指標

判斷模型的好壞往往是通過評價指標來得到的。本文對于水電廠中安全著裝檢測任務采用查準率 (Precision)、查全率(Recall)、平均精度均值(mAP)作為模型的評價指標。

2.4" 消融實驗

為了驗證改進算法的有效性,進行消融實驗,基于YOLOv5s網絡進行不同的模型設計:模型1:保持YOLOv5s網絡的基礎結構不做任何改變。模型2:在YOLOv5s網絡中添加了ECAnet注意力機制,其余部分保持不變。模型3:我們將原本使用的非最大抑制算法NMS替換為DIOU-NMS,其他模塊維持不變。模型4:在YOLOv5s網絡中添加ECAnet注意力機制,并同時將NMS替換為DIOU-NMS。這些模型旨在檢驗不同改進措施對目標檢測性能的影響。最終,使用精確率、召回率和均值平均精確率(mAP)作為評估指標,實驗結果在表1中。

從表1中的數據可以看出,通過在原始YOLOv5s結構的基礎上添加注意力模塊以及將非最大抑制算法NMS替換為DIOU-NMS的方法,都顯著提高了模型的性能表現。當這兩種改進都被同時引入到模型中時,性能提升更加顯著,具體來說,準確率提高了4.3%,召回率提高了2.1%,mAP@0.5提高了1.4%。這表明本文提出的模型修改部分有效地改善了模型的性能。檢測結果的部分示例如圖6所示。

3" 結" 論

水電廠員工日常工作中的著裝規范問題是重中之重,根據工作需求,在不同的場合需要佩戴和穿著相應的服飾。本文針對水電廠工作人員著裝問題中安全帽等小目標的漏檢問題,以及遮擋問題進行優化,通過在YOLOv5s模型上添加ECAnet注意力機制,我們能夠更好地捕捉目標的有效信息。同時,將非最大抑制算法NMS替換為DIOU-NMS有助于提高小目標的檢測效果,并提高對遮擋目標的辨識度。通過實驗證明,本文提出的方法表現出出色的性能,非常適合應用于工作人員的著裝智能識別任務。

參考文獻:

[1] 張仕廉,王黎明,葉貴,等.建筑安全全要素投入研究:以重慶市為例 [J].中國安全科學學報,2018,28(3):161-166.

[2] 劉欣宜,張寶峰,符燁,等.基于深度學習的污染場地作業人員著裝規范性檢測 [J].中國安全生產科學技術,2020,16(7):169–175.

[3] DAHIYA K,SINGH D,MOHAN C K. Automatic Detection of Bike-Riders Without Helmet Using Surveillance Videos in Real-time [C]//2016 International Joint Conference on Neural Networks.Vancouver:IEEE,2016:3046-3051.

[4] 梁鴻,王慶瑋,張千.小目標檢測技術研究綜述 [J].計算機工程與應用,2021,57(1):17-28.

[5] 施輝,陳先橋,楊英.改進 YOLOv3 的安全帽佩戴檢測方法 [J].計算機工程與應用,2019,55(11):213-220.

[6] 烏民雨,陳曉輝.一種基于改進YOLOv3的安全帽檢測方法 [J].信息通信,2020(6):12-14.

[7] 張錦,屈佩琪,孫程,等.基于改進YOLOv5的安全帽佩戴檢測算法 [J].計算機應用,2022(4):1292-1300.

[8] HU J,SHEN L,SUN G. Squeeze-and-Excitation Networks [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:7132-7141.

[9] 靳陽陽,韓現偉,周書寧,等.圖像增強算法綜述 [J].計算機系統應用,2021,30(6):18-27.

[10] 鐘志峰,夏一帆,周冬平,等.基于改進YOLOv4的輕量化目標檢測算法 [J].計算機應用,2022,42(7):2201-2209.

作者簡介:李恭樂(1999—),男,漢族,江西南昌人,碩士研究生在讀,研究方向:基于目標檢測的水電廠作業人員不安全行為檢測。

主站蜘蛛池模板: 国产情精品嫩草影院88av| 日本a级免费| 日本三级欧美三级| 69免费在线视频| 久久五月视频| 国产制服丝袜无码视频| 色天堂无毒不卡| 久久这里只有精品66| 国产成人综合在线视频| 99视频有精品视频免费观看| 日本不卡在线| 激情无码视频在线看| 农村乱人伦一区二区| 亚洲欧美成aⅴ人在线观看| 国产成人亚洲精品无码电影| 亚洲精品无码抽插日韩| 无码福利视频| 亚洲欧洲日本在线| 狼友视频国产精品首页| 亚洲欧美另类视频| 中文字幕无线码一区| 久久婷婷综合色一区二区| 538国产视频| 成人看片欧美一区二区| 亚洲国产一成久久精品国产成人综合| 首页亚洲国产丝袜长腿综合| 久久精品国产精品青草app| 国产精品一区二区在线播放| 国产精品久久久久无码网站| 午夜国产大片免费观看| 九九久久99精品| 特级毛片8级毛片免费观看| 91区国产福利在线观看午夜| 欧美a在线视频| 国产精品久久久久久久伊一| 毛片网站观看| 久久五月视频| 国产精彩视频在线观看| 亚洲精品不卡午夜精品| 久久亚洲日本不卡一区二区| 手机看片1024久久精品你懂的| 色天天综合| 美女视频黄又黄又免费高清| 午夜少妇精品视频小电影| 五月激激激综合网色播免费| 亚洲精品国产综合99| 国模视频一区二区| 精品久久高清| 日韩欧美中文在线| 色噜噜狠狠狠综合曰曰曰| 国产91视频观看| 欧美激情二区三区| 精品成人一区二区三区电影| 国产男女XX00免费观看| 在线国产你懂的| 成人在线观看一区| 国产福利拍拍拍| 亚洲日韩AV无码精品| 免费高清a毛片| 精品国产成人三级在线观看| 在线人成精品免费视频| 亚洲福利片无码最新在线播放| 午夜视频免费试看| 日韩大乳视频中文字幕| 九九视频在线免费观看| 91综合色区亚洲熟妇p| 国产成人精彩在线视频50| 午夜毛片免费观看视频 | 一级毛片免费观看久| 国产成人超碰无码| 久久香蕉国产线看观看精品蕉| 亚洲中文字幕在线精品一区| 国产精品自拍合集| 99re免费视频| 欧美日韩激情| 老汉色老汉首页a亚洲| 少妇精品在线| 欧美一级特黄aaaaaa在线看片| 一级看片免费视频| 99手机在线视频| 色视频国产| 成人va亚洲va欧美天堂|