999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLOv4的安全帽佩戴檢測及工種身份識別①

2022-08-04 09:59:16史建利
計算機系統(tǒng)應(yīng)用 2022年7期
關(guān)鍵詞:特征檢測模型

王 晨,齊 華,史建利

(西安工業(yè)大學(xué) 電子信息工程學(xué)院,西安 710021)

安全帽是保護頭部的重要防護用品[1],施工場景中不允許未佩戴安全帽進入作業(yè)場所、不同身份的人越界非法操作等. 不同顏色的安全帽代表不同的身份[2,3],文獻[3]通過對安全帽檢測和顏色識別的算法,來判定安全帽的佩戴以及身份識別,該方法使用起來比較復(fù)雜,首先是要檢測安全帽是否佩戴,然后再根據(jù)顏色識別算法判定安全帽的顏色,假如安全帽佩戴存在誤檢那么身份也會存在錯誤檢測. 文獻[1]利用SSD 算法[4]對安全帽的佩戴檢測平均準(zhǔn)確率達到91.7%,雖然他們在原來算法的基礎(chǔ)之上通過對網(wǎng)絡(luò)模型進行了優(yōu)化以及改進,實現(xiàn)對安全帽佩戴的檢測,但是當(dāng)施工環(huán)境相對復(fù)雜一些的時候仍然不能滿足當(dāng)前施工現(xiàn)場的需求,如夜間環(huán)境,強光照環(huán)境下,以及雨天環(huán)境等. 文獻[5,6]通過利用YOLOv3 算法實現(xiàn)對安全帽檢測,平均準(zhǔn)確率達到了88%,但目前對施工現(xiàn)場工人是否佩戴安全帽大部分是通過人工監(jiān)控視頻來監(jiān)督[7],這種方法不僅浪費人力,效率低,而且不具有全面性,綜上所述,當(dāng)前對施工場景下安全帽的佩戴檢測以及工種身份的識別均存在要么效率低,要么識別的準(zhǔn)確低,要么使用的場景單一,因此安全帽佩戴檢測及工種身份識別成為當(dāng)前檢測領(lǐng)域的研究熱點[8–10].

隨著機器視覺在施工場景中的不斷應(yīng)用[11–13],結(jié)合對現(xiàn)有的建筑工地安全帽佩戴檢測存在的問題,本文提出了基于YOLOv4 的安全帽佩戴檢測及工種身份識別的方法,可以適用于多種施工場景,該方法是通過基于視頻監(jiān)控下對建筑工地進行實時目標(biāo)行為檢測,通過這種方式不僅提高了對工人安全帽是否佩戴檢測的監(jiān)管效率,而且對于不同身份的工人,是否可以進入到某些施工區(qū)域進行了很好的監(jiān)督,達到了對于施工現(xiàn)場的智能化管理.

1 YOLOv4 模型結(jié)構(gòu)及原理

本文的安全帽佩戴檢測以及工種身份識別的網(wǎng)絡(luò)檢測模型是基于YOLOv4 模型建立的,YOLOv4 模型分為主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)及Prediction 輸出層. YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)如圖1 所示. 其中,*表示卷積.

圖1 YOLOv4 網(wǎng)絡(luò)結(jié)構(gòu)

YOLOv4 主干特征提取網(wǎng)絡(luò)為CSPDarknet53,在resblock_body 的結(jié)構(gòu)中使用了CSPnet 結(jié)構(gòu),CSPnet中存在一個大的殘差邊,減少了大量數(shù)據(jù)的重復(fù)計算量,同時可以有效地提高在實時檢測過程中數(shù)據(jù)的處理速度,有效地解決了在訓(xùn)練模型中產(chǎn)生的重復(fù)數(shù)據(jù)計算問題. 在特征金字塔部分,YOLOv4 結(jié)合了SPP 結(jié)構(gòu)和PANet 結(jié)構(gòu). SPP 進行最大池化處理. PANet 是獲取帶的圖像特征進行重復(fù)提取,在結(jié)構(gòu)中對主干特征提取網(wǎng)絡(luò)的有效特征層及SPP 網(wǎng)絡(luò)的輸出特征層進行特征融合. PANet 是進行有效特征層及SPP 的輸出特征層進行上采樣、卷積及堆疊操作,然后在對上述操作進行下采樣、卷積及堆疊操作,目的是加強特征融合,提取更有效的特征,對于Prediction 輸出層來說,主要是對獲取到圖像特征進行輸出預(yù)測判斷,預(yù)測的結(jié)果整體分為大中小3 種類型,最終可以通過預(yù)測結(jié)果通過不同的類型能夠?qū)崟r的將測試目標(biāo)檢測出來.

2 YOLOv4 模型的優(yōu)化與改進

本論文的目的是研究出滿足精度與速度要求的安全帽檢測以及工種身份識別的框架模型,工種身份主要是依據(jù)當(dāng)前工程中安全帽的主要顏色來進行識別,在本論文中主要討論四種顏色的安全帽佩戴情況同時進行工人工種身份的識別,考慮到精度與速度的平衡本文的檢測系統(tǒng)采用基于YOLOv4 作為基礎(chǔ)網(wǎng)絡(luò)模型來進行設(shè)計與優(yōu)化,基于YOLOv4 改進的安全帽檢測流程圖如圖2 所示.

圖2 改進的YOLOv4 目標(biāo)檢測過程

2.1 目標(biāo)建議框設(shè)計方案優(yōu)化

本文通過使用K-means 聚類算法獲得適合自身安全帽數(shù)據(jù)集中尺度分布的anchor box 來代替原始的anchor box 的大小.

K-means 算法對選擇初始聚類中心進行優(yōu)化,能夠顯著改善聚類結(jié)果,魯棒性更強,加快網(wǎng)絡(luò)模型的訓(xùn)練速度. 聚類的目的是確定更精準(zhǔn)的先驗框參數(shù),使先驗框和真實框有更大的IOU 值.

通過對安全帽數(shù)據(jù)集進行K-means 聚類分析之后,為了讓目標(biāo)邊界框和真實框的IOU 值更大,因此要得到最佳的聚類中心個數(shù). 在圖3 中可以看出,當(dāng)k>12 時,曲線上升變緩慢,所以k等于12 時是真實框和預(yù)測框重合度最高,即最佳的聚類中心個數(shù),對應(yīng)的anchor 的個數(shù)為12.

圖3 K-means 算法流程圖

2.2 多尺度檢測網(wǎng)絡(luò)的改進

為了提升改進的YOLOv4 對小目標(biāo)的檢測效果,本文對YOLOv4 算法網(wǎng)絡(luò)架構(gòu)進行修改,通過選取更大的特征圖來提升算法對小目標(biāo)和遮擋物體的檢測能力,在保留原始YOLOv4 算法中13×13、26×26、52×52 三種尺度特征預(yù)測前提下,通過對52×52 尺度特征層采用上采樣技術(shù),減小感受野,將分辨率提升到104×104 尺度特征層后實現(xiàn)對安全帽的佩戴以及工種身份的識別檢測,可以有效地增強了對遠處較小目標(biāo)的敏感度,避免了對遠處較小目標(biāo)檢測中存在大量錯誤檢測. 改進后輸出的4 種特征圖的尺寸是13×13、26×26、52×52、104×104. 同時根據(jù)4 種特征圖的輸出先驗框大小得到12 種先驗框大小,聚類分析之后得到的4 種特征圖對應(yīng)的輸出先驗框大小,改進的YOLOv4網(wǎng)絡(luò)框圖如圖4 所示. 其中,*表示卷積.

圖4 改進的YOLOv4 網(wǎng)絡(luò)框架圖

輸出矩陣尺度分別為小尺度特征13×13×30,中尺度特征26×26×30,大尺度特征52×52×30,新尺度特征104×104×30.

4 個尺度層對應(yīng)的輸出先驗框大小如圖5 所示.

圖5 4 個尺度層對應(yīng)的輸出先驗框大小

2.3 非極大值抑制的改進

YOLOv4 對目標(biāo)的檢測過程中,由于多尺度特征提取過程會對同一位置生成多種anchor box,導(dǎo)致產(chǎn)生的檢測結(jié)果往往是冗余的,因此需要通過非極大值抑制的方式對預(yù)測框進行處理,在模型檢測階段的后處理操作中,使用NMS 算法過濾掉多余的預(yù)測框,只保留預(yù)測分數(shù)最高的預(yù)測框作為識別結(jié)果輸出.

在改進的YOLOv4 模型檢測算法中,當(dāng)將輸入圖像尺寸為416×416×3 時,會產(chǎn)生(13×13+26×26+52×52+104×104)×3=14365 個預(yù)測框,之后通過非極大值抑制算法,獲得最終的預(yù)測框. 在施工場地中安全帽檢測以及工種身份識別的過程中,經(jīng)常出現(xiàn)小目標(biāo)很容易被背景干擾或者兩個人頭部之間的距離重疊較大等情況,在這些情況下使用僅考慮重疊區(qū)域的NMS 算法就會抑制掉一些小目標(biāo)或被遮擋的目標(biāo)產(chǎn)生錯誤的抑制,造成漏檢,從而影響檢測精度.

3 實驗結(jié)果分析

3.1 數(shù)據(jù)集的構(gòu)建

對于安全帽的佩戴以及工種身份的識別實驗中,數(shù)據(jù)集的建立非常重要. 為保證實驗結(jié)論的準(zhǔn)確性,數(shù)據(jù)集的構(gòu)建需要滿足: (1)圖像包含不同場景、不同姿勢、不同拍攝距離或受不同程度遮擋目標(biāo)的圖像,來保證實驗結(jié)果更具全面性與準(zhǔn)確性; (2)保證樣本的數(shù)量和以及質(zhì)量.

3.2 數(shù)據(jù)集標(biāo)注方案設(shè)計

數(shù)據(jù)集在標(biāo)注的過程中需要注意以下兩點: (1)將施工人員的頭部和安全帽一起作為樣本特征; (2)施工人員頭部的帽子是否為安全帽. 因此,在標(biāo)注過程中,需要對圖像中的作業(yè)人員頭部+安全帽進行整體合起來標(biāo)注,而不僅標(biāo)注圖像中的安全帽. 數(shù)據(jù)集內(nèi)標(biāo)注為:紅色(red)、黃色(yellow)、白色(white)、藍色(blue)安全帽和未佩戴(person)安全帽人員.

3.3 檢測可視化結(jié)果

為進一步直觀的展示和評估YOLOv4 和 改進型YOLOv4 在安全帽檢測以及工種身份識別檢測上的效果,本文分別對兩種算法在多目標(biāo)場景、夜晚場景下進行了測試,如圖6 所示.

如圖6 所示,對于多目標(biāo)測試的場景下YOLOv4算法相比較改進之后的YOLOv4 算法效果相對較差,因為基于原YOLOv4 模型來說只有3 個尺度預(yù)測層輸出,分別為大目標(biāo),中目標(biāo),小目標(biāo),但是對于作業(yè)安防的實際場景下可能存在者視頻監(jiān)控下距離目標(biāo)太遠,因此在實時的測試過程中可能存在一定的漏檢,或者身份識別錯誤等情況的出現(xiàn),但是存在對身份的識別存在錯誤檢測,但是安全帽的檢測仍然能夠識別出來,但是對于改進之后的YOLOv4 來說效果比YOLOv4本身得到很大的提升,能更好地應(yīng)用于施工場景下,表1表示改進前后測試結(jié)果對比統(tǒng)計.

表1 改進前與改進后測試結(jié)果對比

圖6 測試效果圖

3.4 性能分析

3.4.1 Precision、Recall 和mAP

使用精確率(Precision)和召回率(Recall)等指標(biāo)來定量的評估算法的檢測性能.

如表2 所示,其中,TP 表示預(yù)測框和真實的標(biāo)簽框相匹配的數(shù)量. FP 表示將背景預(yù)測成了目標(biāo)的數(shù)量.FN 表示屬于待檢測目標(biāo)但模型未檢測出的數(shù)量. TN 將正類錯誤預(yù)測為負類數(shù). TP+FN,也就是全體完全滿足圖片標(biāo)注的圖片的個數(shù),TP+FP,也就是預(yù)測的圖片中是正類的圖片的數(shù)目. Precision 是預(yù)測的準(zhǔn)確度,Recall 表征著預(yù)測的目標(biāo)物體框全的程度. 分析兩者的定義公式可以發(fā)現(xiàn),Precision 會隨著Recall 的變化而變化.

表2 目標(biāo)檢測的評價指標(biāo)

圖7 是每個類別對應(yīng)的P-R 曲線圖,其中藍色的曲線代表藍色安全帽目標(biāo),黃色的曲線代表黃色安全帽目標(biāo),紅色的曲線代表紅色安全帽目標(biāo),綠色的曲線代表白色安全帽目標(biāo),黑色的曲線代表未佩戴安全帽,其中黑色曲線與坐標(biāo)軸圍成面積最大,藍色曲線與坐標(biāo)軸圍成面積最小,曲線圍成的面積表示每一個類檢測的精度.mAP代表平均精確率,對于每一類計算平均精確率(AP),然后計算所有類的均值就是mAP的值.M個類的表示公式如式(1).

圖7 不同情況處理的P-R 曲線圖

3.4.2 Loss 曲線對比圖

圖8 中將訓(xùn)練的樣本在YOLOv4 模型、改進之后的YOLOv4 模型中訓(xùn)練分別得到圖8(a),圖8(b)的Loss 曲線和mAP值對應(yīng)的變化曲線圖,曲線圖縱軸代表損失值大小,橫軸代表迭代的次數(shù),模型整體也是趨于收斂的,但是收斂的速度較慢且對應(yīng)的mAP值較低,經(jīng)過修改之后的YOLOv4-hat 模型收斂速度較快同時最終得到的mAP值相對原模型提高了0.038,因此修改之后的YOLOv4 模型相對YOLOv4 原型在訓(xùn)練時收斂速度和mAP都有所提高.

圖8 Loss 曲線對比圖

4 結(jié)論與展望

本文提出了基于改進YOLOv4 的安全帽佩戴檢測及工種身份識別的方法,根據(jù)K-means 聚類出更符合“安全帽+頭部”的anchor box; 并根據(jù)anchor box 大小修改了網(wǎng)絡(luò)的輸出尺度; 同時通過對非極大值抑制的改進使重疊較大的目標(biāo)更能識別. 結(jié)果表明此方法提升了 YOLOv4 的模型性能,增強了檢測的準(zhǔn)確性,針對小目標(biāo)的檢測能力有所提高,得到改進之后的YOLOv4模型有較高的檢測精度和魯棒性,達到了安全帽佩戴檢測及工種身份識別的實際需要.

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 欧美 国产 人人视频| 亚洲天堂网视频| 日韩麻豆小视频| 福利在线一区| 91免费在线看| 亚洲天堂网在线播放| 亚洲欧洲一区二区三区| 另类重口100页在线播放| 欧美视频在线不卡| 欧美日韩激情在线| 久久综合九色综合97网| 人妖无码第一页| 国产欧美精品一区aⅴ影院| 日本成人精品视频| 国产超碰一区二区三区| 精品国产美女福到在线直播| 精品久久综合1区2区3区激情| 精品少妇人妻一区二区| 中文字幕丝袜一区二区| 成人一级免费视频| 亚洲无码日韩一区| 国产毛片基地| 三级毛片在线播放| 亚洲天堂色色人体| 中日韩欧亚无码视频| jizz在线免费播放| 成人精品视频一区二区在线| 免费看a级毛片| 日韩美一区二区| 91在线激情在线观看| 在线色国产| 中文字幕调教一区二区视频| 精品国产一二三区| 成人免费视频一区| 性69交片免费看| 久久一日本道色综合久久| 亚洲国产精品无码久久一线| 亚洲欧美一级一级a| 在线国产三级| 伊人91视频| 欧美一区二区福利视频| 成年免费在线观看| 久久人搡人人玩人妻精品一| 亚洲系列中文字幕一区二区| 日韩国产高清无码| 亚洲a级毛片| 国产精品网曝门免费视频| 久久99蜜桃精品久久久久小说| 国产不卡在线看| 亚洲第一色网站| 国产一级片网址| 91丝袜美腿高跟国产极品老师| 国产精品永久免费嫩草研究院| 精品无码专区亚洲| 成人国内精品久久久久影院| 久久不卡精品| 国产噜噜噜视频在线观看| 国产免费黄| 国产一级裸网站| 国产伦精品一区二区三区视频优播 | 欧美精品xx| 午夜免费视频网站| 视频二区亚洲精品| 毛片免费在线视频| 久久黄色小视频| 免费看的一级毛片| 欧美日韩福利| 国产一在线| 一本大道香蕉中文日本不卡高清二区 | 曰AV在线无码| 色婷婷电影网| 91精品免费高清在线| 成人免费一级片| 国产三区二区| 少妇精品网站| 视频一区视频二区中文精品| 午夜视频免费试看| 欧美午夜视频| 国产日产欧美精品| 国产高清免费午夜在线视频| 欧美色视频在线| 免费人欧美成又黄又爽的视频|