999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進(jìn)YOLOv8s與DeepSORT的礦工帽帶檢測及人員跟蹤

2024-03-12 08:59:02繆小然胡建峰趙作鵬張新建
關(guān)鍵詞:特征檢測

丁 玲,繆小然,胡建峰,趙作鵬,張新建

1.江蘇聯(lián)合職業(yè)技術(shù)學(xué)院徐州財(cái)經(jīng)分院,江蘇 徐州 221116

2.中國礦業(yè)大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,江蘇 徐州 221116

3.河南龍宇能源股份有限公司陳四樓煤礦,河南 永城 476600

根據(jù)相關(guān)技術(shù)標(biāo)準(zhǔn)和安全法規(guī),安全帽佩戴時(shí)必須按頭圍的大小調(diào)整帽箍并系緊帽帶,在監(jiān)督檢查中發(fā)現(xiàn)戴安全帽不系帽帶的行為時(shí),可以責(zé)令立即消除隱患。這是因?yàn)椴幌得睅В踩钡扔跊]戴。在統(tǒng)計(jì)的多起死亡事故中,受害者雖戴了安全帽,但未系好帽帶,最終被物體打擊或頭部撞擊地面致死。安全帽是保護(hù)礦工免受墜物撞擊的有效個(gè)人防護(hù)用品之一,在井下規(guī)范佩戴安全帽也是企業(yè)進(jìn)行安全生產(chǎn)的必然要求[1]。然而,由于佩戴安全帽的不適感和礦工薄弱的安全意識(shí),經(jīng)常出現(xiàn)脫帽或不規(guī)范佩戴的情況,從而導(dǎo)致事故發(fā)生。此外,作為高危作業(yè)環(huán)境的煤礦井下,佩戴安全帽且是否系帽帶對其安全至關(guān)重要[2]。傳統(tǒng)的安全帽佩戴檢查主要包括人工巡視和對監(jiān)控圖像的檢查[3],需要耗費(fèi)大量的時(shí)間和人力,效果不佳。近年來計(jì)算機(jī)視覺技術(shù)廣泛應(yīng)用于諸多領(lǐng)域[4],基于AⅠ方法的安全帽帽帶檢測,是解決上述問題的有效方法[5-6]。

安全帽及帽帶檢測屬于目標(biāo)檢測的范疇,目標(biāo)檢測分為兩階段檢測和單階段檢測。在兩階段檢測系列中,Girshick等人[7-8]和Ren等人[9]提出區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(RCNN)、快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Fast R-CNN)和超快區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Faster R-CNN)等一系列檢測器,在準(zhǔn)確率和速度上均有極大提升。與此同時(shí),以YOLO 系列[10]為代表的單階段檢測器雖然在準(zhǔn)確率上不如兩階段檢測器,但在速度上有了很大提升。Tan 等人[11]在EfficientNet的基礎(chǔ)上提升了訓(xùn)練速度,提出了參數(shù)量更少的卷積神經(jīng)網(wǎng)絡(luò)。由于Transformer在自然語言處理方向取得的成就,越來越多的學(xué)者將其應(yīng)用到計(jì)算機(jī)視覺領(lǐng)域。Zhu等人[12]在DETR的基礎(chǔ)上提出了RT-DETR,做到了端到端的實(shí)時(shí)檢測。

基于卷積神經(jīng)網(wǎng)絡(luò)的檢測方法極大促進(jìn)了安全帽佩戴檢測的發(fā)展,兩階段檢測首先被用于檢測安全帽的佩戴。Gu 等人[13]使用多尺度訓(xùn)練、增加錨點(diǎn)等策略來改進(jìn)Faster R-CNN,安全帽的檢測精度最終比原來的算法提高了7%,但卻需要大約0.2 s 的時(shí)間來檢測一個(gè)圖像,這無法滿足實(shí)時(shí)性要求。最近,越來越多的研究人員選擇單階段檢測來完成安全帽檢測任務(wù)。王建波等人[14]在YOLOv4 的基礎(chǔ)上提出了一種輕量級(jí)特征融合結(jié)構(gòu),緩解特征融合部分的語義混淆問題,有效地提升了模型提取特征的能力。宋曉鳳等人[15]提出了一種融合特征環(huán)境與改進(jìn)YOLOv5的安全帽佩戴檢測方法,能較好的檢測到安全帽這一小目標(biāo)。王玲敏等人[16]在YOLOv5的基礎(chǔ)上引入注意力機(jī)制,并將原始的FPN結(jié)構(gòu)更換為BiFPN,很好地提高了精度。Zhao 等人[17]在YOLOX的基礎(chǔ)上提出了一種新的標(biāo)簽分配策略來有效地定義了正負(fù)樣本并設(shè)計(jì)了新的損失函數(shù),將精度提升了2.3%。

現(xiàn)有研究基本上都是面向安全帽檢測,缺乏對帽帶的規(guī)范性佩戴檢測研究。同時(shí),由于礦井下低照度、高粉塵、強(qiáng)光擾,現(xiàn)有的檢測算法無法適用于煤礦井下特殊的檢測環(huán)境。智能化安全管控,需要跟蹤不佩戴或未規(guī)范佩戴安全帽的人員。針對上述問題,本文提出了一種結(jié)合了改進(jìn)YOLOv8s 與DeepSORT 的礦工帽帶檢測及人員跟蹤的綜合解決方案。在YOLOv8s 的基礎(chǔ)上,通過引入高分辨率的特征圖和級(jí)聯(lián)查詢機(jī)制,能在不增加額外計(jì)算負(fù)擔(dān)的情況下,實(shí)現(xiàn)對安全帽及其帶子這類小物體的精準(zhǔn)檢測,有效提高了模型對于井下工作人員頭部小區(qū)域特征的感知能力,極大地增強(qiáng)了算法在復(fù)雜背景下的識(shí)別準(zhǔn)確性。同時(shí),對DeepSORT算法的改進(jìn)進(jìn)一步增強(qiáng)了目標(biāo)追蹤的穩(wěn)定性和準(zhǔn)確性。通過在追蹤算法中集成更深層次的卷積網(wǎng)絡(luò),以替代原有的小型殘差網(wǎng)絡(luò),能夠更有效地提取和利用目標(biāo)的外觀信息。這種深層特征的應(yīng)用顯著提升了算法在面對人員快速移動(dòng)、遮擋變化等挑戰(zhàn)時(shí)的追蹤連續(xù)性和魯棒性。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的模型不僅提高了對礦工安全帽帶是否規(guī)范佩戴的檢測能力,而且增強(qiáng)了對未規(guī)范佩戴人員的追蹤效率,顯著地提升了整個(gè)監(jiān)控系統(tǒng)的性能,為礦井安全管理提供了一個(gè)切實(shí)可行的技術(shù)支持,進(jìn)而有助于更有效地預(yù)防安全事故的發(fā)生。

1 研究方法

針對現(xiàn)有檢測方法通常無法更進(jìn)一步地檢測安全帽是否佩戴規(guī)范等問題,設(shè)計(jì)了一個(gè)智能識(shí)別和跟蹤系統(tǒng)。整體框架圖如圖1所示。首先,使用改進(jìn)YOLOv8s作為檢測器提取特征信息,得到每個(gè)目標(biāo)幀的定位信息、分類信息和置信度。然后將檢測結(jié)果輸入DeepSORT,通過卡爾曼濾波預(yù)測模塊獲得先驗(yàn)預(yù)測軌跡,再利用匈牙利算法計(jì)算當(dāng)前幀的檢測結(jié)果和預(yù)測軌跡之間的匹配度。最后,錯(cuò)誤的軌跡被刪除,修正后的軌跡由卡爾曼濾波更新模塊更新,實(shí)現(xiàn)對沒有規(guī)范佩戴安全帽人員的跟蹤。

圖1 整體流程圖Fig.1 Overall frame diagram

1.1 改進(jìn)的總體流程

步驟1將視頻輸入改進(jìn)YOLOv8s 檢測器,檢測后得到三種類型的檢測框:人、安全帽、帽帶。不戴安全帽與戴安全帽未系帽帶的檢測框是兩個(gè)不同的類別。然后計(jì)算檢測框的中心坐標(biāo)、長寬比、高度以及它們各自在圖像坐標(biāo)中的速度。

步驟2卡爾曼濾波將獲得的中心坐標(biāo)、長寬比、高度和它們各自的速度作為對物體的直接觀察,并計(jì)算出預(yù)測的目標(biāo)位置。若當(dāng)前幀的檢測結(jié)果與卡爾曼濾波的預(yù)測結(jié)果相匹配,卡爾曼濾波器會(huì)更新軌跡,進(jìn)入下一幀的目標(biāo)跟蹤。

步驟3當(dāng)檢測失敗時(shí),會(huì)出現(xiàn)軌跡沒有匹配檢測結(jié)果的情況;當(dāng)出現(xiàn)新目標(biāo)時(shí),會(huì)出現(xiàn)檢測結(jié)果沒有匹配軌跡的情況,這兩種情況都會(huì)導(dǎo)致匹配失敗。計(jì)算出的ⅠoU對預(yù)測框和檢測框進(jìn)行第二次匹配,卡爾曼濾波器在第二次匹配成功后更新軌道。

步驟4為再次匹配失敗的檢測框建立新的軌道,并將其標(biāo)記為未確認(rèn)軌道。當(dāng)未確認(rèn)軌道能成功匹配三次時(shí),就修改為確認(rèn)軌道,并重復(fù)步驟2~3。對再次匹配失敗的預(yù)測框的狀態(tài)進(jìn)行判斷,以確定該軌道是被保留還是被刪除。如果該軌道被標(biāo)記為未確認(rèn)的,它將被刪除。如果該軌道被標(biāo)記為確認(rèn)的,并且在有效期內(nèi)匹配失敗,它將被刪除。否則,該軌道將被保留,并重復(fù)步驟1~3。

1.2 改進(jìn)YOLOv8s對安全帽的檢測

在卷積神經(jīng)網(wǎng)絡(luò)中,高層次特征圖通常具有更加抽象的信息,對目標(biāo)的位置信息更為敏感;低層次特征圖具有更高的空間分辨率,對細(xì)節(jié)信息表述得更為清晰。由于小物體通常在空間中分布稀疏,在高分辨率特征圖上的密集計(jì)算范式是非常低效的。因此借鑒級(jí)聯(lián)策略的思想,提出一種由高到低的方法來減少計(jì)算成本,首先在高層次特征圖上預(yù)測小物體的粗略位置,然后計(jì)算低層次特征圖上的具體位置。如圖2,首先找到高層次特征圖上的粗略位置,再自頂向下定位到高分辨率特征中的小物體。

圖2 小物體查詢機(jī)制Fig.2 Small object search mechanism

如圖3所示,在解耦頭部分新增一個(gè)與分類和回歸頭平行的查詢頭,用于預(yù)測小物體的粗略位置。查詢頭使用特征圖Pl作為輸入,并輸入熱力圖Vl∈?H′×W′,表示網(wǎng)格(i,j)中包含一個(gè)小物體的概率。在訓(xùn)練過程中,預(yù)先設(shè)定閾值sl,每一層小于sl的目標(biāo)被定義為小物體。對于小物體o,通過計(jì)算其中心位置(xo,yo)與特征圖各個(gè)位置之間的距離來編碼查詢頭的目標(biāo)圖,并將距離小于sl的位置設(shè)置為1,否則為0。在推理過程中,只查詢預(yù)測分?jǐn)?shù)大于閾值σ的位置,然后將映射到上四個(gè)鄰近位置作為關(guān)鍵位置,定義如下:

圖3 解耦頭部分新增查詢頭Fig.3 New search head in decoupled head

pl-1上的所有集合起來形成關(guān)鍵位置集,然后三個(gè)解耦頭只處理小物體的位置信息并用于下一級(jí)的查詢。具體來說,從pl-1中提取特征并構(gòu)建稀疏張量,然后利用稀疏卷積計(jì)算第l-1層的結(jié)果。從單一的Pl生成查詢{ql} 會(huì)導(dǎo)致在查詢過程中隨著l的減少,相應(yīng)的關(guān)鍵位置kl的大小呈指數(shù)級(jí)增長。所以采用級(jí)聯(lián)的策略來查詢,能最大限度地提高推理速度。例如,Pl-2的查詢只會(huì)從{kl-1} 產(chǎn)生。

分類頭和回歸頭的訓(xùn)練與原始YOLOv8s相同。使用FocalLoss 來訓(xùn)練查詢頭:令在Pl上的小物體為,首先計(jì)算Pl上特征位置(x,y)與所有小物體中心點(diǎn)的最小距離Dl:

因此,查詢圖V*l:

對于每一層Pl,損失函數(shù)定義如下:

其中,Ul、Rl、Vl分別為分類、回歸和查詢的輸出,、為對應(yīng)的真實(shí)值,LFL為focal loss,Lγ為邊界框回歸損失。

原始YOLOv8s 通過3 個(gè)不同尺度的檢測層可以針對性的預(yù)測大、中、小目標(biāo),但由于安全帽帽帶更加微小,YOLOv8s并不能滿足檢測需求。因此,有必要增加一個(gè)高分辨率檢測層來負(fù)責(zé)帽帶的檢測。如圖4所示,在CM-YOLOv8s模型中,640×640大小的輸入圖像分別經(jīng)過4 倍、8 倍、16 倍和32 倍的下采樣。在前向推斷的過程中,4個(gè)檢測層分別輸出預(yù)測信息,包括預(yù)測框的中心點(diǎn)坐標(biāo)(x,y)、寬度w、高度h和置信度參數(shù)c,通過與標(biāo)簽信息進(jìn)行比對,計(jì)算預(yù)測值與真實(shí)值之間的損失,進(jìn)而指導(dǎo)反向傳播中參數(shù)的調(diào)整,從而在反復(fù)訓(xùn)練的過程中優(yōu)化模型性能,整個(gè)損失公式如下:

圖4 改進(jìn)CM-YOLOv8框架圖Fig.4 Ⅰmproved CM-YOLOv8 framework

由于加入P2這樣的高分辨率特征,訓(xùn)練樣本會(huì)發(fā)生明顯的變化,所以使用βl重新平衡每一層的損失。P2上訓(xùn)練樣本的總數(shù)甚至比P3到P7的訓(xùn)練樣本總數(shù)都要大,如果不降低高分辨率特征層的權(quán)重,訓(xùn)練就會(huì)被小目標(biāo)所主導(dǎo)。所以需要重新平衡不同層的損失,使模型同時(shí)從所有層學(xué)習(xí)。

1.3 改進(jìn)DeepSORT對人員進(jìn)行追蹤

用于提取外觀特征的方法通常基于一個(gè)簡單的網(wǎng)絡(luò)結(jié)構(gòu),該結(jié)構(gòu)由兩層卷積網(wǎng)絡(luò)和六個(gè)殘差單元組成的深度堆疊殘差網(wǎng)絡(luò)構(gòu)成。盡管在通用數(shù)據(jù)集上,這種網(wǎng)絡(luò)模型能夠取得優(yōu)異的效果,但在光照不均、煙塵較多的井下環(huán)境下,其在追蹤井下作業(yè)人員的能力就顯得有限。鑒于此,本文引入了一種新的特征提取架構(gòu),即一次性聚合架構(gòu)(OSA),以取代DeepSORT原有的深度堆疊殘差塊。這種新架構(gòu)旨在在增強(qiáng)特征提取效率的同時(shí),減少了對重復(fù)特征處理和存儲(chǔ)的需求,從而提高了系統(tǒng)性能。相應(yīng)的一次性聚合架構(gòu)的示意圖如圖5所示。

圖5 OSA結(jié)構(gòu)Fig5 OSA structure

在更新外觀狀態(tài)的過程中,采取了基于指數(shù)加權(quán)移動(dòng)平均的策略來刷新第t幀中第i個(gè)目標(biāo)軌跡的外觀特征。

其中,代表表示第t幀中第i個(gè)目標(biāo)軌跡的外觀特征嵌入,α代表動(dòng)量因子。

2 實(shí)驗(yàn)結(jié)果與分析

2.1 實(shí)驗(yàn)準(zhǔn)備

2.1.1 數(shù)據(jù)集

目前大多安全帽數(shù)據(jù)集場景為工地,煤礦井下工況的公開數(shù)據(jù)集不多。為了解決這一問題,利用Opencv從井下監(jiān)控視頻中截取圖像,得到10 885幅不同角度的圖像,并使用標(biāo)注工具labelⅠmg 對每個(gè)圖像進(jìn)行標(biāo)注。將得到的數(shù)據(jù)集按照特定比例分為訓(xùn)練集和測試集如表1所示。在最后的10 885幅圖像數(shù)據(jù)集中,訓(xùn)練集中的樣樣本數(shù)為9 371,測試集中的樣本數(shù)為1 514。

表1 訓(xùn)練集、測試集比例Table 1 Proportion of training set and test set

2.1.2 實(shí)驗(yàn)環(huán)境

本文的實(shí)驗(yàn)在Windows11上執(zhí)行,安裝了Pytorch1.10.2、Python3.9 和Cuda11.3,訓(xùn)練和測試是在CPU:Ⅰntel?CoreTMi5-10600KF,4.10 GHz;GPU:NVⅠDⅠA RTX3090,24 GB 顯存上執(zhí)行的。所有程序都用Python3.9 實(shí)現(xiàn),CUDA 和CuDNN 被用于GPU 計(jì)算,OpenCV 被用于圖像顯示和處理。

2.1.3 評估指標(biāo)

(1)目標(biāo)檢測評價(jià)指標(biāo):

本研究通過計(jì)算模型的精度召回率、mAP、F1-score、和FPS 來評估系統(tǒng)性能,以分析模型性能。這些計(jì)算公式如下。

式(7)和(8)中,真陽性(TP)樣品的ⅠOU大于某個(gè)閾值,負(fù)樣本是ⅠOU 小于特定閾值的假陽性(FP)樣本,F(xiàn)N是假陰性示例,這意味著模型對負(fù)類的預(yù)測不準(zhǔn)確。式(9)中,mAP 是所有類別中AP 的平均值,它表示模型在類檢測中的整體性能。式(10)中,F(xiàn)1 分?jǐn)?shù)通過計(jì)算分類器的調(diào)和平均值來組合分類器的精度和召回率。

(2)跟蹤算法評價(jià)指標(biāo):

在多目標(biāo)跟蹤系統(tǒng)中,編碼變換次數(shù)(ⅠDS)衡量的是跟蹤過程中目標(biāo)的標(biāo)識(shí)編號(hào)發(fā)生更改和遺失的頻率。該指標(biāo)的數(shù)值較低意味著跟蹤的連續(xù)性和準(zhǔn)確性較高。另一個(gè)關(guān)鍵指標(biāo)是多目標(biāo)跟蹤準(zhǔn)確率(MOTA),它反映了系統(tǒng)在整個(gè)跟蹤周期內(nèi)對目標(biāo)數(shù)量的識(shí)別準(zhǔn)確性以及誤差的累積情況,該指標(biāo)通過公式(11)進(jìn)行定義:

其中,Mm代表漏檢率,Mf代表誤檢率,IDS 代表編碼轉(zhuǎn)換次數(shù),GTt代表目標(biāo)數(shù)量。

多目標(biāo)跟蹤精度(MOTP)是用來評估多目標(biāo)跟蹤系統(tǒng)定位精度的指標(biāo)。它計(jì)算的是系統(tǒng)跟蹤到的目標(biāo)位置與實(shí)際目標(biāo)位置之間的平均誤差,通常以像素為單位。這個(gè)度量標(biāo)準(zhǔn)關(guān)注的是目標(biāo)位置預(yù)測的準(zhǔn)確性,而不是識(shí)別目標(biāo)的準(zhǔn)確性。MOTP的值越高,說明跟蹤到的目標(biāo)位置越接近于真實(shí)值,因此系統(tǒng)的定位能力越精確。

2.2 目標(biāo)檢測結(jié)果分析

從數(shù)據(jù)集中共選取了1 082 張圖像進(jìn)行測試,繪制了不同對比模型在不同類別下的P-R曲線,曲線與X軸(precision)和Y軸(recall)所圍成的面積記為平均精度,面積越大代表模型性能越好,具體指標(biāo)結(jié)果如圖6 所示,并對性能指標(biāo)值進(jìn)行了比較,見表2。結(jié)合表2 和圖6分析得知,F(xiàn)aster R-CNN對井下安全帽佩戴情況有一定的檢測能力,相對于單階段檢測算法而言,雖然實(shí)時(shí)性遠(yuǎn)不能達(dá)到工業(yè)需求,但在多數(shù)場景下各類預(yù)測框的定位和大小正確且類別判斷基本無誤。這證明了輸入端圖像分辨大小確實(shí)能影響模型的檢測性能,特征圖分辨率越大,檢測小物體的性能越強(qiáng)。YOLO系列算法相較于Faster R-CNN,各項(xiàng)指標(biāo)均有一定程度的提升,其中檢測速度最為顯著,但漏檢與誤檢的情況嚴(yán)重,無法滿足對帽帶這一小目標(biāo)在檢測中對準(zhǔn)確率的要求。

表2 不同模型對比結(jié)果Table 2 Comparison results of different models

圖6 不同模型P-R的曲線Fig.6 Curves of Precision-Recall for different models

而本文提出的CM-YOLOv8s對安全帽有更好的檢測能力并能檢測出帽帶佩戴情況,相比于Faster R-CNN、YOLOv3_Wu[18]、YOLOv5_Song[19]、YOLOv7和YOLOv8s,mAP分別提升了17.3個(gè)百分點(diǎn)、13.5個(gè)百分點(diǎn)、6.7個(gè)百分點(diǎn)、5.8 個(gè)百分點(diǎn)和1.3 個(gè)百分點(diǎn),且該算法預(yù)測框的大小和位置分布更加準(zhǔn)確,對于其他算法均存在的漏檢和誤檢問題也能較好改善。由于引入了更高分辨的特征圖會(huì)消耗一定的計(jì)算時(shí)間,相較于YOLOv5s,模型檢測速度雖有所減慢,但仍是Faster R-CNN 的6 倍,YOLOv3的1.6倍,EfficientNetV2的1.4 倍,可以滿足實(shí)時(shí)性的需求。此外,模型參數(shù)量僅為Faster R-CNN的1/3,YOLOv3 的1/6,RT-DETR 的1/5,YOLOv5 的1/4,易嵌入巡檢機(jī)器人等小型設(shè)備。

對不同算法的檢測效果進(jìn)行可視化分析,見圖7。前兩列為光線較好的場景,后面兩列分別為井下高粉塵、強(qiáng)光擾的情況。從圖7 可以看出:圖像質(zhì)量較好時(shí),由于目標(biāo)較小、目標(biāo)與護(hù)欄之間邊緣細(xì)節(jié)特征的不準(zhǔn)確,導(dǎo)致其他算法均存在漏檢與誤檢,只有CM-YOLOv8s算法能夠準(zhǔn)確地檢測所有目標(biāo),且擁有更低的漏檢率。而當(dāng)環(huán)境存在視覺干擾,如高濃度的粉塵、濃密的水霧或其他顆粒物時(shí),其余算法的檢測效果急劇下降。只有CM-YOLOv8s 算法能憑借先進(jìn)的特征學(xué)習(xí)技術(shù),準(zhǔn)確地檢測出礦工與安全帽。綜合各項(xiàng)實(shí)驗(yàn)指標(biāo)來看,CMYOLOv8算法可以較好地平衡檢測速度與精度,略微降低檢測速度,但顯著地提升了檢測精度,并能夠滿足目標(biāo)檢測的實(shí)時(shí)性需求,更加適用于井下安全帽規(guī)范佩戴的檢測任務(wù)。

圖7 不同模型檢測安全帽佩戴效果Fig.7 Different models to test effectiveness of helmet wear

進(jìn)行消融實(shí)驗(yàn)研究以分析并驗(yàn)證每個(gè)改進(jìn)模塊如何影響檢測精度和速度。如表3所示,當(dāng)加入高分辨率特征圖P2(策略1)時(shí),精度雖然得到了一定的提升,但是FPS卻降至23,這恰恰證明了引入高分辨率特征圖雖然能實(shí)現(xiàn)對小物體更好的檢測,但所帶來巨大的計(jì)算成本是不可避免的。在解耦頭新增一個(gè)并行的查詢頭(策略2)能顯著提高精度,驗(yàn)證了額外目標(biāo)監(jiān)督的有效性。最后,通過級(jí)聯(lián)查詢策略(策略3),檢測速度從23 FPS提升到93 FPS,顯著提高了檢測速度。

表3 消融實(shí)驗(yàn)Table 3 Ablation experiment

2.3 井下人員跟蹤結(jié)果與精度分析

為了驗(yàn)證本文算法在井下人員多目標(biāo)跟蹤方面的表現(xiàn),使用原算法的參數(shù)設(shè)置在自建數(shù)據(jù)集上進(jìn)行驗(yàn)證,對檢測及跟蹤進(jìn)行組合消融實(shí)驗(yàn)以驗(yàn)證有效性,結(jié)果如表4所示。

表4 多目標(biāo)跟蹤結(jié)果對比Table 4 Comparison of multi-target tracking results

表4展示了井下人員多目標(biāo)跟蹤結(jié)果的比較。從表中可以看出,采用改進(jìn)算法的YOLOv8s-DeepSORT 系統(tǒng)在多目標(biāo)跟蹤準(zhǔn)確率(MOTA)和多目標(biāo)跟蹤精度(MOTP)上都有所提升。原始的YOLOv8s-DeepSORT算法MOTA為78.91%,而改進(jìn)后最高可達(dá)85.37%,顯示出明顯的性能提高。同樣,MOTP從79.31%提升至84.94%。編碼變換次數(shù)(ⅠDS)也有顯著下降,從10次減少到5次,減少了一半,這表明跟蹤的穩(wěn)定性得到了增強(qiáng)。每秒處理幀數(shù)(FPS)的增加表明,改進(jìn)后的算法在保持較高跟蹤準(zhǔn)確率的同時(shí),還提高了處理速度。總的來說,改進(jìn)措施顯著提高了井下多目標(biāo)跟蹤的效率和準(zhǔn)確性。

此外,為了進(jìn)一步驗(yàn)證上節(jié)所提目標(biāo)檢測算法的有效性,使用不同的目標(biāo)檢測算法結(jié)果作為DeepSORT的輸入,實(shí)驗(yàn)結(jié)果如表5所示。

表5 不同檢測方法對多目標(biāo)跟蹤效果的影響Table 5 Ⅰmpact of different detection methods on multi-target tracking performance

帽帶檢測方法的性能一定程度上決定了跟蹤任務(wù)的效果。如表5所示,各種檢測方法在多目標(biāo)跟蹤準(zhǔn)確率(MOTA)、多目標(biāo)跟蹤精度(MOTP)、ⅠD 切換次數(shù)(ⅠDS)和每秒幀數(shù)(FPS)上的表現(xiàn)均有所不同。其中,CM-YOLOv8s在MOTA和MOTP上都展現(xiàn)了最高的精度,分別達(dá)到85.37%和84.94%,這意味著它在檢測和定位安全帽的準(zhǔn)確性上都表現(xiàn)得非常出色。此外,CMYOLOv8s 的ⅠD 切換次數(shù)僅為5,是所有比較方法中最低的,說明其在跟蹤過程中的連續(xù)性和穩(wěn)定性都非常好。FPS 值為59,表明CM-YOLOv8s 在實(shí)時(shí)性上的表現(xiàn)也非常優(yōu)秀。綜上所述,CM-YOLOv8s 在安全帽帽帶檢測和對異常人員跟蹤任務(wù)上均展現(xiàn)出了明顯的優(yōu)越性。

2.4 井下現(xiàn)場應(yīng)用

為了更加直觀地展示本文跟蹤算法的效果,本文將算法應(yīng)用到陳四樓煤礦實(shí)際場景中,并在自建井下安全帽數(shù)據(jù)集上對礦工的安全帽佩戴進(jìn)行檢測。

如圖8 所示,主控界面采用BS 架構(gòu),由JAVA 語言編寫。監(jiān)測人員通過主控界面實(shí)時(shí)及歷史數(shù)據(jù)對工作面作業(yè)人數(shù)是否正確佩戴安全帽進(jìn)行判斷。

圖8 主控界面檢測圖Fig.8 Main control interface detection diagram

圖9 展示了井下實(shí)際應(yīng)用中的多目標(biāo)跟蹤結(jié)果。從第一欄圖片可以觀察到,在井下光照良好的環(huán)境中,檢測出作業(yè)人員佩戴安全帽的情況,對于未規(guī)范佩戴安全帽人員,在其持續(xù)行走一段距離后,仍能準(zhǔn)確匹配序號(hào)。從第二欄圖片可以觀察到,當(dāng)圖像質(zhì)量不佳,本文所提出的算法仍可以較好地檢測出作業(yè)人員佩戴安全帽的情況,能夠進(jìn)行穩(wěn)定的檢測跟蹤并且其編號(hào)沒有發(fā)生改變,也能夠證明本文改進(jìn)的算法在復(fù)雜環(huán)境中具有良好的魯棒性。

圖9 多目標(biāo)跟蹤效果Fig.9 Multi-target tracking effect

3 結(jié)語

本文提出了一種改進(jìn)YOLOv8s 和DeepSORT 的井下人員安全帽帽帶檢測及人員跟蹤算法。在YOLOv8s模型的基礎(chǔ)上,引入更高分辨率的特征圖并新增了一種級(jí)聯(lián)查詢機(jī)制,在不提高計(jì)算成本的前提下能完成對小目標(biāo)更精準(zhǔn)的檢測。跟蹤階段使用更深層卷積強(qiáng)化了DeepSORT 的外觀信息提取能力。利用自建安全帽檢測及跟蹤數(shù)據(jù)集對本文算法進(jìn)行驗(yàn)證。結(jié)果表明,本文安全帽規(guī)范佩戴檢測算法的準(zhǔn)確率達(dá)到了96%,檢測速率達(dá)到每幀0.019 s。多目標(biāo)跟蹤算法準(zhǔn)確率提高到了85.37%,目標(biāo)編號(hào)改變次數(shù)降低了50%,并且擁有良好的實(shí)時(shí)性。本文構(gòu)建的改進(jìn)YOLOv8s 和DeepSORT 的安全帽佩戴檢測與跟蹤算法能夠?qū)崿F(xiàn)在井下復(fù)雜環(huán)境中對未規(guī)范佩戴安全帽作業(yè)人員的實(shí)時(shí)檢測及跟蹤,其參數(shù)量也縮減到原來的23%,不僅可以部署于煤礦監(jiān)控系統(tǒng),未來也可以部署在井下巡檢機(jī)器人等小型嵌入式設(shè)備上,可以為井下人員的安全生產(chǎn)提供良好的保障。

猜你喜歡
特征檢測
抓住特征巧觀察
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
如何表達(dá)“特征”
不忠誠的四個(gè)特征
抓住特征巧觀察
主站蜘蛛池模板: 亚洲毛片在线看| 四虎影视无码永久免费观看| 中文字幕色站| 91精品专区国产盗摄| 四虎国产在线观看| 四虎影视国产精品| 亚洲天堂免费在线视频| 国产亚洲现在一区二区中文| 午夜激情福利视频| 亚洲国产日韩一区| 亚洲精品成人片在线播放| 亚洲专区一区二区在线观看| 国产主播一区二区三区| 国产免费网址| 欧美啪啪精品| 日本免费精品| 日本免费新一区视频| 亚洲一区二区成人| 福利在线不卡| 国产综合亚洲欧洲区精品无码| 国产成本人片免费a∨短片| 色欲不卡无码一区二区| 99无码中文字幕视频| 青青久在线视频免费观看| 久久亚洲高清国产| 人禽伦免费交视频网页播放| 国产人成在线观看| 亚洲精品无码AV电影在线播放| 欧美区日韩区| 就去吻亚洲精品国产欧美| 国产一级无码不卡视频| 狠狠色丁婷婷综合久久| 在线观看91香蕉国产免费| 久久午夜夜伦鲁鲁片无码免费| 日韩毛片视频| 欧美激情伊人| 国产亚洲视频在线观看| 伊人91视频| 国产高清在线丝袜精品一区| 香蕉视频在线观看www| 999精品视频在线| 国产91精品久久| 国产香蕉一区二区在线网站| 亚洲av无码牛牛影视在线二区| 91国内外精品自在线播放| 在线免费无码视频| 国产在线91在线电影| 国产高清国内精品福利| 亚洲成人免费在线| 亚洲成a人片7777| 国产极品嫩模在线观看91| 综合色在线| 日韩中文字幕免费在线观看 | 日本一区高清| 欧美亚洲激情| 国产一区三区二区中文在线| 伊人久久久久久久久久| 久夜色精品国产噜噜| 综合色88| 日本不卡免费高清视频| 丁香亚洲综合五月天婷婷| 久久婷婷色综合老司机| 国产精品亚洲一区二区在线观看| 免费观看国产小粉嫩喷水| 五月婷婷精品| 欧美中出一区二区| 精品无码一区二区三区电影| 日本五区在线不卡精品| 亚洲精品自产拍在线观看APP| 91麻豆精品国产高清在线| 青草视频久久| 色爽网免费视频| 一级片一区| 18禁黄无遮挡网站| 亚洲性影院| 久久精品91麻豆| 亚洲国产精品一区二区高清无码久久 | 毛片网站观看| 亚洲无码91视频| 蜜桃视频一区二区三区| 亚洲成av人无码综合在线观看| 白浆免费视频国产精品视频|