999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

采掘工作人員不安全行為檢測算法的改進(jìn)與融合

2024-04-10 00:00:00許吉禪李嘉源

摘 要:采用人工智能技術(shù)對(duì)采掘工作面工人工作行為進(jìn)行實(shí)時(shí)識(shí)別,確保采掘過程安全,并減少因不安全行為導(dǎo)致的事故,對(duì)保障安全采掘生產(chǎn)具有重大意義。本文提出了一種基于改進(jìn)YoloV5和SlowFast的采掘工作人員不安全行為檢測算法。針對(duì)井下黑暗、灰霾的情況,通過融合CLAHE(對(duì)比度限制自適應(yīng)直方圖均衡化)和雙邊濾波方法,對(duì)導(dǎo)入視頻進(jìn)行光照增強(qiáng)和去噪處理。對(duì)YoloV5目標(biāo)檢測模型的骨干和頭部網(wǎng)絡(luò)進(jìn)行輕量化改進(jìn),以提高模型推理速度,并融合Detectron2算法對(duì)工作環(huán)境進(jìn)行語義分割,實(shí)現(xiàn)對(duì)工作人員的跟蹤鎖定與精確識(shí)別,降低了環(huán)境干擾。通過改進(jìn)的SlowFast網(wǎng)絡(luò)分析人體骨骼關(guān)鍵點(diǎn)的動(dòng)態(tài)變化,實(shí)現(xiàn)對(duì)不安全行為的有效識(shí)別。實(shí)驗(yàn)結(jié)果表明:該算法對(duì)攀爬、躺倒、玩手機(jī)、無人監(jiān)管4種不安全行為的識(shí)別平均準(zhǔn)確率達(dá)到92.3%,為采掘工作安全管理提供了有力的技術(shù)支持。

關(guān)鍵詞:計(jì)算機(jī)視覺;采掘安全;目標(biāo)檢測;姿態(tài)估計(jì);行為識(shí)別

中圖分類號(hào):TD76"""""" 文獻(xiàn)標(biāo)識(shí)碼:A""""""" 文章編號(hào):2095-9699(2024)06-0032-08

當(dāng)前,礦山采掘工作的智能化和無人化水平仍較低,導(dǎo)致人員傷亡事故時(shí)有發(fā)生[1]。盡管采掘技術(shù)和安全保護(hù)措施都在不斷提升,采掘工作人員的不安全行為仍然是引發(fā)事故的重要原因之一[2-3]。在較惡劣的礦井采掘工作環(huán)境下,仍然未對(duì)采掘工人不安全行為進(jìn)行有效的預(yù)警、監(jiān)測和分析,給事故發(fā)生埋下了安全隱患。

隨著科技的不斷發(fā)展,降低煤礦生產(chǎn)安全隱患,推進(jìn)智慧礦山建設(shè)已經(jīng)迫在眉睫。在此背景下,人工智能技術(shù)在礦井人員行為識(shí)別中得到逐步應(yīng)用4-5。通過對(duì)3D-Attention行為識(shí)別算法的改進(jìn),李占利等6完成了對(duì)煤礦井下工人的跑、跳等不安全行為的識(shí)別,但其檢測行為較為簡單且單一。劉浩等

[7]采用OpenPose神經(jīng)網(wǎng)絡(luò)提取人體骨骼關(guān)鍵點(diǎn),并將提取的骨骼信息輸入時(shí)空?qǐng)D卷積網(wǎng)絡(luò)(ST-GCN)以實(shí)現(xiàn)行為識(shí)別,從而檢測出多種井下工人的不安全行為,然而在不安全行為的分類和說明上存在不足。溫廷新等8提出基于遷移學(xué)習(xí)和深度殘差網(wǎng)絡(luò)的圖像識(shí)別方法用于煤礦工人不安全行為的分類和識(shí)別,但對(duì)復(fù)雜動(dòng)作的識(shí)別率較低。

綜上所述可知,圖像特征的行為識(shí)別方法在礦山采掘場景中得到了應(yīng)用,但仍面臨以下挑戰(zhàn):①環(huán)境因素:礦山場景復(fù)雜多變,塵埃與黑暗等因素對(duì)不安全行為識(shí)別造成干擾;②算法限制:常見算法實(shí)時(shí)性低,檢測精度不夠,無法及時(shí)準(zhǔn)確識(shí)別和預(yù)警不安全行為[9-10]

針對(duì)上述問題,本文基于YoloV5[11]和SlowFast網(wǎng)絡(luò)對(duì)采掘工作人員不安全行為檢測算法進(jìn)行了改進(jìn),綜合考慮了工作人員的姿態(tài)與時(shí)序特征。首先,對(duì)輸入的視頻進(jìn)行光照增強(qiáng)和去噪處理,以緩解塵埃和光照帶來的問題;接著,改進(jìn)YoloV5的骨干和頭部網(wǎng)絡(luò)以實(shí)現(xiàn)輕量化,從而提高模型推理速度和實(shí)時(shí)性;然后,融合Detectron2[12]算法對(duì)工作環(huán)境進(jìn)行語義分割,確保對(duì)采掘工作人員的精確跟蹤和人體骨架特征的識(shí)別,以降低環(huán)境干擾;最后,改進(jìn)SlowFast網(wǎng)絡(luò)分析人體骨骼關(guān)鍵點(diǎn)的動(dòng)態(tài)變化,實(shí)現(xiàn)對(duì)采掘工作人員不安全行為的有效識(shí)別,并進(jìn)行實(shí)驗(yàn)研究。

1 采掘工作人員不安全行為識(shí)別框架

在采掘工作期間,工作人員經(jīng)常出現(xiàn)攀爬、躺倒、玩手機(jī)和無人監(jiān)管等不安全行為[1-3]。這些行為給采掘工作帶來了較大的安全隱患,容易引發(fā)礦業(yè)安全與環(huán)保問題。因此,本文主要針對(duì)這四種不安全行為進(jìn)行識(shí)別和分析。

圖1為采掘工作人員不安全行為識(shí)別流程圖。首先,通過攝像頭實(shí)時(shí)攝錄采掘工作人員工作環(huán)境,并對(duì)視頻進(jìn)行光照增加和降噪處理,以獲得清晰的視頻數(shù)據(jù);接下來,利用YoloV5算法進(jìn)行對(duì)象識(shí)別,包括識(shí)別采掘工作人員、工作環(huán)境及其狀態(tài);在YoloV5算法檢測的基礎(chǔ)上,再利用Detectron2算法提升檢測精度,以應(yīng)對(duì)惡劣環(huán)境的挑戰(zhàn),Detectron2還用于對(duì)每個(gè)人體目標(biāo)進(jìn)行姿態(tài)估計(jì),精確定位每個(gè)人的人體骨骼關(guān)鍵節(jié)點(diǎn),確保這些信息滿足行為識(shí)別網(wǎng)絡(luò)的質(zhì)量要求;最后,應(yīng)用SlowFast行為識(shí)別算法,對(duì)采掘工作人員動(dòng)作進(jìn)行識(shí)別,并將其分類判別,當(dāng)檢測到不安全行為時(shí),系統(tǒng)將發(fā)出警告提醒,以減少安全事故的發(fā)生。

2 采掘工作人員不安全行為識(shí)別方法

2.1 利用CLAHE和雙邊濾波改善圖像質(zhì)量

對(duì)比度限制自適應(yīng)直方圖均衡化(Contrast Limited Adaptive Histogram Equalization,CLAHE)[13]和雙邊濾波(Bilateral Filtering)[14]是兩種用于改善圖像質(zhì)量的技術(shù),各有其獨(dú)特的特點(diǎn)。CLAHE通過對(duì)比度受限的自適應(yīng)直方圖均衡化來增強(qiáng)圖像的局部對(duì)比度。CLAHE將圖像劃分為多個(gè)小塊(tiles),并在每個(gè)小塊內(nèi)應(yīng)用直方圖均衡化,同時(shí)對(duì)直方圖的峰值進(jìn)行裁剪(clip limit),從而避免過度增強(qiáng)噪聲。然后,采用雙線性插值方法平滑小塊之間的邊界,確保圖像的整體一致性。這種方法能夠有效提升圖像細(xì)節(jié)和視覺效果,使得圖像在亮度和對(duì)比度上更加均衡。

雙邊濾波不僅考慮像素之間的空間距離,還考慮像素值的差異,從而解決高斯濾波造成的邊緣模糊問題。通過這種雙重加權(quán)的方式,使雙邊濾波在去除噪聲的同時(shí),保留了圖像細(xì)節(jié)和邊緣信息。它對(duì)相似顏色的像素進(jìn)行加權(quán)平均,減少噪聲,且不會(huì)模糊圖像中的重要結(jié)構(gòu)。

通過將CLAHE和雙邊濾波結(jié)合使用,可以充分發(fā)揮兩者的優(yōu)勢,實(shí)現(xiàn)圖像的光照增強(qiáng)和降噪。首先,通過CLAHE對(duì)圖像進(jìn)行處理,增強(qiáng)局部對(duì)比度,使得圖像在亮度和細(xì)節(jié)上更加清晰,該方法能夠顯著改善圖像的視覺效果,尤其是在光照條件不理想的情況下;然后,應(yīng)用雙邊濾波對(duì)增強(qiáng)后的圖像進(jìn)行降噪處理,這樣可以有效去除由于CLAHE增強(qiáng)過程可能帶來的噪聲,同時(shí)保留圖像的邊緣細(xì)節(jié),顯著降低黑暗、塵埃等環(huán)境因素對(duì)人員不安全行為檢測的影響。

2.2 基于YoloV5和Detectron2融合的實(shí)時(shí)檢測模型

通過融合YoloV5的快速檢測和Detectron2的精細(xì)分割,可以在評(píng)估過程中獲得更全面的性能指標(biāo),適用于需要高精度的應(yīng)用場景。圖2展示了YoloV5與Detectron2融合后的對(duì)象檢測模型架構(gòu)。

上半部分為YoloV5模型架構(gòu),其包括三個(gè)主要部分:首先,骨干網(wǎng)絡(luò)(Backbone)負(fù)責(zé)從輸入圖像中提取特征,它通常由多個(gè)卷積層(Conv)和殘差塊(C3)組成,這些層和塊能夠逐層提取并融合圖像中的特征信息;其次,頸部網(wǎng)絡(luò)(Neck)采用特征金字塔網(wǎng)絡(luò)(FPN)結(jié)構(gòu),通過上采樣(upsample)和連接操作將來自不同層次的特征圖組合在一起,這樣可以形成具有豐富語義信息的特征圖,從而增強(qiáng)模型對(duì)多尺度對(duì)象的檢測能力;最后,檢測頭(Head)部分由一系列卷積層和特征融合操作組成,最終輸出三個(gè)不同尺度(80×80,40×40,20×20)的特征圖,這些特征圖用于預(yù)測不同大小對(duì)象的邊界框和類別信息。此外,在檢測過程中引入了空間金字塔池化(SPPF)模塊,通過多尺度池化操作進(jìn)一步增強(qiáng)對(duì)多尺度對(duì)象的檢測能力。

下半部分為Detectron2的模型架構(gòu),其是一個(gè)模塊化系統(tǒng),包括多個(gè)關(guān)鍵組件:首先是特征提取的主干(Backbone),負(fù)責(zé)從輸入圖像中提取高層次特征并輸出特征P2、P3、P4、P5、P6;然后是用于生成候選區(qū)域的RPN(Region Proposal Network),它在主干Backbone的特征圖上滑動(dòng)窗口,通過分類和回歸預(yù)測每個(gè)窗口是否包含物體及其邊界框;隨后是處理候選區(qū)域的ROIHeads。ROIHeads包含多個(gè)分支:BoxHead(邊界框回歸和分類),負(fù)責(zé)對(duì)每個(gè)ROI進(jìn)行分類,并精確調(diào)整邊界框位置,其中分類(class)指預(yù)測每個(gè)ROI所包含的對(duì)象類別,邊界框回歸(bbox)指對(duì)每個(gè)ROI進(jìn)行邊界框位置回歸,精細(xì)調(diào)整其邊界框坐標(biāo);MaskHead(實(shí)例分割)用于實(shí)例分割任務(wù),它對(duì)每個(gè)ROI 生成像素級(jí)的分割掩碼;分割掩碼預(yù)測(Mask)指對(duì)于每個(gè)ROI,生成分割掩碼,表示對(duì)象在該區(qū)域內(nèi)的像素位置。KeypointHead(關(guān)鍵點(diǎn)檢測)用于關(guān)鍵點(diǎn)檢測任務(wù),對(duì)每個(gè)ROI 生成關(guān)鍵點(diǎn)的坐標(biāo);關(guān)鍵點(diǎn)預(yù)測(Keypoint)指對(duì)每個(gè)ROI預(yù)測多個(gè)關(guān)鍵點(diǎn)的位置,通常用于姿態(tài)估計(jì)等任務(wù)。

2.3 人體骨骼關(guān)鍵點(diǎn)提取

人體骨骼關(guān)鍵點(diǎn)檢測是通過人體姿態(tài)估計(jì)算法,從輸入圖像中提取骨骼關(guān)鍵點(diǎn)的坐標(biāo)位置信息來實(shí)現(xiàn)的。如圖3所示,COCO(Common Objects in Context)數(shù)據(jù)集定義的人體的17個(gè)骨骼關(guān)鍵點(diǎn)及其對(duì)應(yīng)位置名稱。人體姿態(tài)估計(jì)算法主要分為兩種,即自底向上和自頂向下,其各有優(yōu)缺點(diǎn)。自底向上方法直接檢測圖像中的所有骨骼關(guān)鍵點(diǎn),通過聚類將同一人體的骨骼關(guān)鍵點(diǎn)關(guān)聯(lián)起來,生成每個(gè)人體目標(biāo)的骨架,由于無需先檢測人體目標(biāo),因此檢測速度較快,但準(zhǔn)確性不如自頂向下方法。自頂向下方法首先檢測圖像中的人體目標(biāo),確定每個(gè)人的位置,然后再進(jìn)行姿態(tài)估計(jì),以定位其骨骼關(guān)鍵點(diǎn)位置,故該方法檢測速度會(huì)受到一定影響,但具有較高的檢測準(zhǔn)確性。為了達(dá)到更高的準(zhǔn)確性,本文采用自頂向下的姿態(tài)估計(jì)算法,首先通過YoloV5算法檢測采掘工作面環(huán)境和目標(biāo),然后通過Detectron2算法加強(qiáng)檢測結(jié)果,并精確定位每個(gè)人的位置坐標(biāo),接著對(duì)每個(gè)人體目標(biāo)進(jìn)行姿態(tài)估計(jì),準(zhǔn)確定位其骨骼關(guān)鍵點(diǎn)位置,從而提高人體骨骼關(guān)鍵點(diǎn)檢測的精度,更好地滿足行為識(shí)別網(wǎng)絡(luò)對(duì)人體骨骼關(guān)鍵點(diǎn)質(zhì)量的要求。

2.4 利用SlowFast模型進(jìn)行行為識(shí)別分類

圖4所示,為改進(jìn)后SlowFast模型架構(gòu)圖,SlowFast網(wǎng)絡(luò)主要由兩個(gè)相對(duì)獨(dú)立的網(wǎng)絡(luò)分支組成:低幀速率和低時(shí)間分辨率運(yùn)行的慢路徑(Slow Path)和高幀速率和高時(shí)間分辨率運(yùn)行的快速路徑(Fast Path)。這兩個(gè)路徑分別處理視頻的不同時(shí)間尺度,從而有效地捕捉視頻中的慢速和快速變化。

Slow Path處理的是低幀率的視頻輸入,它的主要目的是捕捉視頻中的慢速動(dòng)態(tài)變化,因此它使用較高的空間分辨率和較深的網(wǎng)絡(luò)層,以確保能夠提取到豐富的空間和時(shí)間特征。輸出生成高層次的特征表示,用于進(jìn)一步的動(dòng)作識(shí)別。

Fast Path處理的是高幀率的視頻輸入。它的主要目的是捕捉視頻中的快速動(dòng)態(tài)變化,因此它使用較低的空間分辨率和較淺的網(wǎng)絡(luò)層,以快速處理高幀率數(shù)據(jù),輸出生成時(shí)間分辨率較高的特征表示,捕捉快速運(yùn)動(dòng)信息。快速路徑的時(shí)間分辨率是α(α通常是8)倍慢路徑,但通道數(shù)是β(β通常是1/16)慢路徑,最后將兩條路徑橫向連接,實(shí)現(xiàn)快慢路徑的融合,以整合不同時(shí)間尺度的信息。

以站立行為為例,用SlowFast模型完成行為檢測的過程如下:導(dǎo)入實(shí)時(shí)站立行為視頻數(shù)據(jù),首先對(duì)輸入視頻進(jìn)行幀抽取,從視頻片段中按一定的間隔抽取幀,然后按要求分別導(dǎo)入至慢路徑和快路徑中,通過這兩種路徑提取視頻特征信息,接著再將不同特征信息進(jìn)行融合,根據(jù)提取的特征進(jìn)行動(dòng)作分類,輸出預(yù)測結(jié)果,最后將輸出的動(dòng)作結(jié)果可視化,顯示在視頻上。

3 實(shí)驗(yàn)結(jié)果與分析

3.1 圖像處理結(jié)果分析

PSNR(Peak Signal-to-Noise Ratio)為峰值信噪比,是衡量圖像重建質(zhì)量的指標(biāo),表示原始圖像與壓縮或處理后圖像之間的信噪比。SSIM(Structural Similarity Index)為結(jié)構(gòu)相似性指數(shù),是衡量兩幅圖像相似度的指標(biāo),旨在更好地模擬人眼對(duì)圖像質(zhì)量的感知。兩者數(shù)值越高表示圖像重建質(zhì)量越好。由表1可以看出,經(jīng)不同圖像處理技術(shù)后,得到不同的圖像影響數(shù)據(jù)。其中,雙邊濾波和CLAHE技術(shù)的結(jié)合顯著提升了圖像質(zhì)量,PSNR達(dá)到45.87 dB,SSIM達(dá)到0.988 3。

3.2 人員檢測模型性能分析

為了有效評(píng)估模型性能,采用常見評(píng)價(jià)指標(biāo)mAP(mean Average Precision)對(duì)模型進(jìn)行評(píng)估,具體計(jì)算方式如公式1,其中,m是類別數(shù),APi是第i個(gè)類別的平均精度。其中mAP@0.5表示IOU(Intersection over Union,交并比)設(shè)為0.5時(shí),計(jì)算每一類所有照片的精度,然后求平均,而mAP@0.5:0.95表示在不同IOU閾值(從0.5到0.95,步長0.05)上的平均精度。其數(shù)值越高,則表明模型越好。

mAP=∑Mi=1APiM(1)

為了驗(yàn)證改進(jìn)的YoloV5-Detectron2模型融合的優(yōu)勢,筆者基于公開數(shù)據(jù)集COCO進(jìn)行對(duì)比實(shí)驗(yàn),并與原YoloV5模型進(jìn)行比較。如圖5所示,前20次迭代呈震蕩態(tài)勢,但經(jīng)過20次迭代后,模型精確率穩(wěn)步上升。YoloV5-Detectron2模型的mAP@0.5最終穩(wěn)定在0.615附近,且mAP@0.5:mAP@0.95最終穩(wěn)定在0.390附近。與原YoloV5模型對(duì)比,經(jīng)融合改進(jìn)后,該模型在性能上顯著優(yōu)于原YoloV5,并且提升幅度較大。

3.3 人員檢測模型消融實(shí)驗(yàn)分析

為評(píng)估該YoloV5-Detectron2模型融合后的性能,對(duì)該模型進(jìn)行消融實(shí)驗(yàn),數(shù)據(jù)如表2所示。結(jié)果表明,融合后的模型得到了顯著優(yōu)化,mAP@0.5有所提高,同時(shí)推理速度有所提升,兼具了兩種算法的優(yōu)點(diǎn)。

3.4 不安全行為檢測模型性能分析

使用公開行為識(shí)別數(shù)據(jù)集Kinetics-600對(duì)改進(jìn)后的SlowFast模型進(jìn)行了評(píng)估。Kinetics-600數(shù)據(jù)集是一個(gè)大規(guī)模且高質(zhì)量的行為識(shí)別數(shù)據(jù)集,其涵蓋了600個(gè)人類動(dòng)作類別,每個(gè)動(dòng)作類別至少有600個(gè)視頻片段,單個(gè)視頻片段持續(xù)時(shí)間約為10 s,并標(biāo)有單個(gè)動(dòng)作類別標(biāo)簽,總計(jì)達(dá)480 000個(gè)視頻片段,專門用于視頻中人體動(dòng)作識(shí)別。本文采用的不安全行為檢測模型性能測試結(jié)果如表3所示。結(jié)果表明,該不安全行為檢測模型的精確率達(dá)92.3%,處于較高水平。

4 實(shí)際應(yīng)用場景實(shí)例

為驗(yàn)證檢測效果,本研究選取懸臂式掘進(jìn)機(jī)工作面為實(shí)驗(yàn)背景,對(duì)工人行為進(jìn)行識(shí)別和檢測,具體檢測行為如表4所示,其中,站立和行走為安全行為,攀爬、躺倒、玩手機(jī)及無人監(jiān)管為不安全行為。

按照表4中所列行為類別順序,分別驗(yàn)證其在正常光照條件和黑暗條件下的檢測情況,工人不安全行為檢測效果如圖6所示。結(jié)果表明,該算法能在正常光照條件下,準(zhǔn)確識(shí)別工人行為,即使在黑暗條件下,檢測精度稍有下降,但仍能對(duì)工人行為進(jìn)行識(shí)別,完成既定任務(wù)。

5 總結(jié)

(1)通過融合CLAHE和雙邊濾波兩種圖像處理技術(shù),顯著改善了視頻圖像的視覺效果,使其在黑暗和塵埃環(huán)境下的檢測能力得到提升。

(2)對(duì)YoloV5算法進(jìn)行改進(jìn),并融合了Detectron2算法,提高了人體關(guān)鍵節(jié)點(diǎn)檢測的精度,在原有基礎(chǔ)上提升了3個(gè)百分點(diǎn)。

(3)在正常光照條件和黑暗條件下的行為識(shí)別實(shí)驗(yàn)結(jié)果表明,基于YoloV5和SlowFast融合后的檢測算法可對(duì)攀爬、躺倒、玩手機(jī)和無人監(jiān)管四種不安全行為進(jìn)行識(shí)別,平均識(shí)別精確率達(dá)92.3%。

參考文獻(xiàn):

[1]黃輝,張雪. 煤礦員工不安全行為研究綜述[J]. 煤炭工程,2018,50(6):123-127.

[2]丁恩杰,俞嘯,夏冰,等.礦山信息化發(fā)展及以數(shù)字孿生為核心的智慧礦山關(guān)鍵技術(shù)[J]. 煤炭學(xué)報(bào),2022,47(1):564-578.

[3]李國清,王浩,侯杰,等.地下金屬礦山智能化技術(shù)進(jìn)展[J].金屬礦山,2021(11):1-12.

[4]吳愛祥,王勇,張敏哲,等.金屬礦山地下開采關(guān)鍵技術(shù)新進(jìn)展與展望[J].金屬礦山,2021(1):1-13.

[5]沈銘華,馬昆,楊洋,等. AI智能視頻識(shí)別技術(shù)在煤礦智慧礦山中的應(yīng)用[J]. 煤炭工程,2023,55(4):92-97.

[6]李占利,權(quán)錦成,靳紅梅. 基于3D-Attention與多尺度的礦井人員行為識(shí)別算法[J]. 國外電子測量技術(shù),2023,42(7):95-104.

[7]劉浩,劉海濱,孫宇,等. 煤礦井下員工不安全行為智能識(shí)別系統(tǒng)[J]. 煤炭學(xué)報(bào),2021,46(增刊2):1159-1169.

[8]溫廷新,王貴通,孔祥博,等. 基于遷移學(xué)習(xí)與殘差網(wǎng)絡(luò)的礦工不安全行為識(shí)別[J]. 中國安全科學(xué)學(xué)報(bào),2020,30(3):41-46.

[9]王宇,于春華,陳曉青,等.基于多模態(tài)特征融合的井下人員不安全行為識(shí)別[J].工礦自動(dòng)化,2023,49(11):138-144.

[10]韓康,李敬兆,陶榮穎.基于改進(jìn)YOLOv7和ByteTrack的煤礦關(guān)鍵崗位人員不安全行為識(shí)別[J].工礦自動(dòng)化,2024,50(3):82-91.

[11]Qiu S, Li Y, Zhao H, et al. Foxtail Millet Ear Detection Method Based on Attention Mechanism and Improved YOLOv5[J]. Sensors, 2022, 22(21): 8206-8206.

[12]Singh R, Shetty S, Patil G, et al. Helmet Detection Using Detectron2 and EfficientDet[C] //2021 12th International Conference on Computing Communication and Networking Technologies (ICCCNT). 2021: 1-5.

[13]Chakraverti S, Agarwal P, Pattanayak HS, et al. De-noising the image using DBST-LCM-CLAHE: A deep learning approach[J]. Multimedia Tools and Applications, 2024, 83(4): 11017-11042.

[14]Lv H, Shan P, Shi H, et al. An adaptive bilateral filtering method based on improved convolution kernel used for infrared image enhancement[J]. Signal, Image and Video Processing, 2022, 16(8): 2231-2237.

責(zé)任編輯:肖祖銘

Design and Integration of Algorithm for Detecting Unsafe Behaviors of Mining Workers

XU Jichan1,2, LI Jiayuan2

(1Cooperative Innovation Center for Intelligent Mining Technology and Equipment, Anhui University of Science and Technology, Huainan 232001, China;

2School of Mechatronic Engineering, Anhui University of Science and Technology, Huainan 232001, China)

Abstract:Using artificial intelligence technology to identify workers' unsafe behaviors in mining workfaces in real-time can ensure the safety of mining operations and reduce safety accidents caused by workers' unsafe behaviors. It has great significance for ensuring safe mining production. This paper proposes an unsafe behavior detection algorithm for mining workers based on the improved YoloV5 and SlowFast. To deal with the dark and hazy conditions in underground mines, the proposed algorithm fuses the CLAHE and bilateral filtering methods to enhance the lighting and noise reduction of the input video. The YoloV5 object detection model skeleton and head network are lightweight optimized, improving the model inference speed. The Detectron2 algorithm is fused to perform semantic segmentation of the work environment, achieving tracking and locking of workers, and accurately identifying the human skeleton features, reducing environmental interference. Through the improved SlowFast network, the dynamic changes of the key points of human skeleton are analyzed to realize the effective identification of unsafe behaviors. The experimental results show that the algorithm has an average accuracy of 92.3% for the identification of four unsafe behaviors of climbing, lying down, playing with mobile phones and unsupervised, which provides strong technical support for the safety management of mining operation.

Keywords: computer vision; mining safety; target detection; attitude estimation; behavior recognition

基金項(xiàng)目:安徽理工大學(xué)礦山智能技術(shù)與裝備省部共建協(xié)同創(chuàng)新中心開放基金項(xiàng)目( CICJMITE202205)

作者簡介:許吉禪(1988—),男,安徽岳西人,副教授,博士,主要從事機(jī)電一體化系統(tǒng)設(shè)計(jì)研究。

主站蜘蛛池模板: 亚洲资源在线视频| 久久黄色小视频| 成年看免费观看视频拍拍| 中文字幕在线永久在线视频2020| 白浆免费视频国产精品视频 | 日韩乱码免费一区二区三区| 狠狠躁天天躁夜夜躁婷婷| 日韩经典精品无码一区二区| 精品福利网| 国产不卡在线看| 一级做a爰片久久毛片毛片| 日本爱爱精品一区二区| 强奷白丝美女在线观看 | 国产99视频精品免费视频7| 成人久久精品一区二区三区 | 一本二本三本不卡无码| 国产精品免费p区| 九九久久精品免费观看| 国产麻豆精品手机在线观看| 国产精品成人一区二区| 日韩精品免费一线在线观看| 国产精品香蕉在线观看不卡| 国产在线小视频| www.日韩三级| 亚洲无限乱码一二三四区| 国产极品美女在线播放 | 日本高清在线看免费观看| 88av在线| 免费人成视频在线观看网站| 第九色区aⅴ天堂久久香| 最新日本中文字幕| 亚洲色图综合在线| 欧美国产在线精品17p| 99久久性生片| 欧美日韩91| jizz国产在线| 国产成人精品日本亚洲77美色| 久久亚洲中文字幕精品一区| 亚洲日本韩在线观看| 成·人免费午夜无码视频在线观看| AV老司机AV天堂| 国产成人午夜福利免费无码r| 日韩国产一区二区三区无码| 婷婷综合色| 亚洲欧美综合在线观看| 激情综合激情| 免费aa毛片| 亚洲三级网站| 激情六月丁香婷婷四房播| 色屁屁一区二区三区视频国产| 人妻中文久热无码丝袜| 欧美一道本| 色国产视频| 亚洲色图综合在线| 午夜福利视频一区| 亚洲国产精品日韩欧美一区| 欧美日韩第二页| 欧美成人一级| 有专无码视频| 国产无遮挡猛进猛出免费软件| 亚洲AV成人一区二区三区AV| 亚洲高清无码久久久| 亚洲精品免费网站| 亚洲h视频在线| 亚洲有无码中文网| 中文字幕免费播放| 日本欧美视频在线观看| 伊人久久精品无码麻豆精品 | 91免费观看视频| 毛片免费在线| 国产自在线拍| 思思热在线视频精品| 午夜无码一区二区三区| 亚洲第一综合天堂另类专| 国产精品色婷婷在线观看| 国产尹人香蕉综合在线电影| 国产国产人成免费视频77777| 精品91在线| 91精品啪在线观看国产| 最新国产午夜精品视频成人| 在线精品自拍| 国产AV无码专区亚洲A∨毛片|