李天宇,吳 浩,毛艷玲,田洋川,陳明舉+
(1.四川輕化工大學 人工智能四川省重點實驗室,四川 宜賓 644000;2.四川輕化工大學 自動化與信息工程學院,四川 宜賓 644000)
近年來,基于卷積神經(jīng)網(wǎng)絡(luò)的安全帽佩戴檢測方法[1,2]已成為目前研究的主流,基于深度學習的目標檢測算法主要分為兩階段檢測算法和單階段檢測算法。如針對二階段的檢測算法,徐守坤等[3]在Faster RCNN的基礎(chǔ)上利用特征融合來優(yōu)化RPN網(wǎng)絡(luò),并采用困難樣本挖掘技術(shù)訓練模型,提高了檢測的準確率。孫國棟等[4]通過自注意力機制以及錨框補選增強方法來提高Faster CNN對小目標的檢測準確率。
由于施工作業(yè)現(xiàn)場的環(huán)境復雜多變,對安全帽檢測的實時性要求高,于是單階段檢測算法憑借其快速且準確的優(yōu)點在安全帽佩戴檢測上獲得了大量應用。如李明山等[5]、徐先峰等[6]利用SSD檢測網(wǎng)絡(luò)構(gòu)建新的安全帽檢測網(wǎng)絡(luò),分別對模型結(jié)構(gòu)和訓練方式進行改進以提高其檢測能力。陳柳等[7]在RFBNet基礎(chǔ)上引入SE-Ghost模塊來輕量化檢測模型,并利用FPN提高網(wǎng)絡(luò)對小目標檢測的魯棒性。徐凱等[8]、徐守坤等[9]都對YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)、損失函數(shù)以及預選框尺寸進行了優(yōu)化,提高了網(wǎng)絡(luò)對安全帽的檢測準確率,特別是提高了對小目標的檢測能力。
本文針對施工作業(yè)區(qū)域安全帽檢測困難的問題,以YOLOv4網(wǎng)絡(luò)為基礎(chǔ)提出了一種施工現(xiàn)場安全帽檢測方法SR_YOLO。該檢測網(wǎng)絡(luò)引入多尺度空間金字塔層和特征增強模塊,并利用Kmeans++算法來對目標樣本進行anchor尺寸優(yōu)化,提高了網(wǎng)絡(luò)對安全帽的檢測能力。實驗結(jié)果表明,在施工現(xiàn)場區(qū)域,本文的安全帽檢測方法能夠?qū)崿F(xiàn)對復雜背景下安全帽的準確檢測,且滿足實時檢測的需求。
YOLOv4[10]是YOLO系列第四代算法,其在YOLOv3的基礎(chǔ)上融合了一系列的網(wǎng)絡(luò)模型和訓練技巧,得到的一個實時性的單階段目標檢測算法。該算法由主干特征提取網(wǎng)絡(luò)、Neck網(wǎng)絡(luò)以及檢測頭部組成,主干特征提取網(wǎng)絡(luò)在Darknet53的基礎(chǔ)上,引入CSPNet的思想[11],形成了新的主干網(wǎng)絡(luò)CSPDarknet,在降低網(wǎng)絡(luò)參數(shù)量的同時還保證了網(wǎng)絡(luò)的檢測準確率;同時為了提高網(wǎng)絡(luò)的感受野,YOLOv4在主干網(wǎng)絡(luò)尾部插入了一個空間金字塔池化層(SPPNet),利用5×5、9×9、13×13的最大池化層來獲得不同大小的感受野,提高網(wǎng)絡(luò)對于小目標物體的捕獲能力;最后在Neck網(wǎng)絡(luò)中利用PANet[12]代替FPN金字塔結(jié)構(gòu)[13],進一步融合高低層的語義信息和位置信息;檢測頭部則和YOLOv3保持一致,利用3×3卷積和1×1卷積調(diào)整通道數(shù)后輸出檢測。
YOLOv4以608×608的圖片作為輸入,利用主干網(wǎng)絡(luò)CSPDarknet53提取特征,經(jīng)5次下采樣之后,輸出3個不同大小的特征圖(19×19、38×38、76×76),其中19×19特征圖后接SPPNet空間金字塔模塊,通過3個5×5、9×9以及13×13的最大池化層來增大網(wǎng)絡(luò)的感受野;隨后Neck網(wǎng)絡(luò)中將3種不同大小的特征層通過PANet雙向特征金字塔網(wǎng)絡(luò)來實現(xiàn)淺層特征信息與高層特征信息的融合,充分利用了深層的語義信息和淺層的位置信息,使得網(wǎng)絡(luò)對于小目標物體的檢測性能提升。最后在檢測頭部,利用回歸思想對3種不同大小的特征圖進行目標檢測,分別在大的特征圖檢測小目標、中等大小特征圖檢測中等目標以及小特征圖上檢測大目標。YOLOv4相比于YOLOv3,檢測精度和速度都有所提升,相比于一般的兩階段檢測算法,其速度和精度都擁有很大的優(yōu)勢。其算法結(jié)構(gòu)示意如圖1所示。

圖1 YOLOv4結(jié)構(gòu)
YOLOv4雖然在檢測速度和檢測精度上都要優(yōu)于目前的大多數(shù)單階段目標檢測算法,但是對于施工現(xiàn)場復雜背景下的弱小安全帽目標,檢測精度不足。針對此類問題,本文通過改進空間金字塔池化層和Neck網(wǎng)絡(luò)中引入特征增強模塊來提高YOLOv4對小目標物體檢測的魯棒性,并利用Kmeans++算法聚類出適合本文安全帽數(shù)據(jù)集Anchor尺寸,使其更適合于安全帽檢測任務,并在一定程度上滿足實時性檢測的要求。
為了提高網(wǎng)絡(luò)對弱小目標安全帽目標的檢測能力,本文建立了一種基于改進YOLOv4的安全帽佩戴檢測新方法SR_YOLO來提高施工現(xiàn)場弱小安全帽目標的檢測精度。
YOLOv4根據(jù)SPPNet[14]的結(jié)構(gòu),在主干網(wǎng)絡(luò)后嵌入了一個空間金字塔池化層,對高層特征進行多尺度池化用來擴大感受野,其結(jié)構(gòu)如圖2所示。針對輸入的特征圖,分別利用5×5、9×9以及13×13的池化核做步長為1的最大池化(空間金字塔池化層如圖2所示),此最大池化層不僅具有平移不變性,而且利用不同大小的池化核擴大了感受野,且?guī)淼挠嬎愠杀竞苄?。隨后將3種池化操作結(jié)果與輸入特征圖進行concat操作,使得特征層能夠分離出最顯著的上下文特征,便于網(wǎng)絡(luò)對目標的定位與分類[15]。
式中:A0—樣品的初始14C放射性濃度(Bq/g),實際應用時取“現(xiàn)代碳”標準(813.6Bq/g);A—停止交換t年后樣品的14C放射性濃度(Bq/g);t—停止交換后所經(jīng)歷的時間;λ—14C的衰變常數(shù),λ=ln2/T1/2=0.693/T1/2,T1/2為14C半衰期(5730a),帶入后得到:

圖2 空間金字塔池化層結(jié)構(gòu)
考慮到原始YOLOv4中使用了608×608大小的圖片作為輸入,而本文從計算資源方面考慮,使用了416×416大小的圖片作為輸入,故重新計算池化核大小,采用4×4,7×7,13×13大小的池化核來進行最大池化操作。并且為了使各特征層中的感受野差距較小,能夠在一定程度上充分利用到全局信息,本文額外添加了一個2×2的池化分支,來獲得一個較小的感受野,使空間金字塔層的感受野層級更加細化,進一步利用不同尺度特征圖上的不同子區(qū)域特征。
因此,結(jié)構(gòu)上本文借鑒了PSPNet中的金字塔模塊,采用2×2,4×4,7×7,13×13這4個不同大小的池化核來提出一種多尺度的空間金字塔池化層,其結(jié)構(gòu)如圖3所示。首先利用4個不同池化核做最大池化操作,得到4種具有不同感受野層級的特征圖;然后分別使用1×1的卷積對池化操作后的圖片進行降維,將其通道數(shù)降為輸入通道數(shù)的1/4;最后通過concat操作將4種不同最大池化操作后結(jié)果與輸入特征出進行通道上的拼接,得到一個通道數(shù)為2C的特征圖,再由一個1×1的卷積將通道降為C。將此多尺度的空間金字塔模塊嵌入CSP_Darknet53主干網(wǎng)絡(luò)后,得到的特征圖中各層級的感受野差距較小,獲得的安全帽目標的全局信息完整,能夠分離出較為顯著的上下文信息,提升網(wǎng)絡(luò)對安全帽目標的檢測精度。

圖3 多尺度的空間金字塔池化層
在YOLOv4中,Neck網(wǎng)絡(luò)使用了PANet融合高低層的特征信息來完成多尺度檢測,該結(jié)構(gòu)能夠縮短特征信息的傳播路徑并利用到低層特征圖上位置信息。PANet使用了Concat的融合方式,對特征圖做通道上的拼接,并利用5次卷積對融合后的特征進行整合與信息提取。其中,5次卷積由1×1和3×3卷積組成,主要通過3×3的卷積進行特征提取,1×1卷積用來調(diào)整通道數(shù)。因此,這樣操作雖然能夠在一定程度上提取到豐富的特征信息,但是提取到的特征信息較為單一,同時也帶來了網(wǎng)絡(luò)參數(shù)量的增加。文獻[16]提出了一種基于分層卷積結(jié)構(gòu)的特征提取網(wǎng)絡(luò)Res2 Net,其構(gòu)建了一種新的類殘差連接模塊,即在一個獨立的殘差塊中使用了分層卷積。Res2 Net網(wǎng)絡(luò)利用該模塊代替原始的殘差模塊后,使得特征圖上的感受野能夠在更細粒度級別上的變化來捕獲細節(jié)特征和全局特性[17]。因此,本文借鑒Res2 Net中的類殘差結(jié)構(gòu)并結(jié)合5次卷積中的設(shè)計思想,利用1×1、3×3的分層卷積結(jié)構(gòu)來組成新的特征增強模塊來代替5次卷積模塊。
同時,為了使網(wǎng)絡(luò)學習到更為全局的特征,本文在特征增強模塊中引入了注意力機制scSE模塊[18],scSE模塊為cSE通道注意力與sSE空間注意力進行相加而得來的,分別從通道和空間的角度來增強特征信息,使網(wǎng)絡(luò)關(guān)注感興趣區(qū)域。本文在增強模塊尾部嵌入scSE模塊,分別利用通道注意力機制和空間注意力機制來對通道間和空間上的特征信息的重新標定,進一步增強了有意義的特征,抑制了無用特征。特征增強模塊的結(jié)構(gòu)如圖4所示。

圖4 特征增強模塊
首先通過1×1卷積調(diào)整輸入特征圖的通道數(shù);然后輸出4個并行支路x1、x2、x3、x4,分別利用1×1、3×3卷積進行特征提取,其中有3條支路使用了分層卷積操作,即本支路3×3卷積操作后送入相鄰支路與該支路輸入特征圖進行一個殘差連接后,再利用3×3卷積進行采樣操作,并將4條支路的輸出特征圖y1、y2、y3、y4做一個通道上的拼接;最后使用一個1×1卷積來整合通道數(shù),并嵌入scSE注意力機制對權(quán)重進行標定,凸顯目標特征的有用信息。
因此,本文將該特征增強模塊引入Neck網(wǎng)絡(luò)中代替原本的5次卷積,對檢測網(wǎng)絡(luò)中經(jīng)過Concat融合后的特征圖進行通道調(diào)整和特征提取。特征提取模塊在Neck網(wǎng)絡(luò)中的使用位置如圖5所示(Detection block為特征增強模塊),通過本文的特征提取模塊操作后,能夠在一定程度上增加網(wǎng)絡(luò)的復雜度,提取到更多的特征信息,同時也能減少信息的丟失并提高網(wǎng)絡(luò)的檢測精度。

圖5 基于特征增強模塊的Neck網(wǎng)絡(luò)
YOLOv4網(wǎng)絡(luò)設(shè)置了9種不同大小和寬高比的Anchor(Anchor box=12,16;19,36;40,28;36,75;76,55;72,146;142,110;192,243;459,401),分別應用于3種不同尺寸的特征圖來檢測出目標的Bounding box。由于YOLOv4中的Anchor是在 PASCAL VOC目標檢測數(shù)據(jù)集上以608×608的尺寸大小通過Kmeans算法聚類得來的,其比例尺寸分配較為均勻,且尺寸較大。而本文的安全帽數(shù)據(jù)集中目標大小較為極端且使用了416×416大小的圖片作為輸入,所以YOLOv4預設(shè)的Anchor不太適合本文的模型訓練。
因此,本文使用了Kmeans++聚類算法來對本文的安全帽數(shù)據(jù)集的anchor box進行聚類分析。Kmeans++為聚類算法Kmeans的改進算法,相比于傳統(tǒng)的Kmeans算法,其通過對初始點的優(yōu)化提高了聚類的精度,能夠針對數(shù)據(jù)集聚類出更為合適的Anchor box尺寸。同時,使用了anchor box與ground truth的最大比IOU作為度量距離,其計算公式如下所示
D(box,centroid)=1-IOU
(1)
其中,box為數(shù)據(jù)集中真實標注框,centroid為聚類的中心點。Kmeans++聚類算法的步驟如下:
(1)首先隨機選取某一樣本目標框區(qū)域作為初始聚類中心;
(2)隨后計算每個樣本與當前聚類中心的距離D,并計算該樣本被選為下一聚類中心的概率,然后使用輪盤法選取下一聚類中心;
(3)重復步驟(2)直到聚類出k個聚類中心;
(4)最后利用Kmeans算法,通過計算每個樣本到聚類中心的距離得到最后的目標框尺寸。
本次實驗在深度學習工作站上搭建環(huán)境并進行訓練,服務器硬件配置為CPU(Inter Xeon E5-2695)、GPU(Nvidia TITAN Xp)、主板(超微X10DRG-Q);操作系統(tǒng)為Windows10專業(yè)版;軟件配置為Anaconda、Pycharm;編程語言為Python,深度學習框架為Keras。
實驗數(shù)據(jù)為網(wǎng)上收集的安全帽檢測數(shù)據(jù)集,由網(wǎng)頁爬取的施工現(xiàn)場圖片和SCUT-HEAD中的部分圖像組成(大部分為某學校課堂監(jiān)控視頻),所有的圖像用labelimg標注出目標區(qū)域及類別,一共分為兩個類別,佩戴安全帽的標記為‘hat’,未佩戴安全帽的標記為‘person’。該安全帽數(shù)據(jù)集一共有6600張圖片,其中6000張作為訓練集,600張作為測試集。并且,為了增加實驗數(shù)據(jù)集的多樣性以及防止安全帽檢測模型過擬合,本文在訓練集數(shù)據(jù)輸入模型訓練前使用圖像縮放、長寬扭曲、圖像翻轉(zhuǎn)、色域扭曲以及為圖像多余部分增加灰條等操作對訓練集進行預處理。
本文采用安全帽數(shù)據(jù)集對檢測網(wǎng)絡(luò)進行訓練,訓練時輸入圖片尺寸設(shè)置為416×416,優(yōu)化器為Adam。網(wǎng)絡(luò)訓練分兩個階段進行,第一階段為粗訓練,旨在快速降低網(wǎng)絡(luò)的損失值,第二階段為細訓練,使網(wǎng)絡(luò)能夠更好的收斂。第一階段訓練20輪(epoch),batch size設(shè)置為12,學習率(learning rate)設(shè)置為 0.001;第二階段訓練140輪(epoch),batch size設(shè)置為12,學習率采用了余弦退火下降策略,基礎(chǔ)學習率(learning rate)設(shè)置為0.0001,下降最小學習率為0.000 001,開始學習率為0.000 01,學習率先線性上升,再以余弦的方式下降,在140輪內(nèi)多次上升和下降,以此來越過局部最小點。SR_YOLO的損失下降曲線如圖6所示。由圖6可知,本文改進算法最終損失值下降至17左右區(qū)域平穩(wěn),此時網(wǎng)絡(luò)收斂。

圖6 SR_YOLO的損失下降曲線
本文以召回率(Recall)、漏檢率(Larm)、平均精確率AP(average precision)以及平均精確率均值mAP(mean average precision)作為網(wǎng)絡(luò)的性能評判指標。其中,檢測的召回率Recall、漏檢率Larm以及平均精確率均值mAP的計算公式如下所示
Recall=TPTP+FN×100%
(2)
Larm=FNTP+FN×100%
(3)
mAP=∑ci=1APic
(4)
式中:TP為正類預測為正類數(shù),F(xiàn)N為將正類預測為負類數(shù),c表示類別數(shù),AP為單個目標的平均精確度,其中,AP=∫10P(R)dR。
(1)Kmeans++聚類結(jié)果分析
本文實驗采用Kmeans++算法對安全帽數(shù)據(jù)集中目標的Anchor box尺寸進行聚類分析,同時采用平均交并比(Avg IOU)作為聚類結(jié)果的評價指標。Anchor框個數(shù)與Avg IOU分析結(jié)果如圖7所示,圖7中展示了k值取1~12時不同的Avg IOU值,由于本文未改動YOLOv4輸出特征層的數(shù)量,故使用k=9,Avg IOU=81.32%所產(chǎn)生的Anchor框尺寸。

圖7 Anchor框個數(shù)與Avg IOU結(jié)果
圖8為Kmeans++算法聚類圖,其中圖8(a)為安全帽數(shù)據(jù)集中目標框分布圖,可知目標框尺寸主要集中在[0~150,0~200]的區(qū)間中,原始YOLOv4中所使用的Anchor框尺寸并不符合安全帽數(shù)據(jù)訓練的要求。圖8(b)為Kmeans++算法對安全帽數(shù)據(jù)的聚類結(jié)果,聚類k值取9,經(jīng)過迭代最后所有數(shù)據(jù)點聚類成9個區(qū)域,每個區(qū)域中使用了五角星代表其聚類中心,即最終獲得的9種不同大小的Anchor尺寸。
本文利用Kmeans++算法聚類得到的anchor尺寸見表1,其中13×13大小的特征圖上分配最大的3個Anchor,26×26上分配中等的3個Anchor,最大的特征圖上使用最小的3個Anchor,滿足YOLOv4在小的特征圖預測大目標,在大的特征圖上預測小目標的規(guī)范。

表1 anchor參數(shù)
(2)消融實驗分析
為了驗證改進點對安全帽檢測的有效性,本文利用消融實驗進行了縱向?qū)Ρ确治?,采用相同的測試集,從網(wǎng)絡(luò)的平均精確率AP以及平均精確率均值mAP的結(jié)果來判斷改進網(wǎng)絡(luò)是否有效,其中IOU閾值設(shè)置為模型評估通用的0.5。
由表2可知,對空間金字塔池化層進行改進后,可以看出佩戴安全帽的AP值基本保持不變,未戴完全帽的AP值則上升了0.78%,mAP值達到了83.23%,這表明利用多池化核做最大池化能夠很好分離出上下文信息,提高了對安全帽和未佩戴安全帽的小目標檢測精度;使用基于分層卷積與scSE模塊的特征增強模塊對Neck網(wǎng)絡(luò)中的融合特征圖進行采樣后,佩戴安全帽和未戴完全帽的AP值分別上升了0.66%和0.32%,mAP值達到了83.09%,說明該特征增強模塊提取到特征信息更為豐富,對于一些小目標安全帽的特征也能很好的凸顯出來;使用Kmeans++聚類出的新Anchor進行訓練后,佩戴安全帽和未佩戴安全帽的AP值分別上升了0.47%和1.46%,說明利用Kmeans++聚類出來的anchor尺寸更符合訓練樣本,能夠提高網(wǎng)絡(luò)對安全帽佩戴檢測的精確度。最后,將所有改進點結(jié)合訓練得到SR_YOLO,其mAP值為84.05%,比為未改進前YOLOv4的mAP值高1.45%,說明本文建立的基于改進YOLOv4的安全帽佩戴檢測方法真實有效,能夠提高對安全帽的檢測精度。

表2 消融實驗結(jié)果
(3)橫向?qū)Ρ葘嶒灧治?/p>
同時,為了驗證本文改進算法的檢測實用性,選取了SSD、RFBNet、YOLOv4網(wǎng)絡(luò)在相同的實驗環(huán)境下利用相同的訓練方式和數(shù)據(jù)集訓練,進行了橫向?qū)Ρ葘嶒灧治?。并利用相同的測試集對4種網(wǎng)絡(luò)進行測試,從網(wǎng)絡(luò)模型的召回率(Recall)、漏檢率(Larm)、平均精確率(AP)、平均精確率均值(mAP)以及檢測速度等評價指標來驗證改進網(wǎng)絡(luò)的優(yōu)越性。網(wǎng)絡(luò)模型檢測性能見表3。

表3 橫向?qū)Ρ葘嶒灲Y(jié)果
由表3可以看出,在相同的訓練條件下,對于“Hat”和“Person”兩類,本文檢測方法的召回率最高且漏檢率最低,分別為83.35%、76.33%和22%、67%。這說明本文所提檢測方法在相同測試集下,能夠正確檢測出的安全帽和未帶安全帽的目標最多,并且其綜合檢測性能最佳。同時,本文所提出檢測方法SR_YOLO的mAP值最高,相較于SSD、RFBNet以及YOLOv4分別高出了15.58%、19.46%和1.45%,這說明SR_YOLO對安全帽的檢測精度最高,檢測效果更好。針對這4個模型的檢測速度和參數(shù)量可知,SSD的檢測速度最快并且其模型參數(shù)量最低,本文的SR_YOLP的參數(shù)量達到233 MB,較改進前有一定程度的下降,且其檢測速度為30 fps,完全滿足實時性的要求。從以上數(shù)據(jù)數(shù)據(jù)可知,本文的安全帽檢測算法SR_YOLO完全滿足是施工現(xiàn)場復雜環(huán)境下對佩戴安全帽和未佩戴安全帽的工作人員的準確識別,并且滿足實時性的要求。
為進一步說明本文檢測方法在真實環(huán)境下對施工現(xiàn)場工作人員安全帽佩戴檢測的性能,利用上述訓練好的模型進行測試,并對測試結(jié)果進行對比分析。隨機選取了4張真實施工現(xiàn)場作業(yè)圖,如圖9(a)、圖9(b)、圖9(c)、圖9(d)從左至右分別為4張不同環(huán)境下的測試圖片。圖10為檢測結(jié)果,圖10(a)~圖10(d)從左至右分別為SSD、RFBNet、YOLOv4以及SR_YOLO對4張測試圖的檢測結(jié)果,圖中的淺灰色框為表示安全帽,用“hat”表示其類別,深灰色框為未佩戴安全帽,用“person”表示其類別。

圖9 測試圖片
從圖10中可以看出,SSD和RFBNet網(wǎng)絡(luò)的檢測性能最差,4幅圖都有不同程度的漏檢和誤檢,針對圖中出現(xiàn)的有遮擋和較小安全帽目標,兩種檢測網(wǎng)絡(luò)均存在大量的漏檢測情況,其中第三行圖中二者均存在誤檢測,誤將旁邊的物體檢測為佩戴安全帽的目標。兩種檢測網(wǎng)絡(luò)性能較差的原因可能是都以VGG16作為主干特征提取網(wǎng)絡(luò),導致其未能挖掘更深層次的特征信息。其次,YOLOv4的檢測性能較SSD和RFBNet都好,能夠?qū)Υ蟛糠值陌踩边M行準確,但是存在少量的漏檢。針對安全帽分布較為密集的環(huán)境下,YOLOv4檢測能力要強于SSD和RFBNet。測試圖1、測試圖2中較為密集的環(huán)境,YOLOv4能夠?qū)Υ蠖鄶?shù)的安全帽目標進行檢測但存在少量漏檢;針對測試圖3、測試圖4較為稀疏環(huán)境,YOLOv4能實現(xiàn)所有安全帽目標的進行準確檢測。這說明對于密集情況下的有遮擋和弱小安全帽目標,YOLOv4的檢測效果一般,存在一定的漏檢情況。最后,本文提出的檢測方法SR_YOLO能夠?qū)y試圖1~測試圖4中所有的遮擋以及弱小安全帽目標都檢測出來,這說明本文方法的檢測性能最好,所提出的改進方法真實有效,能夠更好挖掘出更深層次的特征信息,提高網(wǎng)絡(luò)的檢測性能。
針對真實施工場景下,安全帽佩戴檢測所面臨的檢測目標較小、背景干擾性強等問題,本文在YOLOv4的基礎(chǔ)上,引入了多尺度空間金字塔層和特征增強模塊來改進檢測網(wǎng)絡(luò),并利用Kmeans++算法來對安全帽樣本進行anchor尺寸優(yōu)化,進一步提高了網(wǎng)絡(luò)對安全帽的檢測準確率。實驗結(jié)果表明,本文SR_YOLO的mAP值為84.05%,檢測速度為30 fps,能夠?qū)φ鎸嵉氖┕がF(xiàn)場環(huán)境下工作人員是否佩戴安全帽進行實時且準確的檢測。但本文檢測網(wǎng)絡(luò)只針對檢測的精確度進行改進提升,未對檢測速度方面進行優(yōu)化,因此下一步可以通過使用輕量化模型,在保證檢測精度的情況下進行檢測速度的提升。