999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進(jìn)YOLOv5s算法的安全帽佩戴檢測(cè)

2023-01-29 13:20:20宋曉鳳吳云軍劉冰冰張青林
關(guān)鍵詞:機(jī)制特征檢測(cè)

宋曉鳳,吳云軍,劉冰冰,張青林

1.華中師范大學(xué) 物理科學(xué)與技術(shù)學(xué)院,武漢430079

2.火箭軍裝備部駐武漢地區(qū)第一軍事代表室,武漢430079

安全帽作為一種最常見(jiàn)和最實(shí)用的個(gè)人防護(hù)用具,能夠有效地防止和減輕外來(lái)危險(xiǎn)對(duì)頭部的傷害。但在眾多施工場(chǎng)地中,安全帽的佩戴很容易被施工人員忽略,從而引發(fā)人身傷害的事故。然而在我國(guó)大多數(shù)施工場(chǎng)所中采用人工進(jìn)行安全帽的佩戴檢測(cè),這種原始的檢測(cè)方法不僅耗時(shí)耗力,而且容易產(chǎn)生誤差。為了解決現(xiàn)有施工場(chǎng)地存在的這一安全管理問(wèn)題,對(duì)施工場(chǎng)地進(jìn)行智能化的管理,因此對(duì)施工人員進(jìn)行安全帽佩戴狀態(tài)的實(shí)時(shí)檢測(cè)具有重大的研究意義。

目標(biāo)檢測(cè)被應(yīng)用于人臉識(shí)別[1]、監(jiān)控安全、自動(dòng)駕駛[2]等眾多領(lǐng)域。現(xiàn)有的目標(biāo)檢測(cè)算法包括傳統(tǒng)目標(biāo)檢測(cè)算法和基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法。傳統(tǒng)目標(biāo)檢測(cè)算法步驟為先通過(guò)滑動(dòng)窗口選擇候選區(qū)域,然后使用手工設(shè)計(jì)的特征提取器提取特征,最后將提取得到的特征送入分類器中進(jìn)行檢測(cè)。同時(shí)隨著卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)的快速發(fā)展,利用CNN網(wǎng)絡(luò)的基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法利用大量的數(shù)據(jù)集對(duì)模型進(jìn)行訓(xùn)練,使其具備更強(qiáng)的泛化能力,更適合復(fù)雜多變的場(chǎng)景。

本文將目標(biāo)檢測(cè)算法應(yīng)用于安全帽佩戴檢測(cè)中。目前基于深度學(xué)習(xí)的安全帽佩戴檢測(cè)算法可以分為兩種,一種是基于Region-proposal的兩階段方法;另一種是基于回歸的一階段方法。兩階段方法首先生成一組候選區(qū)域框,然后對(duì)它們進(jìn)一步去分類和回歸,代表性的方法有R-CNN[3]、Fast R-CNN[4]、Faster R-CNN[5]等。在傳統(tǒng)目標(biāo)檢測(cè)算法中文獻(xiàn)[6]利用梯度方向直方圖(histogram of oriented gradient,HOG)對(duì)施工人員進(jìn)行檢測(cè),然后利用原霍夫變換進(jìn)行特征提取,最后利用分類器實(shí)現(xiàn)對(duì)安全帽的檢測(cè)。在基于Region-proposal的兩階段方法中,文獻(xiàn)[7]孫國(guó)棟等人通過(guò)在Faster R-CNN中添加自注意力機(jī)制來(lái)獲取多尺度的全局信息,使其得到更豐富的高層語(yǔ)義特征信息并將更大的感受野范圍引入模型,然后再對(duì)錨框進(jìn)行改進(jìn),強(qiáng)化網(wǎng)絡(luò)對(duì)小目標(biāo)的表達(dá)信息,改進(jìn)后的Faster R-CNN算法在不同場(chǎng)景和不同尺度的安全帽上都有著很好的檢測(cè)效果。基于回歸的一階段方法則是直接進(jìn)行目標(biāo)的類別和位置的回歸,代表方法有SDD[8]、YOLO[9-12]系列等。在一階段算法中,文獻(xiàn)[13]張勇等人在YOLOv3結(jié)構(gòu)中采用DenseNet(密集卷積網(wǎng)絡(luò))方法處理低分辨率的特征層,在保持特征提取充足的同時(shí)降低了計(jì)算的復(fù)雜度,從而提高了算法的檢測(cè)和收斂性能,改進(jìn)后的YOLOv3算法符合安全帽佩戴檢測(cè)的要求。文獻(xiàn)[14]王雨生等人在YOLOv4結(jié)構(gòu)的基礎(chǔ)上通過(guò)對(duì)膚色特征識(shí)別和頭部檢測(cè)獲取頭部區(qū)域,并進(jìn)行交叉實(shí)驗(yàn),最后通過(guò)實(shí)驗(yàn)對(duì)比分析安全帽檢測(cè)的性能。文獻(xiàn)[15]王英酈在YOLOv5結(jié)構(gòu)中引入輕量級(jí)注意力模塊CBAM,同時(shí)使用SIoU_Loss損失函數(shù)替代原始的損失函數(shù),以此來(lái)提高模型的收斂效果。最終提升了安全帽佩戴檢測(cè)的準(zhǔn)確性。

在實(shí)際應(yīng)用中,在保證安全帽佩戴檢測(cè)精度的前提下,也應(yīng)盡可能地提高安全帽佩戴檢測(cè)的速度,因此本文以輕量級(jí)的YOLOv5s為基礎(chǔ)來(lái)進(jìn)行安全帽佩戴檢測(cè)的研究。首先,針對(duì)特征提取不充分等問(wèn)題,采用在YOLOv5s中加入CoordAtt坐標(biāo)注意力機(jī)制,使其重新分配每個(gè)空間和通道的權(quán)重,增強(qiáng)特征間的信息傳播。其次針對(duì)原主干網(wǎng)對(duì)細(xì)粒度特征融合不充分的問(wèn)題,采用Res2NetBlock中的殘差塊去替代YOLOv5s中的殘差塊,使其能夠在更細(xì)粒度的層面上對(duì)特征進(jìn)行有效的融合。實(shí)驗(yàn)結(jié)果表明,本文改進(jìn)后的算法在安全帽佩戴檢測(cè)中取得了良好的檢測(cè)效果。

1 YOLOv5算法

YOLOv5檢測(cè)算法是由Ultralytics公司于2020年發(fā)布的,是一種輕量級(jí)的模型,并且YOLOv5s使用depth_multiple和width_multiple兩個(gè)參數(shù)來(lái)控制四種結(jié)構(gòu),這四種結(jié)構(gòu)分別是YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x。YOLOv5s如圖1所示,包含輸入端、Backbone(主干網(wǎng))、Neck(多尺度特征融合網(wǎng)絡(luò)),以及Prediction(檢測(cè)頭)。

圖1 YOLOv5s結(jié)構(gòu)圖Fig.1 YOLOv5s structure diagram

1.1 輸入端

YOLOv5s的輸入端采用了Mosaic數(shù)據(jù)增強(qiáng)、自適應(yīng)圖片縮放等技術(shù)。首先,Mosaic數(shù)據(jù)增強(qiáng)將四張圖像通過(guò)隨機(jī)縮放、剪切和排列等方式組合在一起。使用Mosaic數(shù)據(jù)增強(qiáng)具有豐富數(shù)據(jù)集、減少GPU使用的數(shù)量等優(yōu)點(diǎn)。其次,輸入端采用自適應(yīng)圖片縮放的技術(shù)。在常用的目標(biāo)檢測(cè)算法中所采用的壓縮填充方式,導(dǎo)致圖像兩端的黑色填充較多,出現(xiàn)信息冗余,影響推理的速度。在YOLOv5算法中,自適應(yīng)地在原始圖像上添加最小的黑邊。圖像兩端的黑色邊緣高度變小,推理時(shí)計(jì)算量減小,即目標(biāo)檢測(cè)速度提高。

1.2 Backbone(主干網(wǎng))

Backbone主干網(wǎng)主要由Focus結(jié)構(gòu)和CSP結(jié)構(gòu)組成。Focus結(jié)構(gòu)中最核心的就是切片操作。在YOLOv5中,網(wǎng)絡(luò)的輸入圖像是大小為640×640×3,然后將圖片輸入Focus結(jié)構(gòu),進(jìn)行切片操作,先變成320×320×12的特征圖,再經(jīng)過(guò)32個(gè)卷積核的卷積操作,最終變成320×320×32的特征圖。

CSP結(jié)構(gòu)借鑒了CSPNet[16]的設(shè)計(jì)思路,YOLOv5s在主干網(wǎng)絡(luò)和Neck中設(shè)計(jì)了兩種不同的CSP結(jié)構(gòu)。Backbone中采用CSP結(jié)構(gòu)先將原始輸入分成兩個(gè)分支,分別進(jìn)行卷積操作和N個(gè)殘差塊的操作,最后將兩個(gè)分支進(jìn)行拼接,在減少計(jì)算量的同時(shí)也可以保護(hù)準(zhǔn)確率。

1.3 Neck(多尺度特征融合網(wǎng)絡(luò))

Neck部分采用的是SPP+PANet[17]結(jié)構(gòu),其中PANet由FPN+PAN結(jié)構(gòu)組成。為了更一步提高特征提取的能力。結(jié)合FPN和PAN,F(xiàn)PN層自頂向下傳達(dá)強(qiáng)語(yǔ)義特征,而特征金字塔則自底向上傳達(dá)強(qiáng)定位特征,從不同的主干層聚合不同檢測(cè)層的參數(shù),采用的不再是普通的卷積操作,而是采用的CSP結(jié)構(gòu),從而進(jìn)一步提高網(wǎng)絡(luò)特征融合的能力。SPP模塊在主干網(wǎng)之后,采用K={1×1,5×5,9×9,13×13}的最大池化的方式,對(duì)不同尺度的特征圖進(jìn)行Concat操作。采用SPP模塊比單純使用K×K最大池化的方式,更有效地增加主干特征的可接受性,并顯著地分離了最重要的上下文信息。

1.4 Prediction(檢測(cè)頭)

目標(biāo)檢測(cè)任務(wù)的損失函數(shù)一般由Classificition Loss(分類損失函數(shù))和Bounding Box Regeression Loss(回歸損失函數(shù))兩部分組成。Bounding Box Regeression的Loss近些年的發(fā)展過(guò)程是由2016年提出的IOU_Loss[18]:主要考慮檢測(cè)框和目標(biāo)框的重疊面積;到2019年提出的GIOU_Loss[19]:在IOU的基礎(chǔ)上,解決邊界框不重合時(shí)所出現(xiàn)的問(wèn)題;到2020年提出的DIOU_Loss[20]:在IOU和GIOU的基礎(chǔ)上,考慮邊界框中心點(diǎn)距離的信息;最后到2020年提出的CIOU_Loss:在DIOU的基礎(chǔ)上,考慮邊界框?qū)捀弑鹊某叨刃畔ⅰT赮OLOv5中Prediction采用了CIOU_Loss做Bounding box的損失函數(shù),使得預(yù)測(cè)框回歸的速度和精度更高一些。

2 YOLOv5s算法的改進(jìn)

2.1 CoordAtt坐標(biāo)注意力機(jī)制

文獻(xiàn)[21]提出了通道注意力機(jī)制SE(squeeze-andexcitation attention),對(duì)于建模非常有效,然而它往往忽視了位置信息的重要性,而視覺(jué)中目標(biāo)的空間結(jié)構(gòu)是非常重要的。文獻(xiàn)[22]提出了卷積塊注意力機(jī)制CBAM(convolutional block attention module),CBAM通過(guò)在通道上進(jìn)行全局池化引入位置信息,但該方法只能獲取局部信息,不能獲取長(zhǎng)范圍依賴的信息。CBAM是通過(guò)每個(gè)位置的多個(gè)通道來(lái)取最大值和平均值作為加權(quán)系數(shù),因此這種加權(quán)方式考慮到的只是局部信息。

CoordAtt坐標(biāo)注意力機(jī)制如圖2所示。

圖2 CoordAtt坐標(biāo)注意力機(jī)制結(jié)構(gòu)圖Fig.2 CoordAtt coordinate attention mechanism structure diagram

CoordAtt坐標(biāo)注意力機(jī)制是一種新穎、高效的注意力機(jī)制,通過(guò)將位置信息嵌入到通道注意力中,可以在更大的范圍內(nèi)獲取信息,避免引入較大的開(kāi)銷。為了避免造成損失位置信息,該注意力機(jī)制不是引入2D全局池化,而是提出分解通道注意力為兩個(gè)并行的1D特征編碼,分別沿著垂直和水平方向?qū)⑤斎胩卣骶酆蠟閮蓚€(gè)單獨(dú)的方向感知特征映射,來(lái)高效地整合空間坐標(biāo)信息。這兩個(gè)具有嵌入方向特定信息的特征映射隨后分別特征編碼為兩個(gè)注意映射,每個(gè)注意映射捕獲輸入特征圖沿一個(gè)空間方向的遠(yuǎn)距離依賴關(guān)系。因此,位置信息可以存儲(chǔ)在生成的注意映射中。然后,將兩個(gè)注意映射相乘應(yīng)用于輸入特征映射,強(qiáng)調(diào)興趣表達(dá)。

具體來(lái)說(shuō),給定輸入X,使用兩個(gè)空間范圍的池化核(H,1)或(1,W)分別沿水平坐標(biāo)和垂直坐標(biāo)對(duì)每個(gè)通道進(jìn)行編碼。因此,第c通道在高度h的輸出可以公式化為:

類似地,寬度為w的第c個(gè)通道的輸出可以寫為:

上述兩者變換分別沿兩個(gè)空間方向聚合特征,生成一對(duì)方向感知特征映射,給定由公式(1)和公式(2)生成的聚合特征映射,首先將它們拼接起來(lái),然后將它們傳到共享的1×1卷積變換函數(shù)F1,得到:其中,[zh,zw]表示沿空間維度的拼接操作,δ是一個(gè)非線性激活函數(shù),f∈RC/r×(H+W)是在水平方向和垂直方向?qū)臻g信息進(jìn)行編碼的中間特征映射。然后再將f沿空間維度拆分為兩個(gè)獨(dú)立的張量f h∈RC/r×H和f w∈RC/r×W。再使用兩個(gè)1×1卷積變換Fh和Fw被分別用于轉(zhuǎn)換f h和f w為與輸入X具有一樣通道數(shù)的張量,得到:

輸出gh和gw分別展開(kāi)并用作注意權(quán)重。最后,坐標(biāo)注意力機(jī)制的輸出Y可以表示為:

加入CoordAtt坐標(biāo)注意力機(jī)制后的主干網(wǎng)網(wǎng)絡(luò)的詳細(xì)參數(shù)如表1所示以及主干網(wǎng)結(jié)構(gòu)圖如圖3所示。

圖3 集成CoordAtt后的主干網(wǎng)結(jié)構(gòu)圖Fig.3 Backbone network structure after CoordAtt integration

表1 集成CoordAtt后的主干網(wǎng)參數(shù)Table 1 Backbone parameters after CoordAtt integration

2.2 Res2Net殘差結(jié)構(gòu)

對(duì)于目標(biāo)檢測(cè)來(lái)說(shuō),在多尺度上表示特征是很關(guān)鍵的。在卷積神經(jīng)網(wǎng)絡(luò)(CNNs)迅速發(fā)展的同時(shí),其也顯現(xiàn)出較強(qiáng)的多尺度表示能力,在應(yīng)用中也獲得了較好的結(jié)果。在YOLOv5中,使用BottleNeck結(jié)構(gòu)傳播梯度信息使其達(dá)到差異最大化。但是文獻(xiàn)[16]則表明,這樣的傳播方式,網(wǎng)絡(luò)中仍存在著大量的梯度信息重復(fù)。如果能夠充分減少梯度信息的重復(fù),則網(wǎng)絡(luò)的學(xué)習(xí)能力將會(huì)得到很大的提升。為了使網(wǎng)絡(luò)可以在更細(xì)粒度的層次上增強(qiáng)特征融合的能力,從而有效地減少信息梯度重復(fù)的可能性。文獻(xiàn)[23]提出的Res2Net網(wǎng)絡(luò),在一個(gè)殘差塊內(nèi)構(gòu)造分層的類殘差連接。Res2Net以粒度級(jí)別表示多尺度的特征,同時(shí)也增加了感受野的范圍。為了使網(wǎng)絡(luò)的學(xué)習(xí)能力有所提高,因此重新構(gòu)建了新的殘差塊Res2NetBlock去替代YOLOv5s算法的殘差塊Bottleneck。Res2NetBlock結(jié)構(gòu)如圖4所示。

圖4 Res2NetBlock結(jié)構(gòu)圖Fig.4 Structure diagram of Res2NetBlock

Res2NetBlock沒(méi)有像以往一樣使用一組3×3的濾波器來(lái)提取特征,而是發(fā)現(xiàn)具有更強(qiáng)的多尺度特征提取能力的替代框架,同時(shí)保持類似的計(jì)算負(fù)載。將一組3×3的濾波器替換為一組較小的濾波器,同時(shí)用一個(gè)梯度殘差塊連接不同的濾波器組。

如圖4所示,將特征圖通過(guò)1×1的卷積后,被均勻地分割為S個(gè)特征映射子集,用xi表示,其中i∈{1,2,…,}s與輸入特征圖相比,每個(gè)特征子圖xi的空間大小相同,與輸入的特征圖進(jìn)行比較時(shí),有個(gè)通道數(shù)。除x1外,每個(gè)xi都有對(duì)應(yīng)的3×3卷積變換,記作Ki(),然后用yi表示Ki()的輸出。特征子圖xi與Ki-1()的輸出相加,然后輸入給Ki()。為了在增加s的同時(shí)減少參數(shù),不再對(duì)x1進(jìn)行3×3的卷積操作。

每個(gè)3×3的卷積運(yùn)算符Ki()都可以從所有特征分割{xj,j<i}中接收特征信息。

因此yi可以表示為公式(7):

在Res2NetBlock模塊中,采用多尺度分割,便于全局和局部信息的提取。為了更好地融合不同大小的信息,將所有的分割合并在一起,并對(duì)它進(jìn)行1×1卷積傳遞。分割和級(jí)聯(lián)策略可以有效執(zhí)行卷積來(lái)增強(qiáng)處理功能。為了減少參數(shù)的數(shù)量,省略了第一個(gè)分割的卷積。在Res2NetBlock中使用s作為比例尺寸來(lái)控制參數(shù)。較大的s可能允許學(xué)習(xí)更豐富的特征,而級(jí)聯(lián)帶來(lái)的計(jì)算/內(nèi)存開(kāi)銷可以進(jìn)行忽略。

因此,Res2NetBlock的設(shè)計(jì)目的是增強(qiáng)特征融合能力,在單個(gè)殘差塊中使用分層殘差塊連接,以更細(xì)粒度的層次上捕獲接收域變化的細(xì)節(jié)和全局特征。與此同時(shí),多條支路融合的設(shè)計(jì),能夠有效降低信息梯度的重復(fù)性。把Res2NetBlock模塊與YOLOv5s集成在一起,以進(jìn)一步提高安全帽的檢測(cè)性能。

集成CoordAtt注意力機(jī)制和Res2Net-Block后的整體的主干網(wǎng)詳細(xì)參數(shù)如表2所示以及結(jié)構(gòu)框圖如圖5所示。

圖5 集成后整體的主干網(wǎng)結(jié)構(gòu)圖Fig.5 Overall backbone network structure diagram after integration

表2 集成后整體的主干網(wǎng)參數(shù)Table 2 Overall backbone network parameters after integration

3 實(shí)驗(yàn)結(jié)果與分析

3.1 數(shù)據(jù)集與實(shí)驗(yàn)設(shè)置

數(shù)據(jù)集的質(zhì)量對(duì)于深度學(xué)習(xí)的結(jié)果來(lái)說(shuō)至關(guān)重要。現(xiàn)已開(kāi)源的安全帽數(shù)據(jù)集只有SHWD(safely helmet wearing-dataset),但該數(shù)據(jù)集中佩戴安全帽的類別圖片中有不符合實(shí)際工地場(chǎng)景的數(shù)據(jù),同時(shí)沒(méi)有佩戴安全帽的類別圖片為學(xué)生上下課的數(shù)據(jù),也不符合實(shí)際工地生產(chǎn)的需求。

因此本文自制數(shù)據(jù)集,由已開(kāi)源的SHWD數(shù)據(jù)集中符合工地場(chǎng)景的圖片和工地的實(shí)際場(chǎng)景拍攝制成的圖片組成,具有更好的實(shí)用價(jià)值。同時(shí)使用labelImg對(duì)圖片進(jìn)行標(biāo)注,并保存為YOLO格式,其中數(shù)據(jù)集共有5 813張圖片,訓(xùn)練集有5 181張圖片,測(cè)試集有632張圖片,訓(xùn)練集和測(cè)試集嚴(yán)格獨(dú)立。

本文實(shí)驗(yàn)平臺(tái)的硬件環(huán)境為GPU:NVIDIA GeForce GTX 1060,CPU:Intel?CoreTMi7-6700,內(nèi)存:8.00 GB,顯存:6 GB;操作系統(tǒng)及軟件環(huán)境為Windows10+CUDA 10.2+cudnn 7.6.5+python 3.8.10+pytorch 1.7.0。

送入網(wǎng)絡(luò)訓(xùn)練的圖片大小均被設(shè)置為640×640,batch_size設(shè)置為8,為增加訓(xùn)練樣本的多樣性,提高網(wǎng)絡(luò)的泛化能力,采用Mosaic數(shù)據(jù)增強(qiáng)方式;采用SGD函數(shù)優(yōu)化參數(shù),動(dòng)量因子0.937,權(quán)重衰減系數(shù)0.000 5,訓(xùn)練100個(gè)epoch。

3.2 評(píng)價(jià)指標(biāo)

本文基于自制數(shù)據(jù)集使用平均精度(average precision,AP)和均值平均精度(mean average mAP)作為模型檢測(cè)準(zhǔn)確性能的評(píng)價(jià)指標(biāo),平均精度綜合考慮了目標(biāo)檢測(cè)的精確率(precision,P)和召回率(recall,R),使用每秒處理的圖片數(shù)量(FPS)作為模型檢測(cè)速度的評(píng)價(jià)指標(biāo),各評(píng)價(jià)指標(biāo)的計(jì)算公式如下:

3.3 實(shí)驗(yàn)結(jié)果

為了驗(yàn)證CoordAtt坐標(biāo)注意力機(jī)制和Res2NetBlock殘差塊的有效性,進(jìn)行實(shí)驗(yàn)比對(duì)。

實(shí)驗(yàn)1對(duì)比加入注意力機(jī)制的YOLOv5s結(jié)構(gòu)與原結(jié)構(gòu)的效果,結(jié)果如表3所示。從實(shí)驗(yàn)結(jié)果可以看出,SE注意力機(jī)制值考慮內(nèi)部通道信息而忽略了位置信息的重要性,在主干網(wǎng)加入SE注意力機(jī)制后,mAP從78.2%提升到了79.2%,提升了1個(gè)百分點(diǎn);CBAM注意力機(jī)制包含空間注意力機(jī)制和通道注意力機(jī)制兩部分,但這種方法只能捕獲局部的信息,無(wú)法獲取長(zhǎng)范圍的信息,在主干網(wǎng)加入CBAM注意力機(jī)制后,mAP從78.2%提升到了78.6%,提升了0.4個(gè)百分點(diǎn);CoordAtt注意力機(jī)制通過(guò)把位置信息嵌入到通道注意力中,從而使移動(dòng)網(wǎng)絡(luò)獲取更大區(qū)域的信息而避免引入大的開(kāi)銷。在主干網(wǎng)加入CoordAtt注意力機(jī)制后,mAP從78.2%提升到了79.4%,提升了1.2個(gè)百分點(diǎn);因此可以表明CoordAtt注意力機(jī)制通過(guò)把位置信息嵌入到通道注意力中,增加對(duì)安全帽的權(quán)重值,以此來(lái)提升安全帽的檢測(cè)精度最有效。故最后確定在YOLOv5s的主干網(wǎng)中加入CoordAtt坐標(biāo)注意力機(jī)制。

表3 加入CoordAtt坐標(biāo)注意力機(jī)制前后性能對(duì)比Table 3 Performance comparison before and after adding CoordAtt coordinate attention mechanism

實(shí)驗(yàn)2對(duì)比以Res2NetBlock的殘差塊去替代YOLOv5s中的殘差塊的效果,結(jié)果如表4所示。從實(shí)驗(yàn)結(jié)果來(lái)看,使用Res2NetBlock殘差塊的結(jié)構(gòu)使網(wǎng)絡(luò)的mAP從78.2%提升到了79.7%,mAP提升了1.5個(gè)百分點(diǎn),說(shuō)明由Res2NetBlock殘差塊構(gòu)成的主干網(wǎng)以粒度級(jí)別表示多尺度的特征,同時(shí)也增加了感受野的范圍,對(duì)于安全帽的佩戴檢測(cè)精度是有提升的。

表4 R-YOLOv5s的性能對(duì)比Table 4 Performance comparison of R-YOLOV5s

實(shí)驗(yàn)3將主干網(wǎng)中加入CoordAtt注意力機(jī)制以及使用Res2NetBlock的殘差塊去替代YOLOv5s中的殘差塊這兩種改進(jìn)進(jìn)行融合,結(jié)果如表5所示。實(shí)驗(yàn)結(jié)果表明,CoordAtt注意力機(jī)制和Res2NetBlock的殘差塊使網(wǎng)絡(luò)的mAP從78.2%提升到了80.5%,提升了2.3個(gè)百分點(diǎn),速度由119 FPS提升到了137 FPS,說(shuō)明兩者的改進(jìn)對(duì)于安全帽的佩戴檢測(cè)精度和速度來(lái)說(shuō)都有很大的提升。因此表明CoordAtt坐標(biāo)注意力機(jī)制和Res2NetBlock殘差塊對(duì)于YOLOv5s的有效性。

表5 CR-YOLOv5s算法的性能Table 5 Performance of CR-YOLOv5s algorithm

3.4 檢測(cè)結(jié)果對(duì)比

圖6給出了引入CoordAtt坐標(biāo)注意力機(jī)制與YOLOv5s算法檢測(cè)結(jié)果對(duì)比,引入CoordAtt坐標(biāo)注意力機(jī)制可以在更大范圍內(nèi)讓網(wǎng)絡(luò)更加關(guān)注圖片中的小目標(biāo),使其提高網(wǎng)絡(luò)對(duì)安全帽的檢測(cè)能力。

圖6 加入CoordAtt坐標(biāo)注意力機(jī)制檢測(cè)結(jié)果Fig.6 Detection results of CoordAtt coordinate attention mechanism

圖7給出了引入Res2NetBlock殘差塊與YOLOv5s算法檢測(cè)結(jié)果對(duì)比,引入Res2NetBlock殘差塊可以在更細(xì)粒度上表示多尺度特征,并增加了每個(gè)網(wǎng)絡(luò)層的感受野。從圖7中可以看出Res2NetBlock殘差塊可以在目標(biāo)遮擋的時(shí)候檢測(cè)出目標(biāo)從而提高檢測(cè)精度,同時(shí)檢測(cè)速度也有所提升。

圖7 Res2NetBlock設(shè)計(jì)檢測(cè)結(jié)果對(duì)比Fig.7 Comparison of Res2NetBlock design detection results

圖8給出了本文最終改進(jìn)的算法與YOLOv5s算法的檢測(cè)結(jié)果對(duì)比,從實(shí)驗(yàn)結(jié)果對(duì)比可以得知,本文最終改進(jìn)的算法能夠提高安全帽佩戴檢的精度,同時(shí)在速度上也有所提升。

圖8 本文改進(jìn)算法檢測(cè)結(jié)果對(duì)比Fig.8 Comparison of detection results of improved algorithm in this paper

3.5 對(duì)比實(shí)驗(yàn)結(jié)果

為了比較YOLOv5s算法,本文改進(jìn)YOLOv5s算法以及深度學(xué)習(xí)主流方法的性能,進(jìn)行了對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表6所示。

表6給出了二階段網(wǎng)絡(luò)Faster R-CNN,一階段無(wú)anchor網(wǎng)絡(luò)FCOS,一階段基于anchor網(wǎng)絡(luò)SSD與本文選擇的一階段基于anchor網(wǎng)絡(luò)的YOLOv5s網(wǎng)絡(luò)檢測(cè)性能的對(duì)比結(jié)果,同時(shí)與YOLO系列的網(wǎng)絡(luò)YOLOv3以及輕量級(jí)的網(wǎng)絡(luò)YOLOv3-Mobilenet進(jìn)行了對(duì)比。

表6 改進(jìn)的YOLOv5s算法與深度學(xué)習(xí)主流網(wǎng)絡(luò)性能對(duì)比Table 6 Performance comparison between improved YOLOv5s algorithm and deep learning mainstream network

通過(guò)比較YOLOv5s網(wǎng)絡(luò)與Faster R-CNN網(wǎng)絡(luò)以及FCOS網(wǎng)絡(luò)檢測(cè)結(jié)果可以知道,YOLOv5s網(wǎng)絡(luò)在更少參數(shù)量與計(jì)算量的情況下得到了與Faster R-CNN以及FCOS網(wǎng)絡(luò)相當(dāng)?shù)臋z測(cè)精度,同時(shí)檢測(cè)速度遠(yuǎn)快于這兩個(gè)網(wǎng)絡(luò),本文改進(jìn)的YOLOv5s算法在各方面都優(yōu)于Faster R-CNN與FCOS。

通過(guò)比較YOLOv5s網(wǎng)絡(luò)與一階段基于anchor網(wǎng)絡(luò)SSD300、SDD512和SSD-Mobilenet檢測(cè)結(jié)果可以知道,YOLOv5s網(wǎng)絡(luò)與SSD300和SSD512相比,在較小參數(shù)量與計(jì)算量的情況下得到遠(yuǎn)超SDD的檢測(cè)精度以及檢測(cè)速度,同時(shí)與SSD-Mobilenet相比可知,參數(shù)量雖然比SSD-Mobilene大一些,但其檢測(cè)精度與檢測(cè)速度都是遠(yuǎn)超SSD-Mobilenetv2的。

YOLOv5與YOLO系列中的YOLOv3和輕量級(jí)網(wǎng)絡(luò)YOLOv3-Mobilenet進(jìn) 行 比 較,YOLOv5s網(wǎng) 絡(luò) 與YOLOv3相比,在相當(dāng)?shù)臋z測(cè)精度的情況下,卻擁有更少的參數(shù)量,與YOLOv3-Mobilenet相比,YOLOv5的參數(shù)量雖然比YOLOv3-Mobilenet大一些,但檢測(cè)精度與速度均高于YOLOv3-Mobilenet。

4 結(jié)束語(yǔ)

針對(duì)現(xiàn)有的安全帽佩戴檢測(cè)算法中出現(xiàn)的對(duì)小目標(biāo)的漏檢以及對(duì)遮擋目標(biāo)檢測(cè)準(zhǔn)確率低等問(wèn)題,本文提出了一種基于YOLOv5s算法的改進(jìn)算法CR-YOLOv5s。首先引入CoordAtt坐標(biāo)注意力機(jī)制增強(qiáng)感受野,把位置信息嵌入到通道注意力中,從而使移動(dòng)網(wǎng)絡(luò)獲取更大區(qū)域的信息,以此來(lái)提升網(wǎng)絡(luò)對(duì)小目標(biāo)的檢出率。同時(shí)針對(duì)原網(wǎng)絡(luò)的主干網(wǎng)中仍存在大量的梯度信息重復(fù),以及對(duì)特征融合不充分等問(wèn)題,提出了Res2NetBlock中的殘差塊去替代YOLOv5s算法中的殘差塊,以此來(lái)降低梯度信息的重復(fù)以及改善對(duì)特征融合不充分的問(wèn)題,實(shí)驗(yàn)結(jié)果也表明這樣的改進(jìn)確實(shí)提升了在目標(biāo)遮擋時(shí)的檢出率。實(shí)驗(yàn)結(jié)果表明,CR-YOLOv5s算法具有較好的檢測(cè)精度,速度也較原YOLOv5s算法有所提升,同時(shí)在遮擋目標(biāo)以及小目標(biāo)的檢出上有很大的提升,因此能夠較好地應(yīng)用于安全帽佩戴檢測(cè)中。

猜你喜歡
機(jī)制特征檢測(cè)
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
自制力是一種很好的篩選機(jī)制
文苑(2018年21期)2018-11-09 01:23:06
抓住特征巧觀察
小波變換在PCB缺陷檢測(cè)中的應(yīng)用
破除舊機(jī)制要分步推進(jìn)
注重機(jī)制的相互配合
主站蜘蛛池模板: 国产精品免费福利久久播放| 美女免费黄网站| 免费看av在线网站网址| 亚洲成人一区在线| h网站在线播放| 日韩无码真实干出血视频| 88av在线| 亚洲va在线∨a天堂va欧美va| 亚洲色图欧美视频| 亚洲制服丝袜第一页| 不卡国产视频第一页| 日本不卡视频在线| 国产免费福利网站| 成年人国产视频| 欧美成一级| 亚洲资源站av无码网址| 国产毛片不卡| 久久女人网| 波多野结衣无码中文字幕在线观看一区二区| 五月婷婷综合网| 伊人久久大香线蕉aⅴ色| 国产女人18水真多毛片18精品 | 毛片基地美国正在播放亚洲| 美女无遮挡免费视频网站| 日韩欧美国产综合| 日韩欧美国产成人| 国产成人一区二区| 亚洲综合中文字幕国产精品欧美| 国产精品尤物铁牛tv | 日韩乱码免费一区二区三区| 国产精品蜜芽在线观看| 一区二区影院| 国产精品亚洲专区一区| 成人福利在线观看| 国产成人久久综合777777麻豆| 欧日韩在线不卡视频| 亚洲综合在线网| 亚洲视频免| 女人18毛片久久| 三级毛片在线播放| 99国产精品国产高清一区二区| 精品久久久久久中文字幕女| 亚洲男人的天堂在线| 欧美区一区二区三| 综合色在线| 亚洲第一成年人网站| 亚洲欧美一区在线| 国产美女免费| 波多野一区| 亚洲一区无码在线| 欧美日韩免费在线视频| 无码专区第一页| 天天摸夜夜操| 国产人人乐人人爱| 精品91视频| 2021亚洲精品不卡a| 中文字幕自拍偷拍| аⅴ资源中文在线天堂| 久久亚洲日本不卡一区二区| 一级黄色网站在线免费看| 亚洲一道AV无码午夜福利| 精品91自产拍在线| 欧美精品色视频| 亚洲男人的天堂久久香蕉网| 午夜福利视频一区| 九色91在线视频| 国产成人精品亚洲日本对白优播| 欧美激情福利| 国产精品2| 欧美综合激情| 国产精品毛片一区视频播| 国产一区在线观看无码| 伊人91在线| 欧美一区二区啪啪| 夜夜操国产| 亚洲精品国产首次亮相| 久久久久亚洲av成人网人人软件| 精品国产成人三级在线观看| 国产丝袜第一页| 日韩在线永久免费播放| 国产女人18毛片水真多1| 青草91视频免费观看|