999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)YOLOv5s的建筑護(hù)欄目標(biāo)檢測(cè)

2024-09-13 00:00:00俞愷洪濤厲勛
現(xiàn)代電子技術(shù) 2024年14期
關(guān)鍵詞:機(jī)制建筑檢測(cè)

摘" 要: 目前,建筑場(chǎng)所上仍存在因建筑護(hù)欄缺失或建筑護(hù)欄安全性降低而導(dǎo)致的建筑工人高空墜亡事件。針對(duì)該問(wèn)題,提出一種基于改進(jìn)YOLOv5s的建筑護(hù)欄檢測(cè)算法。首先,針對(duì)建筑護(hù)欄普遍存在的安全隱患,收集影響護(hù)欄安全性較大的情況的圖像,例如:建筑護(hù)欄欄板的存在圖像、建筑護(hù)欄欄板的缺失圖像、護(hù)欄網(wǎng)圖像、護(hù)欄欄板銜接錯(cuò)位圖像和護(hù)欄欄板銜接正確圖像等,并且制作成訓(xùn)練數(shù)據(jù)集。為提升YOLOv5s在復(fù)雜環(huán)境下多目標(biāo)檢測(cè)任務(wù)和區(qū)分任務(wù)結(jié)果的準(zhǔn)確率,將新型的Biformer注意力機(jī)制與SE注意力機(jī)制相結(jié)合,嵌入到原模型的特征提取網(wǎng)絡(luò)中,并利用CBAMC3取代原特征提取網(wǎng)絡(luò)的C3模塊。最后,使用CLAHE算法較大程度地解決部分圖像亮度偏暗,影響檢測(cè)精度的問(wèn)題。實(shí)驗(yàn)結(jié)果表明,所提檢測(cè)算法的mAP50值和召回率分別達(dá)到了79.6%和83%,相比于原YOLOv5s算法分別提高了3.7%和6.8%。

關(guān)鍵詞: 目標(biāo)檢測(cè); 建筑護(hù)欄; 改進(jìn)YOLOv5s; Biformer注意力機(jī)制; CBAMC3; CLAHE算法

中圖分類號(hào): TN911.73?34; TP391.4" " " " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " 文章編號(hào): 1004?373X(2024)14?0135?07

Building guardrail object detection based on improved YOLOv5s algorithm

YU Kai1, HONG Tao1, LI Xun2

(1. College of Quality and Safety Engineering, China Jiliang University, Hangzhou 310018, China;

2. Zhejiang Provincial Yijian Construction Group LTD., Hangzhou 310018, China)

Abstract: There are many incidents of construction workers falling from heights on construction sites due to the reduced safety of building guardrails. On this basis, a building guardrail detection algorithm based on improved YOLOv5s is proposed. In allusion to the safety hazards that are prevalent in building guardrails, images that have an impact on guardrail safety, such as images of the presence of building guardrails, images of missing building guardrails, images of guardrail nets, images of misaligned guardrail panel connections, and images of correct guardrail panel connections are collected, and these images are created for a training dataset. In order to improve the accuracy of YOLOv5s detection results when performing multi?target detection and discrimination tasks in complex environments, a novel Biformer attention mechanism combined with SE attention mechanism is embedded into the feature extraction network of the original model, and CBAMC3 is used to replace the C3 module of the original feature extraction network. The use of CLAHE algorithm can largely solve the problem of dim brightness in some images, which affects detection accuracy. The experimental results show that the mAP50 value and recall of the proposed detection algorithm can reach 79.6% and 83%, respectively, which are 3.7% and 6.8% higher than those of the original YOLOv5s algorithm.

Keywords: object detection; building guardrail; improved YOLOv5s; Biformer attention mechanism; CBAMC3; CLAHE algorithm

0" 引" 言

建筑護(hù)欄作為一種重要的非結(jié)構(gòu)建筑組成部分,其安全性和耐久性會(huì)直接影響到建筑工地工人的生命安全[1],若建筑護(hù)欄失效或缺失,將會(huì)發(fā)生不少建筑工地高處墜亡事件。一種能檢測(cè)建筑護(hù)欄安全隱患問(wèn)題的方法成為了建筑工地實(shí)現(xiàn)現(xiàn)代安全管理必不可少的需求之一。經(jīng)過(guò)實(shí)地調(diào)研和分析,目前建筑護(hù)欄普遍存在的安全隱患問(wèn)題如下:護(hù)欄欄板缺失以及由于護(hù)欄欄板錯(cuò)誤安裝造成護(hù)欄欄板銜接錯(cuò)位。然而,利用傳統(tǒng)人力檢測(cè)這類隱患問(wèn)題將導(dǎo)致額外的人力和時(shí)間消耗,且該方式無(wú)法和現(xiàn)代建設(shè)安全管理相匹配。

目前計(jì)算機(jī)視覺技術(shù)作為非人工目標(biāo)檢測(cè)方法,擁有提取特征(顏色、形狀和紋理)的能力[2],因此,建筑護(hù)欄的目標(biāo)檢測(cè)得以實(shí)現(xiàn)。隨著近年來(lái)深度學(xué)習(xí)技術(shù)的發(fā)展,利用基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)技術(shù)可有效提高特征提取能力[3]。這同時(shí)也成為了通過(guò)建筑護(hù)欄圖像發(fā)現(xiàn)建筑護(hù)欄安全隱患問(wèn)題,提升隱患問(wèn)題檢測(cè)效率并且解決上述問(wèn)題的高適應(yīng)性方法。因此,使用基于深度學(xué)習(xí)的建筑護(hù)欄安全隱患檢測(cè)方法十分必要。

基于神經(jīng)網(wǎng)絡(luò)的建筑安全目標(biāo)檢測(cè)研究較多,如張錦等提出一種改進(jìn)的YOLOv5方法[4],利用K?Means++算法聚類目標(biāo)框尺寸,并且將多光譜通道注意力(Multispectral Channel Attention, MCA)模塊引入特征提取網(wǎng)絡(luò)中,以此強(qiáng)化反背景干擾能力。然而該方法使得算法的參數(shù)量較大且檢測(cè)速率有所降低。黃志清等人提出了一種嵌入自校準(zhǔn)多尺度特征融合模塊的改進(jìn)YOLOv4算法,以檢測(cè)室內(nèi)工人的安全帽[5]。這種方法提高了監(jiān)控圖像中模糊和微小物體的檢測(cè)準(zhǔn)確率,然而實(shí)際復(fù)雜環(huán)境的影響會(huì)使得該算法產(chǎn)生誤檢。

對(duì)此,本研究則通過(guò)對(duì)建筑護(hù)欄存在的安全隱患形式進(jìn)行研究,提出了一種改進(jìn)型的YOLOv5s檢測(cè)模型算法,在降低計(jì)算量的同時(shí)提高了復(fù)雜環(huán)境下目標(biāo)檢測(cè)識(shí)別能力、準(zhǔn)確性和效率。

1" YOLOv5s算法原理

本研究所使用的建筑護(hù)欄檢測(cè)方法的初始核心模型為YOLOv5s,其結(jié)構(gòu)總體分成四部分:第一部分是Input,即輸入端,該端將圖像預(yù)先調(diào)整方式和錨框自適應(yīng)鎖定計(jì)算方式皆具體應(yīng)用于輸入圖像中;第二部分是Backbone,即主干網(wǎng)絡(luò),該部分實(shí)現(xiàn)了圖像特征的提取,且包含卷積層、C3模塊和計(jì)算速度較快的SPPF模塊,其中C3模塊對(duì)于特征的提取和學(xué)習(xí)起到主要作用;第三部分是Neck網(wǎng)絡(luò),即PANet組合網(wǎng)絡(luò),主要作用是融合來(lái)自Backbone的不同尺度的特征,其路徑采取自頂向下和自底向上;第四部分是Prediction,即輸出端,主要作用是檢測(cè),其具體形式是將錨定框的功能實(shí)現(xiàn)在Neck網(wǎng)絡(luò)輸出的特征圖上,最終輸出有效的預(yù)測(cè)類別[6]。

2" YOLOv5s建筑護(hù)欄檢測(cè)模型改進(jìn)

2.1" 特征提取能力強(qiáng)化

單張建筑護(hù)欄圖像包含多個(gè)目標(biāo),且目標(biāo)位置不固定。此外,由于獲取圖像時(shí)的拍攝角度不同,同一目標(biāo)的外觀存在差異,不同類別的目標(biāo)導(dǎo)致其在一張圖像中所占的面積差異較大,因此圖像檢測(cè)算法在完成圖像檢測(cè)后,需要用矩形框精確定位檢測(cè)目標(biāo)。考慮到Y(jié)OLOv5s的主干網(wǎng)絡(luò)在圖形特征提取任務(wù)中起到重要的作用[7],本研究利用CBAMC3(Convolutional Block Attention Module C3)模塊取代原主干網(wǎng)絡(luò)的C3模塊,因?yàn)镃BAMC3模塊將通道注意力機(jī)制引入內(nèi)部,使得其能夠?qū)γ總€(gè)通道的特征圖進(jìn)行加權(quán),同時(shí)該模塊擁有C3模塊的全部功能特點(diǎn)。之后,將SE(Squeeze?and?Excitation)注意力機(jī)制模塊置于SPPF模塊之后,以幫助YOLOv5s算法更好地專注于重要的特征通道,并提升模型性能[8]。SE和CBAMC3注意力機(jī)制模塊的結(jié)構(gòu)分別如圖1和圖2所示。

2.2" 引入Biformer注意力機(jī)制

為了使改進(jìn)的YOLOv5s算法的檢測(cè)精度和準(zhǔn)確度得到進(jìn)一步強(qiáng)化,本研究設(shè)計(jì)在主干網(wǎng)絡(luò)的首個(gè)CBAMC3模塊和首個(gè)卷積模塊之間引入一種新式的注意力機(jī)制,即Biformer注意力機(jī)制[9]。該設(shè)計(jì)旨在優(yōu)化主干網(wǎng)絡(luò)靠前部分的計(jì)算復(fù)雜度,以及提升模型總體的檢測(cè)準(zhǔn)確度。

傳統(tǒng)的注意力機(jī)制在運(yùn)行過(guò)程中不僅計(jì)算量大而且內(nèi)存占用空間大;而本研究的Biformer注意力機(jī)制模塊擁有雙層路由,其用于實(shí)現(xiàn)計(jì)算的有效分配的方式源自動(dòng)態(tài)和查詢(query)感知的方式。因此Biformer注意力機(jī)制計(jì)算分配具有內(nèi)容感知且更加靈活,以此避免上述問(wèn)題,同時(shí)其在圖像處理方面有更好的效果。

Biformer注意力機(jī)制的整體框架如圖3所示。

通過(guò)注意力機(jī)制復(fù)雜度計(jì)算可評(píng)估Biformer注意力機(jī)制的計(jì)算成本,該指標(biāo)以浮點(diǎn)運(yùn)算數(shù)(Floating Point Operations)的值進(jìn)行判斷。首先將輸入該注意力機(jī)制且尺寸和通道數(shù)參數(shù)整體為H×W×C的特征圖劃分為n×n個(gè)完全無(wú)交互的區(qū)域。該操作使得每個(gè)區(qū)域獲得數(shù)量為[H?Wn2]的特征向量,最終完整計(jì)算公式如下所示:

[FLOPs=FLOPsLP+FLOPsRT+FLOPsTA] (1)

式中:FLOPs為浮點(diǎn)運(yùn)算數(shù);FLOPsLP為線性投影(Linear Projection);FLOPsRT為Region?to?region Routing;FLOPsTA為Token?to?Token注意力(Token?to?Token Attention)。結(jié)合以上特征圖區(qū)域劃分后相關(guān)參數(shù),可將式(1)進(jìn)一步拓展為:

[FLOPsTP=3?H?W?C2FLOPsRT=2?(n?n)2?CFLOPsTA=2?H?W?k?H?Wn2?C] (2)

式中參數(shù)k為預(yù)測(cè)任務(wù)的結(jié)果中可能性最大且從高到低排序靠前的結(jié)果數(shù)量。將式(2)的各項(xiàng)相加,最后可得到:

[FLOPs≥3?H?W?C2+3?C?k23?214?H?W43] (3)

由式(3)可得,Biformer注意力機(jī)制的復(fù)雜度為[OH?W43],屬于較低值。

綜上所述,將Biformer注意力機(jī)制引入YOLOv5s進(jìn)行主干網(wǎng)絡(luò)特征提取部分的操作,意為以Biformer注意力機(jī)制較好的特征提取能力強(qiáng)化特征提取網(wǎng)絡(luò)對(duì)特征信息的辨識(shí)能力,并且可為接下來(lái)的特征融合操作步驟提供更精準(zhǔn)的特征信息。

此外,Biformer注意力機(jī)制相對(duì)較低的復(fù)雜度,使得建筑護(hù)欄目標(biāo)檢測(cè)算法擁有更高的計(jì)算效率,同時(shí)降低過(guò)擬合帶來(lái)的影響。改進(jìn)后的YOLOv5s結(jié)構(gòu)見圖4。

2.3" 優(yōu)化圖像檢測(cè)

本研究所需的建筑護(hù)欄皆位于室外,因此在獲取某些圖像的過(guò)程中會(huì)由于陰暗天氣或樹蔭遮蔽而使得受光照偏少,導(dǎo)致獲取的數(shù)據(jù)集圖像亮度不足,進(jìn)而影響到圖像檢測(cè)的準(zhǔn)確率。為了防止數(shù)據(jù)集圖像的亮度過(guò)暗而導(dǎo)致本研究所用的圖像檢測(cè)算法準(zhǔn)確度低,使用CLAHE算法解決上述問(wèn)題[10]。CLAHE算法可有效提升偏暗圖像的亮度,以避免本研究的圖像檢測(cè)算法對(duì)低亮度圖像的檢測(cè)失誤,同時(shí)該算法引入改進(jìn)的YOLOv5s的方式,如圖5所示。輸入的待檢測(cè)圖像經(jīng)過(guò)CLAHE算法處理后再輸入到已應(yīng)用了訓(xùn)練后參數(shù)和權(quán)重?cái)?shù)據(jù)的Prediction模塊中,最后輸出檢測(cè)后的圖像。

CLAHE算法在處理圖像時(shí),利用累計(jì)分布函數(shù)來(lái)減小圖像失真率,同時(shí)降低其計(jì)算復(fù)雜度。最終,經(jīng)CLAHE算法處理前后的圖像對(duì)比結(jié)果圖如圖6所示。從對(duì)比中可明顯發(fā)現(xiàn),CLAHE算法對(duì)偏暗的安全建筑護(hù)欄圖像有較好的亮度提升作用。

3" 實(shí)驗(yàn)結(jié)果與分析

3.1" 實(shí)驗(yàn)數(shù)據(jù)集

本研究實(shí)驗(yàn)所采集的數(shù)據(jù)來(lái)源于施工現(xiàn)場(chǎng),并利用無(wú)人機(jī)對(duì)較高樓層處的護(hù)欄圖像進(jìn)行采集。所獲得的數(shù)據(jù)包括視頻和圖像,其中對(duì)視頻進(jìn)行逐幀查看,提取有用的圖像。最后將這些數(shù)據(jù)用Labelimg進(jìn)行標(biāo)注[11],且標(biāo)注的內(nèi)容包括需檢測(cè)對(duì)象與其相對(duì)應(yīng)的標(biāo)簽。其中,檢測(cè)目標(biāo)分作五類,分別是護(hù)欄欄板完整、護(hù)欄欄板缺失、護(hù)欄網(wǎng)、欄板銜接正確、欄板銜接錯(cuò)位。為應(yīng)對(duì)實(shí)際環(huán)境的復(fù)雜情況,數(shù)據(jù)集中的檢測(cè)目標(biāo)具體背景情況包括:?jiǎn)我荒繕?biāo)、多數(shù)量同種目標(biāo)、多數(shù)量不同種目標(biāo)、亮光環(huán)境下的目標(biāo)和偏暗環(huán)境下的目標(biāo)。隨之將采集得到的數(shù)據(jù)通過(guò)8∶1∶1的比例劃分成訓(xùn)練集、驗(yàn)證集和測(cè)試集。其中,訓(xùn)練集數(shù)據(jù)通過(guò)名為Mosaic的數(shù)據(jù)增強(qiáng)方式擴(kuò)充數(shù)據(jù)集[12],最終數(shù)據(jù)集數(shù)量為5 670幅。本數(shù)據(jù)集圖像在訓(xùn)練前的尺寸統(tǒng)一重新調(diào)整為合適訓(xùn)練且不增顯卡內(nèi)存壓力的值,取為256×256。

3.2" 實(shí)驗(yàn)環(huán)境與訓(xùn)練

本實(shí)驗(yàn)操作平臺(tái)配置如表1所示。其中,Pytorch框架包含了建筑護(hù)欄圖像檢測(cè)模型的搭建、訓(xùn)練和結(jié)果測(cè)試的全套流程,擁有較高版本的硬件顯卡并且提高了模型運(yùn)算效率。

本實(shí)驗(yàn)的模型訓(xùn)練參數(shù)設(shè)置如表2所示。

在表2的參數(shù)基礎(chǔ)上,本次實(shí)驗(yàn)置入預(yù)訓(xùn)練權(quán)重文件yolov5s.pt于模型訓(xùn)練階段,并且利用K?means聚類算法將訓(xùn)練集的目標(biāo)框進(jìn)行重聚類,使之適應(yīng)建筑護(hù)欄目標(biāo)檢測(cè)五個(gè)類別的目標(biāo)檢測(cè)需求。在優(yōu)化模型性能方面,本實(shí)驗(yàn)采用AdamW優(yōu)化器進(jìn)行模型優(yōu)化。在模型訓(xùn)練階段,迭代次數(shù)epoch為1時(shí)開始采用學(xué)習(xí)率熱身,并且將初始學(xué)習(xí)率倍數(shù)設(shè)置為0.1,在之后每5個(gè)迭代進(jìn)行一次學(xué)習(xí)率熱身。學(xué)習(xí)率從初始的0.001開始,在余弦退火算法的處理下逐漸增加到最大值0.1;同時(shí),為了使模型的穩(wěn)定性能夠穩(wěn)固,學(xué)習(xí)率會(huì)在訓(xùn)練的進(jìn)行階段逐漸減小,降至最小值0.000 01。

在建筑護(hù)欄目標(biāo)檢測(cè)算法的訓(xùn)練過(guò)程中,生成的模型結(jié)構(gòu)損失函數(shù)(Loss)對(duì)模型的性能評(píng)價(jià)起著重要作用,損失函數(shù)值越小代表模型的性能越好,優(yōu)化效果越好[13]。本實(shí)驗(yàn)得到的算法改進(jìn)方法訓(xùn)練后損失函數(shù)曲線變化圖如圖7所示。

3.3" 評(píng)價(jià)指標(biāo)

為了評(píng)估建筑護(hù)欄目標(biāo)檢測(cè)算法訓(xùn)練階段的性能強(qiáng)度,本實(shí)驗(yàn)采用目標(biāo)檢測(cè)算法指標(biāo)[14],即交并比閾值為50%的平均精度均值(mean Average Precision at 50%, mAP50)、精度(Precision, P)和召回率(Recall, R)。將模型預(yù)測(cè)正確的正類樣本個(gè)數(shù)、預(yù)測(cè)錯(cuò)誤的正類樣本個(gè)數(shù)、預(yù)測(cè)正確的負(fù)類樣本個(gè)數(shù)和預(yù)測(cè)錯(cuò)誤的負(fù)類樣本個(gè)數(shù)[15]分別設(shè)為A1、A2、B1和B2。在已知檢測(cè)類別數(shù)量為x以及平均精度為AP的基礎(chǔ)上,可利用這四類參數(shù)得到上述三類指標(biāo)的具體計(jì)算公式,如下所示:

[P=A1A1+A2] (4)

[R=A1A1+B2] (5)

[AP=A1+B1A1+B1+A2mAP=y=1xAPyx] (6)

3.4" 實(shí)驗(yàn)結(jié)果分析

為了探索三種注意力機(jī)制模塊對(duì)初始YOLOv5s的影響,本研究通過(guò)消融實(shí)驗(yàn)對(duì)結(jié)果進(jìn)行了驗(yàn)證,結(jié)果如表3所示。由表3可知,增加Biformer、CBAMC3和SE模塊組合對(duì)整個(gè)算法的性能提升最大。

本實(shí)驗(yàn)所使用的建筑護(hù)欄目標(biāo)檢測(cè)算法簡(jiǎn)稱為YOLOv5s?BCS。為了驗(yàn)證改進(jìn)算法的實(shí)際效果,本研究利用YOLOv5s?BCS和初始YOLOv5s的訓(xùn)練曲線進(jìn)行比較。訓(xùn)練曲線以epoch為x軸,以第3.3節(jié)中的三類指標(biāo)為y軸。對(duì)比結(jié)果如圖8~圖10所示。由圖8~圖10可以看出,YOLOv5s?BCS的曲線收斂速度比初始YOLOv5s的曲線快,而且在最后一個(gè)epoch,YOLOv5s?BCS的所有mAP值均高于初始YOLOv5s的值。

在相同的數(shù)據(jù)集和配置條件下,本研究使用通用率較高的深度學(xué)習(xí)目標(biāo)檢測(cè)網(wǎng)絡(luò),如三重尺度訓(xùn)練的YOLOv5s(將訓(xùn)練圖像大小分別重置為64×64、96×96和128×128,然后隨機(jī)輸入訓(xùn)練網(wǎng)絡(luò))、具有CBAMC3注意力機(jī)制的YOLOv5s、具有SE注意力機(jī)制的YOLOv5s、具有Biformer注意力機(jī)制的YOLOv5s以及同為輕量級(jí)網(wǎng)絡(luò)的YOLOv5n,對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行綜合比較。數(shù)字編號(hào) 1~5分別代表有護(hù)欄板、無(wú)護(hù)欄板、護(hù)欄網(wǎng)、護(hù)欄欄板銜接正確和護(hù)欄板銜接錯(cuò)位。實(shí)驗(yàn)的具體結(jié)果如表4所示。其中,YOLOv5s?BCS的mAP50值最高,最能勝任建筑護(hù)欄的目標(biāo)檢測(cè)算法。使用YOLOv5s?BCS模型結(jié)合 CLAHE算法檢測(cè)圖像的最終結(jié)果如圖11所示。

從圖11中可以看出,YOLOv5s?BCS 的檢測(cè)算法結(jié)合CLAHE算法,最終可以在建筑護(hù)欄的五種目標(biāo)檢測(cè)中,將全部檢測(cè)目標(biāo)鎖定在矩形框內(nèi)部。綜上所述,本實(shí)驗(yàn)中YOLOv5s的改進(jìn)算法在多目標(biāo)情況下,對(duì)建筑護(hù)欄目標(biāo)檢測(cè)的五類目標(biāo)的檢測(cè)效果較好。

4" 結(jié)" 語(yǔ)

本研究提出了一種改進(jìn)型YOLOv5s建筑護(hù)欄檢測(cè)算法。首先,收集相關(guān)圖像數(shù)據(jù),建立數(shù)據(jù)集;然后,利用CBAMC3模塊替代Backbone的C3模塊,并在初始 YOLOv5s的特征提取網(wǎng)絡(luò)中加入了Biformer和SE注意力機(jī)制,以提高檢測(cè)模型的檢測(cè)能力和區(qū)分能力;最后,利用CLAHE算法解決了部分圖像亮度較暗,對(duì)檢測(cè)精度影響較大的問(wèn)題。經(jīng)過(guò)對(duì)比實(shí)驗(yàn),顯示本研究改進(jìn)的算法在綜合方面呈現(xiàn)出更好的檢測(cè)效果。由于實(shí)際存在目標(biāo)檢測(cè)任務(wù)中目標(biāo)數(shù)量多、目標(biāo)區(qū)分任務(wù)中目標(biāo)外形相似度高的情況,使得置信度還有上升空間。未來(lái)的研究方向則是進(jìn)一步提升網(wǎng)絡(luò)模型在包含其他建材的復(fù)雜環(huán)境下的多目標(biāo)檢測(cè)精度。

注:本文通訊作者為洪濤。

參考文獻(xiàn)

[1] 樊莉昌,蘇中華,劉中明,等.建筑用玻璃與金屬護(hù)欄實(shí)驗(yàn)室檢測(cè)設(shè)備研究[J].中國(guó)測(cè)試,2020,46(z1):100?104.

[2] 郭陽(yáng)陽(yáng),洪文浩,丁屹,等.基于坐標(biāo)注意力機(jī)制和YOLOv5s模型的山羊臉部檢測(cè)方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2023,54(7):313?321.

[3] 李廣博,查文文,陳成鵬,等.基于改進(jìn)YOLOv5s的豬臉識(shí)別檢測(cè)方法[J].西南農(nóng)業(yè)學(xué)報(bào),2023,36(6):1346?1356.

[4] 張錦,屈佩琪,孫程,等.基于改進(jìn)YOLOv5的安全帽佩戴檢測(cè)算法[J].計(jì)算機(jī)應(yīng)用,2022,42(4):1292?1300.

[5] 黃志清,張煜森,張嚴(yán)心,等.基于改進(jìn)型Yolov4的室內(nèi)安全帽佩戴狀態(tài)檢測(cè)算法[J].天津大學(xué)學(xué)報(bào)(自然科學(xué)與工程技術(shù)版),2023,56(1):64?72.

[6] LIN H, JIANG F, JIANG Y, et al. A model for helmet?wearing detection of non?motor drivers based on YOLOv5s [J]. Computers, materials amp; continua, 2023, 75(3): 5321?5336.

[7] WANG S, ZHU J, LI Z, et al. Coal gangue target detection based on improved YOLOv5s [J]. Applied sciences, 2023, 13(20): 11220.

[8] 周彥,孟江南,王冬麗,等.基于多尺度輕量化注意力的鋼材缺陷檢測(cè)[J].控制與決策,2024,39(3):901?909.

[9] ZHU L, WANG X, KE Z, et al. BiFormer: vision transformer with Bi?level routing attention [EB/OL]. [2023?09?18]. http://arxiv.org/abs/2303.08810.

[10] 金豪.基于深度學(xué)習(xí)的公路護(hù)欄目標(biāo)檢測(cè)方法研究[D].重慶:重慶交通大學(xué),2022.

[11] 劉閃亮,吳仁彪,屈景怡,等.基于A?YOLOv5s的機(jī)場(chǎng)小目標(biāo)檢測(cè)方法[J].安全與環(huán)境學(xué)報(bào),2023,23(8):2742?2749.

[12] FANG C, XIANG H, LENG C, et al. Research on real?time detection of safety harness wearing of workshop personnel based on YOLOv5 and OpenPose [J]. Sustainability, 2022, 14(10): 5872.

[13] TANG X, RU X, SU J, et al. A transmission and transformation fault detection algorithm based on improved YOLOv5 [J]. Computers, materials amp; continua, 2023, 76(3): 2997?3011.

[14] QIAN Y, WANG B. A new method for safety helmet detection based on convolutional neural network [J]. PLOS ONE, 2023, 18(10): e0292970.

[15] WANG L, ZHANG X, YANG H. Safety helmet wearing detection model based on improved YOLO?M [J]. IEEE access, 2023, 11: 26247?26257.

猜你喜歡
機(jī)制建筑檢測(cè)
《北方建筑》征稿簡(jiǎn)則
北方建筑(2021年6期)2021-12-31 03:03:54
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
關(guān)于建筑的非專業(yè)遐思
文苑(2020年10期)2020-11-07 03:15:36
建筑的“芯”
自制力是一種很好的篩選機(jī)制
文苑(2018年21期)2018-11-09 01:23:06
小波變換在PCB缺陷檢測(cè)中的應(yīng)用
獨(dú)特而偉大的建筑
破除舊機(jī)制要分步推進(jìn)
主站蜘蛛池模板: 日韩av电影一区二区三区四区| 欧美激情福利| 亚洲国模精品一区| 国产精品微拍| 国产小视频a在线观看| 综合亚洲网| 在线播放真实国产乱子伦| 国内精品久久九九国产精品 | 国产成人AV综合久久| 人妻无码中文字幕第一区| 毛片一级在线| www.亚洲国产| 日韩在线永久免费播放| 国产呦精品一区二区三区下载 | 久久精品国产免费观看频道 | 成人午夜视频免费看欧美| 国产精品区网红主播在线观看| 欧美午夜理伦三级在线观看| 在线观看的黄网| 久久黄色免费电影| 亚洲成人黄色在线| 91精品久久久无码中文字幕vr| 亚洲国产日韩一区| 欧美性天天| 潮喷在线无码白浆| 无码内射在线| 欧美另类一区| 91免费精品国偷自产在线在线| 无码精品国产VA在线观看DVD| 日本亚洲欧美在线| 国产日韩欧美黄色片免费观看| 尤物精品视频一区二区三区| 欧美a级完整在线观看| 免费女人18毛片a级毛片视频| 亚洲男人的天堂在线观看| 亚洲女同欧美在线| 久久男人视频| 国产69精品久久| 国产大片黄在线观看| 国产在线精品99一区不卡| 国产乱子伦手机在线| 激情無極限的亚洲一区免费| 国产在线91在线电影| 国产精品亚洲一区二区三区z| 伊人色天堂| 91久久精品国产| 国产国模一区二区三区四区| 欧美色视频在线| 免费国产黄线在线观看| 日韩无码一二三区| 五月天天天色| 亚洲日韩精品综合在线一区二区| 日韩毛片视频| 成年人久久黄色网站| 国产精品美人久久久久久AV| www.日韩三级| 69国产精品视频免费| Jizz国产色系免费| 伊人成人在线| 亚洲人成网站色7799在线播放| 欧美va亚洲va香蕉在线| 一区二区三区四区日韩| 成年人视频一区二区| 欧美日韩亚洲国产主播第一区| 国产精品香蕉在线| 香蕉eeww99国产精选播放| 国产91小视频| 国产第一色| 国产高清在线观看| 鲁鲁鲁爽爽爽在线视频观看 | 97久久免费视频| 国产网站免费观看| 国产成人91精品免费网址在线| 亚洲人视频在线观看| 国产精品视频导航| 99热国产这里只有精品无卡顿" | 亚洲精品无码抽插日韩| 亚洲三级a| 成人福利免费在线观看| 华人在线亚洲欧美精品| 成人精品区| 亚洲欧美另类日本|