999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

Wear-YOLO:變電站電力人員安全裝備檢測方法研究

2024-05-11 03:33:08劉大明
計算機工程與應用 2024年9期
關鍵詞:特征檢測模型

王 茹,劉大明,張 健

1.上海電力大學計算機科學與技術學院,上海 201306

2.中國科學院等離子體物理研究所電源及控制工程研究室,合肥 230031

隨著國家智能電網建設進程的深入,變電站的數量也與日俱增,隨之而來的運維檢修任務也愈加繁重。由于電力安全管理工作不到位和施工人員安全意識淡薄等原因,每年都有電力生產安全事故的發生,造成人員傷亡和直接的經濟損失[1]。根據電力檢修事故的調查結果顯示,若電力工作人員能正確使用安全裝備(例如安全帽、工作服、絕緣手套和絕緣鞋等),將顯著減少在意外事件發生時的傷害和死亡風險[2]。傳統的電力生產作業過程中主要通過人力巡查對電力工作人員的著裝進行監督以免意外發生。近些年,計算機視覺技術的發展有效地克服了人工監督效率低下和成本過高的問題,其中采用圖像對電力行業工作現場違規著裝獲取現場信息,簡單方便且不與電力工作人員發生接觸,實現對電力現場帶電作業安全目標檢測,有效預防電力施工安全事故,具有很高的研究空間和應用價值。

在早期的研究中,主要關注的是安全帽檢測[3-4]。例如:劉曉慧等人[4]采用膚色檢測的方法來定位頭部以上的區域圖像并使用支持向量機(SVM)對是否佩戴安全帽進行分類。另外部分文獻對人體著裝也進行了檢測,陳健[5]利用人體比例約束模型和HSV 顏色空間中的特征提取進行上衣和褲子分類。上述檢測方式都需要獲取工人的正向人臉信息或正面人體信息才能進行處理,但在現實場景中難以實現。除了對電力工作人員有安全帽、安全帶、工作服的著裝要求外,電力工作人員在進行驗電斷電過程中是否佩戴橡膠絕緣手套也是一項非常重要的安全問題[6]。

隨著深度學習模型的興起,國內外學者應用深度學習的方法對安全帽、安全帶和工作服等安全裝備進行檢測[7-11],在目標檢測領域取得了一系列顯著的成果。然而,當前文獻中對絕緣手套的檢測研究相對較為有限,大多數研究聚焦于電力從業人員穿戴安全裝備,尤其是對絕緣手套的佩戴情況展開研究[12-13]。相較之下,極為有限的文獻著眼于電力從業人員在實際工作中未佩戴絕緣手套的情況進行直接檢測[2,9]。這種現象導致在實際電力工作場景中,對于未佩戴絕緣手套的檢測存在明顯的研究空白,未能充分發揮計算機視覺技術在監督檢測電力從業人員安全裝備佩戴的潛在作用。2022年,劉思佳[9]提出通過利用監控攝像頭采集的視頻,運用計算機視覺技術對工作人員的著裝情況進行監測。系統通過視頻幀處理、Mask-RCNN 人體分割和VGG16 分類,實現對安全帽、工作服、工作褲、絕緣手套、絕緣靴的穿戴情況檢測。但是文章所用數據為作者組織錄制,場景和背景較為簡單,在實際電力場景下的檢測效果不佳。張伍康等人[2]提出針對絕緣手套的目標檢測算法,他們在對電力工作人員是否佩戴絕緣手套的監測中,應用了改進RetinaNet網絡的檢測算法。該文獻采用了多尺度特征提取骨干網絡Res2Net 對輸入圖像的特征圖進行提取,再將提取到的特征圖分別輸入兩個子網絡,最后得到包含絕緣手套邊界框的輸出圖像。文獻對電力復雜場景下的工作人員是否佩戴絕緣手套進行了檢測,但是對未佩戴絕緣手套的檢測效果并不理想,其檢測精度和召回率仍需進一步提高。

變電站環境復雜,而對是否佩戴絕緣手套需要對電力工作人員的手部進行檢測,屬于小目標檢測[2],加大了檢測難度。其次,電力人員的手部的姿勢和手指的動作也靈活多變,且手部面積占比較小動作很容易被其他物體或場景元素部分或完全遮擋,這些因素會增加對電力工作人員是否佩戴絕緣手套的檢測難度。目前的模型算法對此類目標的研究成果較少且檢測效果不佳,因此本文選用YOLOv8n 模型進行改進,針對這些問題提出了變電站電力人員安全裝備檢測算法Wear-YOLO,主要貢獻如下:

(1)本文將主干網絡中第五層C2f 模塊替換為MobileViTv3[14]模塊,MobileViTv3模塊先通過輕量級卷積操作對局部信息進行提取,經過一系列的Transformer塊,用于引入全局上下文信息,并將其與局部信息相融合,以此提供更準確的特征表示,從而提高模型的檢測精度。

(2)添加了一個小目標檢測層來幫助網絡更好地捕捉淺層的語義信息,利用多尺度特征幫助模型更好地處理不同大小的目標,使得模型在檢測小目標時更加準確,提高模型檢測精度。

(3)提出了WIoUv3[15]損失函數優化邊界框預測,該方法通過引入動態非單調聚焦機制來解決目標檢測中低質量示例的問題,通過權衡低質量示例和高質量示例的學習使模型更專注于普通質量的錨框,提高了模型在復雜場景下的泛化能力和準確度。

1 相關工作

1.1 目標檢測算法概述

基于深度學習的目標檢測算法分為兩階段模型和一階段模型。基于深度學習的二階段目標檢測模型是將目標檢測任務分為兩個階段:首先生成候選目標框,然后通過分類和回歸模塊對這些候選框進行精確的分類和位置調整。經典的兩階段模型主要有:R-CNN(region convolutional neural networks)[16]、Fast R-CNN[17]和Faster R-CNN[18]。由于需要進行兩次前向傳播,這類模型的精度較高,但速度相對較慢,因此研究人員提出通過在單次前向傳播中直接預測目標框的類別和位置,具有較高的檢測速度和實時性能的一階段模型。經典的一階段模型有:YOLO(you only look once)系列算法[19-24]、SSD(single shot multibox detector)[25]和RetinaNet。

1.2 YOLOv8模型

YOLOv8是Ultralytics公司于2023年1月10日推出的YOLO系列模型的最新版本之一。YOLOv8n是相對于其他版本來說更加輕量級的模型,采用了較小的網絡結構,參數量和計算復雜度較低,適用于資源受限的設備和場景。它在保持較高的檢測精度的同時,具有更快的推理速度和更小的模型大小。考慮到實際應用要求,本文選用YOLOv8n為基礎模型。YOLOv8網絡結構包括Input、Backbone、Head 和Prediction四個部分。首先,骨干網絡采用CSPDarknet,使用CSP(cross stage partial)連接加強特征傳遞。其次,YOLOv8 引入C2f 模塊替換C3 模塊,以獲取更豐富的梯度流信息。在Neck 部分,YOLOv8 仍采用PAFPN 結構來構建特征金字塔,實現多尺度目標信息提取。最后,檢測頭部分引入解耦頭(decoupled head)將定位任務和分類任務放置在兩條并行的分支中分別提取類別特征和位置特征,使網絡能夠更好地處理目標檢測任務。YOLOv8 使用Anchor-free方式,動態分配正負樣本,Loss計算使用BCE、distribution focal loss和CIOU損失函數。

1.3 模型存在的問題

YOLOv8為目前最新的目標檢測算法之一,將其應用于電力場景的安全裝備檢測時,需要充分考慮移動設備的硬件性能限制。為了適應實時性要求,本文選擇了YOLOv8n 算法的最小權值模型。然而,實際檢測中發現,YOLOv8n算法存在一些問題。首先,在電力設備安全裝備檢測這樣的特殊場景中,可能涉及到復雜的光照條件、遮擋、不同尺度的目標等挑戰,需要更專門的模型結構或訓練策略。其次,對于電力設備安全裝備檢測,要求模型具有高的準確性。然而,YOLOv8n 算法在處理電力場景下的安全裝備檢測時表現并不理想,容易出現誤檢和漏檢的問題。

2 Wear-YOLO算法

為了提高變電站電力人員安全裝備的檢測效果,本文提出了Wear-YOLO 算法,網絡結構如圖1 所示。本文首先考慮將主干網絡中第二個C2f 模塊替換為MobileViTv3 模塊,MobileViTv3 采用Transformer 的注意力機制,旨在在全局范圍內捕捉圖像的特征信息。相對于傳統的C2f 結構,MobileViTv3 可能能夠更好地捕捉圖像中的長程依賴和上下文信息,從而更好地理解整個圖像場景,提供了更豐富的語境信息,進一步提高模型在復雜環境下的特征提取能力。在此基礎上,針對小目標檢測效果差的問題,增加了小目標檢測分支,幫助網絡更好地捕捉淺層的語義信息,提高了對未佩戴絕緣手套等小目標的檢測精度;最后,為了更好地引導模型訓練,邊界框回歸預測使用WIoUv3損失函數。通過合理的梯度分配機制,使模型更注重于對普通質量錨框的學習,從而增強了模型的泛化能力和檢測性能。

圖1 Wear-YOLO網絡結構Fig.1 Wear-YOLO network structure

2.1 添加MobileViTv3模塊

MobileViT 模塊的結構如圖2 所示,可以使用較少的參數對輸入張量中的局部和全局信息進行建模。對于輸入的張量X∈?H×W×C,MobileViT 首先用一個n×n和1×1卷積得到XL∈?H×W×d。為了使MobileViT能夠學習具有空間歸納偏置的全局表示,MobileViT 首先將XL展開為N個不重疊的patch,并對于每個p∈{1,2,…,P} 通過Transformer 對patch 間關系進行編碼,獲得:

圖2 MobileViT模塊結構Fig.2 MobileViT module structure

與丟失像素空間順序的ViT 不同,MobileViT 既不會丟失patch順序,也不會丟失每個patch內像素的空間順序。MobileViT 折疊了來獲得XF∈?H×W×d,然后使用1×1卷積將XF投影到第C維空間,并通過級聯操作與X組合。然后使用n×n卷積來融合局部和全局特征。由于XU(p)使用卷積對n×n區域的局部信息進行編碼,而XG(p)對P個patch 中的第p個位置的全局信息進行編碼,因此XG可以對X中的全局信息進行感知。因此,考慮對MobileViT模塊進一步改進,利用其對局部和全局信息建模,使其在保持參數較少的情況下,進一步提升模型對于是否佩戴絕緣手套等小目標上的檢測性能。本文將主干網絡中第五層C2f模塊替換為MobileViTv3 模塊,MobileViTv3 模塊先通過卷積塊對局部信息進行提取,使模型能夠更好地識別物體的輪廓、紋理和形狀,有助于區分目標與背景或其他物體之間的差異;同時,MobileViTv3 模塊使用Transformer 中的自注意力機制對輸入的特征圖進行全局的關聯性計算,這樣就可以捕獲長距離依賴和上下文信息,幫助模型對視覺場景進行全局理解,提供更準確的特征表示,使模型在光線昏暗或有遮擋的情況下也能更準確地理解圖像中的物體位置和特征,進一步增強了特征的表達能力,從而提高模型的檢測精度。針對是否佩戴絕緣手套的小目標檢測面臨的挑戰,在于手部面積小,檢測難度大,因此能夠從圖像中提取到的信息和特征非常有限,而手部與人員和操作桿等物體位置隱藏著諸多關聯信息。傳統的目標檢測方法感受野有限,只能獲取局部上下文信息。為了解決這個問題,Transformer被引入計算機視覺領域[26-29]。MobileViT[30]結合了CNN和ViT 中輸入自適應加權和全局處理的特點,使用Transformer 作為卷積來學習全局信息,有效地將局部和全局信息進行編碼,并在一定程度上解決了基于Transformer的檢測模型存在計算量大和復雜的問題。

MobileViTv3 主要對MobileViTv1 塊的四個主要更改如圖3所示。融合塊(fusion block)中有三個更改:首先,3×3 卷積層替換為1×1 卷積層。3×3 卷積層融合了輸入特征、全局特征以及其他位置的輸入和全局特征,同時有助于減少參數量和計算復雜度,使得模型更加輕量化,適用于資源受限的設備。其次,因為與輸入特征相比,局部表示特征與全局表示特征的關系更密切,所以將局部和全局表示塊的特征融合在一起,而不是將輸入和全局表示塊融合在一起。第三,在生成MobileViT模塊的輸出之前,將輸入特征添加到融合塊中作為最后一步。在MobileViTv3 塊中引入殘差連接,通過將原始特征圖與經過注意力機制和深度卷積處理后的特征圖相加,從而實現信息的跨層傳遞,進一步提高了模型的性能,此提升也在實驗中得到驗證[14]。第四個變化是在局部表示塊中,將普通的3×3卷積層被3×3深度卷積層取代。深度卷積的分離性質使得模型可以更加有效地學習特征,這對精度增益沒有太大影響,并提供了良好的參數和精度權衡。

圖3 MobileViTv3對MobileViTv1模塊的改進示意圖Fig.3 Schematic improvement diagram of MobileViTv3 to MobileViTv1 module

2.2 添加小目標檢測層

在YOLOv8 網絡中添加了一個小目標檢測層來提高對極小目標的檢測能力。卷積神經網絡的淺層網絡提取的特征與輸入比較近,包含了圖像的一些顏色、紋理和邊緣等細節信息,深層網絡經過多次卷積池化之后更多提取的是抽象的語義信息,小目標的特征容易被掩蓋或丟失,而目標的細節和邊緣信息對于精確的分類和定位有至關重要的作用。因此小目標檢測層將第2 層的特征圖添加到特征融合網絡中,幫助網絡更好地捕捉淺層的語義信息,從而提升對極小目標的檢測精度。以下為其公式表達式:

其中,P2/4neck表示Neck 中P2 層的尺寸相對于輸入圖像的尺寸縮小了4 倍,同理,P2/4backbone表示骨干網絡中P2 層的尺寸相對于輸入圖像的尺寸縮小了4 倍。具體來說,在兩次Upsample上采樣和Concat之后,再進行一次上采樣操作得到大小為160×160的特征圖,特征圖經過上采樣和融合不同尺度的特征后,具有更強的語義信息和更精細的空間信息,從而能夠更好地區分和檢測極小目標。然后,將得到的特征圖與骨干網絡第二層的輸出進行Concat 操作,進一步融合不同尺度的特征信息,并引入一個C2f 模塊對融合后的特征圖進行處理,保持其大小為160×160,最后得到一個極小目標檢測層。這樣做可以使網絡同時關注不同尺度的特征信息,從而提高對不同大小目標的適應性。特別是在檢測極小目標時,融合多尺度特征能夠幫助網絡更好地捕捉目標的細節信息。此外,改進之后的小目標檢測層使用第三次上采樣前的特征圖輸出進行Concat 操作。這樣的改進提升了模型在細微紋理、邊界和細微變化方面的檢測性能,從而在復雜場景中更準確地定位和識別目標,同時也增強了模型對多尺度特征的融合能力,使得模型更適用于檢測不同尺度的目標。

2.3 改進損失函數

在目標檢測中,邊界框回歸(bounding box regression)是決定目標定位性能的關鍵步驟。YOLOv5 模型中使用CIoU Loss[31]作為邊界框回歸的損失函數。CIoU 在DIoU[31]的基礎上將即邊界框的縱橫比考慮進損失函數中,共考慮了三個重要的幾何因素:重疊區域、中心點距離和縱橫比,進一步提升了收斂速度和檢測精度。但由于使用了復雜的函數計算,CIoU 在計算過程中消耗了大量的算力,增加了訓練時間。WIoU 提出了一種動態非單調聚焦機制,它使用outlier degree(異常程度)來評估錨框的質量,而不是傳統的IoU。outlier degree 反映了錨框與真實目標之間的差異,可以指示低質量示例和高質量示例。對于高質量錨框,降低其競爭性,使得模型更加關注普通質量的錨框。同時,對于低質量示例,減少其產生有害梯度的影響,從而降低對模型訓練的干擾,提高模型對于復雜情況的適應能力。這樣的策略使得WIoU能夠更加專注于普通質量的錨框,這在光線昏暗和遮擋等困難情況下,有助于提高目標檢測的準確率和穩定性,從而提高了模型的泛化性能。WIoU 共有三個版本,其中WIoUv1 構建了基于注意力的邊界框損失,WIoUv2 和WIoUv3 是在v1 的基礎上在Fcous 機制上添加梯度增益得到的。圖4 中,紫色矩形表示目標框,藍色矩形表示預測框,綠色矩形表示最小邊界框。

圖4 目標框、預測框、最小邊界框示意圖Fig.4 Schematic diagram of target box,prediction box,and minimum bounding box

WIoUv1的損失函數LWIoUv1的計算公式如下所示:

其中,RWIoU∈[1,e) 這將放大普通質量錨框的LIoU,LIoU∈[0,1] 這將降低高質量錨框的RWIoU,并且當錨框與目標框重合良好時,其重點關注中心點之間的距離。

為了使模型可以專注于困難示例并獲得分類性能的提升,WIoUv2引入單調注意力系數,其損失函數計算公式如下所示:

WIoUv3 將非單調聚焦系數β應用于WIoUv1,其計算公式如下所示:

β是非單調聚焦系數,α和δ是超參數。當β=δ,r=1且錨框的離群度滿足β=C(C為固定值)時,錨框將獲得最高的梯度增益。β和r的值由超參數α和δ控制。超參數α和δ、異常值β和梯度增益r之間的關系如圖5所示。

3 實驗與結果分析

3.1 數據集及實驗平臺

實驗訓練模型使用的數據集是來自天池算法大賽中廣東電網智慧現場作業挑戰賽絕緣手套識別數據集以及網絡上收集的一些的圖像。經過數據清洗之后共選取了2 788 張圖片,每張圖片的樣本標簽均采用LabelImg標注軟件進行人工標注,并將xml格式轉換為txt格式。數據集以9∶1的比例分為訓練集2 509張和測試集279 張。數據集共包括了9 類樣本標簽,包括安全帽、佩戴絕緣手套、未佩戴絕緣手套(包括沒有佩戴絕緣手套和佩戴錯誤的勞保手套)、絕緣鞋和其他類別,具體樣本標簽及解釋如表1所示。

表1 電力安全裝備數據集標簽說明Table 1 Label description of electric safety equipment dataset

在標注數據時,對變電站中的檢修操作人員和監督人員進行區分,幫助模型更好地學習他們的特征和行為模式。同時,考慮到監督人員和操作人員都可能參與到檢修現場的工作中,因此對監督人員和檢修操作人員都進行是否佩戴絕緣手套的標注。其次,對檢修操作人員經常使用的操作桿和驗電筆進行標注,可以為模型提供更多的上下文信息,有助于提高模型對手部位置的檢測。

訓練電力安全裝備數據集時,模型輸入的圖片大小恒定為640×640,batch-size 大小設置為8,訓練輪數為300 epoch,其他超參數均為默認值。本文所有實驗均在同一實驗環境下進行,實驗環境為Ubuntu 20.04 LTS操作系統,CPU 為Intel?Xeon?Platinum 8350C,內存42 GB,顯卡選用RTX 3090,深度學習框架PyTorch 1.11.0,CUDA Version為11.3。

3.2 實驗評價指標

為了對模型性能進行準確評估,實驗采用均值平均精度(mAP)、召回率R(recall)、參數量、FPS(frames per second)和損失函數曲線五個指標來對各個模型的性能進行對比。同時本文新增平均精度的標準差(standard deviation of average precision,SDAP)作為附加指標來對模型的一致性、穩定性和魯棒性進行評估。

精確度P表示模型預測為正類的樣本,實際為正類樣本的比例,衡量了模型在所有預測為正類的樣本中的準確性;召回率R 表示模型預測為正類的樣本中,實際為正類的比例,衡量了模型對所有實際正類樣本的識別能力。召回率R 指標用于表示模型可以正確檢測到的對象數量。計算公式如下,其中,TP 表示真正例,指模型正確預測為正類的樣本數量;FP 表示假正例,指模型錯誤地將負類預測為正類的樣本數量;FN 表示假負例,指模型錯誤地將正類預測為負類的樣本數量:

平均精度AP 是以精確度為橫坐標,召回率為縱軸組成的PR曲線的面積,然后對所有類別的AP值進行平均,得到各類目標的均值平均精度mAP。mAP@0.5 表示IoU=0.5 時mAP的值。mAP越大,平均檢測精度越高,模型檢測性能越好。計算公式如下,其中C表示數據中的類別數:

FPS 表示每秒檢測到的圖片數量。它反映了檢測模型的運行速度。計算公式如下,其中,fn表示總圖片數量,T表示所用的總時間:

平均精度的標準差SDAP 用于評估目標檢測模型在不同類別上精度變化,通過計算所有類別的平均精度的標準差,可以得到平均精度的變化情況。較小的標準差表示模型在不同類別上的性能變化較小,即模型對于不同類別的檢測精度比較一致。這可以被視為模型對于不同類別的檢測能力相對穩定,模型對于干擾因素的較小敏感性意味著它在不同環境或不同條件下的表現更加穩定和可靠。其公式為:

3.3 改進方法效果對比

3.3.1 主干網絡改進對比實驗

本文使用MobileViTv3 模塊替換YOLOv8 模型中的第二個C2f 模塊,為驗證融合MobileViTv3 模塊后的檢測效果,在YOLOv8n 的網絡模型基礎上分別對比了MobileViTv1、MobileViTv2[32]和MobileViTv3 模塊的檢測效果。

由表2 可知,使用MobileViTv3 模塊后的模型對于安全裝備的均值平均精度達到90.1%,召回率達87.2%。融合MobileViTv3模塊后的模型相較于MobileViTv1和MobileViTv2在對佩戴絕緣手套、未佩戴絕緣手套、安全帽和絕緣鞋的檢測精度和召回率大多都有所提高,雖然在參數量和檢測速度上融合MobileViTv2 模塊后的模型參數量更少,速度更快,但融合MobileViTv2 的模型對未佩戴絕緣手套的檢測上召回率較低,容易發生漏檢的情況,綜合考慮之后選擇融合MobileViTv3 模塊對YOLOv8模型進行改進,以提高模型的檢測性能。

表2 MobileViT模塊對比Table 2 Comparison of MobileViT modules

3.3.2 損失函數改進對比實驗

為驗證WIoUv3損失函數的有效性,本文在模型融合MobileViTv3 模塊和增加小目標檢測層的基礎上,本文將WIoUv3損失函數分別與DIoU[31]、GIoU[33]、SIoU[34]、Focal-EIOU[35]以及WIoUv1和WIoUv2進行對比,由表3可知,模型采用WIoUv3損失函數能更準確并快速地識別目標物體并給出高置信度的預測結果并預測目標物體的位置和大小,在檢測變電站電力人員的安全裝備方面表現更優,并提供可靠的檢測結果。

表3 損失函數對比Table 3 Loss function comparison

3.4 消融實驗

為更好地評估改進的結構對于模型整體性能的貢獻程度,本文進行消融實驗,先后對于YOLOv8n網絡模型進行了以下改進:對主干網絡中第二個的C2f模塊替換為MobileViTv3 模塊,增加P2 分支和改進損失函數。消融實驗結果如表4所示。

表4 消融實驗Table 4 Ablation experiment

由表4 可知,本文的Wear-YOLO 模型對于安全裝備的均值平均精度達92.1%,相比于YOLOv8在均值平均精度上提升2.7個百分點,檢測效果有較大的提升,在召回率上提升3.3個百分點,漏檢、誤檢的情況減少。

表5 更全面地展現模型對于安全裝備檢測效果的提升,對主干網絡中第二個的C2f模塊替換為MobileViTv3模塊后,對佩戴絕緣手套的檢測精度提高1.1個百分點,召回率提高1.7 個百分點;對未佩戴絕緣手套的檢測精度提高1.1 個百分點,召回率提高1.1 個百分點;對絕緣鞋的檢測精度提高1.3個百分點,召回率提高3.3個百分點,這是因為在檢測過程中變電站電力人員手部面積占比小且容易被遮擋,不易被檢測且能夠提取的特征非常有限,而手部與工作人員和操作桿等位置有諸多聯系,MobileViTv3 模塊能夠通過Transformer 中的自注意力機制提取全局長距離依賴關系和上下文信息的同時用卷積塊獲得的局部信息進行融合來提高模型的檢測精度。加入P2 分支后,對佩戴絕緣手套的檢測精度提高1.4 個百分點,召回率提高0.4 個百分點;對未佩戴絕緣手套的檢測精度提高8.1 個百分點,召回率提高10.4 個百分點;對絕緣鞋的檢測精度有所下降,但對安全帽和絕緣鞋的召回率分別提高1.4 和0.9 個百分點。可以看到P2 檢測分支提高了極小目標的檢測效果,這是因為對于未佩戴絕緣手套的檢測屬于小目標檢測,P2 分支幫助網絡更好地捕捉淺層的語義信息,從而提升對小目標的檢測精度并極大程度地提高了召回率,降低了小目標漏檢的情況。對于邊界框回歸損失函數使用WIoUv3,對佩戴絕緣手套的檢測精度提高1.8 個百分點,召回率提高1.3 個百分點;對未佩戴絕緣手套的檢測精度提高1.2 個百分點,召回率提高2.0 個百分點;對安全帽的檢測精度提高0.6 個百分點,召回率提高1.0 個百分點;對絕緣鞋的檢測精度提高1.5個百分點,召回率略有降低,WIoUv3 采用梯度增益分配策略,不僅降低了高質量錨框的競爭力,而且還減少了低質量錨框產生的有害梯度,同時WIoUv3專注于普通質量的錨框并提高了模型的整體檢測性能。

表5 安全裝備檢測對比Table 5 Comparison of safety equipment testing

3.5 與其他模型的檢測對比實驗

為了更全面地驗證改進之后的Wear-YOLO模型性能,將其與其他主流的目標檢測算法在同一實驗環境下進行對比實驗,實驗結果如表6所示。通過對表中的數據進行對比,可以看到改進后的Wear-YOLO 參數量相較于原始YOLOv8 略有增加,檢測速度有所下降,但依然優于其他目標檢測算法,適用于移動端的部署,并且均值平均精度mAP相比于原始YOLOv8n提高2.7個百分點,與YOLOv5n 模型相比提高4.1 個百分點,同時本文模型在檢測佩戴絕緣手套(glove)、未佩戴絕緣手套(wrongglove)和絕緣鞋(shoes)小目標的效果上提升明顯,對于YOLOv8 分別提升4.1、10.5 和2.0 個百分點。與經典的檢測模型Faster R-CNN、SSD、RetinaNet 相比均值平均精度分別提高14.5、22.1和26個百分點。此外與近幾年提出的針對安全裝備的檢測模型進行對比實驗,與張伍康等人[2]提出的改進RetinaNet模型和伏德粟等人提出的改進YOLOv5 模型[13]相比均值平均精度分別提高6.7和2.6個百分點,從實驗結果可以得出,Wear-YOLO模型對于安全裝備的檢測精度更高,對于多種輸入樣本的魯棒性更優。

表6 Wear-YOLO與其他模型對比實驗結果Table 6 Comparative experimental results between Wear-YOLO and other models

為了更全面地進行對比實驗,本文繪制了SDAP折線圖來評估各模型的一致性和穩定性,如圖6所示。通過折線圖可知,Wear-YOLO 模型的SDAP 折線比較平緩,起伏波動不大,在個別標簽的檢測精度上與其他模型僅相差較少的情況下,在不同標簽類別上的性能表現相對穩定,優于其他目標檢測模型。這表明模型能夠對不同的輸入樣本產生相似的檢測結果,不會因為輸入數據的變化而產生較大的波動。同時對于噪聲、變化或干擾的魯棒性較高。即模型對于輸入數據的變化或干擾具有較好的適應能力,能夠產生穩定且可靠的檢測結果。

圖6 SDAP折線圖Fig.6 SDAP line chart

3.6 檢測效果對比分析

根據以上實驗結果及分析中可以得出本文改進模型Wear-YOLO在變電站電力人員安全裝備檢測效果上優于YOLOv8 和其他主流目標檢測模型,為了更直觀地感受到Wear-YOLO 模型的檢測效果,圖7 給出了YOLOv8和Wear-YOLO的檢測效果對比圖。

圖7 檢測效果對比Fig.7 Detection effect comparison

圖7 中,左邊是YOLOv8 模型的檢測效果,右邊是改進后Wear-YOLO 模型的檢測效果。圖7(a)中,左圖中在戶外檢測背景較為復雜的情況下,對于監督人員未佩戴絕緣手套的檢測精度由0.64提升至0.79,對其絕緣鞋的檢測精度由0.76提升至0.78,并對YOLOv8的漏檢做出改進,精度達0.85;對于電力操作人員佩戴絕緣手套的檢測精度由0.73和0.78提升至0.80和0.84,對于絕緣鞋的檢測精度由0.65 提升至0.78;圖7(b)中,在光線昏暗的情況下,對于電力操作人員佩戴絕緣手套的檢測精度由0.74提升至0.84,對于絕緣鞋的檢測精度由0.67提升至0.79;圖7(c)中,在電力操作人員被部分遮擋的情況下,右圖相比于左圖仍能更準確地實現對于是否佩戴絕緣手套等安全裝備的檢測;圖7(d)的兩幅對比圖中,由于電力操作人員的手部面積占比小且姿勢靈活多變,YOLOv8的模型對此的檢測效果不好發生漏檢的情況,改進后的Wear-YOLO 對于電力工作人員不同的手部動作和狀態在不同背景之下檢測效果更好,減少了漏檢情況的發生。綜上所述,改進之后的Wear-YOLO 模型在復雜的環境下能更精確地對變電站電力人員的安全裝備進行檢測。

3.7 MS COCO數據集對比實驗

為驗證模型在不同任務上的有效性,在公開數據集MS COCO 2017 上進行對比實驗,該數據集從復雜的日常場景中截取,包含多樣性的場景和對象,將所提出的Wear-YOLO 算法與原始算法進行對比,結果如表7所示。

表7 MS COCO數據集對比實驗結果Table 7 MS COCO dataset comparative experimental results

從表7 中可以得出,改進后的Wear-YOLO 模型在MS COCO 2017數據集上的平均檢測精度達55.2%,相較于基礎模型YOLOv8n 提升5.3 個百分點,召回率達51.0%,相較于基礎模型YOLOv8n 提升5.5 個百分點。模型的檢測速度上稍有所下降,但仍滿足實時檢測。這證明本文所提出的Wear-YOLO模型在目標檢測任務上的有效性,反映模型可以在真實場景中更好地適應復雜情況的能力。

4 結論

利用深度學習方法實現變電站電力人員安全裝備的檢測可以及時發現并糾正不安全的行為,有效減少事故的發生,降低人員傷亡和直接經濟損失。本文旨在構建變電站電力人員安全裝備檢測算法,創新地將改進的YOLOv8 模型融入其中,提出了Wear-YOLO 算法。這一改進的關鍵在于主干網絡中引入了MobileViTv3 模塊不僅使模型更加深入地理解目標的位置、形狀和上下文關系,這樣的結構改進為整個算法注入了更深層次的信息理解能力,提高了模型的感知力,進而提升變電站電力人員安全裝備的檢測效果。引入小目標檢測層P2,融合了卷積神經網絡的淺層特征,更加專注于局部細節和邊緣信息的保留,這使得模型能夠更好地捕捉目標的紋理、邊界以及微小的變化,對于未佩戴絕緣手套等小目標的檢測定位有了明顯的提升,更有效地減少了漏檢情況的發生。使用WIoUv3作為邊界框回歸損失函數,引入動態非單調的注意力機制,針對性地分配損失權重,強化了模型的泛化能力和檢測性能,從而更好地應對不同場景下的檢測挑戰。實驗表明改進后的Wear-YOLO 模型在變電站電力人員安全裝備的檢測中精度提高,召回率提高,漏檢情況減少,檢測速度符合實時檢測的要求,為后續變電站場景中對于電力人員安全裝備檢測的提供了一定的手段。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 亚洲综合天堂网| 一级毛片不卡片免费观看| 国产精品视频白浆免费视频| 精品综合久久久久久97超人| 欧美成人精品一级在线观看| 亚洲精品无码在线播放网站| 久久精品视频亚洲| 国产麻豆福利av在线播放| 亚洲天天更新| 亚洲日韩Av中文字幕无码| 国产99久久亚洲综合精品西瓜tv| 天天干天天色综合网| AV无码无在线观看免费| 亚洲精品你懂的| 五月六月伊人狠狠丁香网| 亚洲男人的天堂久久香蕉网| 国产精品网址你懂的| 在线精品视频成人网| 精品剧情v国产在线观看| 国产精品免费久久久久影院无码| 亚洲天堂视频在线观看| 在线看国产精品| 欧美日韩国产成人在线观看| 亚洲不卡影院| 人人艹人人爽| 欧美精品一二三区| 色综合天天娱乐综合网| 一级片免费网站| 欧美亚洲综合免费精品高清在线观看| 国产国模一区二区三区四区| 无码一区18禁| 国产免费怡红院视频| 国产丝袜无码精品| 国模沟沟一区二区三区| 日本a∨在线观看| 国产在线啪| 日韩午夜片| 亚洲av无码人妻| 亚洲综合香蕉| 久久久久国产精品熟女影院| 日韩欧美国产中文| 成年人视频一区二区| 久久久精品久久久久三级| 欧美在线一级片| 亚洲国产精品人久久电影| 重口调教一区二区视频| 国产91视频观看| 伊人久久婷婷| 成人一级免费视频| 久久人体视频| 国产精品部在线观看| 亚洲天堂啪啪| 亚洲Av激情网五月天| 中文字幕亚洲第一| 国产免费人成视频网| 天天操天天噜| 欧美亚洲欧美| 亚洲精品爱草草视频在线| 国产内射一区亚洲| 亚洲av综合网| 欧美综合成人| 国产亚洲精品yxsp| 婷婷综合缴情亚洲五月伊| 亚洲精品亚洲人成在线| 亚洲区欧美区| 日本a级免费| 婷婷色在线视频| 青青青视频91在线 | 久久久久久久久亚洲精品| 欧美天堂久久| 国产尤物在线播放| 亚洲天堂网在线播放| 91福利在线看| 久视频免费精品6| 国产精品永久在线| 国产精品国产三级国产专业不| 国产精品任我爽爆在线播放6080| 97国产一区二区精品久久呦| 亚洲av无码牛牛影视在线二区| 亚洲综合精品第一页| 日韩欧美色综合| 国产精品久久久久久久久久98|