999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的破損絕緣子檢測研究

2022-07-07 06:46:12王迎吳建勝
現代信息科技 2022年4期

王迎 吳建勝

摘? 要:文章提出了一種基于Scaled-YOLOv4目標檢測方法的破損絕緣子智能檢測模型。針對Scaled-YOLOv4網絡在訓練過程中難以分辨有效信息的問題,分析Scaled-YOLOv4網絡Neck部分的降采樣操作會導致信息丟失,提出將改進的注意力機制加入網絡模型中,設計了DC-Scaled-YOLOv4模型。將網絡上得到的破損絕緣子數據集分配成訓練集和測試集,并對故障識別模型進行訓練。采用該模型對破損絕緣子進行識別測試,Scaled-YOLOv4在破損絕緣子數據集上的檢測精度為80%,而文章算法在破損絕緣子數據集上的檢測精度為94.8%,檢測效果提升明顯。

關鍵詞:目標檢測;Scaled-YOLOv4;注意力機制;絕緣子

中圖分類號:TP393? ? ? ? ? ? 文獻標識碼:A文章編號:2096-4706(2022)04-0123-04

Research on Damaged Insulator Detection Based on Deep Learning

WANG Ying, WU Jiansheng

(School of Computer Science and Software Engineering, University of Science and Technology Liaoning, Anshan? 114051, China)

Abstract: This paper proposes an intelligent detection model of damaged insulator based on Scaled-YOLOv4 target detection method. Aiming at the problem that it is difficult for Scaled-YOLOv4 network to distinguish effective information in the training process, it is analyzed that the down sampling operation of Neck part of Scaled-YOLOv4 network will lead to information loss. Adding an improved attention mechanism to the network model is proposed, and a DC-Scaled-YOLOv4 model is designed. The damaged insulator data set obtained from network is allocated into training set and test set, and the fault identification model is trained. The model is used to identify and test the damaged insulator. The detection accuracy of Scaled-YOLOv4 on the damaged insulator data set is 80%, while the detection accuracy of algorithm proposed in this paper on the damaged insulator data set is 94.8%, and the detection effect is significantly improved.

Keywords: target detection; Scaled-YOLOv4; attention mechanism; insulator

0? 引? 言

隨著深度學習技術的不斷發展,越來越多的研究人員將深度學習引入到絕緣子檢測當中,可有效改善傳統方法的不足。近年來提出的基于深度學習的目標檢測算法Scaled-YOLOv4平衡了檢測精度和檢測速度的關系,能夠很好地代替傳統算法。

Scaled-YOLOv4對Neck部分進行了CSP化,這樣做的好處是CSP模塊中的bottleneck結構能帶來更深的卷積層,但僅僅只是加深網絡時通常會帶來更多的參數量,當參數量過多時也容易產生過擬合現象,且網絡Scaled-YOLOv4中的下采樣操作和1×1卷積雖然可以降維但也會丟失信息,導致Scaled-YOLOv4在訓練過程中可能會學習不到有效信息。基于Scaled-YOLOv4算法的特點,本文采用深度學習的方法,對絕緣子圖片進行檢測,提出了基于Scaled-YOLOv4的改進模型。采用DS-CBAM與Scaled-YOLOv4算法Neck部分中的CSP模塊相結合來檢測絕緣子。

1? 卷積注意力模塊

卷積注意力模塊[1](CBAM,Convolutional Block Attention Module)用于前饋卷積神經網絡,可以在通道維度和空間維度上執行注意力。CBAM中的通道注意力模塊(Channel Attention Module,CAM)和空間注意力模塊(Spartial Attention Module,SAM)互相獨立。在卷積時,將一個中間特征圖輸入到CBAM模塊,特征圖沿著先通道后空間的順序推導。然后將注意力圖乘以輸入特征圖進行自適應特征優化,這樣做節省了參數和計算力。由于CBAM輕量化的優點,使其可以以較小的代價隨意嵌入到任何CNN架構中,并與該CNN進行端到端的訓練。由于卷積注意力模塊結合了空間(spatial)和通道(channel)的注意力,相比于只關注通道的注意力機制能產生更好的結果。實驗表明,如果通道注意力模塊和空間注意力模塊采用串聯的方式且先通道后空間,則實驗效果更好。CBAM結構圖如圖1所示。

利用特征的空間相互關系可以生成一個空間注意力圖。與通道注意力不同,空間注意力模塊用于提取內部的關系,計算哪一部分是信息豐富的部分,這里輸入的是經過通道注意力處理的數據。為計算空間注意力,同樣經過兩種池化操作,沿著通道軸進行平均池化和最大池化,分別將多個通道的值壓縮到單個通道,再經過spatial層中7×7的二維卷積,使特征圖降為一通道,計算得到對空間的加權。

2? 深度可分離卷積

深度可分離卷積[2]包含逐通道卷積(Depthwise Convolution)和逐點卷積(Pointwise Convolution)兩個步驟,用來提取特征圖。首先,輸入多通道特征圖,將其按照通道劃分為多個單通道特征圖,然后對它們進行單通道卷積,這一步驟被稱之為逐通道卷積(由于是按照通道卷積,所以逐通道卷積完全在二維平面內完成)。這種將多通道拆分的行為非常重要,它只調整了上一層的特征圖大小,而產生的特征圖通道數與輸入完全相同。每個逐通道卷積的一個卷積核只卷積一個通道,一個通道只由一個卷積核進行卷積。

逐點卷積(Pointwise Convolution)的卷積核的寬和高都是1,而卷積核的通道數與上一層的通道數相同。逐點卷積會將逐通道卷積產生的幾張特征圖在深度維度上進行加權合并,生成新的特征圖。逐點卷積的操作與普通卷積極為相似。

3? DS-CBAM

CBAM注意力機制的空間注意力模塊中,采用了一個7×7大感受野的卷積核來聚合更廣泛的空間上下文特征,這相比于3×3的卷積核更能增大感受野,但是同時,更大的卷積核也會帶來更大的參數量。因此,在一個深度網絡中大量加入CBAM模塊無疑會帶來一些運算開銷,這就限制了CBAM的作用。在空間注意力中,空間注意力的使用性能由卷積操作的感受野大小決定,大的感受野能對上下文信息進行更好的聚合作用,同時增強空間注意力的表征能力。針對空間注意力中采用大卷積核會帶來更多參數的問題,本文提出使用參數量較普通卷積更少的深度可分離卷積代替空間注意力模塊中的傳統卷積用于聚合空間注意力的空間特征,使得在卷積層感受野大小不發生改變的情況下減少參數量,同時由于深度可分離卷積能夠在卷積過程中實現每個通道間信息的互相交換,即在空間注意力模塊中加強了對通道信息的互聯,所以可以使注意力模塊更能注意到特征圖中哪一部分是信息豐富且重要的,使整體運行效率高并且能夠獲得較好的精度。本文將改進后的模塊叫作DS-CBAM。改進后的結構如圖2所示。

4? 改進后網絡模型

4.1? Scaled-YOLOv4的Neck部分

Scaled-YOLOv4中提出了三種模型分別是YOLOv4-CSP、YOLOv4-tiny、YOLOv4-large。本實驗所用的是Scaled-YOLOv4-large模型,該模型含有三種網絡結構,分別為p5、p6、p7,本實驗采用p5模型。

Scaled-YOLOv4將YOLOv4的Neck部分全部CSP化,Neck部分又叫FPN網絡,其中包含有兩種CSP結構,rCSP和rCSP(without SPP),如圖3所示,其中rCSP存在于圖3中粉色區域,rCSP(without SPP)存在于圖3中藍色和黃色區域。rCSP和rCSP(without SPP)結構如圖4所示。

由圖3可以看出,Scaled-YOLOv4的Neck部分結構組成十分簡單,分別從堆疊系數為15、15、7的CSPDarknet模塊輸出尺寸為(52,52,128)(26,26,256)(13、13、512)的特征圖,然后分別輸入到圖3中的CSPUp和CSPSPP模塊中,經過Neck模塊后從③、②、①號模塊輸出尺寸為(52,52,255)(26,26,255)(13、13、255)的特征圖用于Detection-P3、Detection-P4、Detection-P5層進行預測。

4.2? DC-Scaled-YOLOv4

Scaled-YOLOv4的Neck部分CSP化的好處是CSP模塊中的bottleneck結構能帶來更深的卷積層,但僅僅只是加深網絡時通常會帶來更多的參數量,當參數量過多時也容易產生過擬合現象,且網絡Scaled-YOLOv4中的下采樣操作和1×1卷積雖然可以降維但也會丟失信息,導致Scaled-YOLOv4在訓練過程中可能會學習不到有效信息。本文提出的DS-CBAM能夠很好地注意到特征圖中哪一部分是信息豐富且重要的,且能無縫插入到任何卷積神經網絡中。為了能較好地提升檢測精度,更好的學習有效信息,所以,本實驗將DS-CBAM結構插入到rCSP(without SPP)結構中,改進后的結構如圖5所示。

本文提出的DC-Scaled-YOLOv4算法是將DS-CBAM模塊插入到Scaled-YOLOv4模型Neck部分的CSPUp模塊和CSPDown模塊中的rCSP(without SPP)結構中,本文將DS-CBAM模塊插入到一個1×1卷積和一個3×3卷積中。DS-CBAM模塊可以使經過卷積操作的特征圖通過通道、空間注意力時著重關注到有用的信息,抑制無用的信息,突出表現特征矩陣中有效的信息區域,實現增強網絡特征表達能力的目的。

如圖6所示,在DC-Scaled-YOLOv4的Neck 結構中,對輸入到⑤號模塊中的特征圖上面的特征進行下采樣操作,然后將經過②號模塊的特征圖中和經過③號模塊的特征圖輸入到⑤號模塊中執行加法操作(對應元素相加),將獲得的結果經過⑤號模塊后輸入到④號模塊中去。這樣做的目的是在特征圖中獲得有效的語義信息從而提高網絡性能。在網絡中利用較深的層來構建自底向上和自頂向下的特征融合,這樣的結構稱為特征金字塔。這種特征金字塔的結構可以使網絡獲得更加魯棒的信息。此外,將底層特征圖的特征和高層特征圖的特征相累加的原因是,低層特征能夠給出較為準確的位置信息,而這種位置信息經過多次的下采樣和上采樣操作后會產生一定的偏差。因此,應當構建更深的特征金字塔將高層特征和底層特征融合,最后將多個層次的特征信息在不同層進行輸出。

5? 實驗與結果分析

5.1? 數據標注

本實驗數據來自網絡,數據集中共包含絕緣子圖像248張,將每張圖片進行水平、上下翻轉、亮度調整、隨機角度旋轉等八種數據擴充方式得到共2 232張。與另一絕緣子數據集合并構成共含5 531張圖片的數據集。圖像尺寸皆為416×416。

5.2? CBAM-Scaled-YOLOv4網絡結構

本章中設置的CBAM-Scaled-YOLOv4模型用于驗證本章提出的DS-CBAM算法檢測效果優于CBAM算法。

與DC-Scaled-YOLOv4模型相同,CBAM-Scaled-YOLOv4模型是將CBAM模塊插入到Scaled-YOLOv4模型Neck部分的CSPUP模塊和CSPDOWN模塊中的rCSP結構中。改進后如圖7所示。

5.3? 實驗結果分析

本文用于衡量算法性能的指標為mAP(mean Average Precision),它是各類AP的平均值。平均精度AP(Average Precision)是指P-R曲線下方的區域面積,P-R曲線可以理解為在不同Recall下所有精度的平均值。AP是針對某一類的平均精度,mAP是一個數據集中所有類的AP平均值。因此,AP代表一類樣本的平均精度,mAP是數據集的平均精度均值。

如表1所示,是Scaled-YOLOv4、CBAM-Scaled-YOLOv4與DC-Scaled-YOLOv4在絕緣子數據集上實驗結果對比,由數據可以看出,Scaled-YOLOv4在絕緣子數據集上的檢測精度為80%,CBAM-Scaled-YOLOv4在絕緣子數據集上的檢測精度為84.8%,而DC-Scaled-YOLOv4的精度為94.8%,檢測效果提升明顯。

6? 結? 論

為提升對絕緣子數據集的檢測精度,本文對Scaled-YOLOv4算法進行了改進,將CBAM注意力機制進行改進并與Scaled-YOLOv4網絡的Neck部分進行結合以提升網絡獲得特征的能力。實驗結果顯示,本文提出的DC-Scaled-YOLOv4算法能有效提升算法精度,與原算法相比精度提升了14.8個百分點,與CBAM-Scaled-YOLOv4算法相比精度提升了10個百分點,提升效果明顯。本文下一步的工作將考慮縮減網絡模型,進一步提升網絡檢測目標的速度。

參考文獻:

[1] WOO S,PARK J,LEE J Y,et al.CBAM: Convolutional Block Attention Module [J/OL].arXiv:1807.06521[cs.CV].[2022-01-03].https://arxiv.org/abs/1807.06521.

[2] CHOLLET F.Xception:Deep Learning with Depthwise Separable Convolutions [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).Hawaii:IEEE,2017:1800-1807.

[3] REN S,HE K,GIRSHICK R,et al.Faster R-CNN:Towards Real-Time Object Detection with Region Proposal Networks [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

[4] WANG C Y,BOCHKOVSKIY A,LIAO H Y M.Scaled-YOLOv4:Scaling Cross Stage Partial Network [J/OL].arXiv:2011.08036[cs.CV].[2022-01-02].https://arxiv.org/abs/2011.08036.

[5] LIN T Y,DOLLAR P,GIRSHICK R, et al. Feature Pyramid Networks for Object Detection [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Honolulu:IEEE,2017:936-944.

作者簡介:王迎(1997.11—),女,漢族,遼寧錦州人,碩士研究生,研究方向:計算機視覺。

主站蜘蛛池模板: 亚洲综合二区| 国产又色又刺激高潮免费看| 免费一级α片在线观看| 亚洲永久视频| 99精品国产自在现线观看| 片在线无码观看| 欧美亚洲国产精品久久蜜芽| 精品福利网| 亚洲丝袜第一页| 日韩无码黄色| 天堂va亚洲va欧美va国产| 国产毛片不卡| 中国一级特黄视频| 欧美成人一级| 国产91久久久久久| 亚洲伦理一区二区| 亚洲天堂网视频| 亚洲中久无码永久在线观看软件 | 亚洲AV无码久久精品色欲 | 麻豆国产在线观看一区二区| 亚洲国产91人成在线| 欧美视频在线第一页| 青青青国产免费线在| 日本午夜影院| 欧美a网站| 国产丝袜啪啪| 欧美一区二区精品久久久| 欧美亚洲一区二区三区导航| 91欧美亚洲国产五月天| 少妇精品在线| 国产无码精品在线播放| 欧美啪啪视频免码| 亚洲黄色激情网站| AV无码无在线观看免费| 国产一区自拍视频| AV熟女乱| 另类综合视频| 性视频一区| 特级aaaaaaaaa毛片免费视频| 久久免费成人| 日韩123欧美字幕| 国产成人8x视频一区二区| 中文字幕丝袜一区二区| 国产区人妖精品人妖精品视频| 超碰色了色| 国产专区综合另类日韩一区| 香蕉久人久人青草青草| 一级毛片中文字幕| 亚洲男人的天堂久久香蕉| 国产91导航| 91精品国产一区自在线拍| 日韩成人午夜| 国产爽妇精品| 日韩国产黄色网站| 亚洲无码91视频| 久久精品这里只有精99品| 喷潮白浆直流在线播放| 亚洲欧美一级一级a| 国产爽歪歪免费视频在线观看 | 又爽又大又光又色的午夜视频| 99精品国产自在现线观看| 色婷婷丁香| 久久精品无码中文字幕| 午夜国产精品视频| 亚洲人成在线免费观看| 91精品国产情侣高潮露脸| 成人91在线| 91青青草视频在线观看的| 国产在线专区| 青青青国产在线播放| 国产精品永久免费嫩草研究院| 91午夜福利在线观看| 爱爱影院18禁免费| 国产一线在线| 98超碰在线观看| 欧美中文字幕在线视频| 色综合a怡红院怡红院首页| julia中文字幕久久亚洲| 午夜国产大片免费观看| 毛片免费在线| 凹凸国产分类在线观看| 日韩免费毛片|