999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLOv5 改進的鋁片表面缺陷檢測

2024-01-16 11:36:20謝延楠劉興德
電子制作 2023年24期
關鍵詞:特征檢測模型

謝延楠,劉興德

(1.吉林化工學院 信息與控制工程學院,吉林吉林,132022;2.吉林化工學院 機電工程學院,吉林吉林,132022)

0 引言

全球各方面的發展不斷加快,鋁制品的需求量不斷增加,鋁片的質量對于鋁制品的性能具有重要影響。因此,對鋁片表面缺陷進行有效檢測具有重要的實際意義。傳統的缺陷檢測有準確性差和檢測速度慢的問題。隨著計算機視覺技術的快速發展,使用深度學習的目標檢測方法成為主流。

隨著其精度和速度不斷提升,服務于目標檢測需求的神經網絡模型也越來越多,眾多的網絡模型為工廠車間內的工件檢測提供了新的可能。常見的目標檢測算法分為兩大類,單階段檢測算法和雙階段檢測算法[1],單階段算法以SSD、YOLO 系列為典型,而雙階段則以Faster R-CNN 網絡為主。其中基于 YOLOv5 的檢測方法在速度和準確性上具有一定優勢。

針對表面缺陷檢測問題,王子豫等[2]人提出基于改進的YOLOv5 算法的零件表面缺陷檢測技術,引入CBAM 注意力機制,并融合BiFPN 網絡與可變性卷積策略,并采取剪枝方法提升模型性能。杜少聰等[3]人提出基于改進YOLOv5 的鋼軌表面缺陷檢測技術,將多頭注意力層嵌入到骨干網絡末端,并引入全局依賴關系,構建跨層加權級聯結構,將淺層網絡融入深層網絡中,提高檢測性能。吳健生[4]等人提出基于改進Faster R-CNN 算法的帶鋼缺陷檢測,在主干網絡采用可變形卷積模塊,FPN 多尺度檢測模塊以及在RPN 網絡中融合CBAM 模塊,提高檢測精度。劉艷菊等[5]人提出基于改進SSD 的工件表面缺陷檢測,采用了以ResNet 替換SSD 中原始的VGGNet 的方法,研究了小目標檢測的問題;采用了對深層特征進行反卷積且將深層特征與淺層特征融合的方法,提升網絡整體性能。

針對工業鋁片缺陷數據集,本文研究一種基于YOLOv5的網絡模型,嵌入不同的卷積注意力機制模塊以增強圖像的特征提取能力,之后修改YOLOv5 本身的CIOU 損失函數,降低預測框的回歸損失。

1 YOLOv5 算法概述

YOLOv5 是一種高效的目標檢測算法,由YOLOv4 算法改進而來。YOLOv5 算法具有檢測速度快、實時性高、魯棒性好等優點,廣泛應用于工業檢測領域。YOLOv5 作為YOLO 系列最常用的模型,提供了四種大小的模型。其中YOLOv5s 的模型結構最小,其他幾種模型結構相比更為復雜,但平均精度會有所提升。

圖1 為YOLOv5-6.0 版本的模型結構。

圖1 網絡結構圖

下面分別對四個部分進行分解說明:

(1)Input 輸入端:YOLOv5 在輸入階段結合Mosaic 數據增強和自適應圖像縮放,增強推理能力,提高網絡效率,使其能夠很好地適應各種輸入。

(2)Backbone 主干網絡:相比于Yolov5-5.0 版本,Yolov5-6.0 版本使用卷積核代替Focus 模塊,便于模型的導出,且效率更高。該部分三個部分組成,分別是CBS、CSP1_X、SPPF,主要負責對輸入圖像進行特征提取。三個模塊的詳細信息如圖1 中所示。

(3)Neck 頸部網絡:Neck 部分主要是對之前提取的特征進行整理使其能夠被更好地利用從而提取出更有效的特征,采用基于多特征圖融合的FPN+PANet 結構,從自頂向下和自底向上兩個方向出發,同時增強了語義信息和位置信息的提取,同時設計了的CSP2_X 結構,進一步加強了網絡的特征融合能力。

(4)Head:采用CIOU Loss 作為模型的損失函數,生成邊界框和類別預測,同時采用非極大值抑制NMS 的方法,篩選保留最佳的目標框,完成預測任務并記錄缺陷位置及類別[6]。

2 改進YOLOv5 網絡模型

■2.1 注意力機制

為提高檢測精度,提升對定位內容的關注,加入注意力機制模塊對模型的性能進行優化,本文使用的是通道注意力和空間注意力的集成者CBAM[7],這是一種用于前饋卷積神經網絡的簡單而有效的注意模塊[8],CBAM 為輕量級通用模塊,即插即用。

CBAM 由通道和空間注意力兩個子模塊組成,圖2 為CBAM 模塊的結構圖。

圖2 CBAM 模型結構圖

在通道注意力模塊(CAM)的結構中,這個過程的目標是通過對輸入特征圖F 進行不同池化方式的處理,然后通過共享的神經網絡來捕捉全局信息,并通過逐元素相加和激活函數來生成通道注意力特征圖Mc。這個特征圖可以幫助網絡更好地聚焦于輸入數據中最重要的通道信息,從而改善模型性能。CAM 的模型結構圖如圖3 所示。

圖3 CAM 模型結構圖

空間注意力模塊(SAM),在SAM 中,輸入是通道注意力模塊得到的特征圖Mc 和輸入特征圖 F 進行乘法處理后的結果F'。下面是SAM 的步驟:

首先特征圖 F' 分別進行MaxPooling 和AvgPooling 操作,產生兩個池化特征圖。然后,將處理得到的池化特征圖進行通道拼接,將它們在通道維度上連接起來后,將合并后的特征圖輸入一個卷積操作,將通道數量減少到1。對卷積輸出的特征圖進行 sigmoid 激活,生成范圍在0 到1 之間的空間注意力特征圖 Ms[9],圖4 為SAM 的結構圖。

圖4 SAM 模塊結構圖

將得到的空間注意力特征圖Ms 與SAM 的輸入特征圖F'進行逐元素乘法操作,最終得到生成的特征。這樣的操作將融合通道和空間注意力的信息。

總之,通道注意力模塊得到的特征圖F'執行池化、通道拼接、卷積和激活操作,生成一個用于強調輸入特征圖中重要空間位置的SAM 特征圖 Ms。最終,通過將Ms 與該模塊輸入特征圖F'相乘,得到一個融合了通道和空間的注意力信息的最終特征。這有助于網絡更好地關注輸入數據中的重要通道和空間信息,從而提升模型性能。

■2.2 損失函數

損失函數的作用就是判斷預測缺陷和真實缺陷之間的差距,若預測缺陷信息越接近真實缺陷信息,則損失函數值越小。YOLOv5 的損失主要包含三個方面:邊界框損失(bbox_loss)、分類損失(cls_loss)、置信度損失(obj_loss)。總損失的表達式為三個損失的和:

邊界框損失,關注的重點是預測邊界框和真實邊界框的交集比例,用交并比即IOU 表示[10],其中設預測邊界框為A,真實邊界框為B,則IOU 表示為:

當預測邊界框與真實邊界框完全重疊時,也就是說它們具有相交部分,這時候我們可以說它們的IOU(交并比)為1。相反地,如果預測邊界框與真實邊界框沒有相交部分,那么它們的IOU 為0。在YOLOv5 網絡中,默認使用CIOU Loss 來計算邊界框的損失。相比于沒有改進的IOU 損失,CIOU 損失考慮了邊界框的尺寸信息,并綜合考慮了邊界框之間的位置關系。具體而言,CIOU 損失通過計算預測邊界框與真實邊界框之間的距離,將這一距離作為損失函數的一部分,用于優化目標檢測算法[11],以下為CIOU 的損失計算公式:

其中ρ為兩個邊界框中心點間的歐氏距離,b和bgt為預測邊界框的中心點和真實框的中心點,c 為預測邊界框和真實框的最小閉包區域的對角線距離,α為權重參數,v 是用來衡量寬高比的一致性[13]。

分類損失,原網絡分類損失函數使用二元交叉熵函數,該函數的定義為:

其中y 為輸入樣本對應標簽,p 為預測樣本為正樣本的概率。

置信度損失,一個預測邊界框對應一個置信度值,該值表示接近真實邊界框的程度,置信度值越高,與真實框越吻合。計算置信度損失的函數是二元交叉熵函數。

本文使用的是Alpha-IoU Loss,基于現有IoU Loss 的統一冪化,即對所有的IoU Loss,增加α冪,當α等于1時[13],則回歸到原始各個Loss 中:

■2.3 改進后的模型

將CBAM 注意力機制模塊添加至Neck 部分,使網絡能夠從通道和空間兩個方面提升提取特征的能力,并且替換Alpha-IoU Loss 的損失函數,提高性能,更適用于本數據集檢測,圖5 為更改后的網絡結構模型。

圖5 改進后的網絡模型結構

圖6 缺陷數據集

3 實驗及結果分析

■3.1 實驗數據

本文所使用的實驗數據來自飛槳訓練平臺上的公開數據集,鋁片表面工業缺陷檢測數據集,共412 張韓有缺陷的鋁片數據,共包含4 類缺陷(臟污dirty,褶皺fold,針孔pinhole,擦傷scratch),隨機對該數據集進行劃分,其中80%為訓練集和20%為測試集,使用LabelImg 打標簽軟件對所得數據進行打標簽處理。

本文中的訓練使用的環境配置為:操作系統:Ubuntu 20.04.6 LTS;CPU:Intel(R) CPU @ 2.20GHz;GPU:NVIDIA Tesla T4(16G);Python:3.10;深度學習框架:Pytorch 2.0.1+cu118。

■3.2 性能分析

本文實驗使用平均精度均值mAP 來評價模型的準確性和FPS 用來評估檢測的速度,即每秒內可以處理的圖片數量。

3.2.1 對比試驗

對比試驗可以通過和其他網絡模型進行對比,更好地體現本文中改進模型的優勢,本文實驗將YOLOv5-αC(添加CBAM 注意力機制和Alpha-IOU 損失函數)與YOLOv3、Faster-RCNN、SSD、YOLOv7 以 及YOLOv5 模塊添加不同種注意力機制模型進行對比,采用同樣的訓練集和測試集進行實驗,不同模型對該數據集的性能對比如表1 所示。

表1 不同模型對比實驗

YOLOv5 模型屬于輕量級模型,并且簡單易上手,檢測速度和檢測精度相對而言有所提高。雖然Faster-RCNN 網絡模型的平均檢測精度很高,但是檢測速度很慢,無法做到檢測的實時性,因此不考慮該網絡模型。

3.2.2 消融實驗

該實驗內容的主要是明確地對比出有無注意力機制模塊和替換損失函數對檢測效果的影響,如表2 所示。

表2 消融實驗結果

為了明確地看出模型改進的效果,采用測試集的部分圖片進行測試,測試集圖片在改進模型上的檢測效果如圖7所示。

圖7 檢測結果對比

4 結論

提高鋁片工業缺陷的檢測精度和檢測速度在生產過程中具有重要意義,針對鋁片表面工業缺陷問題,本文提出的一種添加CBAM 注意力機制和替換損失函數的改進YOLOv5網絡能夠有效地提高檢測精度和速度。實驗表明,與原模型比較,平均檢測精度mAP 上漲3.1%,模型檢測速度上漲27.784 幀/秒,符合工業實時檢測要求。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 国产福利2021最新在线观看| 国产Av无码精品色午夜| 一区二区自拍| 日本成人一区| 欧美日韩国产精品va| 五月婷婷导航| 精品综合久久久久久97| 国产91丝袜在线播放动漫| 美女被躁出白浆视频播放| 国产精品太粉嫩高中在线观看| 91最新精品视频发布页| 波多野吉衣一区二区三区av| 亚洲成AV人手机在线观看网站| 日韩精品亚洲精品第一页| 亚洲综合久久一本伊一区| 亚洲精品无码不卡在线播放| 亚洲欧美一区二区三区图片| 香蕉国产精品视频| AV熟女乱| 人妻21p大胆| 国产欧美又粗又猛又爽老| 亚洲欧美人成人让影院| 日韩免费毛片视频| 91人妻在线视频| 人妻21p大胆| 国产成人欧美| 久久精品这里只有国产中文精品| 亚洲黄色高清| 欧美成人看片一区二区三区 | 亚洲天堂视频网| 日韩大乳视频中文字幕| 欧美亚洲国产视频| 精品欧美一区二区三区久久久| 亚洲va视频| 国产精品妖精视频| 欲色天天综合网| 欧美成人午夜在线全部免费| 成年片色大黄全免费网站久久| 久久综合九色综合97网| 国产亚洲视频在线观看| 成年看免费观看视频拍拍| 国产网站免费| 欧美亚洲一区二区三区导航| 国产成人亚洲日韩欧美电影| 国产精品露脸视频| 久热这里只有精品6| 四虎成人精品| 亚洲天堂久久| 男女男免费视频网站国产| 国产91小视频| 波多野结衣在线一区二区| 青青草91视频| 成人毛片免费在线观看| 久久精品无码国产一区二区三区| 欧美日韩高清在线| 亚洲午夜福利精品无码| 国产精品福利在线观看无码卡| 99ri国产在线| 4虎影视国产在线观看精品| 国产激情无码一区二区免费| 人妻21p大胆| 国产精品片在线观看手机版 | 欧美一级99在线观看国产| 国产成人永久免费视频| 91激情视频| 无码精油按摩潮喷在线播放| 狼友视频国产精品首页| 亚洲不卡影院| 久久久久人妻一区精品| 国产丰满大乳无码免费播放 | 日本精品中文字幕在线不卡| 国产成人亚洲精品色欲AV | 国产精品55夜色66夜色| av午夜福利一片免费看| 又黄又爽视频好爽视频| 亚洲无码高清一区| 国产一级在线播放| 亚洲一区无码在线| 精品無碼一區在線觀看 | 久久视精品| 欧美69视频在线| 日韩无码视频专区|