999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLOv5的表面缺陷檢測優(yōu)化算法

2023-10-31 06:18:46余嘉博孔亞康陳賢聰
空軍工程大學(xué)學(xué)報 2023年5期
關(guān)鍵詞:特征檢測模型

渠 逸,汪 誠,余嘉博,孔亞康,陳賢聰

(空軍工程大學(xué)基礎(chǔ)部,西安,710051)

隨著現(xiàn)代工業(yè)的發(fā)展,各行業(yè)對金屬材料性能的把控能力愈加重要,鋼材作為目前產(chǎn)量最高、應(yīng)用最廣的金屬材料,在交通運(yùn)輸、機(jī)械制造、航空航天和國防工業(yè)等領(lǐng)域其他金屬材料是無法替代的。隨著我國工業(yè)水平的迅速發(fā)展,市場需求不斷變化,各領(lǐng)域?qū)︿摬牡馁|(zhì)量要求也在不斷提升。鋼材在生產(chǎn)制造的過程中,受到生產(chǎn)設(shè)備、工藝水平等因素制約,鋼材表面會產(chǎn)生如裂紋、劃痕、凹坑、斑塊等無規(guī)律的缺陷[1],導(dǎo)致在后續(xù)應(yīng)用中,材料的力學(xué)性能、抗腐蝕性、抗磨損性能都會有不同程度地下降,嚴(yán)重的缺陷甚至?xí)l(fā)安全事故[2]。因此,探索一種準(zhǔn)確、高效率的表面缺陷檢測方法成為了當(dāng)前工業(yè)發(fā)展的迫切需求。

近年來,隨著深度學(xué)習(xí)的發(fā)展,計(jì)算機(jī)視覺廣泛應(yīng)用在各個領(lǐng)域,對材料表面的目標(biāo)檢測是計(jì)算機(jī)視覺中重要的一環(huán),該項(xiàng)技術(shù)大幅降低了人工成本,相較于傳統(tǒng)人工檢測手段具有穩(wěn)定、高效、準(zhǔn)確度高等優(yōu)勢。

當(dāng)前基于深度學(xué)習(xí)的目標(biāo)檢測算法主要分為one-stage和two-stage 2種。one-stage目標(biāo)檢測算法的檢測速度快,但精度相對較低,代表算法有SSD[3]、YOLO[4]等。two-stage目標(biāo)檢測算法檢測精度較高,但檢測速度慢,以Fast R-CNN[5]、Faster R-CNN[6]、Mask R-CNN[7]等為代表。對于一般的物體表面缺陷檢測,one-stage目標(biāo)檢測算法的精度已經(jīng)可以滿足檢測需求,又因?yàn)槠渚哂懈叩乃俣?所以被廣泛應(yīng)用[8]。YOLO網(wǎng)絡(luò)作為one-stage檢測算法里最受歡迎的系列,近年來被大量學(xué)者使用和優(yōu)化。Fang等[9]通過改進(jìn)的YOLOv3算法實(shí)現(xiàn)了對金屬表面的缺陷檢測,通過對輸入端的圖像進(jìn)行處理和損失函數(shù)優(yōu)化提升了檢測效果。李維剛等[10]使用加權(quán)K-means聚類算法,并通過融合淺層特征與深層特征的方式改進(jìn)了YOLOv3網(wǎng)絡(luò),在帶鋼表面缺陷數(shù)據(jù)集上的檢測精度比原始網(wǎng)絡(luò)提高了11%。Li等[11]通過構(gòu)建全卷積YOLO檢測網(wǎng)絡(luò)檢測帶鋼表面缺陷,為此類檢測提供了端到端的檢測方案,并取得了97.55的mAP。Zhang等[12]提出了改進(jìn)的YOLOv5算法,該算法在原有算法的基礎(chǔ)上增加了微尺度檢測層,并加入了CBAM關(guān)注機(jī)制,以控制小目標(biāo)缺陷等缺陷的特征信息丟失。

大量研究已經(jīng)初步使目標(biāo)檢測的精度和檢測速度得到提升,但各類材料的應(yīng)用場景變化較大,為滿足各類環(huán)境下個人檢測任務(wù)需求,檢測設(shè)備需盡可能輕量化。在此基礎(chǔ)上,本文針對工業(yè)應(yīng)用場景,以提升檢測精度與速度、減小模型體積為目標(biāo),提出了改進(jìn)的YOLOv5算法,并在NEU-DET數(shù)據(jù)集上進(jìn)行測試。

1 實(shí)驗(yàn)基礎(chǔ)

1.1 數(shù)據(jù)集

本文所涉及的實(shí)驗(yàn)數(shù)據(jù)集均采用東北大學(xué)宋克臣團(tuán)隊(duì)制作的鋼材表面缺陷數(shù)據(jù)集(NEU-DET),數(shù)據(jù)集內(nèi)包含6個缺陷類別:crazing,inclusion,patches,pitted surface,rolled in scale,scratches,每類缺陷300張識別圖像,各類別的缺陷標(biāo)注信息通過xml文件保存,共計(jì)1 800張灰度圖像,4 189個檢測缺陷邊界框。

將數(shù)據(jù)集內(nèi)1 800張圖像按照8∶1∶1的比例劃分為訓(xùn)練集、驗(yàn)證集和測試集,得到訓(xùn)練圖片1 440張,驗(yàn)證圖片和測試圖片各180張,數(shù)據(jù)集內(nèi)各類缺陷圖片如圖1所示,其中缺陷目標(biāo)所在位置位于紅框標(biāo)注處。

(a)crazing (b)inclusion (c)patches

1.2 YOLOv5

YOLO是一種通用的one-stage目標(biāo)檢測算法,側(cè)重于推理速度,被廣泛應(yīng)用在圖像或視頻的目標(biāo)分類、定位工作中。迄今為止,學(xué)者通過不斷改進(jìn),發(fā)布了各種版本的YOLO模型,其中YOLOv5便是在YOLOv4的基礎(chǔ)上改進(jìn)而來,其在輸入端的模型訓(xùn)練階段加入了Mosaic數(shù)據(jù)增強(qiáng)、自適應(yīng)圖片縮放和錨框計(jì)算功能;融合了Focus結(jié)構(gòu)與CSP結(jié)構(gòu)改進(jìn)了基準(zhǔn)網(wǎng)絡(luò);在Neck部分添加了FPN+PAN結(jié)構(gòu);改進(jìn)了預(yù)測篩選框的DIoU NMS和訓(xùn)練時的GIOU Loss,對比前代在精度和速度上都得到了很大提升。YOLOv5目前已經(jīng)更新到7.0版本,根據(jù)不同的使用場景,有n/s/m/l/x 5個模型可以使用,由n至l版本,模型大小和運(yùn)算量逐步增加,精度也同時提高。根據(jù)本文的實(shí)驗(yàn)對象,經(jīng)過對比試驗(yàn)后,采用體積相對較小、速度較快的s版本模型。

2 算法改進(jìn)

2.1 添加目標(biāo)檢測頭

DyHead是由Dai等[13]提出的一種基于注意力機(jī)制的目標(biāo)檢測頭,通過將多頭self-attention注意力機(jī)制結(jié)合在尺度感知的特征層、空間感知的空間位置、任務(wù)感知的輸出通道處,并將其統(tǒng)一在一個框架內(nèi),以此在沒有多余算力開銷的情況下有效提升目標(biāo)檢測頭的檢測性能。其結(jié)構(gòu)如圖2所示。

圖2 DyHead結(jié)構(gòu)

從圖2可以看出,DyHead將尺度注意力、空間注意力和任務(wù)注意力疊加在了一個模塊內(nèi),將Head部分的輸入,也就是General View視為一個三維的tensor,其中L為不同尺度(即不同層次和階段)的特征圖;S為空間位置信息,也就是特征圖的寬高乘積;C為通道信息。DyHead使用分離式的注意力機(jī)制,使以上每個維度都能獨(dú)立通過注意力機(jī)制進(jìn)行特征感知,3個注意力機(jī)制如下:

1)Scale-aware Attention為添加在level維度的尺度感知注意力,不同level的特征圖所對應(yīng)的目標(biāo)尺度也不同,該機(jī)制的引入可以增強(qiáng)模型的尺度感知能力。

2)Spatial-aware Attention為添加在spatial維度的空間感知注意力,當(dāng)空間位置發(fā)生變化,所對應(yīng)的便是檢測目標(biāo)的幾何變換,該機(jī)制的引入可以增強(qiáng)模型的空間位置感知能力。

3)Task-aware Attention為添加在channel維度的任務(wù)感知注意力,不同的channel所對應(yīng)的檢測任務(wù)也不同,該機(jī)制的引入可以增強(qiáng)模型對不同任務(wù)的感知能力。

2.2 改用aLRP Loss

一般的目標(biāo)檢測任務(wù)需要通過結(jié)合平衡超參數(shù),來聯(lián)合優(yōu)化分類目標(biāo)與定位目標(biāo),但這種方法在定位任務(wù)和分類任務(wù)之間缺乏關(guān)聯(lián),無法同時兼顧定位精度和分類精度;在訓(xùn)練過程中,對超參數(shù)的調(diào)節(jié)較為困難,導(dǎo)致在需要較長時間訓(xùn)練的網(wǎng)絡(luò)內(nèi)收斂變慢;容易受到正負(fù)樣本不均勻或者正負(fù)樣本異常值變動的影響,在參數(shù)調(diào)節(jié)上需花費(fèi)更多精力[14]。為解決以上問題,Oksuz等[15]提出了aLRP Loss。這是一種基于ranking的損失函數(shù),具有統(tǒng)一、有界、平衡等特點(diǎn),通過對AP Loss的擴(kuò)展,建立一個能夠優(yōu)化不可導(dǎo)排序損失的通用框架,能有效用于目標(biāo)檢測中的分類和定位任務(wù)。與精確度和AP損失之間的關(guān)系類似,aLRP Loss為正樣本LRP值(lLRP(i))的平均值,如式(1)所示:

(1)

式中:P為精確率。LRP值定義為:

rank(i)=NFP+NTP

(3)

式中:NFP為錯誤預(yù)測的數(shù)量;NTP為正確預(yù)測的數(shù)量;當(dāng)k≥0時,H(k)=1,否則H(k)=0;τ為TP標(biāo)記閾值,一般取0.5。

相對于傳統(tǒng)損失函數(shù),aLRP Loss具有以下優(yōu)點(diǎn):

1)在分類和定位任務(wù)中首次采用排名策略,將獨(dú)立工作的2個分支合為統(tǒng)一整體,兩者同時調(diào)用檢測器的全部輸出,從而同時兼顧檢測精度和定位質(zhì)量。

2)相對于目前SOTA方法中的6個超參數(shù),aLRP Loss僅有一個不需要調(diào)試的超參數(shù),能夠減少參數(shù)調(diào)節(jié)的工作量,并使模型更容易訓(xùn)練。

3)aLRP Loss由AP Loss拓展而來,能夠替換AP Loss、SmoothL1 Loss等損失函數(shù),并以單個損失函數(shù)參與訓(xùn)練,具有出色的正負(fù)樣本策略,以提高網(wǎng)絡(luò)性能。

2.3 基于FasterNet輕量化模型提出C3-Faster

為提高算法的檢測速度,Chen等人[16]提出了一種新的部分卷積,其基本思想是在卷積操作中只對輸入中非零的部分進(jìn)行卷積,對輸入中全零的部分不進(jìn)行操作,可以同時減少計(jì)算冗余和內(nèi)存的訪問,更有效地提取空間特征,并在其基礎(chǔ)上提出了FasterNet,在不影響檢測精度的同時,大幅提升了檢測速度。

在此基礎(chǔ)上,本文提出了C3-Faster,替換了YOLOv5中用于提取特征的C3模塊。在C3-Faster中調(diào)用了C3模塊的構(gòu)造函數(shù),初始化部分基本參數(shù),并引入了Partial Convolution部分卷積層和Faster_Block模塊,二者都使用了類似PConv[17]的思想,其通過使用一個額外的掩蔽矩陣實(shí)現(xiàn),該矩陣與輸入圖像大小相同,其中缺失或遮擋的的像素位置用0填充,而正常的像素位置用1填充。隨后卷積核僅對被預(yù)設(shè)為1的像素進(jìn)行卷積運(yùn)算,其中在掩蔽矩陣中對應(yīng)為0的像素位置,卷積核中相應(yīng)的權(quán)重也被設(shè)為0。這意味著在卷積計(jì)算過程中,這些被掩蔽的權(quán)重不會對輸出特征圖產(chǎn)生影響,不但降低了運(yùn)算量,在處理不完整的輸入數(shù)據(jù)時也能提供更好的結(jié)果,從而提高了模型的魯棒性和泛化能力,可以增強(qiáng)模型的非線性表達(dá)能力,提高檢測精度;Faster_Block通過部分卷積來處理輸入特征圖,從而減少計(jì)算量和模型參數(shù)。

2.4 添加輕量級上采樣算子CARAFE

上采樣在目標(biāo)識別算法中可以將低分辨率的物體特征圖擴(kuò)展到更高分辨率,在卷積神經(jīng)網(wǎng)絡(luò)中,高層特征圖中的目標(biāo)特征比較抽象,分辨率較低;低層特征圖中物體特征更為精細(xì),分辨率更高。通過將低層特征圖上采樣到高層尺寸,可以將低層精細(xì)的特征和高層抽象的特征結(jié)合起來,從而更好地捕獲物體的特征,提高識別的準(zhǔn)確性。

為了深度神經(jīng)網(wǎng)絡(luò)中實(shí)現(xiàn)特征圖的高效上采樣,Wang等[18]提出了輕量級通用上采樣算子(content-aware reassembly of features,CARAFE),這是一種通用性強(qiáng)、輕量化、高效率的模塊,相比于傳統(tǒng)上采樣模塊,CARAFE在更輕、更快的條件下,感受野進(jìn)一步擴(kuò)大,不依靠亞像素鄰域運(yùn)行,而是在更大的接受域內(nèi)融合信息,并且可以針對特定內(nèi)容動態(tài)生成自適應(yīng)內(nèi)核,能夠更優(yōu)秀地進(jìn)行內(nèi)容感知。

CARAFE運(yùn)行的具體步驟是在每個位置為中心的預(yù)定義區(qū)域內(nèi),使用加權(quán)組合來重新組裝特征,并通過內(nèi)容感知的方式生成權(quán)重,并且上述的每個位置都會存在多組生成的上采樣權(quán)重,最后將生成的權(quán)重重新排列為一個完整的空間快,以此進(jìn)行特征上采樣。具體來說,給定一個大小為C×H×W的特征圖X和一個上采樣率σ(假設(shè)σ為一個整數(shù)),將生成一個大小為C×σH×σW的新特征圖X′,其原理如式(5)、(6)所示:

Wl′=ψ(N(Xl,Kencoder))

(5)

對于輸出X′的任一個目標(biāo)位置l′=(i′,j′),在輸入X中都能找到一個相應(yīng)的源位置l=(i,j),其中N(Xl,k)為以l為中心的特征圖X的k×k子區(qū)域,Kup為重組核的大小,同時考慮到性能和效率,使用核大小的卷積層Kencoder一般取值為Kup-2。

式(5)中,內(nèi)核預(yù)測模塊ψ根據(jù)Xl的子區(qū)域,為每個l′預(yù)測該位置上的內(nèi)核Wl′,即輸出大小為Cup×H×W的重組核,Cup為:

式(6)中φ是內(nèi)容感知重組模塊,可以將Xl的子區(qū)域與內(nèi)核Wl重新組合,如式(8)所示:

(8)

式中:r=Kup/2

2.5 改進(jìn)的5種模型

基于以上4點(diǎn)改進(jìn)方向,本文共提出5種改進(jìn)的YOLOv5模型如下:

1)YOLOv5-D:為YOLOv5網(wǎng)絡(luò)添加基于分離式注意力機(jī)制的DyHead目標(biāo)檢測頭;

2)YOLOv5-A:改用由AP_Loss拓展而來的aLPRLoss損失函數(shù);

3)YOLOv5-F:將YOLOv5算法中的C3模塊替換為基于FasterNet網(wǎng)絡(luò)提出的C3-Faster;

4)YOLOv5-C:為YOLOv5網(wǎng)絡(luò)添加CARAFE輕量級上采樣算子;

5)YOLOv5-DAFC:將Dyhead目標(biāo)檢測頭、aLPRLoss損失函數(shù)、C3-Faster模塊、CARAFE上采樣算子同時部署在YOLOv5網(wǎng)絡(luò)中。

改進(jìn)后的YOLOv5-DAFC網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示:

圖3 YOLOv5-DAFC結(jié)構(gòu)

3 實(shí)驗(yàn)

本文實(shí)驗(yàn)環(huán)境基于Windows操作系統(tǒng),運(yùn)行內(nèi)存128 GB,使用Pytorch 1.11.0作為深度學(xué)習(xí)框架,Python版本為3.8,CUDA版本為11.2。CPU為Intel(R) Xeon Gold 6330 CPU @2.00 GHz。CPU為NVIDIA GeForce RTX 2080Ti 11G。

3.1 實(shí)驗(yàn)評價標(biāo)準(zhǔn)

本文從模型自身參數(shù)、模型檢測參數(shù)兩方面進(jìn)行效果對比。

其中模型自身參數(shù)包括以下幾類:模型參數(shù)量,即網(wǎng)絡(luò)結(jié)構(gòu)中所有可訓(xùn)練參數(shù)的數(shù)量,通常是衡量模型復(fù)雜度和計(jì)算所需資源的指標(biāo);FLOPs,指模型在推理期間進(jìn)行的浮點(diǎn)運(yùn)算次數(shù),一般采用GFLOPs,通常被用來評估模型的計(jì)算復(fù)雜度;權(quán)重體積,指模型訓(xùn)練后所生成權(quán)重文件的大小。

模型的檢測參數(shù)包括以下幾類:精確率,指模型正確預(yù)測的目標(biāo)數(shù)量與總預(yù)測目標(biāo)數(shù)量之比;召回率,即在所有真實(shí)目標(biāo)數(shù)量中,模型準(zhǔn)確預(yù)測的目標(biāo)數(shù)量占比。AP[19]@0.5(IoU閾值為0.5時各個類別的平均AP值)而mAP則是在不同召回率下的精確率的均值,這一指標(biāo)考慮了準(zhǔn)確率和召回率的綜合表現(xiàn),是當(dāng)前主流的目標(biāo)檢測評價指標(biāo)。相關(guān)計(jì)算公式為:

(11)

(12)

式中:P、R分別為精確率和召回率;N表示目標(biāo)類別數(shù);Tp為IoU>0.5時的檢測框數(shù)量(同一個Ground Truth值計(jì)算一次);Fp為IoU≤0.5時的檢測框數(shù)量(或者是檢測到同一個Ground Truth的多余檢測框的數(shù)量);FN為指沒有檢測到的Ground Truth數(shù)量;AMP為均值平均精度,即mAP。

3.2 訓(xùn)練參數(shù)設(shè)置

YOLOv5使用了K-means聚類算法來生成錨框(anchor box),通過統(tǒng)計(jì)訓(xùn)練集中不同大小的目標(biāo),自動生成合適的K值(錨框的數(shù)量),以便網(wǎng)絡(luò)能夠檢測不同大小和比例的目標(biāo)。本文針對目標(biāo)數(shù)據(jù)集與服務(wù)器性能,初始學(xué)習(xí)率設(shè)為0.01,使用隨機(jī)梯度下降法(stochastic gradient descent,SGD),warmup_epoch設(shè)為5,學(xué)習(xí)率動量為0.98,權(quán)重衰減系數(shù)weight_decay設(shè)為5e-5,work-number設(shè)為16,原始YOLOv5模型batch-size設(shè)為32,后續(xù)訓(xùn)練根據(jù)模型大小與顯存冗余調(diào)整至最優(yōu)。依次對原YOLOv5模型的s版本與5個改進(jìn)模型進(jìn)行訓(xùn)練與測試,對比分析各模型的參數(shù)和性能。

3.3 訓(xùn)練過程損失

在訓(xùn)練過程中,本文提取了YOLOv5原模型與YOLOv5-DAFC模型的損失函數(shù)值,如圖4所示,其中綠色線條為原版YOLOv5模型訓(xùn)練損失,橙色線條為改進(jìn)后的YOLOv5-DAFC模型訓(xùn)練損失。3個不同的損失變化圖可以客觀地描述本文中檢測算法的訓(xùn)練變化過程。

圖4中Box loss是定位損失,通過計(jì)算預(yù)測邊界框與實(shí)際邊界框差異所得,用于衡量模型對物體位置的預(yù)測能力。Obj loss是置信損失,通過Focal Loss計(jì)算所得,用于衡量模型對預(yù)測物體與背景的置信度誤差。Cls loss是分類損失,通過計(jì)算分類預(yù)測結(jié)果與實(shí)際標(biāo)簽的交叉熵?fù)p失函數(shù)所得,用于衡量模型對每個類別的分類能力。

可以看出,在訓(xùn)練epoch達(dá)到300時,2個模型均已收斂,損失值趨于平穩(wěn)。添加了aLRP Loss的改進(jìn)模型損失曲線與原版區(qū)別較大,在Box loss曲線中,DAFC模型在訓(xùn)練初期出現(xiàn)了過擬合[20]現(xiàn)象,相比原版的平滑下降,呈階段性下降趨勢,并且收斂速度明顯快于原版,僅在50 epoch左右就已經(jīng)進(jìn)入收斂狀態(tài),且收斂后曲線平穩(wěn)度高于原版;在Obj loss曲線中,DAFC模型訓(xùn)練初期仍有過擬合現(xiàn)象存在,但模型收斂后曲線平穩(wěn)度仍高于原版。可以看出,引入了aLRP Loss的DAFC模型在收斂速度和收斂后曲線穩(wěn)定性方面均高于原版模型。

4 實(shí)驗(yàn)結(jié)果對比

4.1 模型性能對比

為確定每個優(yōu)化結(jié)構(gòu)對網(wǎng)絡(luò)性能的影響,本文進(jìn)行消融實(shí)驗(yàn),分別對YOLOv5、YOLOv5-D、YOLOv5-A、YOLOv5-F、YOLOv5-C、YOLOv5-DAFC 6個模型進(jìn)行訓(xùn)練,得到不同模型自身參數(shù)與測試性能如表1所示。

表1 不同模型的參數(shù)與檢測效果對比

通過分析表1實(shí)驗(yàn)結(jié)果可知,在網(wǎng)絡(luò)中增加DyHead目標(biāo)檢測頭、用C3-Faster替換C3模塊后,網(wǎng)絡(luò)整體的訓(xùn)練參數(shù)量和計(jì)算復(fù)雜度會有較為明顯的變化,前者增加了8%的參數(shù)量和7.5%的浮點(diǎn)運(yùn)算量,將AP@0.5提升了1.101%,同時權(quán)重體積增加了4.3%;后者則減少了17.62%的參數(shù)量和20.63%的浮點(diǎn)運(yùn)算量,同時將AP@0.5提升了2.825%,提升效果顯著。

而在改用ALRPLoss損失函數(shù)與增加CARAFE上采樣算子的A、C模型中,相應(yīng)的改進(jìn)主要作用在檢測精度的提升上,A、C兩模型相比于原版模型,AP@0.5分別提升了0.49%和1.071%。

DAFC模型則是4個模型優(yōu)點(diǎn)的整合,保留4個改進(jìn)點(diǎn)對檢測精度提升的同時,綜合減少模型參數(shù)量與計(jì)算復(fù)雜度。相比于原模型,改進(jìn)的DAFC模型在參數(shù)量減少了11.25%,計(jì)算復(fù)雜度減少了13.75%,權(quán)重體積減少了10.72%的同時,AP@0.5增加了4.174%。可以看出,改進(jìn)的DAFC模型同時發(fā)揮了4個改進(jìn)點(diǎn)的優(yōu)勢,在盡可能節(jié)約內(nèi)存占用與計(jì)算資源的同時,做到了檢測效果的最佳優(yōu)化。

4.2 不同缺陷檢測性能對比

為研究本文所提出的模型對于不同類別缺陷的檢測效果,摘取實(shí)驗(yàn)數(shù)據(jù)如圖5所示。

圖5 各類缺陷檢測效果

從圖5的分析結(jié)果可以看出,對于本數(shù)據(jù)集內(nèi)的6種缺陷類別,最優(yōu)檢測效果均分布在5個改進(jìn)模型上,其中C模型對pitted surface和scratches類別缺陷檢測效果最佳,檢測精準(zhǔn)度分別提升了0.5%、1.6%;對于crazing、inclusion、patches、rolled in scale 4種缺陷,均為DAFC模型檢測效果最佳,相比于原版模型,改進(jìn)后的DAFC模型對crazing的識別準(zhǔn)確率提升了1.5%,inclusion提升了13.7%,patches提升了16.6%,rolled in scale提升了8.6%,scratches提升了0.9%。改進(jìn)后的模型對本數(shù)據(jù)集整體檢測效果大幅提升,并對部分難檢目標(biāo)的檢測效果提升明顯,對實(shí)際應(yīng)用場景的可用性有實(shí)質(zhì)性的加強(qiáng)。

4.3 檢測效果對比

為了直觀了解改進(jìn)后的模型對目標(biāo)缺陷的檢測效果提升,使用原模型與改進(jìn)后的5種模型對測試集180張圖片進(jìn)行了檢測,YOLOv5s與改進(jìn)后的YOLOv5-DAFC模型對部分測試圖片識別效果如圖6所示。

(a)YOLOv5部分檢測效果圖

通過對比可以看出,原版模型對較小目標(biāo)容易發(fā)生漏檢,對較大目標(biāo)存在定位錯誤,并且存在重復(fù)描框、同一目標(biāo)檢測為多個等問題,改進(jìn)后的DAFC模型相對于原版YOLOv5,感受野增大后對較大目標(biāo)識別效果提升,對較難檢測的目標(biāo)更為敏感,可以有效避免目標(biāo)漏檢的情況發(fā)生,并且對于緊鄰的多個目標(biāo)、疊加目標(biāo)的檢測策略更加智能,顯著減少了對同一個目標(biāo)重復(fù)描框、分段描框的情況和將多個目標(biāo)識別為同一對象的情況,有效避免原版模型的檢測錯誤問題。

4.4 主流檢測算法性能對比

為了進(jìn)一步評估本文提出的模型的性能,在相同實(shí)驗(yàn)條件下,在同一數(shù)據(jù)集上選擇了SSD、RetinaNet、FCOS、YOLOv3、YOLOv4和YOLOv7 6種主流的一階目標(biāo)檢測算法,與本文提出的YOLOv5-DAFC模型進(jìn)行實(shí)驗(yàn)對比分析,通過比較實(shí)驗(yàn)結(jié)果,可以更加客觀地評估本文所提出改進(jìn)模型的有效性和優(yōu)越性。具體實(shí)驗(yàn)結(jié)果如表2所示。

表2 與主流目標(biāo)檢測算法的性能對比

通過以上對比可以明顯看出,本文所提出的YOLOv5-DAFC模型相比于幾種主流的one-stage目標(biāo)檢測算法,在整體檢測精度、檢測速度、模型體積3個方面都有較大提升,并且在各方面均超過了更新的YOLOv7模型,基本可以實(shí)現(xiàn)高精度、高速度、輕量級需求的工業(yè)檢測。

5 結(jié)語

為實(shí)現(xiàn)精準(zhǔn)、快速的材料表面缺陷檢測,本文提出了改進(jìn)的YOLOv5優(yōu)化算法,添加DyHead目標(biāo)檢測頭,通過分離式注意力機(jī)制將多種注意力同時應(yīng)用在同一個模塊中,有效提升目標(biāo)檢測頭的檢測性能;更換ALRPLoss損失函數(shù),簡化訓(xùn)練參數(shù)、優(yōu)化訓(xùn)練效果的同時兼顧分類和定位精度;基于FasterNet網(wǎng)絡(luò)提出C3-Faster模塊,用于替換原版C3模塊,提升模型魯棒性同時減少權(quán)重體積;添加CARAFE上采樣算子,擴(kuò)大感受野,提升內(nèi)容感知性能。實(shí)驗(yàn)證明,改進(jìn)后的YOLOv5-DAFC模型相比原版YOLOv5模型,檢測精度提升的同時,模型參數(shù)量、計(jì)算復(fù)雜度、權(quán)重體積都有明顯優(yōu)化,對于輕量化工業(yè)檢測領(lǐng)域有較高應(yīng)用價值。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
不忠誠的四個特征
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 亚洲天堂啪啪| 熟妇丰满人妻| 久久国产精品影院| 91人妻在线视频| 成色7777精品在线| 秋霞一区二区三区| 亚洲成aⅴ人片在线影院八| 久久综合亚洲鲁鲁九月天| 久久精品亚洲热综合一区二区| 国产精品亚洲一区二区三区z| 精品综合久久久久久97超人| av在线无码浏览| 亚洲欧美综合在线观看| 国产精品99一区不卡| 国产成人亚洲综合a∨婷婷| 国产精品第5页| 国产欧美日韩视频怡春院| 欧美国产综合视频| 99青青青精品视频在线| 国产91色在线| 香蕉eeww99国产在线观看| 九九热视频精品在线| 国产h视频免费观看| 色婷婷狠狠干| 中文字幕亚洲电影| 91在线播放免费不卡无毒| 亚洲天堂视频在线免费观看| 久久精品欧美一区二区| 亚洲综合婷婷激情| 精品一區二區久久久久久久網站| 国模视频一区二区| 在线观看亚洲精品福利片| 欧美激情二区三区| 91精品国产91久久久久久三级| 欧美一区中文字幕| 老色鬼久久亚洲AV综合| 国产系列在线| 国产香蕉在线| 亚洲美女高潮久久久久久久| 亚洲成人网在线观看| 四虎影视无码永久免费观看| 欧美日韩综合网| 无码AV高清毛片中国一级毛片 | 国产亚洲精品97在线观看| 久久综合婷婷| 97国产成人无码精品久久久| 亚洲色大成网站www国产| 久久精品人人做人人| 久久不卡精品| 国产在线视频自拍| 国产二级毛片| 99久久亚洲综合精品TS| 无码日韩人妻精品久久蜜桃| 国产成人高清精品免费5388| 国产97区一区二区三区无码| 无码视频国产精品一区二区| 欧美日韩中文字幕二区三区| 日本黄色不卡视频| 人妻少妇久久久久久97人妻| AV无码无在线观看免费| 国产免费久久精品44| 国产精品第一区| 99精品免费在线| 香蕉国产精品视频| 亚洲视频欧美不卡| 欧美日韩午夜| 国产精品永久久久久| 精品一區二區久久久久久久網站| 亚洲人成在线精品| 亚洲国产精品人久久电影| 狠狠综合久久久久综| 国产精品无码久久久久久| 欧美日韩在线亚洲国产人| 国产在线观看一区精品| 色噜噜狠狠狠综合曰曰曰| 国产精品第三页在线看| 亚洲天堂福利视频| 国产一区成人| 国产99视频精品免费视频7| 91久久性奴调教国产免费| 日韩免费中文字幕| 国产理论精品|