999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)YOLOv5模型的織物疵點檢測

2023-08-02 14:07:17高敏鄒陽林曹新旺
現(xiàn)代紡織技術(shù) 2023年4期
關(guān)鍵詞:深度學(xué)習(xí)

高敏 鄒陽林 曹新旺

摘 要:針對傳統(tǒng)機(jī)器學(xué)習(xí)方法檢測織物疵點精度低,小目標(biāo)檢測較困難的問題,提出一種基于改進(jìn)YOLOv5的織物疵點的目標(biāo)檢測算法。在YOLOv5模型的Backbone模塊中分別引入SE注意力機(jī)制和CBAM注意力機(jī)制,使模型聚焦于圖像中的關(guān)鍵信息,改進(jìn)傳統(tǒng) YOLOv5網(wǎng)絡(luò)檢測精度不高的問題。結(jié)果表明:改進(jìn)后的模型具有更好的檢測性能,其中引入CBAM模塊后提升幅度最明顯,較原網(wǎng)絡(luò)mAP值提升了7.7%,基本滿足織物疵點檢測需求。

關(guān)鍵詞:織物疵點;YOLOv5模型;注意力機(jī)制;深度學(xué)習(xí)

中圖分類號:TS107

文獻(xiàn)標(biāo)志碼:A

文章編號:1009-265X(2023)04-0155-09

收稿日期:2022-09-27

網(wǎng)絡(luò)出版日期:2023-03-21

基金項目:國家自然科學(xué)基金青年基金項目(51503162);湖北省自然科學(xué)基金青年面上項目(2016CFB459);湖北省大學(xué)生創(chuàng)新訓(xùn)練計劃項目(S201910495063);國家大學(xué)生創(chuàng)新訓(xùn)練計劃項目(201910495014)

作者簡介:高敏(1996—),女,江西九江人,碩士研究生,主要從事圖像處理方面的研究。

通信作者:曹新旺,E-mail:aswang1984@163.com

在紡織布品生產(chǎn)過程中,由于技術(shù)工藝水平有限和操作不當(dāng)?shù)纫蛩乜赡軙斐杉徔椘繁砻娉霈F(xiàn)各種缺陷,如破洞、毛球和污漬等[1]。紡織品質(zhì)量檢驗在制造產(chǎn)業(yè)中一直是不可或缺的環(huán)節(jié),在實際生產(chǎn)過程中,傳統(tǒng)的方式是通過人工肉眼的方式檢測表面的缺陷,但這種方式效率不高,也不利于長時間高效率的檢測[2]。因此,開發(fā)準(zhǔn)確高效的紡織品質(zhì)量自動檢測方法很有必要。

近年來,深度學(xué)習(xí)技術(shù)在眾多領(lǐng)域飛速發(fā)展,應(yīng)用于許多實際場景檢測中,而且都獲得了理想結(jié)果,其中應(yīng)用最廣泛的就是工業(yè)檢測方向[3]。許多企業(yè)利用智能檢測技術(shù)來替代人工檢測技術(shù),不僅節(jié)約了經(jīng)濟(jì)成本,也提高了質(zhì)檢過程中檢測的準(zhǔn)確度和效率[4]。國內(nèi)外許多學(xué)者在深度學(xué)習(xí)領(lǐng)域針對瑕疵問題進(jìn)行了大量研究[5]。王恩芝等[6]提出了在YOLOv5基礎(chǔ)型對缺陷目標(biāo)的關(guān)注程度。郭波等[7]在YOLOv5網(wǎng)絡(luò)引入Mish激活函數(shù),提高模型非線性表達(dá)能力。Xue等[8]將YOLOv5原有的Spatial pyramid pooling-fast (SPPF) 模塊調(diào)整為Spatial Pyramid pooling-fast-plus (SPPFP) 模塊,以更好地關(guān)注目標(biāo)的全局信息。Deng等[9]設(shè)計了一個多尺度動態(tài)加權(quán)特征融合網(wǎng)絡(luò)(MDW-Net),以改進(jìn)淺層和深層特征層的自適應(yīng)優(yōu)化和深度融合,提高特征提取能力并抑制背景噪聲。Lei等[10]將Swin Transformer作為YOLOv5的基礎(chǔ)骨干網(wǎng)絡(luò),通過改進(jìn)路徑聚合網(wǎng)絡(luò)(PANet)的方法進(jìn)行多尺度特征融合,網(wǎng)絡(luò)可以專注于融合相對重要的分辨率特征。周文明等[11]采用YOLOv5s作為表面缺陷檢測的模型,初始權(quán)值采用COCO數(shù)據(jù)集上訓(xùn)練好的權(quán)值,實現(xiàn)表面缺陷類別的識別與定位。針對目前存在的問題,如對小型疵點檢測效果差和檢測速度慢等問題,本文提出一種基于改進(jìn)YOLOv5模型的織物疵點檢測識別算法,在模型的Backbone模塊引入注意力機(jī)制,使模型能夠自適應(yīng)地調(diào)整對各通道和空間的注意力權(quán)重,期望得到更好的檢測效果。

1 YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)

YOLOv5是YOLO系列的最新版本,基于YOLOv3、YOLOv4改進(jìn)的目標(biāo)檢測算法[12],而且處于不斷更新中。根據(jù)網(wǎng)絡(luò)的深度和寬度不同,YOLOv5分為YOLOv5n、YOLOv5s、YOLOv5m、YOLOv5l 和YOLOv5x 5個版本[13]。模型的檢測精度和速度會受到網(wǎng)絡(luò)深度的影響[14],由于織物疵點檢測對實時性和輕量化性能要求較高,因此本研究基于YOLOv5s模型對織物疵點檢測網(wǎng)絡(luò)進(jìn)行了改進(jìn)設(shè)計。YOLOv5模型主要分為Input、Backbone、Neck、Head 4個模塊,如圖1所示。

1.1 Input模塊

Input模塊包含 Mosaic 數(shù)據(jù)增強(qiáng)、自動錨框計算和自適應(yīng)圖片縮放。YOLOv5采用Mosaic數(shù)據(jù)增強(qiáng)方式豐富數(shù)據(jù)集,在訓(xùn)練集圖像里隨機(jī)選取4張圖片對其進(jìn)行截取、翻轉(zhuǎn)和縮放等方式增加小目標(biāo)的樣本數(shù)量,不僅讓網(wǎng)絡(luò)的魯棒性更好,也提升了模型對小目標(biāo)的檢測效果[15]。YOLOv5中默認(rèn)設(shè)定的錨框為[10,13,16,30,33,23]、[30,61,62,45,59,119]、[116,90,156,198,373,326],錨框通過計算反向傳播輸出的預(yù)測值與真實值之間的大小誤差自動計算出最佳錨框值。YOLOv5中自適應(yīng)圖片縮放相比于統(tǒng)一縮放能夠有效減少圖片冗余信息和計算量,推理速度也得到了提升。針對輸入圖片的長寬比并不統(tǒng)一的問題,YOLOv5在源碼中加入了填充功能。對小的原始圖片進(jìn)行黑框填充,大的原始圖片進(jìn)行縮放操作,之后得到了統(tǒng)一大小的圖片標(biāo)準(zhǔn),提高了模型的檢測效率。

1.2 Backbone模塊

Backbone模塊引入了Focus 結(jié)構(gòu),原理如圖2所示,具體操作是將圖片切片之后獲得了4個獨立的特征層,對每個特征層呈周期性地抽出像素點進(jìn)行重構(gòu),將圖片從高分辨率轉(zhuǎn)換為了低分辨率,輸出的圖片長寬變?yōu)樵瓉淼?/2,通道數(shù)變?yōu)樵瓉淼?倍,在不丟失特征信息的情況下進(jìn)行下采樣,最大限度地保留了原有信息,同時降低了模型的計算復(fù)雜度。之后經(jīng)過一系列卷積、池化、跨階段局部網(wǎng)絡(luò)(Cross stage partial network,CSPnet)和特征金字塔池化(Spatial pyramid pooling,SPP)操作,完成特征提取過程。SPP結(jié)構(gòu)采用提取與融合不同尺度的特征圖的方法,可以將任意大小的特征圖輸出為固定大小的特征圖,減少了模型計算量,結(jié)構(gòu)如圖3所示。

1.3 Neck模塊

在YOLOv5之前的Neck模塊中,采用的都是普通的卷積操作,而YOLOv5的采用特征塔網(wǎng)絡(luò)(Feature pyramid networks,F(xiàn)PN)和路徑聚合網(wǎng)絡(luò)(Preceptual adversarial network,PAN)結(jié)構(gòu)完成[16],結(jié)構(gòu)示意圖如圖4,F(xiàn)PN結(jié)構(gòu)是自頂向下的,上層特征通過一系列的上采樣操作得到的特征圖,再與下層特征相融合,傳遞網(wǎng)絡(luò)學(xué)習(xí)圖像特征能力,得到預(yù)測的特征圖。PAN呈自底向上的特征金字塔狀,自下向上地傳遞強(qiáng)定位特征,加強(qiáng)網(wǎng)絡(luò)特征融合的能力,使得網(wǎng)絡(luò)能檢測到更細(xì)微的目標(biāo),提高模型檢測的精確度。

1.4 Head模塊

Head模塊中設(shè)計了19×19,38×38,76×76大小的網(wǎng)格分別來檢測大、中、小目標(biāo),每個網(wǎng)格包含3個預(yù)測框,采用的是CIOU_loss函數(shù)計算bounding box損失,如式(1)所示。采用非極大值抑制(Non-maximum suppression,NMS)將多余和重復(fù)的框進(jìn)行剔除直至保留預(yù)測框的置信度是最高的,提高模型的檢測速度和精確度,完成目標(biāo)檢測。

CIOU_Loss=1-IOU-ρ2c2-αν(1)

式中:CIOU_Loss表示位置損失;IOU表示真實框與預(yù)測框的重疊面積;ρ表示真實框與預(yù)測框的中心點距離;c表示真實框與預(yù)測框最小包圍矩形的對角線長度;υ表示真實框與預(yù)測框之間的寬高比相似度;α為υ的影響因子。

2 Yolov5網(wǎng)絡(luò)優(yōu)化

織物中疵點目標(biāo)一般較小,YOLOv5s模型在小

目標(biāo)檢測中精度往往會下降,為了將模型更好地應(yīng)用在織物疵點檢測任務(wù)中,還需要進(jìn)一步改進(jìn)模型以適應(yīng)相應(yīng)的檢測任務(wù)。YOLOv5中的特征提取網(wǎng)絡(luò)加入了殘差塊,在某些層之間設(shè)置了跳轉(zhuǎn)連接,以此來提高檢測精度,但同時也增加了模型的計算負(fù)擔(dān)。在YOLOv5s模型中的Backbone模塊分別引入SE、CBAM兩種注意力機(jī)制,節(jié)省計算資源,提高對小目標(biāo)的檢測精度,使得模型更好地適應(yīng)小目標(biāo)檢測。注意力機(jī)制(Attention mechanism)是實現(xiàn)網(wǎng)絡(luò)自適應(yīng)的一種方式,廣泛用于自然語言處理、目標(biāo)檢測以及語義分割中[17]。在目標(biāo)檢測中引入注意力機(jī)制可以使模型聚焦于圖像中的關(guān)鍵信息,降低對無關(guān)信息的關(guān)注度,節(jié)省計算資源,同時提升模型對目標(biāo)的檢測效果。注意力機(jī)制分為通道注意力機(jī)制,空間注意力機(jī)制,以及二者的結(jié)合。本文主要介紹SE和CBAM兩種注意力機(jī)制,將這兩種注意力機(jī)制分別引入圖1中紅色箭頭指向的位置。

2.1 SE原理介紹

SE(Squeeze-and-excitation module)注意力機(jī)制注重特征圖中通道信息的重要性差異,使模型自適應(yīng)地調(diào)整對各通道的注意力權(quán)重[18]。在實際問題中,不同通道的重要性是有差異的,而在傳統(tǒng)的卷積池化過程中,默認(rèn)特征圖中的每個通道同等重要。SE模塊的基本結(jié)構(gòu)如圖5所示,主要包括 Squeeze(壓縮)和 Excitation(激發(fā))兩部分操作。壓縮是先對輸入特征圖(c,h,w)進(jìn)行全局池化,將通道中整個空間特征編碼壓縮為全局特征,得到當(dāng)前特征圖上的全局壓縮特征圖(c×1×1);激發(fā)通過兩層全連接層構(gòu)建通道的相關(guān)性,并通過ReLU函數(shù)激活,增強(qiáng)非線性關(guān)系;每個特征通道生成的權(quán)重因子經(jīng)過Sigmoid函數(shù)獲得歸一化注意力權(quán)重,并將加權(quán)后的特征圖作為下一層網(wǎng)絡(luò)的輸入。將YOLOv5中添加SE注意力機(jī)制的網(wǎng)絡(luò)稱為SE-YOLOv5。

2.2 CBAM原理介紹

CBAM(Convolutional block attention module)是由通道注意力(Channel attention module,CAM)和空間注意力(Spatial attention module,SAM)兩個串行連接順序的子模塊構(gòu)成[19],結(jié)構(gòu)示意圖如圖6所示,通道注意力和空間注意力序列化地在通道和空間兩個維度上產(chǎn)生注意力特征圖信息,加強(qiáng)了通道和空間的特征聯(lián)系。將YOLOv5中添加CBAM注意力機(jī)制的網(wǎng)絡(luò)稱為CBAM-YOLOv5。

通道注意力結(jié)構(gòu)如圖7所示,特征圖輸入后,通道注意力機(jī)制模塊對其分別進(jìn)行全局最大池化和全局平均池化操作,聚合圖像的空間信息,再利用2個多層感知機(jī)結(jié)構(gòu)連接模型之間的相關(guān)性,最后經(jīng)過Sigmoid激活函數(shù)獲得每個通道的權(quán)重因子,最終輸出不同比重的通道的特征圖。

空間注意力結(jié)構(gòu)如圖8所示,輸入的特征圖先經(jīng)過通道注意力模塊加權(quán)輸出,再對該特征圖分別進(jìn)行全局最大池化和全局平均池化操作后,然后將2個單元特征圖進(jìn)行通道間拼接,最后經(jīng)過一個7×7的卷積和Sigmoid激活函數(shù)獲得每一個空間位置的權(quán)重因子,輸出不同比重的空間特征圖。

3 實驗及結(jié)果分析

3.1 實驗環(huán)境及訓(xùn)練參數(shù)

本文所有實驗均在ubuntu18.04操作系統(tǒng),顯卡為RTX 3080 Ti,其中顯存為12 GB,CPU為Intel(R) Xeon(R) Platinum 8350C,系統(tǒng)內(nèi)存為45 GB,編程語言為Python,深度學(xué)習(xí)框架為PyTorch1.9.0。在上述實驗環(huán)境下對圖像數(shù)據(jù)集進(jìn)行訓(xùn)練,改進(jìn)前與改進(jìn)后算法所采用的超參數(shù)相同。訓(xùn)練參數(shù):初始學(xué)習(xí)率為0.01,動量值為0.937,權(quán)重衰減為0.0005,優(yōu)化器為SGD,每批次包含64,最大迭代次數(shù)300次。

3.2 數(shù)據(jù)集

本文使用的織物疵點數(shù)據(jù)集來自于湖北武漢某紡織科技公司采集的部分?jǐn)?shù)據(jù),該數(shù)據(jù)集共2208張不同類型的疵點織物圖像,其中織物類型有條紋坯布、格子坯布和無紋理坯布,疵點類型分別是斷經(jīng)、斷緯、毛球、破洞和污漬。每個類別的示例圖像和數(shù)量情況如表1所示,并且用數(shù)字0—4代表各個類別的疵點類型,圖像大小為640 pixel×640 pixel。在實驗過程中對織物圖像數(shù)據(jù)集進(jìn)行劃分,按8∶2比例劃分為訓(xùn)練集圖像和測試集圖像,其中訓(xùn)練集圖像有1766張,測試集圖像有442張,并采用Mosaic數(shù)據(jù)增強(qiáng)方法擴(kuò)充數(shù)據(jù)集樣本。

3.3 網(wǎng)絡(luò)訓(xùn)練

為檢驗?zāi)P托阅苄Ч瑢⒖椢锎命c數(shù)據(jù)集分別通過原YOLOv5模型、SE-YOLOv5模型和CBAM-YOLOv5模型進(jìn)行訓(xùn)練,迭代次數(shù)為300時出現(xiàn)了較好的收斂情況。在訓(xùn)練時記錄下模型的邊界框損失(box_loss),置信度損失(object_loss)和分類損失(class_loss),圖9是模型改進(jìn)前后的損失曲線的對比圖。從圖9中可以看出模型改進(jìn)前的損失曲線變化波動較大,損失值也達(dá)不到理想效果,不利于疵點目標(biāo)檢測。改進(jìn)后的YOLOv5模型的各項損失值較為理想,損失曲線的收斂速度也更平緩。由此可見,改進(jìn)后的模型更適合織物疵點的目標(biāo)檢測。

3.4 模型評估對比

模型的真實性能主要依靠模型的評價指標(biāo)來反映,在本文中選取的評價指標(biāo)包括精準(zhǔn)率P(Precision)、召回率R(Recall)、平均精度均值mAP(Average precision precision),精準(zhǔn)率能夠反映出模型的誤檢情況,召回率能夠反映出模型漏檢目標(biāo)的問題,mAP能夠準(zhǔn)確、合理地評價模型的定位和目標(biāo)檢測能力。如式(2)—式(5):

P=TPTP+FP(2)

R=TPTP+FN(3)

AP=∫10P(R)dR(4)

mAP=∑ni=0AP(i)n(5)

式中:TP表示正樣本被模型正確識別的數(shù)量;FP表示負(fù)樣本被模型錯誤地識別為正樣本的數(shù)量;FN表示正樣本被模型錯誤地識別為負(fù)樣本的數(shù)量;n為總類別數(shù);i為當(dāng)前類別的序號。

模型改進(jìn)前后檢測結(jié)果如表2所示,原YOLOv5模型的精準(zhǔn)率為80.2%,召回率為75.1%,平均精度均值為79.7%。引入了注意力機(jī)制的YOLOv5模型檢測疵點的性能更優(yōu),整體的精準(zhǔn)率和召回率都有了一定的提升,而CBAM-YOLOv5的各項指標(biāo)均優(yōu)于SE-YOLOv5。SE-YOLOv5和CBAM-YOLOv5平均精度均值分別為84.7%和87.4%,比原YOLOv5模型提高了5.0%和7.7%,這個最能證明檢測能力指標(biāo)的提升。表明CBAM-YOLOv5模型比SE-YOLOv5模型和原YOLOv5模型有更好的檢測效果,有效改善了模型的漏檢錯檢問題。

圖10為模型改進(jìn)前后實際檢測結(jié)果的對比圖,檢測結(jié)果由類別序號與置信度組成,置信度越高,表示模型的檢測精度越高,預(yù)測框與真實框越接近。通過對比結(jié)果發(fā)現(xiàn),SE-YOLOv5模型和CBAM-YOLOv5模型對織物疵點的檢測精度都高于原YOLOv5模型,其中CBAM-YOLOv5對包含目標(biāo)的預(yù)測框置信度達(dá)到94%,提高了對小目標(biāo)的檢測精度。

為了進(jìn)一步可視化模型所關(guān)注的區(qū)域,本文對模型的檢測結(jié)果進(jìn)行得分熱力圖可視化分析,熱力圖所反映的區(qū)域為目標(biāo)檢測模型所關(guān)注的區(qū)域,圖中模型所關(guān)注的區(qū)域為目標(biāo)的中心位置,紅色為中心重點關(guān)注區(qū)域,向外擴(kuò)散的關(guān)注比重降低。如圖11所示,表明模型所關(guān)注的區(qū)域正是所需要檢測的區(qū)域,改進(jìn)后的模型檢測疵點的效果更好,CBAM-YOLOv5模型比SE-YOLOv5模型更好地實現(xiàn)了對疵點類別的識別與定位,進(jìn)一步驗證了模型改進(jìn)的有效性。

4 結(jié) 論

傳統(tǒng)的織物疵點檢測過于依賴人工檢測的準(zhǔn)確性,檢測效率低,本研究在YOLOv5s模型的基礎(chǔ)上,引入CBAM注意力機(jī)制和SE注意力機(jī)制到模型中Backbone模塊,得到優(yōu)化后的網(wǎng)絡(luò)模型CBAM-YOLOv5和SE-YOLOv5。通過實驗發(fā)現(xiàn)引入注意力機(jī)制后模型的精準(zhǔn)率和召回率都有所提升,其中CBAM-YOLOv5進(jìn)行織物疵點檢測識別結(jié)果精度最高,mAP值較原模型提升了7.7%,基本滿足織物疵點檢測需求。由于本研究中數(shù)據(jù)集的有限性,織物疵點類別并不全面,之后的研究計劃需要加強(qiáng)織物疵點圖像種類和數(shù)量的擴(kuò)充,進(jìn)一步提高模型檢測織物疵點目標(biāo)的精度。

參考文獻(xiàn):

[1]顧德英,陳龍,李文超,等.基于深度學(xué)習(xí)的復(fù)雜圖案印花織物疵點檢測[J].棉紡織技術(shù),2022,50(3):14-18.

GU Deying, CHEN Long, LI Wenchao, et al.Complex pattern printed fabric defect detection based on deep learning[J]. Cotton Textile Technology, 2022,50 (3): 14-18.

[2]崔春杰,景浩田,尹中信.深度學(xué)習(xí)算法在織物疵點識別中的應(yīng)用研究[J].化纖與紡織技術(shù),2021,50(1):69-71.

CUI Chunjie, JING Haotian, YIN Zhongxin. Application of deep learning algorithm in fabric defect recognition[J]. Chemical Fiber& Textile Technology, 2021, 50 (1): 69-71.

[3]李一鳴,王瀟.基于YOLOv5s模型的軋鋼表面缺陷檢測[J].制造業(yè)自動化,2021,43(11):117-119.

LI Yiming, WANG Xiao. Surface defect detection of rolled steel based on the YOLOv5s model [J]. Manufacturing Automation, 2021,43 (11): 117-119.

[4]俞新星,任勇,支佳雯.織物表面疵點檢測方法的設(shè)計與實現(xiàn)[J].現(xiàn)代紡織技術(shù),2021,29(1):62-67.

YU Xinxing, REN Yong, ZHI Jiawen. Design and imple-mentation of defect detection method for fabric surface[J]. Advanced Textile Technology, 2021, 29 (1): 62-67.

[5]張團(tuán)善,石瑋.噪聲干擾下的防羽布疵點檢測算法[J].西安工程大學(xué)學(xué)報,2020,34(1):14-19.

ZHANG Tuanshan, SHI Wei. Anti-feather fabric defect detection algorithm under noise interference[J]. Journal of Xi'an Polytechnic University, 2020, 34(1): 14-19.

[6]王恩芝,張團(tuán)善,劉亞.基于改進(jìn)Yolov5的織物缺陷檢測方法[J].輕工機(jī)械,2022,40(2):54-60.

WANG Enzhi, ZHANG Tuanshan, LIU Ya. Fabric defect detection method based on improved Yolo v5[J]. Light Industry Machinery, 2022, 40 (2): 54-60.

[7]郭波,呂文濤,余序宜,等.基于改進(jìn)YOLOv5模型的織物疵點檢測算法[J].浙江理工大學(xué)學(xué)報(自然科學(xué)版),2022,47(5):755-763.

GUO Bo, L Wentao, YU Xuyi, et al. Fabric defect detection algorithm based on improved YOLOv5 model[J]. Journal of Zhejiang University of Technology (Natural Sciences), 2022,47(5): 755-763.

[8]XUE Z Y, LIN H F, WANG F. A small target forest fire detection model based on YOLOv5 improvement[J]. Forests, 2022, 13(8): 1332.

[9]DENG T M, LIU X H, MAO G T. Improved YOLOv5 based on hybrid domain attention for small object detection in optical remote sensing images[J]. Electronics, 2022, 11(17): 2657.

[10]LEI F, TANG F F, LI S H. Underwater target detection algorithm based on improved YOLOv5[J]. Journal of Marine Science and Engineering, 2022, 10(3): 310.

[11]周文明,周建,潘如如.應(yīng)用遺傳算法優(yōu)化Gabor濾波器的機(jī)織物疵點檢測[J].東華大學(xué)學(xué)報(自然科學(xué)版),2020,46(4):535-541.

ZHOU Wenming, ZHOU Jian, PAN Ruru. Application of genetic algorithm to optimize Gabor filter for woven fabric defect detection[J]. Journal of Donghua University (Natural Science), 2020,46 (4): 535-541.

[12]DLAMINI S, KAO C Y, SU S L, et al. Development of a real-time machine vision system for functional textile fabric defect detection using a deep YOLOv4 model[J]. Textile Research Journal, 2022, 92(5-6): 675-690.

[13]LIAN J W, HE J H, NIU Y, et al. Fast and accurate detection of surface defect based on improved YOLOv4[J]. Assembly Automation, 2022, 42(1): 134-146.

[14]FU H X, SONG G Q, WANG Y C. Improved YOLOv4 marine target detection combined with CBAM[J]. Symmetry, 2021, 13(4): 623.

[15]XUE M F, CHEN M H, PENG D L, et al. One spatio-temporal sharpening attention mechanism for light-weight YOLO models based on sharpening spatial attention[J]. Sensors, 2021, 21(23): 7949.

[16]SOZZI M, CANTALAMESSA S, COGATO A, et al. Automatic bunch detection in white grape varieties using YOLOv3, YOLOv4, and YOLOv5 deep learning algorithms[J]. Agronomy, 2022, 12(2): 319.

[17]YAN P C, SUN Q S, YIN N N, et al. Detection of coal and gangue based on improved YOLOv5. 1 which embedded scSE module[J]. Measurement, 2022, 188: 110530.

[18]ZHAO Z Y, YANG X X, ZHOU Y C, et al. Real-time detection of particleboard surface defects based on improved YOLOV5 target detection[J]. Scientific Reports, 2021, 11(1): 1-15.

[19]LV H H, YAN H B, LIU K Y, et al. YOLOv5-AC: Attention mechanism-based lightweight YOLOv5 for track pedestrian detection[J]. Sensors, 2022, 22(15): 5903.

Fabric defect detection based on an improved YOLOv5 model

GAO Min1, ZOU Yanglin1,2, CAO Xinwang1

(1.School of Textile Science and Engineering, Wuhan Textile University, Wuhan 430200, China;

2.PowerChina Hubei Engineering Co., Ltd., Wuhan 430040, China)

Abstract:

China is the largest producer and consumer of textiles in the world, and the textile industry is a traditional industry in China. The industry affects people's life and employment issues, and plays an important role in the national economy. The widely used textile products are indispensable in people's lives and the quality of them not only affects people's lives, but the development of textile enterprises. Therefore, in the production process of textile products, the quality inspection is a very important link in the production chain.

For a long time, due to the limitations of the cloth making process and production equipment, the surface of the cloth is often stained, and there are broken figures and other defects. Traditional detection methods have many disadvantages. On the one hand, the detection efficiency of cloth inspection workers is relatively low, and a cloth inspector can find 200 defects per hour at most. Because some defects are small and difficult to be found, the defect detection rate is only 70%, and the concentration lasts half an hour at most. If this time range is exceeded, visual fatigue will occur. As workers rely on subjective experience when inspecting the quality of cloth, and long-term work will cause visual fatigue, missed inspections and wrong inspections will inevitably occur, leading to low defect detection efficiency of cloth. On the other hand, because the cloth inspection work requires a lot of eyesight and energy of the workers, it is difficult to recruit workers and the cost is high. If there is a missed inspection in the cloth inspection process and the defects are not picked out, the products produced will be classified as defective products even if the cloth has passed the follow-up cumbersome processing, which will cause certain economic losses to the enterprise.

With the development of artificial intelligence, all walks of life are moving towards intelligent production.Computer vision has replaced humans eyes and brains to observe the world through cameras and computers, automatically analyzing the collected videos or pictures. In the field of target detection, with the rise of deep learning, the performance of target detection has also been greatly improved.

To address such problems as unsatisfactory detection effects for small targets, we conducted research on the surface defects of cloth by combining with the deep learning network, proposing an algorithm model based on deep learning for defect detection and classification. This model can improve the detection accuracy and reduce the missed detection rate of small targets, which meets the needs of actual production for detection of cloth defects, and has certain practical significance on the intelligent development of the weaving industry.

Keywords:

fabric defects; YOLOv5 model; attention mechanism; deep learning

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開放實驗平臺構(gòu)建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學(xué)習(xí)的三級階梯
有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 91久久精品国产| 国产精品亚洲а∨天堂免下载| 国产制服丝袜91在线| jizz亚洲高清在线观看| 亚洲国产精品不卡在线 | 国产精品自拍合集| 91精品福利自产拍在线观看| 国产成人久久777777| 91在线丝袜| 欧美69视频在线| 国产精品尤物铁牛tv| 91丝袜在线观看| 美女内射视频WWW网站午夜| 亚洲αv毛片| 四虎精品黑人视频| 免费观看国产小粉嫩喷水| 欧美综合在线观看| 精品一區二區久久久久久久網站 | 99re这里只有国产中文精品国产精品| 国产成人毛片| 91成人在线免费视频| 中文字幕无码中文字幕有码在线| 漂亮人妻被中出中文字幕久久| 国产免费自拍视频| 中文字幕欧美日韩| 99视频精品在线观看| 无码综合天天久久综合网| 欧美精品影院| 4虎影视国产在线观看精品| 一级爱做片免费观看久久| 国产成人综合欧美精品久久| 国产内射在线观看| 亚洲人成网站在线观看播放不卡| 亚洲成人免费看| 福利小视频在线播放| 亚洲aaa视频| 毛片基地美国正在播放亚洲| 最新国产成人剧情在线播放 | 亚欧乱色视频网站大全| 丁香婷婷综合激情| 日本一本正道综合久久dvd| 成年人免费国产视频| 67194在线午夜亚洲| 亚洲免费人成影院| 日本黄网在线观看| 国产流白浆视频| 中文字幕日韩久久综合影院| 久久黄色免费电影| 国产精品中文免费福利| 色欲色欲久久综合网| 在线观看精品国产入口| 国产精品v欧美| 99爱在线| 老司国产精品视频| 日韩二区三区| 婷婷六月在线| 国产亚洲精品91| 亚洲综合久久一本伊一区| 国内丰满少妇猛烈精品播| 日韩精品一区二区三区swag| 在线观看亚洲国产| 国产女人在线| 国产福利免费在线观看| 强奷白丝美女在线观看| 国产区人妖精品人妖精品视频| 久久99蜜桃精品久久久久小说| 4虎影视国产在线观看精品| 91无码网站| 91麻豆精品国产高清在线| 久久精品免费看一| 91探花在线观看国产最新| 中文一级毛片| a色毛片免费视频| 亚洲综合精品香蕉久久网| 久久精品91麻豆| 亚洲全网成人资源在线观看| 亚洲中文字幕国产av| 自拍中文字幕| 久久精品视频亚洲| 伊在人亚洲香蕉精品播放| 日韩欧美在线观看| 国产玖玖玖精品视频|