999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于并聯堆疊模型的織物疵點檢測算法

2024-10-08 00:00:00周星亞孫紅蕊宋榮夏克爾·賽塔爾
現代紡織技術 2024年9期

摘 要:針對企業目前應用的織物疵點檢測算法精度低、漏檢率高、訓練速度慢及模型難以收斂的問題,提出了一種基于并聯堆疊的織物疵點檢測算法。基于YOLOv7深度學習目標檢測算法,采用不同參數值的空洞卷積設計DCCSPC并聯堆疊模塊,改進SPPCSPC空間金字塔池化層,深度融合織物瑕疵局部及整體的特征信息;添加輸出160×160的小目標檢測層,實現寬高僅占4個像素的小目標疵點檢測;使用WIoU損失函數替換CIoU損失函數,解決了特殊樣本(長寬比與多數樣本不一致的樣本)漏檢率高問題,并提高了模型的收斂速度。另外,為消除數據集類別不均衡問題,采用生成對抗網絡對數量較少類別進行了樣本擴充。將改進后算法在織物疵點數據集上進行測試,結果表明:與以往方法相比,改進后的模型具有更高的識別精度和魯棒性,能夠檢出寬高比例懸殊、紋理對比度低圖像中的疵點及小目標疵點,對比原YOLOv7模型,平均精度值提升3.4%,且收斂速度更快、誤差更小,能夠更好地滿足當下織物智能疵點檢測的需求。

關鍵詞::YOLOv7;織物疵點;深度學習;目標檢測;空洞卷積

中圖分類號:TS101.9

文獻標志碼:A

文章編號:1009-265X(2024)09-0099-09

收稿日期:2023-10-09

網絡出版日期:2024-03-20

基金項目:新疆大學2022年自治區級大學生創新訓練計劃項目(S202210755023)

作者簡介:周星亞(1998—),男,安徽淮南人,碩士研究生,主要從事信息技術在紡織工業中的應用方面的研究。

通信作者:夏克爾·賽塔爾,E-mail:xaker2@163.com

作為紡織強國,中國目前紡織品服裝出口額比重超過了世界三分之一,位居世界第一,對紡織品的質量要求也越來越高[1。但在生產過程中,紡織物易受到環境因素諸如設備缺陷、人為失誤、技術不良、原料(缺陷)等問題的影響,從而產生跳花、破洞、水漬等多種影響產品質量的疵點,然而傳統織物疵點檢測算法檢測效率慢、檢測精度不高,難以適用于當代織物企業檢測需求,所以提升織物疵點檢測技術,可有效提高紡織企業生產效率,提高檢測精度,降低生產成本[2

近幾年來,基于深度學習的檢測方法相比于傳統算法,具有更好的自適應性及學習性,所以被廣泛應用在織物疵點檢測中[3,其中基于自動編碼器4的檢測方法可以學習數據的隱含特征,在紋理復雜的織物上進行檢測,但其局限在于只能檢測與訓練樣本相似的疵點,容易將復雜的紋理判斷為織物疵點,造成誤檢的現象。深度學習中基于候選區域的目標檢測算法,如Li等[5在R-CNN引入了FPN的多尺度檢測方法,在織物疵點檢測中具有更好的穩定性和準確率,但檢測速度過慢,不適用于企業生產檢測。基于深度學習的回歸算法,如高敏等[6使用YOLO模型框架,并引入CBAM模塊,在維持精度不變的同時進一步提高了檢測速度,且較其他檢測算法更加輕量,研發成本更加經濟實惠。Zheng等[7將SE模塊添加到YOLOv5骨干中,并引入ACON激活函數以取代YOLOv5 CSP的Leaky ReLU激活功能,提升原模型的檢測精度與魯棒性,滿足了織物疵點檢測需求。Yue等[8基于YOLOv4,利用聚類算法構建新的yolo_anchors,為yolo_head添加特征輸出層以預測微小目標,微小目標檢測的AP值提高了約9%,大大提高了模型檢測織物缺陷中微小物體的能力。毋濤等[9在YOLOv7中引入FasterNet模塊減少模型數據量,并在網絡特征提取部分加入CA注意力機制,采用Focal-EIoU損失,在模型輕量化的同時提升疵點分類定位精度。針對織物疵點的不規則性,郭殿鵬等[10在YOLOv7中通過設計添加新的聚合網絡DR-SPD,引入GAM注意力模塊并在特征融合網絡加入3條橫向跳躍路徑,提升了其特征提取能力和抗干擾能力,達到了更高的檢測精度。

雖然這些算法在疵點檢測上取得了良好的效果,但在工業實際生產需求中,現有算法難以同時保持高檢測速度和高精度,并容易漏檢、誤檢小尺寸織物疵點和特殊形狀疵點。針對上述問題,本文基于YOLOv7算法模型,采用不同參數值的空洞卷積設計DCCSPC并聯堆疊模塊,改進SPPCSPC空間金字塔池化層,深度融合疵點局部和整體的特征信息,以解決顏色對比度低、細條狀疵點定位識別精度差的問題,并通過設計添加160×160的小目標檢測層,來實現寬高僅有4個像素以上的微小織物疵點目標檢測,同時引入WIou損失函數,提供梯度分配策略,以此降低特殊樣本的漏檢率。本文算法針對不同類型織物疵點來檢測,以期提高織物生產檢測過程中的自動化程度和生產效率,為企業智能化織物疵點檢測提供更有效的方法,滿足當下智能化織物疵點檢測的需求。

1 材料與方法

1.1 數據集

為了更有效地訓練模型并驗證算法的有效性,本文選取了工業智造創新大賽中提供的賽用數據集。大賽由2019年廣東省人民政府與阿里巴巴集團聯合主辦。賽組深入佛山南海紡織車間現場,實地采集布匹圖像,圖像涵蓋了紡織行業中布匹各類關鍵瑕疵特征,數量龐大,每張圖像包含一個或多個瑕疵,構建了高質量布匹疵點數據集。

根據近年來企業生產與市場常見的疵點類型,本文從中挑選了毛粒、死皺、三絲、緯紗不良、破洞、水漬、跳花7種疵點,共計2438張織物圖像作為數據集。其中,疵點圖像2117張,正常織物圖像321張。表1展示了7種疵點類型中涵蓋的標注框數量。

由表1可以看出,數據集中破洞和三絲疵點兩種類型的疵點標注框數量明顯低于平均值,存在嚴重的數據不均衡現象。在訓練過程中,數據不均衡會使模型參數權重更傾向其他5種類別,導致模型偏向于學習樣本更多的類別,使模型精度較低,性能變差。

1.2 生成對抗網絡擴充數據集

為平衡模型訓練權重,本文采用生成對抗網絡對不均衡數據集進行擴充。生成對抗網絡是目前較為流行的一種深度學習算法,其中的

DCGAN網絡可以用來生成逼真的圖像。生成圖像流程如圖1所示,通過DCGAN網絡中的生成器生成一幅由像素值隨機組合的假圖像,然后將假圖像輸入判別器和真實圖像進行對比,判別該假圖像是否接近真實圖像;依據判別結果調整生成器網絡參數,使之生成更加真實的圖像。此外,判別器也需要不斷優化自身神經元的網絡參數,提高判別能力。經過生成器和判別器不斷地博弈進化,使生成器最終可以生成逼真的圖像。

采用數據集中的三絲和破洞疵點圖像作為DCGAN判別網絡的真實圖像對模型進行訓練,利用生成器網絡生成的圖像對數據集進行擴充,使三絲和破洞圖像疵點標注框數量擴充到其他類別的平均水平。其中三絲類別擴充后共400張,破洞400張,生成器生成的部分假圖像如圖2所示。

1.3 添加小目標檢測層改進YOLOv7模型

在紡織企業流水線采集中,存在著大量形狀各異的小目標疵點。在訓練過程中,YOLOv7首先將輸入的圖像調整為640×640大小,輸入到backbone網絡中,YOLOv7深度學習目標檢測模型的3個預測特征矩陣的尺寸大小分別為80×80×255、40×40×255、20×20×255,特征矩陣的每個網格中又分別會生成3種不同尺寸的Anchor框,作為預測9種不同尺寸目標的先驗框。其中80×80×255尺寸的特征矩陣感受野最小,細節特征最為豐富,用來負責預測小目標。由于該特征矩陣由原

始圖像8倍下采樣得到,所以每個網格僅能預測寬度和高度方向均有8個以上像素的目標,對低于這個尺寸的目標不敏感,導致了對小尺寸織物瑕疵的漏檢現象。為提高模型對小尺寸織物瑕疵的檢測精度,本文將YOLOv7模型中第一個ELAN模塊生成的特征矩陣與自頂向下的特征提取網絡中最底端的特征矩陣2倍上采樣后進行通道拼接,并輸出一個尺寸為160×160×255大小的預測特征圖,用來檢測寬度和高度方向4個像素大小以上的微小疵點,改進后的模型結構如圖3所示。

1.4 基于并聯堆疊空洞卷積改進SPPCSPC模塊

許多織物疵點與織物背景顏色對比度低且與織物周邊背景紋理接近,造成了較低的檢出率;另外,織物中緯紗不良疵點呈細條狀,毛粒疵點過小,這類特異性疵點圖像在橫向或縱向像素占比較少,極大地影響了目標檢測任務中算法模型對該類別疵點的定位精度。針對上述問題,為深度融合織物瑕疵局部及整體的特征信息,使模型具備根據待檢測目標部分區域理解整體信息的能力,采用基于并聯堆疊空洞卷積的方法改進空間金字塔池化,設計DCCSPC模塊對SPPCSPC模塊進行替換。

為增大特征圖的感受野,深度融合織物圖像局部與整體的特征信息,以提高模型的定位精度,適應不同分辨率的圖像,SPPCSPC模塊分別采用大小為5×5、9×9、13×13的3種池化核進行最大值池化,并與原特征矩陣在通道維度上進行拼接。由于大尺寸池化核的存在,SPPCSPC模塊會丟失大量信息。本文采用卷積核為3×3,空洞率(Dilation rate)分別為2、4、6的空洞卷積替換池化核,計算公式如式(1)所示:

d=k+(k-1)×(r-1)(1)

式中:d為空洞卷積的等效卷積核(感受野)大小,k為原始卷積核尺寸,r為空洞率參數。

如圖4所示,空洞卷積在空洞率分別2、4、6時,感受野分別達到5×5、9×9、13×13,將SPPCSPC中池化層進行替換,可以在不丟失分辨率的同時xORoqh1un0phBLQHZ5V/CvgpVT0YRo6O02aAvswV3PQ=擴大感受野,增強疵點的檢出率,改進后的結構稱為DCCSPC模塊。

為深度融合不同特征層信息以及同一特征層中織物圖像的整體和局部特征信息,在YOLOv7模型自頂向下特征提取網絡中每一個通道拼接層后面添加DCCSPC模塊,以提高模型對顏色及紋理與周邊背景相近疵點的檢出精度和形狀特殊目標的定位精度。

1.5 采用WIoU損失函數替換CIoU損失函數

目前常見的目標檢測模型(如Faster R-CNN、SSD和YOLO等)均采用IoU函數來衡量預測框與真實框之間的重合程度,IoU函數相較于傳統的L2邊界框回歸損失函數,能夠很好地均衡大目標和小目標的學習精度,函數公式如式(2)所示:

IoUGround=boundingbox∩groundtruthboundingbox∪groundtruth(2)

式中:IoUGround為交并比;bounding box為預測框;ground truth為標注框。

在YOLOv5、YOLOv7等較為前沿的目標檢測模型中采用基于IoU變體的GIoU或CIoU函數作為邊界框的損失函數。GIoU損失函數公式如式(3):

L=1-IoUGround-|C-P∪PGround||C|(3)

式中:L代表GIoU損失函數;P表示預測框;PGround表示標注框;C表示包含預測框與標注框的最小矩形。

當預測框完全落在標注框內時,無論模型怎樣改變參數使預測框變動,模型的邊界框損失值都不變。GIoU示意如圖5所示,(a)的預測效果最好(c)的預測效果最差,但3種情況對應GIoU損失函數的值相等。

圖5 GIoU示意圖(黃色大框為標注框,藍色小框為預測框)

Fig.5 Schematic diagram of GIoU (the yellow box is the

label box, and the blue box is the prediction box)

針對GIoU損失函數不適用于預測框、標注框完全包含的情況,CIoU損失函數在GIoU的基礎上添加標注框與預測框中心點的歐氏距離,使預測框更貼合標注框。CIoU損失函數公式如式(4)—(6):

式中:L代表CIoU損失函數;?2(P,PGround)代表標注框中心點到預測框中心點歐氏距離的平方和;標注框與預測框最小外接矩形對角線距離及中心點距離示意如圖6所示,C2代表真實框與預測框最小外接矩形框對角線距離的平方;wGround為標注框寬度方向上的像素個數,w代表預測框寬度方向上的像素個數,hGround代表標注框高度方向上的像素個數,h代表預測框高度方向上的像素個數。

圖6 標注框與預測框最小外接矩形對角線

距離及中心點距離示意圖

Fig.6 Schematic diagram of the minimum outer rectangle

diagonal distance and center point distance between

the label box and the prediction box

由于CIoU損失函數在解決GIoU無法糾正預測框與標注框相互包含的情況時引入了傳統L2損失函數的長寬比,這將使得長寬比較為特殊的樣本會對回歸loss產生較大的波動,而長寬比正常的樣本則難以進一步得到優化。針對以上CIoU損失函數的弊端,EIoU函數使用長和寬一致性,替換CIoU函數中的長寬比一致性。其損失函數公式如式(7):

式中:L代表EIoU損失函數;wc代表標注框和預測框最小外接矩形寬度方向上的像素個數;hc代表標注框和預測框最小外接矩形高度方向上的像素個數。

EIoU很好地解決了訓練集中含有低質量樣本(寬高比與大多數樣本嚴重不一致的樣本)邊界框損失的擬合能力,但由于聚焦機制(使預測框逐漸貼合標注框的機制)是靜態的,未包含動態非單調聚焦機制,致使EIoU函數仍然存在缺陷。

WIoU損失函數的動態非單調聚焦機制使用“離群度”替換IoU函數來評估預測框與標注框的貼合程度,并提供了梯度增益分配策略,該策略不僅具備對低質量樣本的擬合能力,還能夠有效抑制低質量樣本所產生的負面梯度。這使得WIoU函數不僅能夠高精度聚焦高質量的普通樣本,還能夠提高低質量樣本的貼合程度。其公式如式(8)—(9):

L=RL(8)

R=exp(x-x)2+(y-y)2(W2+H2)(9)

式中:R代表WIoU損失函數;x、y、W、H分別代表預測框的中心點坐標及寬、高;x、y、W、H分別代表標注框的中心點坐標及寬、高。

2 實驗與分析

2.1 實驗環境

本文所采取的實驗環境配置見表2。

超參數設置:采用批量梯度下降算法,將一個batch設置為8;epoch設置為300,其中前200個epoch凍結檢測頭部分,最后100個epoch訓練所有參數;優化器采用“sgd”;初始學習率設置為0.01,動量momentum設置為0.937,衰減系數設置為0.0005。采用擴充處理后的3100張數據集以8∶1∶1比例劃分訓練集、測試集、驗證集進行試驗。

2.2 評價指標

采用目標檢測算法度量標準Mean average precision(mAP)對模型性能進行檢驗,查準率(Precision)與查全率(Recall)構成PR曲線,用于計算AP值,衡量單個分類的預測精度,mAP是各類別AP的平均值。算法度量標準如式(10)—(13)所示:

p=TT+AP(10)

R=TT+F(11)

AP=∫p(R)dR(12)

mAP=1N∑Ni=1AP(13)

式中:T為預測正確的疵點數,F為預測錯誤的疵點數,F為漏檢疵點個數,N為織物疵點種類數。

2.3 實驗分析

2.3.1 消融實驗

如表3所示,本文通過對添加小目標檢測層、設計DCCSPC模塊,采用WIoU損失函數3個改進點進行消融實驗,通過逐一引入模塊,觀察它們對模型檢測的精度值變化,并對各類疵點類型的精度變化進行探討,可以更好地了解他們對于模型性能提升的貢獻,為模型的進一步優化提供了有益的啟示。

圖,可以明顯提升小目標織物疵點的檢出率,同時也會增加模型的計算量,導致檢測速度的降低。YOLOv7-b基于DCCSPC改進YOLOv7模型,相較于原始模型mAP提升了1.5%,檢測速度達到每秒87.7幀,提高了1.5幀每秒,條狀疵點“死皺”和顏色模糊疵點“水漬”兩類AP分別提升4%和3%。這證明空洞卷積在與SPPCSPC模塊中原有池化層保持相同感受野的條件下,空洞卷積可以有效避免池化縮小再放大特征圖過程中丟失信息的問題,并提升了檢測速度,DCCSPC模塊的添加提升了寬高比例懸殊、與背景顏色及紋理對比度低目標的檢出率。YOLOv7-c使用WIoU函數改進CIoU損失函數,相較于原始模型mAP提升較小,僅有1.1%,推理速度沒有變化。

圖7展示了模型在不同改進方案下的檢測精度值變化。由圖7可以看出,原始YOLOv7模型、添加小目標檢測層及DCCSPC層改進后的YOLOv7模型大約在第250個epoch后開始收斂,而更換了損失函數后的YOLOv7模型在第200個epoch開始已經收斂,由此可知,改進損失函數可顯著提高模型的訓練速度。消融實驗結果表明,在檢測速度相近的結果下,相比于原模型,綜合改進后的模型YOLOv7-d對各類疵點檢測精度均有部分提升,具有更高的mAP值,對小尺寸疵點及特異性疵點檢出效果更好,更適用于應用在工業織物疵點檢測中。

2.3.2 對比實驗

為綜合評估本文算法模型性能,本文選取了當下熱門的基于深度學習的目標檢測算法,包括二階段區域目標檢測代表算法Faster R-CNN及單階段目標檢測代表算法YOLO系列,在相同實驗條件下,采用本文介紹的織物疵點數據集進行訓練和測試,其mAP值、參數量及推理速度性能指標對比如表4所示。

由表4可以看出,二階段目標檢測模型Faster R-CNN使用神經網絡自動進行候選區域劃分,對原始圖像整體進行優化訓練,在檢測精度和推理速度上大于傳統的YOLO網絡模型,但均低于單階段目標檢測模型中的YOLOX和YOLOv7,且模型參數量較大,不利于工業級部署;SSD模型直接使用回歸預測,參數量更低,但底層的特征語義信息比較少,在檢測精度、參數量以及推理速度等性能指標方面,均處于中位數;YOLOv5s模型最為輕量化、推理速度最快,具有極高的靈活性,但是精度上確有欠缺;相較于其他模型,YOLOv7模型參數量中等,符合工業級部署條件,推理速度較快能滿足實時性需求,同時本文8Nq/MQRN0OgeuMYtgTnkPQ==算法在保持YOLOv7同時平衡推理速度和精度的優點基礎上,提升了平均精度,解決了原模型對小尺寸疵點和特異性疵點漏檢、誤檢、定位不準的問題,滿足工業檢測需求。綜上所述,在能夠滿足工業級部署、實時性檢測條件下,本文算法模型更適用于織物疵點檢測任務。

2.3.3 可視化結果

為進一步檢驗改進算法的有效性,本文選取展示了消融實驗過程中,部分織物疵點數據集前后檢測效果。改進前后的模型檢測效果如圖8所示,改進后的模型可以有效檢出像素占比更低的毛粒疵點,提升了對呈細條狀的跳花,緯紗不良疵點的檢出率,深度融合了織物瑕疵局部及整體的特征信息后,能夠識別提升水漬,死皺等顏色與背景較近疵點的識別率。以上證明本文設計的改進算法有效改善了工業疵點檢測中漏檢誤檢的問題,提升了檢測質量。

3 結論

在紡織企業實際生產需求中,現有的檢測算法難以同時保持高檢測速度和高精度,并容易漏檢、誤檢小尺寸織物疵點和特殊形狀疵點,針對以上問題,為研究一種更滿足于紡織企業智能生產檢測的算法模型,進一步提升檢測精度來達到更高效益,本文提出了一種基于并聯堆疊模型的織物疵點檢測方法。通過在YOLOv7模型框架上設計添加小目標檢測層,輸出尺寸為160×160×255大小的預測特征圖,實現了預測寬高大于4個像素的微小織物疵點;提出DCCSPC并聯堆疊模塊,采用基于空洞卷積改進空間金字塔池化,避免了算法學習過程中的信息丟失,提升了對細條狀疵點的檢測精度,改善了模型收斂速度;同時為解決算法在學習特征不明顯的疵點特征時,對邊界框定位和響應速度的影響,本文在訓練過程中使用WIoU函數替換CIoU損失函數,提高了模型的收斂速度和對特征不明顯目標的響應速度;此外,針對數據集類別不均衡問題,采用DCGAN生成對抗網絡對數據集中數量較少的三絲、破洞類別進行了擴充,并應用于不同算法中進行試驗。

試驗結果表明,本文提出的改進算法模型相比于原算法,小疵點及細長類型疵點識別精度都有明顯提升,疵點檢測平均精度值(mAP)提升了3.4%,檢測速度達到了86.0幀/秒,可以更有效地應用于工業生產智能疵點檢測中。

參考文獻:

[1]中國紡織工業聯合會. 紡織行業“十四五”發展綱要[J]. 紡織科學研究, 2021, 32(7): 40-49.

China National Textile and Apparel Council. The development outline of the textile industry in the 14th Five-Year Plan[J]. Textile Science Research, 2021, 32(7): 40-49.

[2]馮英杰, 蔣高明, 彭佳佳. 人工智能引領紡織行業創新發展[J]. 現代紡織技術, 2021, 29(3): 71-77.

FENG Yingjie, JIANG Gaoming, PENG Jiajia. Innovation and development of textile industry under guidance of artificial intelligence [J]. Advanced Textile Technology, 2021,29(3): 71-77.

[3]李宇,劉孔玲,黃湳菥.基于深度學習的布匹疵點檢測方法[J]. 毛紡科技, 2021, 49(4): 98-103.

LI Yu, LIU Kongling, HUANG Nanxi. Fabric defect detection method based on deep learning[J].Wool Textile Journal, 2021, 49(4): 98-103.

[4]王斌, 李敏, 雷承霖, 等. 基于深度學習的織物疵點檢測研究進展[J]. 紡織學報, 2023, 44(1): 219-227.

WANG Bin, LI Min, LEI Chenglin, et al. Research progress in fabric defect detection based on deep learning [J].Journal of Textile Research, 2023, 44(1): 219-227.

[5]LI Y, WANG Z W. Research on textile defect detection based on improved cascade R-CNN[C]//2021 International Conference on Artificial Intelligence and Electromechanical Automation (AIEA).Guangzhou, China.IEEE, 2021: 43-46.

[6]高敏, 鄒陽林, 曹新旺. 基于改進YOLOv5模型的織物疵點檢測[J]. 現代紡織技術, 2023, 31(4): 155-163.

GAO Min, ZOU Yanglin, CAO Xinwang. Fabric defect detection based on an improved YOLOv5 model[J]. Advanced Textile Technology, 2023, 31(4): 155-163.

[7]ZHENG L, WANG X, WANG Q, et al. A fabric defect detection method based on improved yolov5[C]//7th International Conference on Computer and Communications (ICCC).Chengdu, China. IEEE, 2021: 620-624.

[8]YUE X, WANG Q, HE L, et al. Research on tiny target detection technology of fabric defects based on improved YOLO[J]. Applied Sciences, 2022, 12(13): 6823.

[9]毋濤, 崔青, 殷強, 等. 基于改進YOLOv7的織物疵點檢測算法[J]. 紡織高校基礎科學學報, 2023,36(4): 29-36.

WU Tao, CUI Qing, YIN Qiang, et al. Weaving fabric defect detection algorithm based on improved YOLOv7 [J]. Basic Science Journal of Textile Universities, 2023,36(4):29-36.

[10]郭殿鵬, 柯海森, 李孝祿, 等. 基于改進YOLOv7的織物疵點檢測算法[J]. 棉紡織技術, 2023, 51(12): 5-11.

GUO Dianpeng, KE Haisen, LI Xiaolu, et al. Fabric defect detection algorithm based on improved YOLOv7 [J]. Cotton textile technology, 2023, 51(12): 5-11.

Fabric fault detecting algorithm based on a parallel stacking model

ZHOU Xingya, SUN Hongrui, SONG Rong, XIAKEER Saitaer

(School of Textiles and Clothing, Xinjiang University, Urumqi 830047, China)

Abstract: China's current textile and clothing exports exceed one-third of the world's proportion, ranking first in the world, so the development of textile enterprises is particularly important. But in the process of production, textiles are easily affected by environmental factors, equipment defects, human errors, poor technology, shortage of raw materials and other problems, resulting in skips, holes, water stains and other defects that affect product quality, and at present, as for the fabric defect detection link of most enterprises, manual visual inspection method with high cost and low efficiency is adopted, which causes worker fatigue and is easy to produce missed detection and false detection. Therefore, the research on intelligent fabric defect detection technology can effectively improve the production efficiency of textile enterprises, improve detection accuracy, and reduce production costs.

Compared with the traditional defect detection algorithm applied to fabrics, the detection method based on deep learning has better adaptability and learning. To solve the problems of low accuracy, high missed detection rate, slow training speed and difficult convergence of the model in traditional enterprise applications, based on the YOLOv7 algorithm with the latest Extended-ELAN architecture, the DCCSPC parallel stacking module was designed by using the cavity convolution with different parameter values, the SPPCSC spatial pyramid pooling layer was improved, and the local and overall characteristic information of fabric defects was deeply integrated. The top-down feature extraction network of the model was selected from the bottom of the feature extraction network, the feature matrix generated by the first ELAN module was spliced after 2-fold upsampling, a higher predicted feature map of 160×160×255 size was output, and the small defects of fabrics with a width and height of only more than four pixels were predicted. To solve the problem of slow convergence caused by increasing the number of model parameters, the CIoU loss function was replaced with the WIoU loss function, solving the problem of high missed detection rate of special samples (samples with aspect ratios inconsistent with most samples), and improving the convergence speed of the model. On this basis, 2,438 fabric defect image production datasets from the platform of Alibaba Tianchi were selected, and through ablation tests and comparative experiments with other detection algorithms, it was shown that the improved model could effectively detect hair defects with a lower proportion of pixels, predict defects such as dead wrinkles in thin strips, improve the recognition rate of water stains and other color and background defects, and increase the average accuracy value by 3.4%, which can meet the conditions of industrial-grade deployment and real-time detection, and be more effectively applied to intelligent defect detection in industrial production.

Through the specific characteristics of fabric defect types, the YOLOv7 algorithm based on deep learning is used to improve the detection accuracy of specific defects and small defects, which provides an effective method for the detection of defects in intelligent production of textile enterprises, improves the detection quality, and provides an effective idea for further research on the defect detection algorithm.

Keywords: YOLOv7; fabric defects; deep learning; object detection; dilated convolution

主站蜘蛛池模板: 狠狠亚洲五月天| 亚洲av无码人妻| 亚洲一级无毛片无码在线免费视频| 美女被躁出白浆视频播放| 欧美三级不卡在线观看视频| 亚洲欧美成人网| 免费久久一级欧美特大黄| 欧美日韩午夜| 美女扒开下面流白浆在线试听 | 免费国产高清精品一区在线| 国产色伊人| 午夜a级毛片| 韩日无码在线不卡| 日韩欧美国产区| 夜色爽爽影院18禁妓女影院| 国产a网站| 无码一区二区三区视频在线播放| 国产精品19p| 中国丰满人妻无码束缚啪啪| 天天色综合4| 免费AV在线播放观看18禁强制| 午夜日b视频| 欧美在线一二区| 中文无码日韩精品| 亚洲三级视频在线观看| 国产欧美日韩资源在线观看| 欧美在线伊人| 久久精品人人做人人爽电影蜜月 | 91久久国产综合精品女同我| 成人综合久久综合| 久久黄色影院| 国产美女91视频| 亚洲欧美精品在线| 亚洲天堂在线免费| 97国产一区二区精品久久呦| 国产精品3p视频| a亚洲视频| 一级毛片在线免费视频| 露脸国产精品自产在线播| 一区二区自拍| 久久精品国产精品青草app| 国产一国产一有一级毛片视频| 就去吻亚洲精品国产欧美| 婷婷99视频精品全部在线观看 | 成人免费视频一区| 亚洲无线视频| 国产精品一线天| 2021国产乱人伦在线播放| 国产精品hd在线播放| 国产精品自在在线午夜区app| 国产污视频在线观看| 99久久无色码中文字幕| 好紧太爽了视频免费无码| 国模视频一区二区| 国产在线自在拍91精品黑人| 三级视频中文字幕| 色天堂无毒不卡| 中文字幕中文字字幕码一二区| 一区二区三区成人| 亚洲一区免费看| 国产理论一区| 亚洲美女视频一区| 久久香蕉欧美精品| 国产精品主播| 奇米精品一区二区三区在线观看| 国产精品微拍| 亚洲精品男人天堂| 日韩精品无码不卡无码| 欧美成人日韩| 亚洲国产日韩欧美在线| 亚洲综合片| 青青青国产在线播放| 日韩天堂在线观看| 色噜噜综合网| 久久夜夜视频| 伊人久久精品亚洲午夜| 亚洲第一精品福利| 韩国自拍偷自拍亚洲精品| 国产伦片中文免费观看| 亚洲aaa视频| 国产真实乱了在线播放| 国产99视频精品免费观看9e|