999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的布匹疵點檢測方法

2021-04-29 00:59:48劉孔玲黃湳菥
毛紡科技 2021年4期
關鍵詞:特征檢測方法

李 宇,劉孔玲,黃湳菥

(1.武漢紡織大學 湖北省數字化紡織裝備重點實驗室 湖北 武漢 430200; 2.武漢紡織大學 湖北省功能纖維加工及檢測工程技術研究中心 湖北 武漢 430200; 3.武漢紡織大學 電子與電氣工程學院,湖北 武漢 430200)

在紡織品生產中,布匹質量成為影響紡織生產效益的重要因素。目前我國紡織行業依然使用人工視覺的方法進行檢測。由于工人長時間檢查后會出現視覺疲勞,導致檢測精度、一致性、效率等方面大幅度降低,而且會對眼睛造成嚴重的傷害。因此,使用疵點自動檢測技術成為提高布匹質量、減少人力成本的必然趨勢[1]。

目前應用頻次較高的布匹疵點檢測方式分別是以結構為基礎展開分析和以模型為基礎展開分析,還包括以頻譜為基礎展開分析[2]。KarleKar等[3]提出了一種小波變換和形態學結合的方法,通過檢測布匹紋理信息來提取疵點特征,獲得了較好的成果;Jia等[4]通過形態學處理對圖案重復的網格花紋布匹自動分割,再通過Gabor濾波器檢測疵點信息;鄧超等[5]提出一種基于邊緣檢測的方法,利用形態學處理和離散余弦變換自動檢測布匹疵點。

近年來深度神經網絡迅速發展,接連涌現了VGG-NET[6]、Resnet[7]、Densenet[8]等優秀的分類網絡,還有Fast R-CNN[9],SSD[10],YOLOv3[11]等目標檢測分類方法,使得檢測精度、檢測速率越來越高,并應用于各個領域。各種目標檢測優化方法也運用于疵點檢測,如陳康等[12]使用深度殘差網絡修改Fast R-CNN中的原始特征提取網絡,獲得了更高的疵點特征精度;曹振軍等[13]使用Inception-v3模型并且優化圖像處理算法, 疵點平均準確率達94%,實現了布匹疵點自動檢測和準確分類。

針對目前布匹背景紋理復雜,瑕疵類別多,識別率精度低,速率慢的特點,本文提出一種基于深度學習物體檢測框架You Only Look Once[14](YOLOv4)的布匹疵點檢測的方法。該算法結合跨級部分(Cross Stage Partial,CSP)與Darknet53模塊作為主干網絡(Backbone)提取特征,空間金字塔池化(Spatial Pyramid Pooling,SPP)模塊、特征金字塔網絡(Feature Pyramid Networks,FPN)+路徑聚合網絡(Path Aggregation Network,PAN)的方式作為特征增強模塊(Neck)進行深層次特征提取,最后采用3種不同尺度的預測方式作為預測層,實現高精度的檢測。

1 基于YOLOv4的疵點檢測方法

本文基于YOLOv4算法進行布匹疵點檢測。YOLOv4的網絡結構如圖1所示。首先在輸入端輸入圖像并對圖像進行Mosaic數據增強:隨機使用4張圖像隨機縮放,再隨機分布進行拼接,豐富了檢測數據集,特別是隨機縮放增加了很多小目標疵點,讓網絡的魯棒性更好;經過處理后的圖像進入Backbone,其中Backbone采用CSPDarknet53網絡結構,可以增強卷積神經網絡(Convolutional Neural Network,CNN)對疵點圖像的學習能力,使得在輕量化的同時保持準確性。為了更好地提取融合特征,在主干網絡與輸出層之間插入Neck層。Neck層采用SPP模塊和FPN+PAN的方式進行深層特征提取,最后提取的信息輸入到預測層,預測層中采用3種不同尺度進行預測。

1.1 輸入端

YOLOv4有步長為2的下采樣總計5次,因此網絡的步幅上限是25=32。這里步幅所代表的是圖像輸入尺寸與圖像輸出尺寸的比值。所以網絡相對應的輸入圖像尺寸必須是32的整數倍。圖1中輸入圖像的尺寸為608×608像素。由于在疵點數據集中包含大量的小目標疵點,而且小目標檢測更難,因此在輸入端采用Mosaic數據增強,通過隨機縮放、隨機裁剪、隨機排布的方式將圖像進行拼接,可以豐富數據量,尤其增加了小目標的圖像數量,讓網絡的魯棒性更好。

圖1 YOLOv4網絡結構

1.2 Backbone

Backbone采用的是CSPDarknet53網絡結構,如圖2所示,位于0到104層。該結構是在YOLOv3使用的Darknet53模型上包含了5個CSP模塊。輸入疵點圖像大小為608×608×3像素,首先經過一個3×3、步長為2、32層卷積核(Conv+Bn+Mish,CBM)進行卷積操作,圖像大小成為608×608×32像素。接著經過5個CSPRes模塊。CSPRes模塊是由圖1中的CSP模塊和CBM模塊組成。圖中的1、2、4、8代表殘差單元(Resunit)模塊重復的次數。每個CSPRes模塊首層相對應的卷積核的大小都是3×3,步長均為2,該層的作用是進行下采樣操作。在第3個模塊CSPRes8中54層有一個分支用于后續上采樣的特征:76×76×256像素;第4個模塊CSPRes8中85層有一個分支用于后續上采樣的特征:38×38×512像素。最后得到19×19×1 024像素的特征圖。

圖2 CSPDarknet53結構圖

1.3 Neck 層

Neck層位于主干網絡與預測層之間,達到深層次提取融合特征的效果。Neck結構如圖3所示,Neck層主要采用SPP模塊、FPN+PAN的方式。SPP網絡用在YOLOv4中的目的是增加網絡的感受野,對應于108層到113層。實現對107層進行 5×5、9×9、13×13的最大池化,分別得到108、110和112層(109、111層為路由層)。完成池化后,將107層到112層在113層進行張量拼接,連接成一個特征圖114層并通過1×1降維到512個通道。與使用k×k最大池化的方式相比較,采用SPP模塊的方式,可以更有效地增大主干特征的接收范圍,顯著分離了最重要的上下文特征。除此之外,Neck層采用FPN+PAN的方式,對應于105到128層。FPN采用自頂向下將高層的特征信息通過上采樣的方式進行傳遞融合,得到預測的特征圖。另外,FPN層的后面還添加了一個自底向上的特征金字塔,其中包含2個PAN結構。FPN層自頂向下傳達強語義特征,而特征金字塔則自底向上傳達強定位特征,二者結合,從不同的主干層對不同的檢測層聚合參數。

圖3 Neck結構

1.4 預測層

YOLOv4依然延續YOLOv3的預測方式,實現3種尺度的預測。預測層如圖4所示,分別是在32、16、8倍降采樣,最終輸出對應的特征圖依次為19×19、38×38、76×76像素。106層和147層的特征拼接用于檢測大小為19×19像素的特征圖。由于32倍下采樣倍數高,這里特征圖的感受野比較大,因此19×19像素大小的特征圖適合檢測圖像中尺寸比較大的對象。116層的特征圖通過上采樣及特征融合操作,得到126層的特征圖,然后與136層進行張量拼接用于檢測大小為38×38像素的特征圖。這里感受野屬于中等尺度,所以38×38像素適合對中等尺度進行檢測。最后,126層特征圖繼續上采樣,與54層的特征圖融合,用來實現對特征圖尺寸為76×76像素的待檢測圖的有效檢測。因為8倍下采樣倍數相對偏低,而且感受野也最小,所以76×76像素的尺寸非常適合對小尺寸進行檢測。通過上采樣操作能夠使得越深的網絡具有更好的特征表達效果。比如16倍降采樣的過程當中,假設所選擇的方式是直接通過下采樣的特征來實現檢測,這樣無法使用深層次的信息,檢測效果會不好。最后根據輸出的特征圖的數量和尺度的變化,使用 k-means 聚類算法來實現邊界框相對應先驗信息的有效獲取。將3種先驗框設定在所有的下采樣尺度當中,可以聚類得到的先驗框尺寸類型總計9種。最終的所有尺度圖當中都能夠獲取到結果數量為N×N×[3×(4+1+3)]個。表示N×N個網格,3種尺度的錨點,邊界框的4+1個值,3種類別。通過選擇9個聚類均分到3種尺度上。

圖4 預測層

2 實驗與分析

2.1 數據集處理

布匹疵點圖像目前還沒有統一公開的數據集,因此,本次從網上挑選了1 000張疵點圖像,包括百腳、破洞、吊經、污漬和結點5種疵點類型,并將圖像裁剪成608×608像素大小。5種疵點類別如圖5所示。

圖5 5種疵點類別

為了進一步增加疵點數據量,本文采用如圖6所示的圖像平移,圖像對比度增強以及圖像旋轉180°的方式進行數據擴增,將疵點數據集擴增到3 000張。

圖6 圖像擴增

2.2 實驗環境及配置

目前有很多可供選擇的深度學習環境,如caffe、Pytorch、Tensorflow等。本文采用具有良好可視化效果的Tensorflow框架實現疵點檢測。本文實驗任意選取80%疵點數據集作為訓練集,剩余的數據作為測試集。實驗環境參數如下表1所示。

表1 環境實驗參數

2.3 實驗性能對比

在一幅布匹圖像中可能含有多個疵點目標,因此屬于多標簽圖像分類任務,因此,本文采用平均準確率(Mean Average Precision,mAP)作為評判標準判定方法的優劣程度。

本文YOLOv4的檢測結果將與YOLOv3、SSD以及Faster R-CNN方法在相同的50 000次迭代,學習率為0.001的情況下進行分類性能對比。各種方法的實驗結果如表2所示。

表2 分類性能對比(AP)

從表2可以看出,SSD方法對于各類織物疵點的分類效果差,并且效果差別也很大,其中對百腳的檢測效果在這5種疵點中是最好的,達到0.62,而對吊經和結點的檢測效果差,分別只有0.23和0.34,使得mAP值只有0.52;YOLOv3比SSD方法有較好的效果,每一類疵點的準確率都提高了很多;使用Faster R-CNN方法在每類疵點上的檢測上具有較好的穩定性,這一點在布匹的工業檢測上是非常重要的。另外對于污漬這類疵點,mAP值達到了0.93,整體mAP值達到了0.83;使用YOLOv4方法對于每類的疵點都有較好的效果,檢測污漬疵點的mAP值達到了1.00。由于吊經疵點不明顯,邊緣模糊,因此mAP值只有0.88。本文方法在各類疵點上的檢測效果如圖7所示。

圖7 布匹疵點檢測結果

為了進一步評估YOLOv4和其他網絡的性能,表3給出了各類網絡方法在檢測608×608像素大小的布匹疵點圖像的平均時間。

表3 分辨率為608×608像素的布匹圖像平均檢測用時 ms

從表3可以看出:擁有相對比較高mAP值的Faster R-CNN和YOLOv4方法,單張圖像平均檢測用時相差較大。YOLOv4方法檢測單張圖像平均用時比Faster R-CNN檢測單張圖像用時短了23 ms,達到了準確率高并且快速的要求。

3 結束語

由于卷積神經網絡等深度學習的快速發展,布匹疵點檢測領域進入了一個新階段。YOLOv4采用Darknet53+CSP作為主干網絡,可以提升CNN對疵點圖像學習的能力,并且具有降低內存成本的優勢;在Neck層采用SPP模塊,FPN+PAN結構可以進一步提取深層網絡信息,該方法對布匹疵點平均檢測準確率達到了95%,單張疵點圖像檢測速率為33 ms,顯著超越了人工的檢測精度以及檢測速度。此外,本次研究為純色布匹疵點檢測,今后將研究有圖案的布匹疵點檢測,并實現更多種類疵點的檢測。

猜你喜歡
特征檢測方法
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
小波變換在PCB缺陷檢測中的應用
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 中文无码影院| 亚洲国产综合精品一区| 亚洲成人高清无码| 欧美成人手机在线视频| 精品色综合| 国产一区自拍视频| 日本免费福利视频| 色综合久久综合网| 国产91高清视频| 日韩二区三区无| 热思思久久免费视频| 日本在线欧美在线| 亚洲精品午夜无码电影网| 在线无码私拍| 一级不卡毛片| 狠狠色香婷婷久久亚洲精品| 这里只有精品在线| 亚洲欧美另类日本| 亚洲欧美日韩中文字幕在线| 国产男女免费完整版视频| 日韩黄色在线| 日本在线国产| 一级毛片免费观看不卡视频| 婷婷亚洲天堂| 日韩精品视频久久| 亚洲日本www| 91精品人妻一区二区| 一本一本大道香蕉久在线播放| 亚洲不卡网| 日韩精品亚洲精品第一页| 亚洲成AV人手机在线观看网站| 好吊妞欧美视频免费| 国产美女在线免费观看| 精品福利网| 国模私拍一区二区三区| 最新国产你懂的在线网址| 高清乱码精品福利在线视频| 国产青榴视频在线观看网站| 日本手机在线视频| 欧美日韩国产成人在线观看| 国产在线无码av完整版在线观看| 国产99视频精品免费视频7| 亚洲国产欧美中日韩成人综合视频| 亚洲精品国产精品乱码不卞| 亚洲欧洲日韩久久狠狠爱| 永久免费精品视频| 国内精品视频区在线2021| 波多野结衣中文字幕一区二区| 亚洲AV无码乱码在线观看代蜜桃| 综合网久久| 在线日韩一区二区| 激情亚洲天堂| 91视频免费观看网站| 国产精品极品美女自在线看免费一区二区| 亚洲日韩在线满18点击进入| 免费看一级毛片波多结衣| 秘书高跟黑色丝袜国产91在线| 久久精品国产999大香线焦| 久久久久亚洲AV成人网站软件| 日韩欧美视频第一区在线观看| 亚洲天堂网在线视频| 91精品国产自产91精品资源| 国产极品美女在线观看| 精品福利视频导航| 狠狠躁天天躁夜夜躁婷婷| 美美女高清毛片视频免费观看| 亚洲综合第一区| 久久婷婷五月综合97色| 欧美精品一二三区| 色综合天天娱乐综合网| 亚洲免费三区| 午夜啪啪网| 国产XXXX做受性欧美88| 免费国产一级 片内射老| 99久久成人国产精品免费| 国产另类视频| 亚洲区欧美区| 国产精品毛片在线直播完整版| 国产v欧美v日韩v综合精品| 992tv国产人成在线观看| 亚洲国产欧美国产综合久久 | 国产一区二区三区精品久久呦|