999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv3的木結(jié)缺陷檢測方法研究

2020-03-31 08:04:02岳慧慧白瑞林
自動化儀表 2020年3期
關(guān)鍵詞:精確度檢測模型

岳慧慧,白瑞林

(江南大學物聯(lián)網(wǎng)工程學院,江蘇 無錫 214122)

0 引言

木結(jié)缺陷為嵌入在木條表面中高度紋理化、顏色差異明顯的區(qū)域。木結(jié)缺陷檢測的主要挑戰(zhàn)在于如何準確、實時地從形狀不規(guī)則、分布位置不確定的自然紋理中檢測出木結(jié)缺陷,對高質(zhì)量木條加工有著極為重要的理論和應用價值[1]。隨著卷積神經(jīng)網(wǎng)絡在圖像領(lǐng)域的普遍應用以及圖形處理器(graphics processing unit,GPU)的迅猛發(fā)展,憑借其檢測速度更快、精確度更高的優(yōu)點,基于卷積神經(jīng)網(wǎng)絡(convolutional neural network,CNN)的目標檢測正逐漸替代低效率的人工檢測、基于顏色和紋理特征提取的無監(jiān)督聚類方法。Girshick等提出超快速的區(qū)域卷積神經(jīng)網(wǎng)絡(faster region-CNN,F(xiàn)aster R-CNN)[2]方法,運用候選區(qū)域生成網(wǎng)絡(region proposal network,RPN)不斷重復訓練模型,識別精確度較高,但檢測速度不滿足實時性要求。徐姍姍[3]等使用支持向量機對缺陷進行分類,整體算法運行緩慢。劉英[4]等利用非下采樣剪切波變換對圖像進行預處理,再利用CNN提取出木材缺陷輪廓,檢測速度為261 ms,無法滿足實時性要求。Redmon等提出基于端到端的深層卷積神經(jīng)網(wǎng)絡(you only look once v3,YOLOv3)[5]目標檢測算法,在YOLO[6]和YOLOv2[7]的基礎(chǔ)上進行改進,兼顧了網(wǎng)絡復雜度與識別精確度,在COCO數(shù)據(jù)集上檢測速度為51 ms,平均識別精確度(mean average precision,mAP)可達57.9%的最佳檢測效果;然而,該算法未應用于木結(jié)缺陷檢測。呂鑠[8]等針對YOLOv3使用新?lián)p失函數(shù)Tan-Squared Error,有效提高了COCO數(shù)據(jù)集的識別精確度,模型收斂更加快速。

YOLOv3目標檢測算法需要建立大量木條表面圖像數(shù)據(jù)集,并通過多層特征融合,無需手工設計特征,充分提取高泛化性的木結(jié)缺陷特征用于實時檢測。本研究將YOLOv3算法應用于自然紋理中木結(jié)缺陷檢測,并針對檢測結(jié)果mAP值不高的問題,分別對活結(jié)缺陷圖像進行數(shù)據(jù)擴增。采用k-means++算法提高目標框維度聚類效果,同時壓縮多尺度檢測網(wǎng)絡減少檢測時間,改進loss損失函數(shù)提高木條表面缺陷的識別精確度。

1 YOLOv3模型

1.1 目標框維度聚類算法

參考Faster R-CNN,YOLOv3引入一組固定尺寸的初始目標框(anchor box),通過k-means算法對數(shù)據(jù)集中人工標注目標框的高和寬進行維度聚類,得到k個初始目標框[5]。針對VOC20類和COCO80類數(shù)據(jù)集,YOLOv2設置5個初始目標框;針對COCO80類數(shù)據(jù)集,YOLOv3設置9個初始目標框。由于數(shù)據(jù)集類別與拍攝角度差異較大,并不適用木結(jié)缺陷檢測。k-means算法是從樣本集中隨機選k個初始聚類中心導致聚類準確率偏低,故研究選用改進后的k-means++算法設置閾值ε對目標框進行聚類分析,相距較遠點有更大概率被選為下一個初始聚類中心。同時,考慮到交并比(intersection over union,IOU)是目標框的預測結(jié)果與真實范圍的交集面積、并集面積的比值,與anchor box尺寸大小無關(guān),因此k-means++聚類算法改用IOU作為空間距離計算代替歐氏距離,從而降低不同尺寸初始目標框產(chǎn)生的誤差。改進后空間距離函數(shù)Di(xj)為:

Di(xj)=1-IOU(xj,ci)

(1)

式中:xj∈X={x1,x2,…,xn}為真實目標框;ci∈{c1,c2,…,ck}為聚類中心;k為anchor box的個數(shù)。

聚類目標函數(shù)J(k)為每個樣本到其聚類中心的距離之和最小值,計算公式為:

(2)

利用改進后k-means++針對目標框進行維度聚類,使用手肘法分析聚類目標函數(shù)來選取最優(yōu)聚類個數(shù)k。當k小于真實值6時,J(k)會大幅度下降;而當k到達真實值6時,J(k)快速停止大幅度下降,聚類效果降低,并且隨著k的不斷增加,曲線趨于穩(wěn)定。因此,木條表面圖像數(shù)據(jù)集的最優(yōu)初始目標框聚類個數(shù)為6,高和寬分別為(299.0,167.0)、(176.0,460.5)、(448.0,351.0)、(486.0,617.5)、(126.0,234.0)和(419.0,242.0)。目標框的平均交并比對比如表1所示。改進后k-means++的YOLOv3平均交并比相比YOLOv2和改進前YOLOv3提高約15%,在保證較高平均交并比的基礎(chǔ)上減少了目標框個數(shù),降低了計算資源的占用。

表1 目標框的平均交并比對比Tab.1 Comparison of anchor boxes’ average IOU

k-means++算法流程如圖1所示。

圖1 k-means++算法流程圖Fig.1 Flowchart of k-means++ Algorithm

聚類目標函數(shù)的變化曲線如圖2所示。

圖2 聚類目標函數(shù)的變化曲線Fig.2 Curves of the clustering objective function

1.2 多尺度檢測網(wǎng)絡

YOLOv3借鑒了單個深層神經(jīng)網(wǎng)絡檢測器(single shot multiBox detector,SSD)[9]、殘差網(wǎng)絡和特征金字塔網(wǎng)絡[10],在YOLO和YOLOv2的基礎(chǔ)上進行改進,設計了一種基于Darknet-53網(wǎng)絡和多尺度檢測網(wǎng)絡的目標檢測模型,大大降低了模型運算量,發(fā)揮了YOLO速度快的優(yōu)勢。Darknet-53網(wǎng)絡共有53個卷積層。先使用5個不同的卷積核對圖像進行卷積操作,再由一系列3×3和1×1交替組成的卷積得到26×26特征圖。在網(wǎng)絡訓練過程中,卷積層的輸出是作為下一層池化層的輸入,而池化層的輸出又作為下一層卷積層的輸入。在第j個卷積核中,第l個卷積層的第i個卷積操作輸出矩陣計算式為:

(3)

式中:F(·)為激活函數(shù);b為偏置;x為n×n的卷積核;m為輸入圖像m×m的矩陣。

選用平均值池化操作對卷積層的輸出進行采樣,進一步減小計算量、提高泛化性。在第j個池化區(qū)域中,第l個池化層的第i個池化操作輸出矩陣為:

(4)

選用識別和定位精確度高于Relu函數(shù)的Leaky函數(shù)作為卷積層激活函數(shù)。當輸入x小于0時,輸出不再是0,而是一個微小數(shù)字0.01x,計算式為:

F(·)=Leakey(x)=max(0.01x,x)

(5)

為獲得更好的細粒度特征,通過采樣融合不同網(wǎng)絡層中高分辨率和高語義特征圖,在3種尺度特征層上預測邊界框,當減少尺度時會提升大目標缺陷的識別精確度、降低小目標缺陷的識別精確度[11-12]。由于木結(jié)缺陷目標多數(shù)為大目標,所以將原3種尺度壓縮為2種尺度檢測。當預測大尺寸木結(jié)缺陷時,既可獲得更精準的檢測結(jié)果,又減少了計算量。在訓練模型過程中,每隔10輪改變模型的圖像輸入尺寸,同時將k-means++維度聚類得到的初始目標框(126.0,234.0)、(299.0,167.0)、(176.0,460.5)分配給(320×320)像素尺度上的各個網(wǎng)格,(419.0,242.0)、(448.0,351.0)、(486.0,617.5)分配給(416×416)像素尺度上的各個網(wǎng)格,用于預測木結(jié)缺陷目標框,能讓模型適應不同尺度的輸入圖像,更具有魯棒性。YOLOv3算法的網(wǎng)絡結(jié)構(gòu)如圖3所示。

圖3 YOLOv3算法的網(wǎng)絡結(jié)構(gòu)圖Fig.3 YOLOv3 algorithm network structure

1.3 loss損失函數(shù)

YOLOv3將輸入圖像分成Sh×Sw的高×寬網(wǎng)格,負責預測B個目標框(bounding box,bbox)坐標和對應的置信度得分(confidence score,CS)。在訓練預測特征圖過程中,使用五元組B(x,y,w,h,cs)來定義預測的邊界框[12]。其中:x和y為bbox的中心坐標,w和h為bbox的寬度和高度,都在[0,1]范圍內(nèi)。YOLOv3改進后坐標為:

(6)

式中:cx、cy為從圖像左上角的坐標偏移量;pw、ph為預測目標框的寬和高;tx、ty、tw、th為網(wǎng)絡的學習目標;bx、by、bw、bh為最終得到的bbox坐標。

假設每個網(wǎng)格預測C個目標類別概率,則輸出的張量維度為Sh×Sw×B×(5+C)。

在訓練網(wǎng)絡過程時,網(wǎng)絡會不斷學習真實目標框尺寸特點,邊界框的高寬也在不斷調(diào)整以接近真實目標框。而在預測目標類別與bbox位置坐標時,YOLOv3中l(wèi)oss損失函數(shù)為:

(7)

式中:Errcoord為預測數(shù)據(jù)與標定數(shù)據(jù)之間的坐標誤差;ErrIOU為置信度誤差;Errclass為分類誤差。

其中,坐標誤差Errcoord為:

(8)

Lcross-entropy的計算式為:

Lcross-entropy(p,q)=p×log(q)+(1-p)×log(1-q)

(9)

置信度誤差ErrIOU為:

(10)

分類誤差Errclass為:

(11)

圖與x的函數(shù)圖像Fig.4 The function of and x

當bbox尺寸誤差較小時梯度也較小,隨著bbox尺寸誤差逐漸變大時梯度也逐漸變大。因此將坐標誤差Errcoord中的w和h改進為:

2 結(jié)果與分析

2.1 試驗配置與數(shù)據(jù)集

2.1.1 試驗數(shù)據(jù)集

以木結(jié)缺陷作為研究對象,對Basier-12k線掃相機采集到的松木木條表面圖像進行等分切割,共7 876張。隨機選取其中7 376張作為訓練數(shù)據(jù)集(含有4 260個死結(jié),821個活結(jié)),并將剩余的500張作為測試數(shù)據(jù)集(含有354個死結(jié)、89個活結(jié))。由于活結(jié)圖像數(shù)量過少導致類別不平衡問題,為提高活結(jié)識別精確度,對訓練數(shù)據(jù)集中活結(jié)圖像采用水平和垂直鏡像、隨機裁剪以及±15°、±30°旋轉(zhuǎn)等方法進行數(shù)據(jù)擴增。同時,在訓練模型時利用自適應直方圖均衡化、飽和度和曝光度調(diào)整訓練數(shù)據(jù)集,以增加樣本的魯棒性。隨學習率增加的mAP值曲線如圖5所示。木條表面圖像數(shù)據(jù)集中缺陷目標共分為兩類:①活結(jié)缺陷;②死結(jié)缺陷。

圖5 mAP值隨學習率增加的變化曲線Fig.5 mAP curve with learning rates increasing

2.1.2 試驗軟硬件配置

改進后YOLOv3算法在開源框架TensorFlow上實現(xiàn),主機配置為Intel Core I5-8400 CPU,2.4 GHz主頻,32 GB RAM,顯卡為英偉達GTX 1080Ti,11 GB 內(nèi)存,操作系統(tǒng)為Ubuntu14.04,GPU加速庫為CUDA9.0和CUDNN7.03,數(shù)據(jù)處理使用MATLAB、Python、OpenCV庫,圖像采集使用型號為RAL 12288-8GM的Basier-12k線掃相機。

2.2 試驗參數(shù)與性能指標

2.2.1 試驗參數(shù)

考慮改進后的YOLOv3模型獲得圖像特征時,設置不同學習率(learning rate)和迭代次數(shù)(iteration)對mAP有明顯影響。因此,研究不同學習率和迭代次數(shù)情況下mAP的變化,從而找出最優(yōu)學習率和最優(yōu)迭代次數(shù)。

①最優(yōu)學習率。

在訓練網(wǎng)絡模型時,learning_rate分別設置為10-10、10-9、10-8、10-7、10-6、10-5、10-4、10-3、10-2、10-1和1,iteration設置為20 000。用測試集進行檢測,分析圖5中mAP值隨學習率增加的變化曲線可知,當學習率增加到10-3時,mAP最高為87.13%,模型具有更好的性能;隨著學習率繼續(xù)增加,mAP呈下降趨勢,因此最優(yōu)學習率為10-3。

②最優(yōu)迭代次數(shù)。

在訓練網(wǎng)絡模型時,iteration分別設置為11×103、12×103、13×103、14×103、15×103、16×103、17×103、18×103、19×103、20×103、25×103和30×103,learning_rate設置為10-3。隨迭代次數(shù)增加的mAP值曲線如圖6所示。用測試集進行檢測,分析圖6中mAP隨迭代次數(shù)增加的變化曲線可知,當iteration增加到18 000時,mAP最高為88.63%,可得最優(yōu)迭代次數(shù)為18 000。

圖6 隨迭代次數(shù)增加的mAP值曲線Fig.6 mAP curve with iterations increasing

最終試驗參數(shù)值設置:學習率為0.001、批尺寸(batch_size)為16、衰減系數(shù)(decay)為0.000 5、迭代次數(shù)為18 000、動量(momentu)為0.9。

2.2.2 性能指標

通過木結(jié)缺陷檢測結(jié)果的交并比來判別真假樣本。當IOU≥0.5時,結(jié)果為真正性樣本(true positive,TP);當IOU<0.5時,結(jié)果為假正性樣本(false positive,F(xiàn)P);當IOU=0時,結(jié)果為假負性樣本(false negative,F(xiàn)N)。召回率、精確率、AP值和mAP值分別如式(13)~式(16)所示。其中:N為木條表面圖像數(shù)據(jù)集中樣本數(shù)。

(13)

(14)

(15)

(16)

同時,使用AP和mAP值來評價網(wǎng)絡模型的性能,反映算法模型的好壞程度,值越高表示算法識別檢測效果越好。

2.3 試驗結(jié)果

改進后,YOLOv3網(wǎng)絡訓練過程中l(wèi)oss收斂曲線如圖7所示。

圖7 網(wǎng)絡訓練中l(wèi)oss收斂曲線Fig.7 Loss convergence curve in network training

當網(wǎng)絡迭代超過18 000時,各參數(shù)變化基本穩(wěn)定,損失值收斂下降到約0.12,訓練結(jié)果較理想。最終檢測時間為0.015 6 s,mAP值為88.63%。其中,死結(jié)缺陷AP值為91.74%,活結(jié)缺陷AP值為85.50%。

使用改進前與改進后YOLOv3檢測I、II類圖像測試集。分析檢測結(jié)果可知:改進算法的檢測識別效果明顯提高,基本上不存在目標框漏檢和誤檢的問題,能較好地識別出完整的木結(jié)缺陷。Ⅰ、Ⅱ類圖像檢測結(jié)果如圖8所示。

圖8 I、II類圖像檢測結(jié)果圖Fig.8 Detection results with image type of I and II

為了進一步驗證改進后YOLOv3算法的優(yōu)越性,對比Faster R-CNN、YOLOv3與改進后YOLOv3算法的mAP值和檢測時間。三種算法的檢測結(jié)果對比如表2所示。改進后YOLOv3算法識別木結(jié)缺陷效果更好,目標的平均識別精確度更高,檢測時間大大縮短,克服了傳統(tǒng)檢測方法實時性不足的缺點。

表2 三種算法的檢測結(jié)果對比Tab.2 Comparison of detection results among three algorithms

2.4 木結(jié)缺陷拼接

針對檢測后的木條表面圖像進行缺陷位置拼接。木結(jié)缺陷拼接如圖9所示。

圖9 木結(jié)缺陷拼接圖Fig.9 Splicing of wood-knot defects

圖9中:圖1的缺陷位置為[x1,y1,w1,h1],圖2的缺陷位置為[x2,y2,w2,h2],圖3的位置為[x3,y3,w3,h3],可得缺陷1位置信息為[(n-1)W+x1,min(y1,y2),w1+w2,max(h1,h2)]和缺陷2位置信息為[(n-1)W+x3,0,w3,H]。由于相機分辨率為12 288像素,其1像素對應3.5 μm,可得具體木結(jié)缺陷位置信息。若判斷圖(n-1)與圖n需要缺陷拼接,即|xi-xi+1|≤Δ,則缺陷i位置信息為{(n-1)W+xi}×3.5,0,(wi+wi+1)×3.5,H×3.5];若判斷圖n中含有完整缺陷,即|xi-xi+1|>Δ,則缺陷i位置信息為[{(n-1)W+xi}×3.5,0,wi×3.5,H×3.5]。

3 結(jié)論

針對死結(jié)和活結(jié)缺陷圖像,本試驗提出基于改進YOLOv3的自然紋理中木結(jié)缺陷檢測算法,用于解決檢測木結(jié)缺陷平均精確度較差、檢測時間不滿足實時性的問題。通過改用k-means++算法對數(shù)據(jù)集中真實目標框進行維度聚類,確定更適合木結(jié)缺陷檢測的初始目標框個數(shù)和尺寸。在YOLOv3模型基礎(chǔ)上,將原有的3種尺度檢測網(wǎng)絡壓縮為2種尺度檢測網(wǎng)絡,更改loss損失函數(shù)中坐標誤差,以提高識別精確度和減少運算量。通過試驗驗證了不同算法的性能。試驗結(jié)果表明:改進后YOLOv3算法能夠精確地檢測出死結(jié)和活結(jié)缺陷,具有較好魯棒性和實時性;相較于改進前,平均精確度提升7.47%,速度提高35%;相較于Faster R-CNN算法,平均精確度提升11.68%,速度提高約15倍。在后續(xù)研究中,將研究更多影響木結(jié)缺陷識別精確度和速度的因素,進一步優(yōu)化YOLOv3網(wǎng)絡,以提高檢測實時性和精確度。

猜你喜歡
精確度檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
“硬核”定位系統(tǒng)入駐兗礦集團,精確度以厘米計算
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應用
易錯題突破:提高語言精確度
主站蜘蛛池模板: 中文字幕2区| 免费在线看黄网址| 亚洲天堂网站在线| www.亚洲国产| 久久综合九九亚洲一区| 国产丝袜无码精品| 亚洲av综合网| 亚洲人成网站在线播放2019| 午夜日b视频| 久久天天躁狠狠躁夜夜2020一| 色噜噜久久| 国产91色在线| 国产爽歪歪免费视频在线观看 | 亚洲二三区| 亚洲精品无码AⅤ片青青在线观看| 亚洲欧美不卡视频| 国产9191精品免费观看| 欧美日韩在线观看一区二区三区| 亚洲欧美综合精品久久成人网| 这里只有精品国产| 国产成人精品日本亚洲| 国产精品成人一区二区不卡| 丁香六月激情婷婷| 国产偷倩视频| 日韩欧美高清视频| 丁香综合在线| 亚洲最大福利网站| 91成人免费观看| 亚洲毛片一级带毛片基地| 色偷偷综合网| 天天躁日日躁狠狠躁中文字幕| 日本色综合网| 99热国产在线精品99| 色综合手机在线| 在线播放精品一区二区啪视频| 97se亚洲综合在线| 国产后式a一视频| 丁香五月激情图片| 91亚洲免费| 视频一本大道香蕉久在线播放 | 久久黄色免费电影| 国产97区一区二区三区无码| 一本视频精品中文字幕| 青青草原国产免费av观看| 午夜小视频在线| 亚洲自拍另类| 欧美日韩午夜| 免费人成在线观看成人片| 97久久免费视频| 日韩欧美国产三级| 91精选国产大片| 四虎永久在线视频| 欧美激情福利| 手机精品福利在线观看| 日韩免费无码人妻系列| 国产主播在线观看| 国产精品99久久久| 亚洲第一精品福利| 夜精品a一区二区三区| 亚洲中文字幕日产无码2021| 色综合天天娱乐综合网| 极品av一区二区| 午夜精品区| 国产导航在线| 亚洲国产成人自拍| 免费播放毛片| www.av男人.com| 成人午夜视频免费看欧美| 9999在线视频| 日韩视频免费| 大香网伊人久久综合网2020| 国产美女在线观看| 国产成人喷潮在线观看| 国产96在线 | 动漫精品啪啪一区二区三区| 成人va亚洲va欧美天堂| 99热这里只有精品在线播放| 黄色网站不卡无码| 免费激情网站| 高清久久精品亚洲日韩Av| www.亚洲天堂| 国产成人无码播放|