999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的道路表面裂縫檢測研究

2023-09-08 04:47:30李續穩張青哲
機電信息 2023年17期
關鍵詞:深度學習

李續穩 張青哲

摘要:針對目前道路表面裂縫缺陷檢測方法普遍存在識別率低、實時性差以及多尺度特征下檢測效果不好等問題,提出一種改進的YOLOv5s算法模型。該算法引入SimAM三維帶權注意力機制且不引入額外參數,在模型中融入加權雙向特征金字塔進行多尺度特征融合;同時改進預測框損失函數,使得損失函數收斂更快。經過對比實驗,改進后模型的裂縫檢測均值平均精度提高了2.2%,準確率為90.5%,表明了模型的有效性。

關鍵詞:深度學習;道路裂縫檢測;YOLOv5s;多尺度融合;注意力機制

中圖分類號:TP391.41? ? 文獻標志碼:A? ? 文章編號:1671-0797(2023)17-0027-05

DOI:10.19514/j.cnki.cn32-1628/tm.2023.17.008

0? ? 引言

隨著深度學習快速發展,具有大量參數的神經網絡可以提取到更多的圖像特征。張偉光等人基于卷積神經網絡搭建了包含3個卷積層和2個全連接層的網絡模型,通過對比實驗得出結論,卷積神經網絡具有更高的精度[1]。為使檢測速度更快、精度更高,有學者提出SSD[2]算法。王博等人對此算法進行優化,用MobileNet網絡代替SSD特征提取網絡中的VGG模塊,并通過特征金字塔進行融合,構建出輕量級的道路裂縫檢測算法[3]。YOLO系列目標檢測算法經過不斷更新,檢測速度和模型尺寸相比其他檢測模型更占優勢。J. Zhang等人為提高檢測速度,用一些輕量級網絡代替YOLOv4中的特征提取網絡以使模型加速,減少了參數量和主干網絡層數,使模型精度和速度更優,且模型更具輕量性[4]。為了提高復雜路面的識別精度,一些學者對YOLO系列算法進行了變體改進。R. Li等人使用半導體激光投射到路面裂縫上,再用攝像頭采集到更容易識別的圖像,將圖片輸進基于YOLO算法的PDNN神經網絡以檢測路面坑洞,該方法適用于各種天氣的路面數據并能計算受損區域面積[5]。D. Ma等人基于改進的YOLO-MF和PCGAN對抗網絡對路面裂縫進行計數[6],實現了較高的準確率和F1得分。彭雨諾等人提出了YOLO-lump和YOLO-crack用于提取稀疏表達的多尺度特征,能減少信息損失[7],達到了提高檢測精度和響應速度的目的。本文使用YOLOv5s模型對道路裂縫進行檢測,并進行了結構改進,以改善對深層特征信息的提取與利用,保證實時檢測的同時提高了檢測精度。

1? ? YOLO算法原理

1.1? ? 目標檢測

目標檢測是計算機視覺領域的重要研究方向之一,目標檢測主要完成三個任務:檢測出圖像中目標的位置且同一張圖片可能存在多個檢測目標;檢測出目標的大小范圍;對檢測到的目標進行識別分類。最終輸出圖像中物體的類別和位置坐標。二階段算法主要通過多個不同尺度的檢測框確定目標候選區域,再進行分類回歸運算。而YOLO系列則是一階段目標檢測算法,該系列算法能根據多個初始錨框一次性獲得多個回歸框的位置信息和分類信息,實現單階段目標檢測的網絡訓練。相比二階段算法,YOLO系列算法檢測速度更快。具有代表性的一階段算法還有SSD、ATSS和基于錨點的RepPoints等。

1.2? ? 算法結構

YOLOv5s算法有四種模型:YOLOv5s、YOLOv5sm、YOLOv5sl、YOLOv5sx[8]。優點是遷移能力強且識別速度快,對于欠實時系統,YOLOv5s算法速度快于其他二階段檢測模型。本文使用YOLOv5s網絡作為基礎模型,由四部分組成:輸入層、主干網絡層、Neck層和輸出層。輸入層對圖像進行預處理、數據增強和自適應錨框計算。在主干層,切片操作能使網絡在特征不丟失的情況下實現二倍下采樣操作。而CSP結構則是受到CSPNet啟發,將CSP1_X和CSP2_X分別引入到Backbone和Neck中。其中CSP1_X由X個殘差塊和若干卷積操作組成。SPP模塊通過使用三個卷積核實現最大池化,從而滿足最終輸入一致性。

2? ? 算法改進

2.1? ? SimAM注意力機制

本文引入SimAM注意力模塊[9],這是一種輕量級即插即用模塊,是受人腦注意力機制啟發而提出的一種具有三維權重的注意力模型。如圖1所示,在該模型中對明顯表現出空間抑制效應的神經元給予更高的權重,權重通過一個能量函數來計算,如式(1)所示:

式中:ωt為權重;bt為偏移量;M為該通道上的神經元數量;i為空間維度上的索引;t和xi為輸入特征的單個通道中輸入特征的目標神經元和其他神經元;λ為系數,一般設置為0.000 1。

通過計算ωt、bt的解析解以及通道中所有神經元的均值和方差得到最小能量,能量越低,t神經元和其他神經元的區別越大,越重要。在識別裂縫時,SimAM模塊通過測量一個目標神經元與其他神經元的線性可分離性從當前神經元中計算出三維權重,即計算每個神經元的能量函數。負責提取裂縫相關關鍵特征的神經元權重更高,故優先處理該類神經元與任務相關的信息,進而提高了模型檢測精度。

本文將注意力機制加入YOLOv5s主干網絡的Bottleneck之中,且設計了兩種可行方法,如圖2所示。第一種方法是將SimAM放在每個C3模塊的后面,這樣可以使注意力機制看到局部的特征,每層進行一次注意力運算,可以分擔學習壓力。第二種方法是將SimAM放在backbone部分的最末端,這樣可以使注意力機制看到整個backbone部分的特征圖,具有全局視野,可以加強目標特征信息的提取。經實驗驗證,選用第二種方法作為本文的改進方法。

2.2? ? BiFPN

在道路裂縫數據采集過程中,由于裂縫形狀大小不同以及采集距離有遠有近,裂縫輸入數據的尺寸差別較大,而經過YOLOv5s主干網絡中的多個C3模塊處理后,圖像尺寸會不斷縮小1/2且底層位置信息會部分丟失,沒有充分利用不同尺度之間的特征,導致網絡模型的檢測精度有限。

加權雙向特征金字塔網絡(BiFPN)[10]是一種具有高效雙向特征融合、跳躍連接以及帶權特征融合機制的模塊,能同時得到包含高層語義信息和低層語義信息的全局特征[11],不同輸入層的權重不同且權重可以根據網絡自動更新,其結構如圖3所示,它能保證網絡最大限度地保留全局上下文特征信息,使目標檢測網絡提取不同尺度特征,大大提高了小目標的檢測性能。BiFPN在輸入節點和輸出節點間加入了橫向跳躍連接,不但增加了融合節點的輸入,還保留了原始節點的特征信息,使得模型能融合更多特征;同時移除了單輸入邊沒有進行特征融合的節點,簡化了網絡結構,減少了計算量。BiFPN可以通過重復堆疊的方式進行更多特征的融合,本文在Neck中引入BiFPN模塊。

2.3? ? 損失函數改進

YOLOv5s使用CIoU_loss作為預測框損失函數,但當CIoU_loss中寬高比為一定比例時,損失函數中的懲罰項將不再起作用,會降低模型優化速度。EIoU_loss在CIoU_loss的基礎上進行改進,LEIoU計算公式如式(2)所示:

式中:LEIoU為EIoU損失函數;IoU為交并比;ρ為預測框與真實框中心點之間的距離;b和bgt為目標框和預測框中心點坐標;w和h分別為預測框的寬和高;wgt和hgt分別為真實框的寬和高;C為能同時包含預測框與真實框的最小矩形框的對角線長度;Cw為該最小矩形框的寬;Ch為該最小矩形框的高。

EIoU_loss將w與wgt、h與hgt之間的差距最小化,使損失收斂速度更快、定位效果更好。

3? ? 模型測試和結果分析

3.1? ? 數據集及環境

數據集的選取對模型檢測結果具有重要作用,由于YOLOv5s的特征提取網絡對數據進行了5次下采樣,所以圖像的長和寬需為32的整數倍。本文在公開的CRACK 200、CRACK 500和Bridge CRACK等數據集中經過圖像清洗,最后選取了1 280張JPG格式的路面裂縫圖片,數據集標簽為“Crack” “Map crack”“Hole”。

為證明改進后模型的有效性,需對改進前后模型進行對比實驗。將上述標簽處理和預處理后的圖片輸入網絡中進行目標識別訓練和檢測。實驗時將模型部署到電腦端PyCharm上,使用Python3.8為編譯語言,在Cuda加速和Pytorch深度學習框架下運行。本次研究的實驗配置如表1所示。

3.2? ? 評估標準

對模型的裂縫檢測能力進行評估,引入了模型的評價指標。準確率P表示預測樣本中正樣本比例,召回率R表示預測樣本中實際正樣本數占所有預測樣本的比例,其計算公式分別如式(3)和(4)所示:

式中:TP為正確檢測出裂縫的樣本數量;FP為裂縫檢驗出現錯誤的數量;FN為裂縫的未檢驗數量。

mAP(mean Average Precision)為多個不同類別的平均AP值,每個類別根據不同的置信度和IoU閾值,對應有不同的準確率和召回率,計算準確率和召回率構成的二維曲線圖面積即得到AP值。

3.3? ? 訓練與檢測

選用1 280張大小為1 024×1 024×3的圖像作為總數據集,為了保證模型精度,減小泛化誤差,將訓練集與測試集以8:2的比例劃分以進行交叉驗證。在實驗前需進行參數設置,初始學習率為0.01,下降學習衰減系數為0.000 5,置信度閾值IoU為0.5,批次量為15,迭代次數為200。

在預熱時,YOLOv5s利用一維線性插值去更新每次迭代的學習率,當達到預設值時,再通過余弦退火算法對學習率進行不斷更新。經過訓練得到最優權重,將最優權重傳入Detect.py文件中用于最終檢測。檢測結果如圖4所示,可以看出該模型能準確識別出裂縫、網狀裂縫和坑洞目標,初步達到預定要求。

如圖5所示,經過200個迭代周期后改進YOLOv5s_

SA+BF算法對道路裂縫的檢測精度逐漸收斂為90.5%,mAP值最后穩定在92.4%。

為了驗證加入注意力機制后模型在復雜背景下識別不同種類裂縫的能力,與其他主流方法進行了對比實驗。首先使用Faster-RCNN和YOLOv4模型對裂縫數據進行訓練,再采用YOLOv5s模型和超參數設置相同的改進模型進行訓練檢驗,在實驗同時統計各個方法的檢測速度和模型大小,對比實驗結果如表2所示。

由表2可知,相比YOLOv4和Faster-RCNN算法YOLOv5s更具輕量性和實時性,模型僅有14.8 MB,在模型大小上更具優勢。由于SimAM的無參性,改進后的模型對每張圖像的推理耗時并未產生影響,每秒可處理52.6幀圖片。在平均精度上,加入注意力機制后的YOLOv5s_SimAM算法比原始YOLOv5s算法精度提高了1.4%,而YOLOv5s_SA+BF相比原始算法檢測精度提高了2.2%,召回率為94.5%,且檢測速度沒有太大區別,仍能滿足實時性需求。

圖6為驗證集上測試改進后模型檢測效果,由模型的回歸損失、置信度損失和分類損失的變化可知,改進后的模型置信度損失和邊界框回歸損失更低,模型收斂速度也相對較快。YOLOv5s_SA+BF模型在200個迭代周期后,各項損失均趨于平緩,不再下降,邊界框回歸損失達到0.026 3,目標置信度損失為0.031 6,分類損失為0.025 1。可以看出,本文提出的改進算法在三種不同的損失上都有著不同程度的減弱,對模型具有優化作用。

4? ? 結束語

本文提出了一種基于改進YOLOv5s的道路裂縫檢測模型,即YOLOv5s_SA+BF,在識別過程中能夠優化裂縫特征的提取與檢測。該算法在一定程度上提高了對裂縫檢測的精確度,且在不引入額外參數的同時只增加了少量推理計算,對裂縫識別速度造成的影響可以忽略不計。實驗結果表明,采用該算法,道路裂縫檢測的精度、召回率和平均精度均得到了提升。

[參考文獻]

[1] 張偉光,鐘靖濤,于建新,等.基于機器學習和圖像處理的路面裂縫檢測技術研究[J].中南大學學報(自然科學版),2021,52(7):2402-2415.

[2] LIU W,DRAGOMIR A,DUMITRU E,et al.SSD:Single Shot MultiBox Detector[J].European Conference on Computer Vision,2016:21-37.

[3] 王博,李齊,劉皎.一種輕量級的SSD道路裂縫檢測算法[J].商洛學院學報,2022,36(4):83-90.

[4] ZHANG J,QIAN S R,TAN C.Automated Bridge Crack Detection Method Based on Lightweight Vision Models[J].Complex and Intelligent Systems,2023,9:1639-1652.

[5] LI R B,LIU C.Road Damage Evaluation via Stereo Camera and Deep Learning Neural Network[C]// 2021 IEEE Aerospace Conference,2021:1-7.

[6] MA D,FANG H Y,WANG N N,et al.Automatic Detection and Counting System for Pavement Cracks Based on PCGAN and YOLO-MF[J].IEEE Transactions on Intelligent Transportation Systems,2022,23:22166-22178.

[7] 彭雨諾,劉敏,萬智,等.基于改進YOLO的雙網絡橋梁表觀病害快速檢測算法[J].自動化學報,2022,48(4):1018-1032.

[8] 邵延華,張鐸,楚紅雨,等.基于深度學習的YOLO目標檢測綜述[J].電子與信息學報,2022,44(10):3697-3708.

[9] YANG L X,ZHANG R Y,LI L D,et al.SimAM:A Simple,Parameter-free Attention Module for Convolutional Neural Networks[C]//38th International Conference on Machine Learning,2021:11863-11874.

[10] 仇天昊,陳淑榮.基于EfficientNet的雙分路多尺度聯合學習行人再識別[J].計算機應用,2022,42(7):2065-2071.

[11] TAN M X,PANG R M,LE Q V.EfficientDet:Scalable and Efficient Object Detection[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR),2020:10781-10790.

收稿日期:2023-05-08

作者簡介:李續穩(1999—),男,河南駐馬店人,碩士研究生,研究方向:機器視覺。

通信作者:張青哲(1971—),男,陜西韓城人,博士,副教授,研究方向:道路質量控制。

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 91精品网站| 成人毛片免费在线观看| 久久久久亚洲Av片无码观看| 1769国产精品免费视频| 天天躁日日躁狠狠躁中文字幕| 六月婷婷激情综合| 伊人福利视频| 性做久久久久久久免费看| 日韩资源站| 日韩在线永久免费播放| 国产高清免费午夜在线视频| 91综合色区亚洲熟妇p| 国产精品视频观看裸模| 亚洲综合色婷婷| 在线观看91精品国产剧情免费| 真实国产精品vr专区| 亚洲成av人无码综合在线观看| 又黄又湿又爽的视频| 亚洲一区黄色| 日本黄色不卡视频| 国产高清在线观看| 欧美中文字幕无线码视频| 日韩小视频在线播放| 9啪在线视频| 18禁影院亚洲专区| 精品国产电影久久九九| 国产精品自在拍首页视频8| 国产精品微拍| 无码专区在线观看| 久久国产高清视频| 久久精品国产91久久综合麻豆自制| 成人精品区| 一本久道久久综合多人| 精品伊人久久久香线蕉 | 日韩精品视频久久| 午夜福利无码一区二区| 国产乱人免费视频| 无码又爽又刺激的高潮视频| 啪啪免费视频一区二区| 久久精品66| 一区二区三区四区日韩| 免费无码一区二区| 国产无遮挡猛进猛出免费软件| 亚洲精品桃花岛av在线| 在线视频一区二区三区不卡| 国产www网站| 99国产精品免费观看视频| 青青青国产视频手机| 国产一区亚洲一区| 香蕉久久国产超碰青草| 青青青草国产| 日本不卡在线视频| 久久香蕉国产线看精品| 尤物午夜福利视频| 亚洲综合色吧| 免费不卡在线观看av| 少妇被粗大的猛烈进出免费视频| 香蕉网久久| 国产精品女在线观看| 国产欧美综合在线观看第七页| 无码区日韩专区免费系列| 欧美自慰一级看片免费| 91美女视频在线| 国产情侣一区| 免费毛片视频| 无码人妻免费| 老熟妇喷水一区二区三区| 这里只有精品国产| 婷婷成人综合| 99精品免费欧美成人小视频| 成人免费一级片| 国产精品.com| 国产精品免费露脸视频| 国禁国产you女视频网站| 亚洲av综合网| 国产精品大白天新婚身材| 婷婷亚洲天堂| 欧美视频免费一区二区三区| 亚瑟天堂久久一区二区影院| 国产在线一二三区| 91在线丝袜| 一区二区三区在线不卡免费|