999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進(jìn)YOLOv8的道路損傷檢測算法

2023-12-11 07:11:28井方科
關(guān)鍵詞:特征檢測模型

李 松,史 濤,井方科

1.華北理工大學(xué) 電氣工程學(xué)院,河北 唐山 063210

2.天津理工大學(xué) 電氣工程與自動(dòng)化學(xué)院,天津 300384

道路網(wǎng)絡(luò)是經(jīng)濟(jì)的支柱,交通系統(tǒng)和交通運(yùn)輸系統(tǒng)能夠滿足人們的出行需求、商業(yè)和工業(yè)的發(fā)展。但這些公路面臨著來自人口增長、基礎(chǔ)設(shè)施惡化和道路建設(shè)成本迅速上升的挑戰(zhàn)。要保持國家的經(jīng)濟(jì)發(fā)展勢頭,就需要顯著改善交通基礎(chǔ)設(shè)施。路面裂縫是路面常見病害,嚴(yán)重影響道路安全和行車安全,保持高質(zhì)量的路面是維護(hù)道路安全的關(guān)鍵之一。道路損傷的及時(shí)檢測對預(yù)防道路損傷、維護(hù)交通道路安全具有重要意義。

道路損傷目標(biāo)檢測技術(shù)主要分為傳統(tǒng)的目標(biāo)檢測算法和基于深度學(xué)習(xí)的目標(biāo)檢測算法。傳統(tǒng)的裂縫檢測方法大多是基于人工檢測或提取特征識別路面病害的圖像分割技術(shù),例如,初秀民等[1]利用路面破損圖像二值化方法設(shè)計(jì)基于閾值的裂縫分割技術(shù),韓錕等[2]提出了一種基于區(qū)域生長的特征的路面裂縫檢測方法。然而,這些方法都嚴(yán)重依賴于人工特征提取,在復(fù)雜多變的道路環(huán)境中由于難以使用統(tǒng)一的特征模型來有效提取特征裂縫,導(dǎo)致檢測魯棒性較差。近年來,隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,目標(biāo)檢測技術(shù)也取得了顯著的成就。目標(biāo)檢測技術(shù)主要分為單階段算法和兩階段算法。常用的兩階段算法包括R-CNN、Fast R-CNN、Faster R-CNN、U-net 等。Kang 等[3]使用更快的區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Faster R-CNN)算法的集成來檢測裂紋區(qū)域。Yamaguchi 等[4]使用U-Net 與數(shù)據(jù)增強(qiáng)和形態(tài)變換相結(jié)合,通過激光雷達(dá)開發(fā)一種完全自動(dòng)、準(zhǔn)確和定量評估道路裂縫的方法。另一類是單階段檢測方法,直接分離特定的類別并回歸邊界。常用的單階段目標(biāo)檢測算法[5]包括You Only Look Once系列和Single Shot MultiBox Detector(SSD)等。兩階段算法相比單階段算法在檢測精度上有一定優(yōu)勢,但是檢測速度遠(yuǎn)低于單階段算法。因此,在道路損傷檢測中單階段算法更受關(guān)注。黃凱楓等[6]在SSD 網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上將其基礎(chǔ)網(wǎng)絡(luò)替換為Dense-net網(wǎng)絡(luò),使得特征信息更加容易被獲取,并降低網(wǎng)絡(luò)參數(shù)數(shù)量,有效的提升病害識別的準(zhǔn)確性。安學(xué)剛等[7]基于YOLOv4,通過引入自適應(yīng)空間特征融合,改進(jìn)Focal Loss損失函數(shù)等方法進(jìn)行訓(xùn)練,從而提高了路面病害的檢測精度。Yu 等[8]提出了基于YOLOv5 的道路裂縫檢測算法,并進(jìn)行了輕量化改進(jìn),大幅度縮減了模型參數(shù)體量,提升了檢測速度到85 FPS。倪昌雙等[9]基于YOLOv7改進(jìn)瀝青路面病害檢測算法,使用K-means++聚類算法和漏斗激活函數(shù)F-ReLU改善了傳統(tǒng)卷積網(wǎng)絡(luò)對瀝青路面病害檢測時(shí)存在的檢測精度低、定位不準(zhǔn)等問題。

單階段目標(biāo)檢測算法YOLO自面世以來,就受到業(yè)界學(xué)者的廣泛關(guān)注,近年來,YOLO算法不斷優(yōu)化、更新版本,Ultralytics團(tuán)隊(duì)在2023年提出了YOLOv8版本,算法在滿足實(shí)時(shí)性的同時(shí),還具備了較高的檢測精度和較為輕量化的網(wǎng)絡(luò)結(jié)構(gòu),適合運(yùn)用于對道路裂縫中目標(biāo)的檢測進(jìn)行針對性改進(jìn)。因此,本文基于YOLOv8n 對模型進(jìn)行優(yōu)化,提高模型的精度,首次提出了一種基于YOLOv8n的道路損傷檢測算法YOLOv8-RD,本文的主要貢獻(xiàn)如下:

(1)引入Bottleneck Transformer[10],針對道路損傷圖像可以更好地捕獲遠(yuǎn)程依賴,獲取更多全局信息。

(2)添加坐標(biāo)注意力(coordinate-attention,CA)[11]模塊,增強(qiáng)相關(guān)特征的提取,提高算法的檢測精度。

(3)在YOLOv8 頸部網(wǎng)絡(luò)中,增加了C2fGhost[12]模塊,實(shí)現(xiàn)模型壓縮,保持檢測精度的同時(shí)減少模型參數(shù),加快特征融合。

1 相關(guān)原理

1.1 YOLOv8算法介紹

You Only Look Once(YOLO)算法,將圖像分割成多個(gè)網(wǎng)格,預(yù)測每個(gè)網(wǎng)格內(nèi)的邊界框和其所包含的物體類別,并使用非極大值抑制(NMS)算法消除重疊的邊界框。YOLOv1[13]的檢測速度相對較快,但對于彼此距離較近的物體和較小的目標(biāo),YOLOv1的檢測速度并不有效。YOLOv2[14]算法采用Darknet19 作為特征提取網(wǎng)絡(luò),能夠適應(yīng)不同尺寸的圖像,提高對小目標(biāo)檢測精度。YOLOv3[15]增加了特征金字塔(FPN)和空間池化金字塔(SPP)模塊,以提高檢測不同尺度和語義信息的能力。YOLOv4[16]引入Mish 激活函數(shù),提高準(zhǔn)確率。YOLOv5[17]引入C3 模塊和SPPF 模塊,改善特征擾動(dòng),提高檢測能力。YOLOv7[18]引進(jìn)了可擴(kuò)展的高效層聚合網(wǎng)絡(luò)E-ELAN、創(chuàng)新的過渡模塊和重參數(shù)化結(jié)構(gòu)等策略,增強(qiáng)特征提取和語義信息表達(dá)的能力,進(jìn)一步優(yōu)化目標(biāo)檢測效果。

YOLO算法作為經(jīng)典的單階段檢測算法之一,已經(jīng)升級到Y(jié)OLOv8。本文提出了一種YOLOv8n的改進(jìn)方法,不僅提高了檢測精度,而且實(shí)現(xiàn)了計(jì)算量、參數(shù)量和模型尺寸最小化。圖1 以YOLOv8n 為代表的結(jié)構(gòu)為例,對網(wǎng)絡(luò)的各個(gè)組成部分進(jìn)行了描述。骨干網(wǎng)由CBS模塊、C2f 模塊和SPPF 模塊組成,使用的依舊是CSP 的思想,不過骨干網(wǎng)絡(luò)頸部網(wǎng)絡(luò)參考了YOLOv7的ELAN結(jié)構(gòu)設(shè)計(jì)思想,將YOLOv5 中的C3 模塊替換成了梯度流更豐富的C2f 結(jié)構(gòu),C2f 結(jié)構(gòu)可以增強(qiáng)卷積神經(jīng)網(wǎng)絡(luò)的特征融合能力,提高推理速度,實(shí)現(xiàn)了進(jìn)一步的輕量化,同時(shí)YOLOv8 依舊使用了YOLOv5 架構(gòu)中使用的SPPF 模塊,SPPF 模塊是一個(gè)空間金字塔池化層,可以擴(kuò)展接受域,實(shí)現(xiàn)局部和全局特征融合,豐富特征信息。Head部分相比YOLOv5 改動(dòng)較大,換成了目前主流的解耦頭結(jié)構(gòu),將分類和檢測頭分離,YOLOv8 改變了以往的Anchor-Base,使用了Anchor-Free 的思想;在損失函數(shù)上,YOLOv8 使用BCE Loss 作為分類損失,使用DFL Loss+CIOU Loss 作為回歸損失,在樣本匹配方面,YOLOv8 改變了以往的IOU 匹配或者單邊比例的分配方式,而是使用了Task-Aligned Assigner匹配方式。

圖1 YOLOv8n網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 YOLOv8n network architecture

1.2 算法存在的問題

將YOLO 算法應(yīng)用于道路損傷檢測任務(wù)時(shí),需要考慮移動(dòng)設(shè)備有限的硬件性能。不能簡單地選擇YOLOv8x 算法。該方法檢測效果最好,但對道路損傷檢測任務(wù)實(shí)時(shí)性要求較高。因此,本文選取了YOLOv8n算法的最小權(quán)值模型,但是在實(shí)際的檢測過程中,YOLOv8n算法存在一些問題。首先,YOLOv8n算法使用了大量的標(biāo)準(zhǔn)卷積和C2f 模塊,提高了算法的準(zhǔn)確性,但降低了運(yùn)行速度,增加了模型的參數(shù)。其次,場景在移動(dòng)檢測中變化很快,需要足夠的檢測精度。但YOLOv8n 算法對于道路損傷的檢測處理并不理想,容易出現(xiàn)誤檢和漏檢的問題。

2 算法改進(jìn)

為了改進(jìn)道路損傷檢測的精度,提出了一種改進(jìn)YOLOv8n 的檢測網(wǎng)絡(luò)模型YOLOv8-RD。圖2 為改進(jìn)后的YOLOv8n結(jié)構(gòu)示意圖,在YOLOv8n骨干網(wǎng)的SPPF模塊之后嵌入結(jié)合CNN 與Transformer 優(yōu)勢的BOT 模塊。YOLOv8n的頸部網(wǎng)絡(luò)采用了C2f Ghost模塊,并且在YOLOv8n 骨干的末尾和頸部的C2f Ghost 后面嵌入CA 模塊。BOT 模塊增強(qiáng)了特征信息處理能力。CA 模塊的目的是通過突出道路損傷檢測的關(guān)鍵信息來增強(qiáng)網(wǎng)絡(luò)的特征提取能力,從而提高在多場景下的準(zhǔn)確率。C2fGhost 模塊的目的是進(jìn)一步減少模型的參數(shù)和計(jì)算量。

圖2 YOLOv8-RD網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 YOLOv8-RD network architecture

2.1 BOT模塊

CNN 的優(yōu)點(diǎn)是參數(shù)共享和高效的局部信息聚合,但裂縫檢測任務(wù)的目標(biāo)通常是長而窄的,其長度遠(yuǎn)大于寬度,在空間上呈現(xiàn)出細(xì)長的形狀,這種結(jié)構(gòu)特征使得裂縫檢測任務(wù)需要更長的依賴關(guān)系來獲取上下文信息。為了集成全局信息,基于CNN 的模型需要疊加更多層3×3卷積,盡管堆疊更多層確實(shí)提高了這些主干的性能,但基于CNN的模型不易獲取全局信息,更關(guān)注局部信息的聚合,在特征提取時(shí)容易丟失部分特征,導(dǎo)致檢測精度下降,而Transformer 可以捕獲長距離依賴關(guān)系,更加注重全局信息。Vision Transformer(ViT)[19]是谷歌在2020年提出的直接將Transformer應(yīng)用在圖像分類的模型,在ImageNet1K上能夠達(dá)到88.55%的準(zhǔn)確率,此后很多優(yōu)秀算法都將CNN 和Transformer 結(jié)合起來,讓網(wǎng)絡(luò)繼承CNN 和Transformer 的優(yōu)勢,無需那么多卷積層也能保留全局特征和局部特征。

BoTNet網(wǎng)絡(luò)是伯克利和谷歌的研究人員對卷積網(wǎng)絡(luò)和Transformer 結(jié)合的探索。它使用一種混合的方法,基于Transformer 的模型具有固有的全局信息獲取能力,在視覺任務(wù)中使用Transformer 中的多頭自注意(MHSA)層替換空間卷積層,同時(shí)利用CNN 的特征提取能力獲得了比單獨(dú)CNN 或Transformer 更好的性能,在ImageNet 中準(zhǔn)確率為84.7%。CNN 和Transformer 的結(jié)合,達(dá)到了優(yōu)勢互補(bǔ)的效果。圖3顯示了多頭自注意層(MHSA),MHSA的具體實(shí)現(xiàn)可以類似于Transformer block或非局部塊(non-local block)。BoTNet中用MHSA塊代替了標(biāo)準(zhǔn)的3×3卷積模塊CBS。BoTNet(bottleneck Transformer)的結(jié)構(gòu)如圖4所示。

圖3 多頭自注意層(MHSA)Fig.3 Multi-head self attention layer(MHSA)

圖4 BoTNet結(jié)構(gòu)Fig.4 BoTNet structure

目前大多數(shù)道路損傷檢測的深度學(xué)習(xí)檢測方法都是使用交替卷積層和池化層來實(shí)現(xiàn)的。卷積運(yùn)算擅長于提取局部細(xì)節(jié),但在大規(guī)模道路損傷檢測任務(wù)中,卷積層難以掌握道路損傷的全局信息。相比之下,Transformer的自我注意能力擅長于掌握全局信息,但需要大量的數(shù)據(jù)進(jìn)行訓(xùn)練。本文利用BoTNet 網(wǎng)絡(luò)框架與C2f結(jié)構(gòu)結(jié)合,提出的BOT 模塊如圖5 所示,它僅在主干末尾結(jié)構(gòu)使用,實(shí)現(xiàn)僅以微弱的計(jì)算量提升提高了檢測的準(zhǔn)確率。將CNN 和Transformer 的優(yōu)勢相結(jié)合,取長補(bǔ)短,實(shí)現(xiàn)了充分提取全局和局部特征,提高了模型檢測精度。

圖5 BOT模塊Fig.5 BOT module

2.2 CA模塊

由于道路損傷所處的環(huán)境復(fù)雜多變,為了提高模型對道路損傷的特征表達(dá)能力,在YOLOv8骨干網(wǎng)末端和頸部每兩次特征融合之間增加了注意力機(jī)制進(jìn)行局部特征增強(qiáng),使網(wǎng)絡(luò)忽略無關(guān)信息干擾,使融合后的特征圖包含更多有效信息。注意機(jī)制一般可分為通道注意機(jī)制、空間注意機(jī)制和兩者的結(jié)合。傳統(tǒng)的注意機(jī)制squeeze and inspire attention(SE)和convolutional block attention module(CBAM)等存在很多不足,SE 注意力中只關(guān)注構(gòu)建通道之間的相互依賴關(guān)系,忽略了空間特征。CBAM中引入了大尺度的卷積核提取空間特征,但忽略了長程依賴問題。雖然沒有這個(gè)問題的其他注意模塊也有很好的效果,但參數(shù)量太多,不適合應(yīng)用程序部署。

CA 模塊是針對通道注意提出的一種新的注意模塊,坐標(biāo)注意機(jī)制不僅能捕獲跨通道信息,還能捕獲定向感知和位置感知,有助于模型更準(zhǔn)確地定位和識別感興趣的目標(biāo)。CA 模塊非常靈活,可以添加到現(xiàn)有模型的多個(gè)位置,且不會(huì)帶來過多的參數(shù)量和計(jì)算量。其結(jié)構(gòu)如圖6 所示,輸入水平和垂直地匯集在一起,以保持兩個(gè)方向的長距離依賴關(guān)系。然后縫合兩個(gè)方向的信息。接下來,對特征圖進(jìn)行分割和卷積,以同時(shí)關(guān)注水平和垂直方向。模塊輸出的兩部分特征圖可以精確指向感興趣目標(biāo)對象的行和列。

圖6 CA模塊Fig.6 CA module

2.3 C2fGhost模塊

在標(biāo)準(zhǔn)卷積中,許多特征通道的特征映射非常相似。從標(biāo)準(zhǔn)卷積中提取的特征在一定程度上是重復(fù)的。因此,不需要進(jìn)行完整的卷積運(yùn)算來獲得所需的feature map。Ghost 模塊(見圖7)使用標(biāo)準(zhǔn)卷積獲得部分特征圖,然后通過線性運(yùn)算生成更多的特征圖。最后,將兩組特征映射拼接到指定的維數(shù)上,以較少的參數(shù)和計(jì)算量獲得更多的特征映射。

圖7 Ghost模塊Fig.7 Ghost module

在任何卷積層中生成n個(gè)特征圖的操作可以表示為:

其中,X∈Rc×h×w表示卷積的輸入,c表示輸入通道數(shù),h和w分別表示輸入feature map 的高度和寬度,Y ∈Rh′×w′×n是有n個(gè)通道的輸出feature map,h′和w′是輸出feature map 的高度和寬度,f∈Rc×k×k×n是這一層的卷積濾波器,它的核大小是g·g,b是偏置項(xiàng)。在這個(gè)卷積中,計(jì)算的結(jié)果為:

使用Ghost模塊的計(jì)算量為:

Ghost模塊改進(jìn)的標(biāo)準(zhǔn)卷積的計(jì)算量為:

因此,Ghost模塊的計(jì)算量約為標(biāo)準(zhǔn)卷積的1/s。

在主流的深度神經(jīng)網(wǎng)絡(luò)中,提取的特征圖包含了豐富甚至冗余的信息,這有助于對輸入數(shù)據(jù)進(jìn)行全面的理解。深度神經(jīng)網(wǎng)絡(luò)中存在冗余特征映射的情況,而Ghost 模塊以一種低成本高效益的方式改進(jìn)了這個(gè)問題,首先生成一些內(nèi)在的特征映射,然后利用線性操作來增強(qiáng)特征圖,增加信道。這種方法既減少了模型體積,又能充分揭示內(nèi)在特征背后的信息。

圖8 中的Ghost Bottleneck 由兩個(gè)Ghost 模塊堆疊而成,用于網(wǎng)絡(luò)中的特征映射處理。第一個(gè)Ghost 模塊作為擴(kuò)展層,用于增加通道數(shù)目,第二個(gè)Ghost模塊用于減少通道數(shù)目,使其與輸入通道數(shù)匹配,并實(shí)現(xiàn)shortcut功能。

圖8 Ghost Bottleneck模塊Fig.8 Ghost Bottleneck module

新的C2fGhost 如圖9 所示,使用Ghost Bottleneck替換網(wǎng)絡(luò)中C2f 模塊中的Bottleneck 模塊,使模型擁有足夠的信息來理解輸入數(shù)據(jù)。這種改進(jìn)在不增加網(wǎng)絡(luò)參數(shù)的情況下減小了模型的總體尺寸,同時(shí)提升了對冗余信息的理解速度。在實(shí)現(xiàn)網(wǎng)絡(luò)輕量化的同時(shí)保證網(wǎng)絡(luò)的檢測精度。

圖9 C2fGhost模塊Fig.9 C2fGhost module

3 實(shí)驗(yàn)與結(jié)果

3.1 數(shù)據(jù)集

RDD 2022[20]:本文使用開源的RDD 2022 數(shù)據(jù)集實(shí)現(xiàn)模型的訓(xùn)練。RDD 2022由東京大學(xué)發(fā)布,其中包括來自日本、印度、捷克共和國、挪威、美國和中國6 個(gè)國家的47 420 幅道路圖像。這些圖像已經(jīng)標(biāo)注了55 000 多起道路損壞事件。數(shù)據(jù)集中捕捉到4 種類型的道路損壞,即D00(縱向裂縫)、D10(橫向裂縫)、D20(網(wǎng)狀裂縫)和D40(坑洞)。帶注釋的數(shù)據(jù)集旨在開發(fā)基于深度學(xué)習(xí)的方法,以自動(dòng)檢測和分類道路損壞。該數(shù)據(jù)集已作為基于人群感應(yīng)的道路損壞檢測挑戰(zhàn)賽(CRDDC’2022)的一部分發(fā)布。由于挪威的圖像尺寸過大,與其他國家相差過多,難以用于訓(xùn)練。因此在RDD 2022 數(shù)據(jù)集其他國家中隨機(jī)選取10 000 張照片作為數(shù)據(jù)集。選擇了8 000張照片進(jìn)行訓(xùn)練,2 000張照片進(jìn)行驗(yàn)證。訓(xùn)練集、驗(yàn)證集的比值為8∶2。

知識經(jīng)濟(jì)時(shí)代強(qiáng)調(diào)創(chuàng)新精神,突出創(chuàng)新人才的培養(yǎng),要求建立系統(tǒng)性、開放性、創(chuàng)新性的高校教育管理體系。校友無疑是這一工作中的重要力量。校友與母校、與在校生之間結(jié)成的天然感情紐帶,是高校不同于其他地方的獨(dú)特魅力所在。在沈陽化工大學(xué)實(shí)施“113”人才培養(yǎng)戰(zhàn)略中,特別是合作化育人環(huán)節(jié)中,校友能很好的平衡高校教育中知識、能力和實(shí)踐的關(guān)系,是完善人才培養(yǎng)不可或缺的一環(huán)。校友在招生、就業(yè)以及品牌影響等諸多方面也起到了重要的作用。

3.2 實(shí)驗(yàn)設(shè)備及評價(jià)指標(biāo)

本模型的開發(fā)語言主要是Python,使用開源深度學(xué)習(xí)框架PyTorch 作為網(wǎng)絡(luò)框架,采用CUDA11.3 對訓(xùn)練進(jìn)行加速。本模型的硬件測試環(huán)境CPU 選用Intel?Xeon?Platinum 8255C CPU@2.50 GHz,GPU選用NVIDIA的RTX 3080,10 GB顯存。

訓(xùn)練時(shí),將輸入圖像設(shè)置為640×640,使用SGD 作為優(yōu)化函數(shù)對模型進(jìn)行訓(xùn)練。模型訓(xùn)練周期(epoch)為300,批量大小為32,初始學(xué)習(xí)速率為0.01。本實(shí)驗(yàn)采用與原YOLOv8算法相同的數(shù)據(jù)增強(qiáng)算法。

本文使用的評價(jià)指標(biāo)有F1 分?jǐn)?shù)、mean average precision(mAP)、number of parameters(Params)、Giga浮點(diǎn)運(yùn)算每秒(GFLOPs)、frames per second(FPS)。其中,以正確率和查全率作為基本指標(biāo),以根據(jù)正確率和查全率計(jì)算的F1 分?jǐn)?shù)和mAP 作為最終評價(jià)指標(biāo),衡量模型的識別正確率。GFLOPs 用于度量模型或算法的復(fù)雜性,而Params 表示模型的大小。通常,Params 和GFLOPs 越小,表示模型所需的計(jì)算能力就越小,對硬件的性能要求就越低,在低端設(shè)備中構(gòu)建就越容易。FPS是指每秒檢測到的幀數(shù),其大小不僅與算法的權(quán)重有關(guān),還與實(shí)驗(yàn)設(shè)備的硬件配置有關(guān)。

精確率為所有預(yù)測為正樣本的結(jié)果中,預(yù)測正確的比率。定義如下:

召回率是根據(jù)正確預(yù)測的所有目標(biāo)的比例來計(jì)算的。定義如下:

其中,TP表示檢測結(jié)果中正確目標(biāo)的個(gè)數(shù),F(xiàn)P表示檢測結(jié)果中錯(cuò)誤目標(biāo)的個(gè)數(shù),F(xiàn)N表示正確目標(biāo)中缺失目標(biāo)的個(gè)數(shù)。

n個(gè)類別的平均準(zhǔn)確率計(jì)算公式如下:

F1-score 綜合考慮了準(zhǔn)確率和召回率,較全面地反映網(wǎng)絡(luò)的整體性能。取兩個(gè)指標(biāo)的諧波平均值計(jì)算,如式(9)所示:

采用模型參數(shù)量(Params)和計(jì)算量(GFLOPs)度量模型復(fù)雜度,采用幀數(shù)每秒(FPS)度量推理速度。FPS是指每秒檢測到的幀數(shù),其大小不僅與算法的權(quán)重有關(guān),還與實(shí)驗(yàn)設(shè)備的硬件配置有關(guān)。

3.3 不同注意力機(jī)制對網(wǎng)絡(luò)性能的影響

實(shí)驗(yàn)還使用了其他一些注意力機(jī)制模塊,如SE 注意力模塊和CBAM注意力模塊。實(shí)驗(yàn)結(jié)果如表1所示。

表1 多種注意力機(jī)制對比結(jié)果Table 1 Comparison results of multiple attention mechanisms

從表1中可以看出,相比于其他被研究的注意機(jī)制模塊,如SE 和CBAM 模塊,CA 模塊的加入大大提高了網(wǎng)絡(luò)的檢測精度。

3.4 C2fGhost模塊對網(wǎng)絡(luò)性能的影響

為了驗(yàn)證在不同位置引入C2fGhost 模塊與網(wǎng)絡(luò)性能的關(guān)系,設(shè)計(jì)如表2 所示消融實(shí)驗(yàn)。Ghost-all 表示將骨干網(wǎng)絡(luò)和頸部網(wǎng)絡(luò)中的所有C2f模塊替換為C2fGhost模塊。Ghost-backbone 是指骨干網(wǎng)中的C2f 模塊被C2fGhost 模塊替代,而頸部網(wǎng)絡(luò)保持不變。Ghost-neck表示頸部網(wǎng)絡(luò)中的C2f模塊被C2fGhost模塊替換,骨干網(wǎng)中的C2f模塊保持不變。在YOLOv8n骨干網(wǎng)中引入Ghost模塊,這些改進(jìn)降低了模型的計(jì)算成本,但模型的整體性能低于基準(zhǔn)模型。原因是改進(jìn)后的模型參數(shù)減少,導(dǎo)致骨干網(wǎng)特征提取性能不足,導(dǎo)致模型精度下降。將Ghost 模塊引入到Y(jié)OLOv8n 的頸部網(wǎng)絡(luò)中,改進(jìn)后的算法在檢測精度沒有顯著變化。這是因?yàn)楣歉傻奶卣魈崛⌒阅軟]有發(fā)生變化,而頸部網(wǎng)絡(luò)中的Ghost模塊允許特征層有足夠的信息來維持對輸入數(shù)據(jù)的理解。這種改進(jìn)在不增加網(wǎng)絡(luò)參數(shù)的情況下減小了模型的總體尺寸,使得網(wǎng)絡(luò)對冗余信息的理解速度越來越快。實(shí)驗(yàn)結(jié)果表明用頸部網(wǎng)絡(luò)中的C2fGhost 模塊替代C2f可以獲得最佳性能。

表2 C2fGhost不同位置對比結(jié)果Table 2 Comparison results of different positions of C2fGhost

3.5 消融實(shí)驗(yàn)對比

為了驗(yàn)證本文改進(jìn)算法的準(zhǔn)確性,需要通過建立YOLOv8n、YOLOv8n-B、YOLOv8n-C、YOLOv8n-G、YOLOv8n-BC、YOLOv8n-BG、YOLOv8n-CG、YOLOv8-RD幾個(gè)模型進(jìn)行實(shí)驗(yàn)。其中,YOLOv8n-B是在YOLOv8n骨干網(wǎng)的SPPF模塊之后嵌入BOT模塊。YOLOv8n-C是在YOLOv8n 骨干的末尾和頸部的C2f 后面嵌入CA 模塊來實(shí)現(xiàn)的。YOLOv8n-G是將YOL-Ov8n的頸部網(wǎng)絡(luò)的C2f 模塊引入Ghost 結(jié)構(gòu)。YOLOv8-RD 是本文提出的算法。

如表3所示,改進(jìn)算法采用了更高效的網(wǎng)絡(luò)結(jié)構(gòu)對YOLOv8n的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了改進(jìn),提高了精度,降低了模型的參數(shù)量和計(jì)算量。同時(shí)也證明了C2fGhost 模塊并沒有降低算法的精度,反而降低了模型的參數(shù)量和計(jì)算量。引入BOT 結(jié)構(gòu)和CA 注意力機(jī)制僅提高了少量參數(shù),有效地提高了檢測精度。將上述改進(jìn)與YOLOv8n算法相結(jié)合,可以使模型體積最小化,模型參數(shù)量僅為2.8×106,計(jì)算量僅為7.3×109,分別降低了6.7%和8.5%,有效地降低模型在移動(dòng)終端部署難度與成本,并且使得算法在滿足實(shí)時(shí)性的同時(shí)精度有了較大提升。

表3 消融實(shí)驗(yàn)結(jié)果Table 3 Results of ablation experiment

3.6 實(shí)際應(yīng)用檢測評價(jià)

RDD2022 數(shù)據(jù)集中捕捉到四種類型的道路損壞,即D00(縱向裂縫)、D10(橫向裂縫)、D20(網(wǎng)狀裂縫)和D40(坑洞)。圖10顯示了YOLOv8-RD算法在RDD2022數(shù)據(jù)集上的檢測效果,改進(jìn)后的算法相比原算法識別出來更多的裂縫目標(biāo),第一張圖中D20目標(biāo)原算法檢測不完整,改進(jìn)后算法的檢測更精準(zhǔn);第二張圖中改進(jìn)算法比原算法檢測出更多的D10目標(biāo);第三張圖兩種算法均識別出了D40坑洞目標(biāo),但改進(jìn)算法額外檢測出了D20網(wǎng)狀裂縫;第四張圖原算法錯(cuò)誤地檢測出了D10 目標(biāo),但改進(jìn)算法沒有出現(xiàn)失誤。結(jié)果表明,改進(jìn)的YOLOv8-RD 算法能夠有效地檢測出道路損傷目標(biāo),并且準(zhǔn)確地識別它們的位置和類別,表現(xiàn)出較強(qiáng)的魯棒性和準(zhǔn)確性。

圖10 檢測效果Fig.10 Detection effect

為了進(jìn)一步驗(yàn)證模型對不同目標(biāo)的檢測效果,表4展示了YOLOv8n 和改進(jìn)模型YOLOv8-RD 在不同損壞情況下的性能。數(shù)據(jù)顯示,YOLOv8-RD 在4 個(gè)類別上的檢測精度均高于YOLOv8n,其中類別D20(網(wǎng)狀裂縫)的檢測效果提升最為明顯。與YOLOv8n 相比,mAP50和mAP50-90分別提升了3.8和2.3個(gè)百分點(diǎn)。需要注意的是,在所有道路裂縫目標(biāo)中,D40(坑洞)的檢測精度最低,這是因?yàn)镈40 目標(biāo)較小且訓(xùn)練樣本數(shù)量較少,模型難以學(xué)習(xí)到更多的特征。

表4 RDD2022數(shù)據(jù)集各類型損傷的檢測結(jié)果對比Table 4 Comparison of detection results for various types of damage in RDD2022 dataset 單位:%

為了評估本文所提出的YOLOv8-RD 在實(shí)際應(yīng)用中的性能,還針對Road Damage 數(shù)據(jù)集進(jìn)行了訓(xùn)練和測試,同時(shí)也使用了原始的YOLOv8n 模型作為對比。Road Damage 數(shù)據(jù)集由3 321 張實(shí)際道路損傷圖像組成,這些圖像均是使用智能手機(jī)相機(jī)拍攝的,尺寸約為1080P。與之前的實(shí)驗(yàn)設(shè)計(jì)類似,將道路損傷目標(biāo)分為4 種分類:D00(縱向裂縫)、D10(橫向裂縫)、D20(網(wǎng)狀裂縫)和D40(坑洞),同時(shí)訓(xùn)練集和驗(yàn)證集的比例為8∶2。如表5 所示,YOLOv8-RD 在4 個(gè)類別上的檢測精度明顯優(yōu)于YOLOv8n。具體來說,在mAP50 方面,橫向裂縫(D10)的檢測效果提升最為明顯,增加了6 個(gè)百分點(diǎn);而在mAP50-95 方面,網(wǎng)狀裂縫(D20)的檢測效果提升最明顯,增加了3.2 個(gè)百分點(diǎn)。此外,對于四種類型目標(biāo)的整體檢測效果,相較于YOLOv8n,YOLOv8-RD 也有了顯著提升,mAP50 和mAP50-90 分別提高了3.7 和2.9 個(gè)百分點(diǎn)。這些實(shí)驗(yàn)結(jié)果驗(yàn)證了YOLOv8-RD 模型在常規(guī)道路損傷目標(biāo)檢測方面的顯著能力提升。

3.7 與不同算法的檢測結(jié)果的比較

為了進(jìn)一步驗(yàn)證算法的性能,本研究使用RDD 數(shù)據(jù)集比較了YOLOv8-RD 和其他主流目標(biāo)檢測算法的表現(xiàn),結(jié)果如表6 所示。與兩階段算法Faster-RCNN、Cascade-RCNN 和單階段算法Efficientnet、CenterNet 相比較,YOLOv8-RD 在mAP50 指標(biāo)上分別提高了9.9、6.3、2.1和10.1個(gè)百分點(diǎn),在mAP50-95指標(biāo)上分別提高了8.4、5.9、2.7 和9.4 個(gè)百分點(diǎn),F(xiàn)PS 也有顯著的提升。與最新的實(shí)時(shí)目標(biāo)檢測算法RT-DETR 相比,YOLOv8-RD的F1和mAP50幾乎沒有下降,但其參數(shù)量和計(jì)算量僅為RT-DETR 的8.5%和6.8%,并且mAP50-95 和FPS均有顯著提升。

表6 不同算法對比結(jié)果Table 6 Comparison results of different algorithms

另外,為了驗(yàn)證算法在YOLO 系列中的檢測性能,將YOLOv8-RD與YOLOv3tiny、YOLOv4tiny、YOLOv5s、YOLOv6n、YOLOv7tiny、YOLOv8n 等YOLO 系列輕量級網(wǎng)絡(luò)進(jìn)行比較,從表6 中可以看出,與這些輕量級網(wǎng)絡(luò)相比,YOLOv8-RD在保證運(yùn)行速度的前提下,不同程度地降低了計(jì)算量和參數(shù)量,且mAP50 分別提高了10.1、15.6、10.5、4.9、3.2和2.0個(gè)百分點(diǎn),mAP50-95分別提高了8.2、13.1、5.4、3.9、5.3 和1.3 個(gè)百分點(diǎn)。并且在YOLOv7tiny 的基礎(chǔ)上,以YOLOv8-RD 同樣的改進(jìn)方法設(shè)計(jì)了YOLOv7-RD,相較于YOLOv7tiny,檢測精度有所提升。然而,相比之下,在YOLOv8n 上的改進(jìn)效果要明顯優(yōu)于在YOLOv7tiny 上的改進(jìn)。原因在于YOLOv8具有更好的可擴(kuò)展性,容易通過改進(jìn)來提升性能,而YOLOv7 受到模型結(jié)構(gòu)和超參數(shù)的限制,因此改進(jìn)效果不太顯著。

實(shí)驗(yàn)結(jié)果表明,與其他主流目標(biāo)檢測算法比較,YOLOv8-RD算法以最小的模型體積實(shí)現(xiàn)了極高的檢測精度,使用成本更低、檢測效率更高、部署更加簡單,具有高效性和優(yōu)越性。

4 結(jié)語

本文提出了一種改進(jìn)YOLOv8n的道路損傷檢測算法,解決了傳統(tǒng)的YOLOv8n 應(yīng)用于目標(biāo)檢測的難題。提出BOT結(jié)構(gòu)全面提取道路損傷圖像的全局特征信息和局部特征信息,提高道路裂縫檢測精度。CA 注意力機(jī)制可以明顯提高模型的檢測精度,而只增加少量的計(jì)算量。在YOLOv8n 網(wǎng)絡(luò)中引入了C2f Ghost 模塊,大大壓縮了模型參數(shù)量,保持了檢測精度和速度。與其他算法相比具有相當(dāng)或更好的檢測性能。

實(shí)驗(yàn)表明,YOLOv8-RD具有參數(shù)量更少、計(jì)算量更低、檢測精度更高等優(yōu)點(diǎn),滿足實(shí)時(shí)性要求。與現(xiàn)有模型相比,該方法具有較高的檢測精度的同時(shí)降低了對平臺(tái)計(jì)算和儲(chǔ)存能力的要求,易于部署在資源受限的設(shè)備上。未來的研究重點(diǎn)是將改進(jìn)的模型部署到資源受限的嵌入式檢測設(shè)備上,在實(shí)際應(yīng)用中完善所提出的算法。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
不忠誠的四個(gè)特征
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 99久久人妻精品免费二区| 国产地址二永久伊甸园| 成年av福利永久免费观看| 无码一区中文字幕| 国产精品va免费视频| 91精品国产情侣高潮露脸| 激情综合五月网| 国产午夜精品一区二区三区软件| 天天躁日日躁狠狠躁中文字幕| 中文字幕免费播放| 高清大学生毛片一级| 亚洲最猛黑人xxxx黑人猛交| 成人在线亚洲| 欧美五月婷婷| 国产国模一区二区三区四区| av免费在线观看美女叉开腿| 性欧美久久| 国产后式a一视频| 婷婷亚洲最大| 亚洲经典在线中文字幕| 亚洲天堂免费在线视频| 久久免费观看视频| 波多野结衣的av一区二区三区| 国产毛片久久国产| 国产熟女一级毛片| 久久先锋资源| 国产成人盗摄精品| 亚洲综合婷婷激情| 久久性视频| 国产成人高清精品免费软件 | 在线永久免费观看的毛片| 2021国产精品自产拍在线观看| 高清欧美性猛交XXXX黑人猛交| 国内视频精品| 在线观看国产黄色| 欧美国产日韩另类| 一级毛片在线直接观看| 国产精品成| 波多野结衣视频网站| 国产喷水视频| 国产女人水多毛片18| 在线无码九区| 久久这里只有精品8| 又大又硬又爽免费视频| 国产手机在线小视频免费观看| 久久美女精品| 国产91在线|日本| 热re99久久精品国99热| 久久视精品| 26uuu国产精品视频| 中文字幕亚洲综久久2021| 91久久青青草原精品国产| h网址在线观看| 天天躁夜夜躁狠狠躁图片| 91破解版在线亚洲| 99热这里只有免费国产精品| 激情无码字幕综合| 中文字幕无码制服中字| 亚洲二三区| 欧美成人亚洲综合精品欧美激情| 午夜福利视频一区| 曰韩人妻一区二区三区| 国产美女91呻吟求| 国产美女视频黄a视频全免费网站| 亚洲国产清纯| 四虎免费视频网站| 国产综合另类小说色区色噜噜| 中国一级特黄视频| 欧美成人一级| 91青草视频| 免费看美女毛片| 国产在线第二页| 国产交换配偶在线视频| 中文字幕免费播放| 国产欧美视频在线观看| 亚洲国产精品一区二区高清无码久久| 国产一级视频久久| 中国精品自拍| 亚洲无码视频喷水| 亚洲av无码久久无遮挡| 日本成人一区| 波多野结衣久久精品|