中圖分類號:TB9;TP391.41;U418.6 文獻標志碼:A 文章編號:1674-5124(2025)07-0019-11
Abstract: Aiming at the problems of large size differences of existing pavement diseases and the diffculty in extracting the features of fine diseases in the pavement disease detection task,based on the YOLOv9 network model,this paper first introduces the intra-scale feature interaction AIFI module to provide more comprehensive informationunderstandingand deeper feature extraction.Secondly,thecross-scale feature CCFF module is introduced to improve the adaptability ofthe model to the variation of the target size; Finally, the Focaler-IoU boundary regresson loss function is introduced to reduce the influence of the distribution of difficult samples and manageable samples on the bounding box regression. This method conducted multiple sets of experiments on the Chinese regional dataset of RDD2022. The experimental results show that compared with the original YOLOv9 model, the improved model has a 3.3% increase in average accuracy,a 3.5% (204號 increase in accuracy,and a 4.6% increase in recall rate with little frame rate loss.A series of experimental results show that the method proposed in this paper has a beter detection effect in the task of pavement disease detection.
Keywords:pavement distress detection;cross-scale feature;YOLOv9
0 引言
公路是覆蓋范圍最廣且最常見的交通基礎設施在日常生活中為人們的出行提供了便捷的服務。2017年至2022年,我國綜合立體交通網(wǎng)總里程由477萬公里增長至535萬公里[1。根據(jù)相關資料,截至2024年底,這一數(shù)字已突破600萬公里,交通網(wǎng)絡規(guī)模穩(wěn)居世界首位。路面病害作為公路養(yǎng)護的主要對象,影響著公路的使用壽命和維護成本,若不及時維護造成路面破損程度增加,將會成為道路交通中致命的安全隱患。因此,及時發(fā)現(xiàn)并維護病害就顯得格外重要。隨著公路里程數(shù)爆發(fā)式增長,公路的養(yǎng)護問題也日益嚴重,面對如此龐大數(shù)量的公路里程,若仍使用人工檢測,檢測過程不僅費時費力,養(yǎng)護成本也是一筆不小的開銷。因此,探索一種自動檢測技術使其能夠又快又準地對病害進行檢測,對后續(xù)的養(yǎng)護管理、延長公路使用壽命都具有重要意義[2]
隨著道路服役年限的增長及外部環(huán)境影響的積累,路面往往會遭受不同程度的損壞,形成多種類型的病害。常見的路面病害主要包括三大類:裂縫類(如橫向裂縫、縱向裂縫、網(wǎng)狀裂縫)、坑洼類(如坑洞、沉陷)以及表面損傷類(如剝落、修補痕跡、車轍)等。盡管這些病害在外觀形態(tài)上存在顯著差異,但在圖像表現(xiàn)上具有一定的共性特征,如目標尺度差異大、邊緣模糊、紋理與背景相似等。這些視覺特征,加之復雜的交通環(huán)境與多樣化的圖像采集條件,顯著增加了病害目標的檢測難度,易導致模型出現(xiàn)漏檢或誤檢的現(xiàn)象,尤其對于裂縫類等尺寸較小的病害目標更為明顯。
為了解決路面病害自動檢測的難題,國內外學者做出了大量研究。李清泉等人采用最小代價路徑搜索算法進行路面病害檢測,盡管在準確率方面有所提升,但該方法仍易受光照變化的干擾[3]。曹建農(nóng)等人通過中值轉換方法對路面病害進行檢測,但其操作比較繁瑣,處理大批量病害時面臨難題[4]。李偉等人通過聚類的方法對3D路面圖像進行識別,隨后以病害的圓形度來判斷病害的類別[5。雖然圖像處理技術相較于人工檢測具有高效率和低成本的優(yōu)點,但面對復雜的道路環(huán)境,傳統(tǒng)的圖像處理技術難以滿足實際工程中的需求。隨著深度學習的迅猛發(fā)展,基于深度學習的圖像處理方法已經(jīng)廣泛應用于各個領域。高精度、高效率以及高魯棒性的特點也使其在路面病害檢測中發(fā)揮出巨大的優(yōu)勢[6]。
目前,基于深度學習的目標檢測方法可以分為兩種類型:一階段方法和兩階段方法。它們的主要區(qū)別在于是否需要先生成候選區(qū)域。第一類是基于生成候選區(qū)域后分類的兩階段方法,例如:HUYANJ等人[7]基于Fast-RCNN架構提出了裂紋深度網(wǎng)絡CrackDN,通過嵌人一個與CNN并行的靈敏度檢測網(wǎng)絡,使得CrackDN能夠檢測到具有復雜背景下的密封和非密封的裂縫。徐康等人[8]提出了一種改進Faster-RCNN的裂縫檢測方法,分別采用VGG16、MobileNet-V2和ResNet50網(wǎng)絡替換Faster-RCNN模型中的特征提取網(wǎng)絡對裂縫進行識別。第二類是基于回歸的一階段方法,例如:LIL等人[9]提出一種改進的基于YOLOv4的路面損傷檢測模型,該模型通過引入CBAM卷積塊注意模塊來抑制背景噪聲,進而提高了路面損傷的顯著性。XINGJ等人[1o]通過增加swin變壓器結構和特征金字塔BIFPN對YOLOv5模型進行了改進,實現(xiàn)了實時像素級檢測。倪昌雙等人[11]提出一種基于改進YOLOv7的瀝青路面病害檢測算法。該算法采用組合濾波與三直方圖均衡化技術,有效抑制了背景環(huán)境的干擾,并提出池化多頭自注意力機制M-MHSA模塊來提升網(wǎng)絡對全劇信息的學習,進而提升網(wǎng)絡對路面病害的識別準確率。LANZ等人[12]提出了一種名為SG-YOLO的路面病害檢測算法,該算法基于改進YOLOv8模型,該算法為了進一步減少模型參數(shù)和計算量,作者還在頸部部分加入了GSConv來改進瓶頸結構。
相比于兩階段方法,一階段方法具有速度快、實時性強的優(yōu)點,上述一階段目標檢測模型的研究雖提高了路面病害的檢測精度和速度,但仍面臨一些難題[13]:1)在光影變化大、背景干擾多的情形下,算法會將道路信息誤判為病害信息。2)路面病害提供的特征信息弱,且病害尺度往往差異較大,現(xiàn)有的檢測方法難以取得理想的檢測效果。基于此,經(jīng)過對大量文獻和深度學習算法的比較與分析,本研究使用改進的YOLOv9模型對路面病害進行檢測技術研究,提出一種路面病害檢測模型I-YOLOv9。主要包括以下幾點貢獻:
1)本文將AIFI模塊引入模型中,用來替換原YOLOv9中的SPPELAN模塊。AIFI模塊是一種基于Transformer的檢測方法,與傳統(tǒng)卷積檢測方法不同的是,其能夠提供更全面的信息理解以及更深層次的特征提取。
2)在Neck網(wǎng)絡中加入CCFF模塊,通過融合不同尺寸的特征,提升模型對尺寸變化的適應性,并增強其對小尺寸目標的檢測效果。
3)引人Focaler-IoU邊界回歸損失函數(shù)替換原有的損失函數(shù),該損失函數(shù)利用邊界框之間的幾何關系來提高回歸性能,同時能夠忽視困難樣本和易處理樣本分布對邊界框回歸的影響,進一步提升檢測性能。
1 YOL0v9結構
YOLOv9[14-15]網(wǎng)絡在前代版本的基礎上進行了進一步的優(yōu)化與創(chuàng)新。為了解決前饋過程中信息丟失的問題,YOLOv9引入了可編程梯度信息PGI(ProgrammableGradientInformation)輔助監(jiān)督機制。
在訓練階段,PGI通過引入輔助可逆分支為主干網(wǎng)絡提供了增強的梯度信息,從而有效提升了特征學習的質量。與此同時,為確保推理階段的效率,YOLOv9在推理過程中移除了輔助分支及相關檢測頭,這樣做不僅維持了較高的檢測精度,還大大降低了計算量和推理時間。
YOLOv9網(wǎng)絡由三個主要模塊組成:骨干網(wǎng)絡(Backbone)、頸部網(wǎng)絡(Neck)和預測頭網(wǎng)絡(Head)。其中骨干網(wǎng)絡的主要任務是從輸入圖像中提取重要的特征信息,而頸部網(wǎng)絡則負責將這些特征進行融合,并將融合后的結果傳遞給預測頭網(wǎng)絡。預測頭網(wǎng)絡則利用這些融合特征進行目標的檢測和分類。圖1所示為YOLOv9的結構示意圖。YOLOv9模型為了增強特征學習采用了多個高效的模塊,如Silence模塊、CBS模塊和RepNCSPELAN4模塊。其中Silence位于網(wǎng)絡的首層,其主要作用是傳遞原始輸入圖像。CBS模塊則通過結合卷積層、批量歸一化和SiLU激活函數(shù),來提取圖像的局部特征。RepNCSPELAN4模塊整合了CSPNet和ELAN,進一步提升了特征提取能力,尤其在處理長距離依賴關系和全局上下文信息時表現(xiàn)更加優(yōu)越。

此外,YOLOv9還創(chuàng)新性的加入了CBLiner和SPPELAN模塊,以進一步提升模型的整體性能CBLiner模塊可以將卷積后的特征分解為多個部分,從而增強信息流的可逆性。而SPPELAN則結合了空間金字塔池化(SPP)和ELAN技術,經(jīng)過多尺度的pooling操作提升模型對不同尺寸目標的適應能力。
為了提升檢測精度和靈活性,YOLOv9在預測頭網(wǎng)絡中采用了解耦頭結構,這種設計將分類頭和檢測頭分離,從而便于對分類和回歸任務進行獨立優(yōu)化。通過對分類和回歸得分進行加權,該模型能夠有效區(qū)分正負樣本,從而提升檢測精度。此外,為了使模型能夠更好地應對各種尺寸和形狀的目標檢測任務,YOLOv9采用了更加精準的AnchorFree算法。綜上,YOLOv9網(wǎng)絡結構展現(xiàn)出了輕巧、快速和準確的巨大優(yōu)勢[16]。
2I-YOLOv9跨尺度特征目標檢測算法
盡管YOLOv9在常規(guī)目標檢測任務中表現(xiàn)出色,但是在復雜路面背景下,面對尺度差異較大的路面病害時,其檢測效果仍然面臨挑戰(zhàn)。尤其是在光照變化、惡劣天氣條件和動態(tài)背景的影響下,模型的準確性容易下降,常常導致漏檢和誤檢的情況發(fā)生[17]。因此,本文將AIFI(attention-based intrascalefeatureinteraction)模塊引入模型中,用來替換原YOLOv9中的SPPELAN模塊。AIFI模塊是一種基于Transformer的檢測方法,與傳統(tǒng)卷積檢測方法不同的是,其能夠提供更全面的信息理解以及更深層次的特征提取。其次,在Neck網(wǎng)絡中加人CCFF(cross-scalefeaturefusion)模塊,通過融合不同尺度的特征,提升模型對尺寸變化的適應性,并增強其對小尺寸目標的檢測能力[18]。最后,引入Focaler-IoU( more focused intersection over unionloss)邊界回歸損失函數(shù)替換原有的損失函數(shù),該損失函數(shù)利用邊界框之間的幾何關系來提高回歸性能,同時能夠忽視困難樣本和易處理樣本分布對邊界框回歸的影響,進一步提升檢測性能。I-YOLOv9算法如圖2所示,改進模塊采用灰色標注。

2.1尺度內特征交互AIFI模塊
RepNCSPELAN4在YOLOv9中通過深度特征提取和跨層融合的方式提升了多尺度目標的檢測能力。然而在通道分割過程中,特征被均勻劃分為兩組,而且劃分后的兩個組別未能考慮到不同特征通道之間的關聯(lián)性,進而使特征脫節(jié),限制了模型對關鍵信息的學習和提取。此外,RepNCSPELAN4的特征融合策略僅通過疊加特征進行融合,忽略了不同特征之間的差異,進而造成信息冗余并且影響了模型對細節(jié)信息的捕捉。YOLOv9這種特殊的特征融合方式使其在處理尺寸變化較大的目標病害以及小目標檢測時出現(xiàn)一定的局限性。
為了克服YOLOv9中的上述問題,本文提出引入尺度內特征交互AIFI模塊置于RepNCSPELAN4的特征處理階段。通過引入該模塊,使模型增強了不同特征之間的交互和關聯(lián),提升對高級特征的捕獲。AIFI模塊如圖3所示,其利用自注意力機制來處理圖像中的高級特征,使模型在分析特定數(shù)據(jù)區(qū)域時,能夠同時關注其他相關部分。該模塊特別適用于提取具有豐富路面信息的病害特征。

AIFI模塊聚焦于在高級特征層進行尺度內交互,因為該層包含更豐富的語義信息,有助于更有效地捕捉圖像中概念實體之間的關聯(lián)。而低級特征層由于缺乏語義信息,進行尺度內交互不僅無益,還可能導致與高級特征交互的重復和混淆。該模塊能夠防止在低級特征層進行冗余的交互,防止數(shù)據(jù)處理上的重復和混淆。面對復雜路面中的路面病害檢測問題,AIFI模塊增強對關鍵特征的感知能力,提高對細節(jié)的捕捉能力,減少了計算中的冗余信息,從而緩解因路面過于復雜等問題導致的檢測困難。
2.2 跨尺度特征CCFF模塊
在目標檢測中,尤其是面對不同尺寸的目標時,YOLOv9通常依賴多個尺度的特征圖進行檢測。然而,由于尺度之間的特征融合不夠緊密,容易導致小目標信息的丟失或大目標的定位不精確,進而影響檢測精度。通過引入CCFF跨尺度特征模塊到原YOLOv9模型中,旨在解決目標檢測任務中多尺度特征融合不充分、目標尺度變化帶來的檢測精度降低以及信息丟失等問題。
CCFF模塊通過跨尺度特征融合的機制,能夠更有效地融合來自不同尺度的特征信息。具體來說,CCFF模塊能夠在多尺度特征圖之間建立更為緊密的聯(lián)系,通過跨尺度的交互與融合,有效加強不同尺度特征之間的語義關聯(lián),從而提升對各個尺度目標的檢測能力。對于小目標而言,CCFF模塊能夠通過引入大尺度特征的上下文信息,補充其缺乏的細節(jié)信息;而對于大目標,則通過整合小尺度的細粒度特征,使得模型能夠更精確地定位目標,避免由于過度依賴大尺度特征而導致的定位誤差。此外,CCFF模塊通過跨尺度信息的融合,能夠更好地抑制背景噪聲的影響。在復雜場景下,背景與目標之間的對比度往往較低,傳統(tǒng)的卷積操作可能難以準確區(qū)分目標和背景,從而導致漏檢或誤檢。CCFF模塊通過增強不同尺度之間的特征交互,幫助模型更加準確地提取目標的關鍵信息,提高對目標的辨識能力,尤其是在復雜背景中。
CCFF的結構示意圖如圖4所示。經(jīng)過Backbone網(wǎng)絡進行特征提取,并通過高效混合編碼器處理后,分別得到三個特征圖: S3,S4 和 F5 。接下來,這些特征圖將與Fusion融合塊在CCFF模塊中進行融合,并產(chǎn)生最終輸出。融合后的特征會在Uncertainty-minimalqueryselection的作用下進行query選擇,然后與Encoder的輸出結合,最終一起輸入到Decoder中,得到最終的檢測結果。

CCFF模塊通過將多個由卷積層構成的融合塊插入到融合路徑中來實現(xiàn)不同尺度特征的融合。融合塊的具體結構圖如圖5所示,每個融合塊包含兩個 1×1 的卷積操作,用于調整通道數(shù)量,并且其通過由RepConv構成的多個RepBlock來進行特征融合。最終兩個相鄰尺度的特征唄融合塊合并為了一個新的特征圖。上述過程的計算表達式可以表示為:

Q=K=V=Flatten(S5)
F5=Reshape(AIFI(Q,K,V))
O=CCFF({S3,S4,S5})
其中Reshape表示將扁平特征的形狀恢復為與 S5 相同的形狀。
其中,F(xiàn)usion的結構采用了CSP的方法,將輸入的特征concat后用 1×1 的卷積分成了兩份,然后一邊經(jīng)過RepBlock,另一邊與RepBlock 輸出直接concat,最后經(jīng)過flatten層輸出。其中,RepBlock的具體結構如圖6所示。

2.3 Focaler-IoU損失函數(shù)
YOLOv9原始模型使用的損失函數(shù)是CIoU,盡管CIoU在優(yōu)化目標框的回歸性能方面具有明顯的優(yōu)勢,但是在某些場景中,尤其是在面對極端樣本以及小目標檢測時,CIoU的效果并不理想。其中,YOLOv9中的損失函數(shù)如公式(4)所示:
Lobject=LBCE+LDFL+LCloU
式中:LBCE 二元交叉熵分類損失函數(shù)BCELoss;LDFL 分布損失函數(shù)DFLLoss;LcIoU 定位損失函數(shù)CIoULoss。
在這些損失函數(shù)中,CIoU公式可表示為:



式中: ρ2(b,bgt)? -預測框和真實框中心點之間的歐氏距離;
c 兩框相交部分構成的最小外接矩形的對角線的長度;
α 用來調節(jié)權重系數(shù);
V- 用來衡量長寬比;
ωgt,hgt 和 ω,h? ——真實框寬、高以及預測框寬、高[17]。
當預測框與真實框的寬高比完全一致時,CIoU損失函數(shù)中的懲罰項 u 為零,這種情況可能導致?lián)p失函數(shù)在某些情況下變得不穩(wěn)定[19],如式 (7)所示。
盡管CIoU在優(yōu)化目標框位置、尺度以及橫縱比方面具有優(yōu)勢,但是這種優(yōu)化可能需要較長的時間來收斂,特別是在有很多難以分類的負樣本時,CIoU會導致訓練過程中的收斂變緩,此外,其在應對類別不平衡、小目標檢測以及訓練過程中的困難樣本時也存在一定的局限性。
為了避免CIoU局限性所帶來的影響,本文提出了采用Focaler-IoU損失函數(shù)[20]。Focaler-IoU通過線性區(qū)間映射方法來重建IoU損失,提高了收斂精度和不同檢測任務的檢測器性能,彌補現(xiàn)有邊界框回歸技術的不足。Focaler-IoU損失函數(shù)的公式如下:

其中IoUfocaler是重構的Focaler-IoU,IoU是原始IoU值, [d,u]∈[0,1] 。通過調整 d 和 u 的值,可以使IoUfocaler專注于不同的回歸樣本。損失定義如下:
LFocaler-IoU=1-IoUfocaler
Focaler-IoU是一種根據(jù)IoU值動態(tài)調整損失權重的損失函數(shù),其基本思想是在不同的IoU區(qū)間賦予不同的損失響應。設IoU的下限閾值為 di 上限閾值為 u ,則其損失函數(shù)值的調整范圍為[d,u]∈[0,1], 。與傳統(tǒng)損失函數(shù)不同,F(xiàn)ocaler-IoU具備樣本難度感知能力。在樣本易于預測的任務場景中,其更傾向于優(yōu)化簡單樣本,進而有助于提升整體檢測性能;而在包含大量困難樣本的場景中,該損失函數(shù)則將學習重心轉向這些難檢測目標,從而增強模型的回歸能力。
3 實驗與結果分析
3.1 實驗環(huán)境
本文實驗在Linux服務器上進行,操作系統(tǒng)采用的是CentOS7版本。為了確保實驗的高效執(zhí)行和結果的可靠性,在實驗前對實驗環(huán)境進行了配置。具體的硬件和軟件環(huán)境設置如表1所示。

在本實驗的訓練過程中,所有模型均采用了相同的超參數(shù)配置,以確保實驗結果的可比性和穩(wěn)定性。具體而言,將學習速率LearningRate設置為0.01,圖像輸入尺寸ImageSize設置為 640×640 ,樣本批量大小BatchSize設定為16,迭代次數(shù)Epoch則設定為150次。
3.2 數(shù)據(jù)集選擇與預處理
在實際工程應用中,路面病害數(shù)據(jù)的提取一般是從道路中獲取圖像或點云信息,并通過人工或自動化手段識別、標注病害區(qū)域,也即數(shù)據(jù)采集、預處理、標注與管理三個階段。為了更好地模擬復雜路面病害的道路場景,讓模型能夠更加適配路面病害檢測的需求,本方法選用由印度理工學院聯(lián)合京東大學共同發(fā)布的開源路面病害數(shù)據(jù)集RDD2022(roaddefectdetection)[21]作為實驗數(shù)據(jù)基礎。該數(shù)據(jù)集包含來自日本、印度、捷克共和國、挪威、美國和中國六個不同國家或地區(qū)的共47420張道路病害圖像。由于不同國家地區(qū)的路面情況各有差異,如果直接使用該數(shù)據(jù)集進行訓練,會導致訓練后無法取得較好的效果,所以本方法僅使用日常生活中所熟悉的來自中國的4478張圖像。
由于該數(shù)據(jù)集中不同類別樣本數(shù)量分布極為不均,存在顯著的類別不平衡現(xiàn)象,本文方法僅選取其中代表性較強的四類病害作為研究對象,以確保模型訓練的穩(wěn)定性與結果的可靠性。這四類病害分別是:縱向裂縫(類別編號:D00),橫向裂縫(類別編號:D10),網(wǎng)狀裂縫(類別編號:D20)和坑槽(類別編號:D40),數(shù)據(jù)集類別示例如圖7四張圖片所示。經(jīng)過數(shù)據(jù)清洗,去除未標注的圖片以及不含有以上四個類別的圖片后的有效圖片共3853張。本文將總計3853張圖像數(shù)據(jù)按7:2:1的比例劃分為訓練集、驗證集和測試集。其中,訓練集包含2696張圖像,其余1157張樣本被分配至驗證集與測試集。該劃分策略有助于保障模型訓練的充分性及評估結果的客觀性。

3.3 評價指標
為全面、客觀地評估本文所提出模型在道路病害檢測任務中的表現(xiàn),本文選取了包括準確率、召回率、平均精度均值以及幀率在內的多個指標。下面對這幾種評估指標進行介紹:
1)準確率:準確率表示被檢測出的目標中,真正為實際目標的比例,其計算公式為:

式中: TP (true positive)- -正確檢測為病害的數(shù)量;FP(1 positive)- 錯誤檢測為病害的數(shù)量。
2)召回率:召回率衡量的是所有真實目標中被成功檢測出來的比例,其計算公式為:

其中,F(xiàn)N(1negative)為漏檢的病害數(shù)量。
3)平均精度:平均精度是目標檢測網(wǎng)絡模型中
用于表示基于某數(shù)據(jù)集中每個類別目標檢測精確度的平均值,用于衡量模型對于不同類別目標檢測的能力,其計算公式為:

4)平均精度均值:平均精度均值是目標檢測中評估整體性能的綜合指標,它是多個類別下平均精度的均值。平均精度均值能夠綜合反映模型在不同類別目標檢測中的整體精度表現(xiàn)。其計算公式為:

式中: c —類別總數(shù);
APi 第 i 類的平均精度。
5)幀率:幀率表示模型在推理階段每秒處理的圖像幀數(shù),直接反映檢測算法的實時處理能力,其計算公式為:

式中:Frames- -幀數(shù);Time- -時間。
3.4 實驗結果
3.4.1 改進算法檢測結果
表2展示了改進后的I-YOLOv9算法與原始YOLOv9算法在路面病害檢測任務中的性能對比。從表2實驗結果中可知,改進后的I-YOLOv9算法在保證檢測速度小幅度下降的同時,其平均檢測精度mAP相較于原算法提高了約3.3個百分點。對于每個類別的病害來講,改進后的I-YOLOv9算法的平均精度AP提升均超過了2.9個百分點,改進效果明顯,驗證了其在跨尺度目標病害以及小病害識別方面的優(yōu)越性能。

為了更加全面細致地評估改進后I-YOLOv9算法與原YOLOv9算法的檢測性能與效果對比,在測試集上對兩種算法進行全方位評估,并在下方給出了具有代表性的四組檢測效果圖,具體如圖8所示。圖中 (a)和(e)可見,在面對復雜路面遮擋情況時,I-YOLOv9算法可以順利檢測出病害目標,而原始YOLOv9算法則出現(xiàn)了漏檢的情況,體現(xiàn)了改進后算法在面對復雜路面時的優(yōu)勢。隨后,在圖8(b)和(f)中,兩算法在面對跨尺度目標檢測時,YOLOv9算法表現(xiàn)出一定的局限性,未能準確識別所有目標,而I-YOLOv9算法通過優(yōu)化,成功檢測到了所有病害。類似地,圖8(c)和(g)中,YOLOv9算法在處理尺寸跨度較大的目標時出現(xiàn)了誤檢現(xiàn)象,而I-YOLOv9算法依然能夠正確地識別目標,兩組圖片均展現(xiàn)出更高的準確性。最后,為了評估改進后模型的泛化性和實用性,利用爬蟲技術從網(wǎng)絡上爬取了病害圖片進行測試,如圖8(d)和(h)所示,測試結果表明I-YOLOv9算法相比于原YOLOv9算法檢測效果更好,具有更高的泛化性和實用性。
3.4.2損失函數(shù)對比實驗
為了驗證Focaler-IoU在邊界框回歸中的優(yōu)勢,本文還進行了損失函數(shù)的對比試驗,在相同數(shù)據(jù)集的條件下,選取Focaler-IoU與多種主流損失函數(shù)進行對比。各方法的實驗結果如表3所示。實驗結果表明,采用Focaler-IoU作為損失函數(shù)時, mAP@0.5 相比CIoU提高了1.6個百分點,證明了替換該損失函數(shù)的有效性。
3.4.3 消融實驗
為了評估不同模塊的引入對整體檢測性能的影響,下面對改進后的I-YOLOv9進行消融實驗。具體實驗細節(jié)如表4所示。實驗B在單獨引入AIFI模塊的情況下,mAP相較于原YOLOv9提升了1.0個百分點。實驗C在單獨引人CCFF模塊后,mAP提升至 86.2% 。實驗D當僅將損失函數(shù)替換為Focaler-IoU時,mAP達到 86.8% 。進一步,同時引入AIFI以及CCFF模塊的情況如實驗E所示,效果提升了2.6個百分點。最終,當三項改進方案全部整合進YOLOv9后,形成的I-YOLOv9模型在mAP方面相較于原模型提升了3.3個百分點。

注:1)(a)、(b)、(c)、(d)為YOLOv9模型的檢測結果,(e)、(f)、(g)、(h)為改進YOLOv9模型的檢測結果。
圖8檢測效果對比1)

表3損失函數(shù)對比實驗

表4消融實驗1)
消融實驗的結果充分說明,上述模塊不僅能夠有效增強模型的檢測精度和魯棒性,也驗證了其在路面病害檢測場景中的實用性與協(xié)同性。
3.4.4 對比實驗
為了全面評估I-YOLOv9模型的整體性能,本文將所提出的方法與六種主流目標檢測模型—FasterR-CNN、SSD、YOLOv5s、YOLOv7、YOLOv8s以及YOLOv9進行了橫向對比,性能評估結果如表5所示。從表中數(shù)據(jù)可以看出,I-YOLOv9在檢測精度方面具有明顯優(yōu)勢,其mAP達到了 88.5% ,在所有參評模型中表現(xiàn)最為優(yōu)異。與FasterR-CNN、SSD、YOLOv5s、YOLOv7、YOLOv8s以及YOLOv9相比,mAP分別提升了22% , 23.9% , 23.3% , 13.4% , 9.8% 3.3% 。在模型推理速度方面,盡管原YOLOv9算法已經(jīng)表現(xiàn)出較為出色的性能,但本文所提出的I-YOLOv9算法在幀率上依然表現(xiàn)優(yōu)異,達到了67.5frame/s。這一結果表明,改進后的I-YOLOv9算法不僅在提高檢測精度的同時,還能夠維持高效的實時處理能力,從而有效滿足實際應用中對實時性和檢測精度的雙重要求。

為了直觀反映各目標檢測模型在同一數(shù)據(jù)集上的表現(xiàn),本文以訓練輪數(shù)為橫軸,mAP為縱軸,繪制了不同算法在訓練過程中的mAP變化趨勢圖,詳見圖9.通過對比分析圖中曲線可以觀察到,I-YOLOv9在整個訓練階段均展現(xiàn)出穩(wěn)定且優(yōu)異的精度表現(xiàn),與其他幾個算法相比,體現(xiàn)出了其在路面病害檢測任務中更強的性能。

進一步對比I-YOLOv9與各個主流模型對每一類病害的檢測精度,從表6可以看出,改進后的I-YOLOv9在各類病害檢測中均取得了更高的精度,分別為 86.8% 87.3% , 86.4% 93.1% 。這一結果進一步驗證了本文提出的I-YOLOv9算法在路面病害檢測任務中的有效性。

4結束語
針對路面病害檢測任務中存在的病害尺寸差異較大以及細微病害特征提取困難等問題,本文提出了一種改進YOLOv9模型用于路面病害檢測。本方法以YOLOv9網(wǎng)絡模型為基礎,首先,本文引入AIFI模塊替換了原YOLOv9中的SPPELAN模塊。AIFI模塊是一種基于Transformer的檢測方法,與傳統(tǒng)卷積檢測方法不同的是,其能夠提供更全面的信息理解以及更深層次的特征提取。其次,在Neck網(wǎng)絡中引人CCFF模塊,通過整合不同尺度的特征信息,提高了模型對目標尺寸變化的適應性,并增強了其對小尺寸目標的檢測性能。最后,引入Focaler-IoU邊界回歸損失函數(shù)替換原有損失函數(shù),通過利用邊界框之間的幾何關系來提高回歸性能,同時能夠忽視困難樣本和易處理樣本分布對邊界框回歸的影響,進一步提升檢測性能。
本文方法基于YOLOv9模型,構建了改進版的路面病害檢測模型I-YOLOv9,并在RDD2022部分數(shù)據(jù)集上進行了實驗。實驗結果顯示,I-YOLOv9在檢測性能方面相較于原始YOLOv9以及其他傳統(tǒng)檢測方法均取得了更優(yōu)異的表現(xiàn)。盡管本文所提出的I-YOLOv9在檢測精度方面已優(yōu)于現(xiàn)有多種路面病害檢測方法,但在滿足工程實際應用需求方面仍存在一定差距。后續(xù)研究將進一步圍繞算法在多樣化真實場景中的適應性展開,以全面評估其泛化性能與應用價值。
參考文獻
[1]交通運輸部.2022年交通運輸行業(yè)發(fā)展統(tǒng)計公報[EB/OL]. [2023-06-20]. https://xxgk.mot.gov.cn/2020/jigou/zhghs/ 202306/t20230615_3847023.html. The Ministry of Transport. 2022 statistical bulletinof transportation industrydevelopment [EB/OL].[2023-06-20]. https://xxgk.mot.gov.cn/2020/jigou/zhghs/202306/ t20230615_3847023.html.
[2]高雪豪,吳建平,韋杰等.基于增強多尺度融合YOLOv8的 道路病害檢測算法[J].計算機技術與發(fā)展,2024,34(11): 140-147. GAOXH,WUJP,WEIJ,etal.Roaddiseasedetectionbased on multi-scale fusion YOLOv8 enhancement algorithm[J]. Computer technology and development, 2024,34(11): 140- 147.
[3]李清泉,鄒勤,毛慶洲.基于最小代價路徑搜索的路面裂縫 檢測[J].中國公路學報,2010,23(6):28-33. LIQQ,ZOUQ,MAOQZ.Pavementcrackdetection based on minimum cost path search[J]. Journal of China Highway and Transport, 2010,23(6): 28-33.
[4]曹建農(nóng),張昆,元晨,等.用MeanShift實現(xiàn)路面裂縫損傷自 動識別與特征測量[J].計算機輔助設計與圖形學學報, 2014,26(9):1450-1459. CAO J N,ZHANG K,YUAN C,et al.Automatic identification and feature measurement of pavement crack damage using Mean Shift[J]. Journal of Computer-Aided Design and Computer Graphics,2014,26(9): 1450-1459.
[5]李偉,呼延菊,沙愛民,等.基于3D數(shù)據(jù)和雙尺度聚類算法 的路面裂縫檢測[J].華南理工大學學報(自然科學版), 2015,43(8): 99-105. LIW,HUYJ,SHAAM,etal.Pavementcrackdetection based on 3D data and dual-scale clustering algorithm[J]. Journal of South China University of Technology (Natural Science Edition),2015,43(8): 99-105.
[6]MAHENGE SF,WAMBURA S,JIAOL.RCNN-GAN:an enhanced deep learning approach towards detection of road cracks[C]//Proceedingsof the2022 6thInternational Conference on Compute and Data Analysis. 2022: 91-99.
[7]HUYAN J,LI W,TIGHE S,et al. Detection of sealed and unsealed cracks with complex backgrounds using deep convolutionalneuralnetwork[J/OL]. Automation in Construction, 2019: 102946. http://dx.doi.org/10.1016/j.autcon. 2019.102946.
[8]徐康,馬榮貴.基于改進Faster-RCNN的瀝青路面裂縫檢 測[J].計算機系統(tǒng)應用,2022,31(7):341-348. XUK,MARG.Crackdetectionofasphaltpavementbased on improved Faster-RCNN[J]. Computer system application, 2022,31(7): 341-348.
[9]LI L,F(xiàn)ANG B, ZHU J.Performance analysis of the YOLOv4 algorithm for pavement damage image detection with different embedding positionsof CBAMmodules[J]. Applied Sciences,2022,12(19): 10180.
[10] XING J,LIU Y, ZHANG G Z. Improved YOLOV5-based UAV pavement crack detection[J]. IEEE Sensors Journal, 2023,23(14): 15901-15909.
[11] 倪昌雙,李林,羅文婷,等.改進YOLOv7的瀝青路面病害 檢測[J].計算機工程與應用,2023,59(13):305-316. NI C S,LI L,LUO W T,et al. Improvement of asphalt pavement disease detection by YOLOv7[J]. Computer Engineering and Applications, 2023, 59(13): 305-316.
[12] LAN Z,ZHU L. Pavement distress detection based on improved YOLOv8[C]//International Conference on Image, Vision and Intellgent Systems. Singapore:Springer Nature Singapore,2023:513-520.
[13] 張青春,王文聘,張洪源等.改進輕量化YOLOv7-tiny 道路 限高障礙物檢測方法[J].中國測試,2024,50(5):186-192. ZHANG Q C,WANG WP, ZHANG HY et al. Improved lightweight YOLOv7-tiny method for road height limitation obstacle detection[J].China Measurementamp; Test,2024, 50(5): 186-192.
[14]WANG C Y,YEHI H, MARK LIAO H Y. YOLOv9: Learning what you want to learn using programmable gradient information[C]//European conference on computer vision. Cham: Springer Nature Switzerland, 2024: 1-21.
[15]李澄非,蔡嘉倫,邱世漢等.基于改進YOLOv4的鋁材表面 缺陷檢測方法[J].中國測試,2024,50(5):160-166. LI CF,CAI JL,QIU SH, et al. Defect detection method in aluminum material surface based on improved YOLOv4[J]. China Measurement amp; Test, 2024,50(5): 160-166.
[16]李琳,靳志鑫,俞曉磊,等.Haar小波下采樣優(yōu)化YOLOv9 的道路車輛和行人檢測[J].計算機工程與應用,2024, 60(20): 207-214. LI L, JIN Z X, YU XL, et al. Haar wavelet downsampling for optimizing road vehicle and pedestrian detectionin YOLOv9[J]. Computer Engineering and Applications, 2024, 60(20): 207-214.
[17] ZHANG L, YANG F, ZHANG Y D,et al. Road crack detection using deep convolutional neuralnetwork[C]/2016 IEEEinternational conference on image processing (ICIP). IEEE,2016: 3708-3712.
[18] ZHAO Y,LV W,XU S,et al.Detrs beat yoloson real-time object detection[C]//Proceedings of the IEEE/CVF conference on computer vision and pattem recognition. 2024: 16965- 16974.
[19] ZHENG Z, WANG P, LIU W, et al. Distance-IoU Loss: Faster andbetter learning for bounding box regression[J/OL]. Proceedings of the AAAI Conference on ArtificialIntelligence, 2020:12993-13000. http://dx. doi.org/10.1609/aaai.v34i07. 6999.
[20] ZHANG H,ZHANG S. Focaler-iou:More focused intersection overunion loss[J]. arxiv preprintarxiv: 2401.10525,2024.
[21]ARYAD,MAEDA H, GHOSHSK, et al. RDD2022: A multi national image dataset for automatic road damage detection[J].Geoscience Data Journal, 2024,11(4): 846-862.
(編輯:劉楊)