999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于注意力機制和多尺度特征融合的道路裂縫檢測

2023-12-20 02:27:14鐘梅嘉袁寶華莊麗華徐守坤
計算機工程與設計 2023年12期
關鍵詞:特征融合檢測

鐘梅嘉,李 寧,2,石 林,2,袁寶華,2,莊麗華,2,徐守坤,2+

(1.常州大學 計算機與人工智能學院 阿里云大數據學院 軟件學院,江蘇 常州 213164; 2.常州大學 江蘇省石油化工過程關鍵設備數字孿生技術工程研究中心,江蘇 常州 213164)

0 引 言

人工裂縫檢測方法完全依賴于檢測人員的經驗,存在效率低、評估結果不客觀、成本高、危險性高的缺點。因此,有必要實現道路裂縫的自動化檢測。近年來隨著人工智能的發展,深度學習方法開始應用到道路裂縫檢測任務中,文獻[1,2]將分割網絡UNet、SegNet引入裂縫檢測任務中,有效提高了檢測的準確性。Zou等[3]提出基于SegNet的道路裂縫檢測網絡DeepCrack,將編碼層和解碼層輸出的相同尺度特征進行成對融合,再將所有融合圖串聯融合,作為網絡的輸出。Fan等[4]通過設計多層擴展模塊和分層特征學習模塊來提高檢測的準確率。Ren等[5]提出了一種由擴展卷積、空間金字塔池和跳躍連接模塊組成的網絡。以上幾種方法利用多尺度特征融合的思想有效提高了裂縫檢測性能,但易受噪聲影響,存在漏檢問題。為解決噪聲對裂縫檢測造成的影響,Lau等[6]采用殘差網絡提取裂縫特征,并引入SCSE[7]模塊抑制噪聲。為解決裂縫與背景對比度低的問題,Li等[8]引入通道注意力機制,以增強網絡提取裂縫特征信息的能力。

雖然上述方法與人工方法相比提高了分割精度,但仍存在一些不足,一方面,裂縫分布雜亂無規律,形狀、尺寸不固定,目前的裂縫檢測方法很難保證裂縫的連續性;另一方面,裂縫的拓撲結構復雜,細小裂縫多,容易受噪聲影響,造成漏檢的現象。

基于此,本文提出一種基于注意力機制和多尺度特征融合的裂縫檢測方法EAFNet。在編碼部分使用殘差網絡和通道注意力機制設計邊緣細化模塊來提高對于裂縫細節信息的提取能力;設計了基于注意力機制的多尺度特征融合模塊,將多尺度特征融合與注意力機制相結合,解決裂縫檢測任務中的連續性問題;在解碼部分設計融合優化模塊,在利用注意力機制提取裂縫細節信息的同時,采用空洞卷積來擴大感受野,兼顧了細小裂縫的檢測和裂縫檢測的連續性。

1 理論基礎

1.1 UNet和Res2 Net

Ronneberger等提出的UNet是基于全卷積神經網絡的分割網絡,由編碼器、解碼器和跳躍連接構成,在解碼器部分圖像經過多次的卷積和池化操作,得到低分辨率的抽象特征圖,該特征圖像輸入解碼器經過相同次數的卷積上采樣進行還原,跳躍連接就是將以上兩部分中同尺度的特征圖拼接在一起。

Gao等[9]提出的Res2 Net是在ResNet的基礎上進行改進,用一組卷積代替原本的單一卷積核的結構,在單個殘差塊內增加多個殘差結構,這種類殘差結構能夠獲取不同數量和感受野大小的特征組合,增加每層網絡感受野,獲取更豐富的上下文信息。

1.2 注意力機制

注意力機制是一種信息選擇機制,通過自動學習的方式獲取信息的重要程度,即權重,根據權重篩選有用信息并抑制與任務不相關的信息。

Wang等[10]在ECANet中提出了一種通道注意力模塊,在SE模塊[11]的基礎上采用了局部跨通道交互策略,使用一維卷積來代替原來的FC層,大大降低參數量的同時加強特征通道間的聯系。

Fu等[12]提出了一個雙注意力網絡(DANet)來自適應地集成局部特征與其全局依賴關系,其位置注意力模塊和通道注意力模塊分別對空間和通道維度的語義相互依賴關系進行建模。

由于在裂縫檢測任務中,圖像中包含光線、水漬和陰影等干擾因素,背景噪聲會對檢測產生干擾,混淆背景和裂縫,因此本文通過引入注意力機制來抑制噪聲,更多地提取裂縫信息,提高裂縫檢測性能。

1.3 組合損失函數

Li等[13]提出將Bce loss和Dice loss進行組合來解決分割任務中前后景不平衡的問題。組合損失函數能使模型訓練更加穩定,同時能解決圖像中前后景像素分配不均的問題,從而提高分割精度。

2 基于UNet改進的裂縫檢測算法

本文提出一種道路裂縫檢測方法EAFNet(ER-AFF-FO-Net),此方法基于UNet的編碼器-解碼器結構,整體網絡架構如圖1所示,在編碼部分對Res2 Net進行改進,增加注意力機制來增強提取有效特征的能力,使用改進后的邊緣細化模塊(edge refinement,ER)替換傳統的雙層卷積運算,編碼器包括5層,每層包含3個ER模塊;為了解決裂縫分割任務完整性和連續性的問題,本文在網絡中間層設計了基于注意力機制的多尺度特征融合模塊(attention-based multi-scale feature fusion module,AMFF),將前兩層和最后一層編碼層的輸出特征融合后經過位置注意模塊,通過所有位置的特征的加權和來選擇性地聚合每個位置的特征,相似的特征將相互關聯;在解碼器部分將上采樣和對應編碼層的特征通過我們設計的融合優化模塊(fusion optimization,FO),在利用注意力機制保留裂縫細節信息的同時,采用空洞卷積來擴大感受野,兼顧了裂縫檢測的完整性和連續性。

圖1 EAFNet網絡結構

2.1 邊緣細化模塊(ER)

裂縫邊緣拓撲結構復雜、細小裂縫多,在特征提取階段,卷積模塊中的雙層傳統卷積層結構提取出的特征有限,并且隨著網絡加深,多次的卷積和池化的操作導致提取圖像特征過程中會損失圖像的細節信息。為了提高網絡對裂縫細節信息的提取能力,本文設計了ER模塊提高特征的提取能力。邊緣細化模塊的結構如圖2所示。

圖2 邊緣細化模塊

輸入ER模塊的特征x∈RH×W×C在經過1×1卷積后被均勻分為n個特征子集xk, 其中k∈{1,2,…,n}, 每個子集xk通道數均為C/n。 當k≠1時,xk有對應的3×3卷積,每個特征子集xk經過卷積后的輸出為yk

(1)

式中:Conv3(·) 表示進行卷積核為3×3的卷積操作,將所有輸出yk拼接后通過1×1的卷積恢復為原始通道數。輸出的特征y∈RH×W×C再經過通道注意力CAM模塊(channel attention module)。在CAM中,特征首先通過全局平均池化聚合全局特征,然后卷積運算調整通道權重,最后將權重值與輸入特征映射y相乘

(2)

式中:yi,j∈RC是全通道特征。然后,在相同維度的條件下進行大小為k的一維卷積,k代表局部跨通道交互的覆蓋范圍,決定了交互的覆蓋范圍,通過卷積后用Sigmoid函數計算激活值,得到權重W∈R1×1×C表示每個通道的相關性和重要性

W=σ(Con′(yavg))

(3)

式中:Con′(·) 代表大小為k的一維卷積,σ代表Sigmoid激活函數,將權重W與輸入特征y相乘,完成每個通道特征的重新編碼,從而為重要特征分配較大的權重,對非任務信息分配較小的權重來抑制。最后,通過殘差連接將原始輸入特征進行融合

x=W·y+x

(4)

2.2 基于注意力機制的多尺度特征融合模塊(AMFF)

在裂縫檢測任務中的特征金字塔結構主要分為兩類,文獻[3]將相同尺度的編-解碼器上的特征圖進行融合,再將所有尺度的融合圖再次融合后輸出,這增加了參數量,降低了效率。文獻[4]利用編碼器最后一層的特征通過不同擴張率的空洞卷積來構造特征金字塔,但是最后一層的特征信息在經歷了多次卷積池化后丟失了很多的裂縫細節信息,所以這種方法在一定程度上缺乏解決裂縫邊緣信息丟失的能力。因此,本文提出了一種多層輸出特征融合的金字塔結構,將指定編碼層輸出的特征進行融合,并通過注意力模塊學習特征點間的位置關系,既可以充分利用不同層特征,減少裂縫邊緣信息的丟失,又保證裂縫信息的連續性。基于注意力機制的多尺度特征融合模塊結構如圖3所示。

圖3 基于注意力機制的多尺度特征融合模塊

在AMFF中,根據編碼器部分輸出的特征圖尺度大小,將編碼層劃分為5層,可表示為Ei, 其中i∈{1,2,…,5}, 每個編碼層輸出的特征大小是原圖的1/2i, 本文中輸入圖像大小為320×320,則每層編碼層輸出特征大小分別為 {160,80,40,20,10}。 低層特征信息包含了裂縫的輪廓、邊緣信息,高層特征信息包含了圖像的空間信息。本文將前兩層編碼層輸出的含有大量細節的低層語義信息與最后一層編碼層輸出的高層全局語義信息融合,由于特征圖的尺度和通道數不相同,不能直接進行融合,前兩層特征經過1×1卷積操作變換通道后通過池化得到相同尺度特征圖

f′1=w(f(f1))

(5)

f′2=w(f(f2))

(6)

f12=Cat(f′1,f′2)

(7)

其中,f1,f2分別表示編碼層E1,E2的輸出,f(·) 表示用1×1的卷積核進行卷積操作,w(·) 表示池化操作,Cat(·) 表示特征在通道維度上的疊加。融合后與最后一層編碼器輸出的特征圖融合,最后輸出特征圖f∈RH×W×C

f=Cat(f12,f5)

(8)

式中:f5表示編碼層E5的輸出。將高層語義信息與低層語義信息融合雖然能夠保證裂縫檢測的完整性,但是缺乏裂縫像素之間的關聯性。因此,很難維持裂縫分割的連通性,并可能導致斷裂。于是在輸出特征圖后加入位置注意力模塊,通過位置注意模塊來學習特征的空間相關性,將輸出的多尺度融合特征圖分別經過卷積得到f?、fφ、fγ, 其維度均為RH×W×C, 然后將f?、fφ、fγ都進行reshape操作

f?=flat(W?(f))

(9)

fφ=flat(Wφ(f))

(10)

fγ=flat(Wγ(f))

(11)

其中,W?,Wφ,Wγ為3個卷積操作,flat(·) 表示將圖像特征分別重塑成將f?,φ,γ∈RC×N,N=H×W。 將f?轉置后與fφ相乘得到矩陣,對矩陣進行softmax得到空間注意力特征S∈RN×N

(12)

式中:σ表示Softmax激活函數。S與fγ相乘后重塑為RC×H×W, 與輸入特征圖f進行融合得到最終的解碼器輸入特征圖fZ

fZ=σ(flat(fγ·S))+f

(13)

通過聚合不同區域的上下文信息,從全局角度提取裂縫信息,并提取每個特征像素點之間的相關性增強了路面裂縫檢測的完整性和連續性。

2.3 融合優化模塊(FO)

本文提出的融合優化模塊如圖4所示。本文利用pixel-shuffle、空洞卷積和注意力機制設計了特征融合優化模塊。現有的網絡主要采用補零或雙線性插值的方法進行上采樣,由于裂縫分割是像素級別的分類任務,使用這些上采樣方法容易使特征像素點受到周圍像素點的干擾,影響最終的檢測結果。Pixel-shuffle主要功能是將低分辨的特征圖,通過卷積和多通道間的重組得到高分辨率的特征圖,Pixel-shuffle是常用在超分辨率重建問題研究的上采樣方法,與常規的上采樣方法相比,能夠減少信息損失,檢測精度更高。本文方法中主要使用Pixel-shuffle進行上采樣,特征圖經過Pixel-shuffle上采樣后通過空洞卷積,在不降低特征圖分辨率情況下實現感受野的增長,讓每個卷積的輸出都包含更大范圍的信息;特征圖經過空洞卷積后再通過位置注意力模塊PAM捕獲更多的裂縫位置關系,防止裂縫斷裂;跳躍連接過程中加入了通道注意力模塊CAM來篩選信息,凸顯更多的裂縫細節信息。最后將通過PAM和CAM的特征融合后經過卷積后輸出。

圖4 融合優化模塊

(14)

(15)

式中:Conv(·) 代表卷積核大小為3的卷積操作。

3 實驗結果及分析

3.1 數據集

(1)CRACK500:CRACK500的數據集由Yang等[14]建立,共3368張裂縫圖片,其中1896張用作訓練,348張用作驗證集,1124張作為測試集。

(2)DeepCrack:DeepCrack是由Liu等[15]建立的一個多尺度、多場景的裂縫公共基準數據集,它包含537幅大小為544×384像素的路面裂縫圖像。由于數據量過小,此數據集作為測試集進行泛化性實驗。

3.2 實驗環境及設置

本文實驗的硬件環境為Intel(R)Xeon(R)Gold 5117 CPU,Tesla V100 GPU;軟件環境為Ubuntu 16.4操作系統,Python3.7,Pytorch1.4,CUDA11.2,以及相關的神經網絡Python庫。由于裂縫分割任務中背景和前景類別不平衡,本文使Bce+Dice的組合loss解決像素不平衡的問題。使用Adam優化器訓練40輪,學習率初始化為0.0002,訓練批次大小設置為20。

3.3 評價指標

為定量評估各模型的性能,本文采用以下指標進行分割準確性評估:精確率(Precision)、召回率(Recall)、F1分數(F1-score)和交并比(IoU)。其中Precision是指查準率,表示模型預測為裂縫的像素里,實際為裂縫的比例;Recall是指查全率,表明正確預測為裂縫的像素在所有裂縫像素中所占的比例;F1-score同時考慮了精確性和召回率,用于平衡精確率和召回率的結果;IoU是衡量檢測結果與標簽的重合程度,即模型檢測出的裂縫與標簽中裂縫的重疊率。各評價指標的計算如式(16)~式(19)

(16)

(17)

(18)

(19)

其中,TP表示真正值,即將裂縫像素預測為裂縫的像素數;FP表示假正值,即將背景像素誤檢為裂縫的像素數;FN表示假負值,即將裂縫像素預測為背景像素的像素數。

3.4 消融實驗

為驗證本文方法的有效性,實驗分為以下3個部分。①消融實驗:使用去除各模塊的模型在CRACK500上進行相關實驗,來驗證各模塊的有效性;②方法對比實驗:在CRACK500訓練集上對各方法模型進行訓練,然后在CRACK500測試集上進行測試,對比各模型的精確率等指標;③將各方法在CRACK500上得到的效果最好的模型直接在DeepCrack數據集上進行測試,評估各模型的泛化能力。

為了驗證本文提出的ER、AMFF和FO這3個模塊的有效性,本文在CRACK500數據集上設計了消融實驗,消融實驗共為4組,第一組為UNet;第二組在解碼器中使用FO模塊;第三組是使用ER模塊代替傳統雙層卷積來提取特征,并加入AMFF模塊增加像素點之間的聯系;第四組是以UNet的編解碼器結構為基礎的同時加入ER、AMFF、FO這3個模塊。

CRACK500上的消融實驗結果見表1,經比較得出添加FO模塊的網絡模型加強了對裂縫局部特征提取的同時,還能通過增大感受域來獲取裂縫的全局特征,從而提高網絡性能,整體裂縫區域分割效果優于UNet,其中IoU為53.42%,F1分數為67.74%;在UNet中添加ER模塊和AMFF模塊,提高了對裂縫邊緣細小裂縫的特征提取能力,并保證了裂縫檢測的連續性,網絡模型的IoU為53.24%,F1分數為67.81%;同時使用3個模塊的網絡模型在各個指標上都很大程度地超過了UNet,其中IoU為54.47%,F1分數為69.01%,說明使用融合優化模塊提高了細小裂縫檢測能力并提高了裂縫檢測的完整性。由實驗可知,與單獨使用一個模塊或兩個模塊的網絡模型相比,同時使用3個模塊的效果和連續性更好,細節更豐富。

表1 在CRACK500上的消融實驗結果

3.5 實驗結果對比分析

為驗證本文提出方法的有效性,與基線方法UNet和現有的部分裂縫檢測方法進行對比實驗,所有對比方法均基于深度學習。

(1)SegNet:通過依次使用編碼器網絡和解碼器網絡來實現端到端的學習和分割,通過池化索引來進行非線性上采樣。

(2)UNet:基于編解碼結構的分割網絡,廣泛用于圖像分割,由編碼器、解碼器、跳躍連接三部分構成,結構簡單但有效,在小數據集上有著卓越的性能。

(3)CrackSeg:Song等[16]提出的一種用于路面裂縫檢測的端到端可訓練深度卷積神經網絡,設計的多尺度空洞卷積模塊可以在控制計算成本的同時,融合多尺度語義信息以獲得豐富特征,在上采樣階段,融合淺層網絡的高空間分辨率特征,提高分割精度。

(4)文獻[17]方法:Qu等[17]提出了一種用于道路裂縫檢測的深度監督卷積神經網絡,通過一種新穎的多尺度卷積特征融合模塊進行裂紋檢測。

各模型在公共數據集CRACK500上測試結果對比見表2,本文方法的loU、Recall和F1-Score更高,IoU和F1分別達到了54.52%和69.01%,相比CrackSeg方法F1提高了1.65%,IoU提高了1.7%;與文獻[17]的方法相比,F1提高了1.51%,IoU提高了1.39%。UNet方法雖然Precision雖然高,但是Recall值最低,這種現象說明UNet雖然檢測出裂縫的輪廓,卻將大量裂縫像素錯誤的分類為背景,分割粗糙。

表2 CRACK500上各模型的對比實驗結果

不同模型在CRACK500數據集上的檢測效果對比如圖5所示。與圖5(c)~圖5(f)裂縫檢測方法的結果相比,本文算法檢測出的裂縫邊緣信息更豐富,連續性更好。圖中5種分割算法雖然都能夠獲得較為完整的裂縫形狀,但是圖5(c)~圖5(f)裂縫檢測方法較本文算法丟失了很多裂縫細節信息,且更容易受到噪音的影響。如第一張圖片上的左上角和第三張圖片中部裂縫周圍深色的背景,被識別為大塊裂縫;并錯誤的將第二張圖片中斷裂的裂縫自動連接。

本文通過繪制CRACK500數據集上的IoU曲線圖來驗證本文算法的有效性,不同模型在CRACK500數據集上的IoU曲線如圖6所示,從圖中可以明顯看到,本文算法的IoU要高于其它模型,且更為穩定。

將CRACK500數據集上得到的模型直接在DeepCrack數據集上進行測試,比較不同模型的泛化能力,DeepCrack上各模型的對比實驗結果見表3,本文方法IoU和F1分別達到了54.47%和67.01%,相比CrackSeg方法F1提高了2.58%,IoU提高了3.32%;與文獻[17]的方法相比,F1提高了5.83%,IoU提高了5.5%。

不同模型在DeepCrack數據集上的檢測效果對比如圖7所示。在第一張裂縫圖像中,除UNet和本文算法的檢測結果以外,其它的裂縫檢測方法均受到了裂縫下方噪聲的影響產生誤檢,且UNet和SegNet錯誤的將右上角的背景信息檢測為裂縫;第二張圖像中,除CrackSeg和本文算法外,其余算法均受到了裂縫周圍深色背景信息的影響,產生漏檢、錯檢的現象。

圖6 CRACK500上的IoU

表3 DeepCrack上各模型的對比實驗結果

4 結束語

本文基于編解碼器結構提出了一種裂縫檢測方法EAFNet,在編碼器階段通過邊緣細化模塊提取更多細節的局部特征;設計基于注意力機制的多尺度模塊,通過特征金字塔和位置注意力集成不同尺度的裂縫特征來融合全局特征和局部特征提高裂縫檢測精度;解碼器設計的特征融合優化模塊,能夠在提取裂縫細節信息的同時,捕捉裂縫特征點之間的聯系,防止裂縫檢測出現斷裂的情況。該算法與已有的裂縫檢測算法相比,分割精度更高,對細小裂縫的檢測效果更好,減少漏檢率。未來將對模型繼續優化,在保證檢測精度的同時,降低計算量,使其達到實時檢測的要求。

猜你喜歡
特征融合檢測
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: 露脸国产精品自产在线播| 国产微拍精品| 国产jizzjizz视频| 免费一级成人毛片| 欧美成人国产| 香蕉久久永久视频| 欧美亚洲国产视频| 免费看a级毛片| 国产综合在线观看视频| 国产本道久久一区二区三区| 91区国产福利在线观看午夜| 精品视频一区二区观看| 久草网视频在线| 老汉色老汉首页a亚洲| 亚洲第一视频网| h网站在线播放| 国产成人三级在线观看视频| 人人妻人人澡人人爽欧美一区 | 亚洲欧美一区二区三区麻豆| 国产拍揄自揄精品视频网站| 欧美中文字幕无线码视频| 亚洲三级色| 国产免费观看av大片的网站| 香蕉蕉亚亚洲aav综合| 国产中文一区二区苍井空| 在线精品自拍| 91精品国产情侣高潮露脸| 无码久看视频| 九色91在线视频| 六月婷婷激情综合| 色综合色国产热无码一| 欧美 国产 人人视频| 全部免费毛片免费播放| 三级国产在线观看| 免费高清自慰一区二区三区| 99久久亚洲精品影院| 欧美一级大片在线观看| 亚洲精品视频在线观看视频| 国产精品欧美激情| 国产精品成人久久| 中文国产成人久久精品小说| 亚洲毛片一级带毛片基地 | 亚洲一级毛片免费看| 亚洲性影院| 日韩免费毛片| 久久香蕉国产线看观看式| 99re视频在线| 亚洲欧美不卡中文字幕| 亚洲不卡av中文在线| 亚洲免费黄色网| 亚洲日韩高清无码| 色婷婷狠狠干| 成人午夜久久| 久久综合国产乱子免费| 亚洲无码一区在线观看| 中文字幕在线欧美| 欧美精品色视频| 国产精品密蕾丝视频| 最新加勒比隔壁人妻| 呦女亚洲一区精品| 老司机久久精品视频| 亚洲日本精品一区二区| 91精品综合| 国产精品免费电影| 国产精品美女在线| 亚洲高清资源| 国产在线一区视频| 亚洲最大在线观看| 一级毛片基地| 日本亚洲成高清一区二区三区| 久久女人网| 亚洲AV人人澡人人双人| 欧美性爱精品一区二区三区| 亚洲欧美日韩另类| 国产精品女人呻吟在线观看| 国产超薄肉色丝袜网站| 高清大学生毛片一级| 国产欧美在线视频免费| 亚洲品质国产精品无码| 亚洲欧美激情另类| 国产亚洲欧美在线中文bt天堂| 日韩精品久久久久久久电影蜜臀|