999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

隧道場景下行人檢測DA-Zero-DCE圖像增強算法

2024-02-05 07:24:10李冬春田雨聃

周 桐,李冬春,田雨聃

(1.重慶師范大學 計算機與信息科學學院, 重慶 401331;2.重慶工程職業技術學院 大數據與物聯網學院, 重慶 402260;3.重慶大學 自動化學院, 重慶 400044)

0 引言

交通隧道場景下的視頻圖像檢測是當前掌握隧道內的交通狀況和安全狀況的重要渠道和手段。對于隧道場景下的行人目標檢測系統,圖像信息清晰度直接影響檢測結果準確度。但是,隧道場景下物理設備捕獲的圖像質量仍然存在以下不足:第一,為了滿足監控管理的要求,攝像機處于地面上方某一固定位置,這時雖然可以拍攝到較寬的路面范圍,但傳回的圖像都是遠景,其中行人多是弱項目標,像素值低,比較模糊,并且特征信息較少;第二,隧道場景是一種受人造光源影響較嚴重的,總體亮度比露天場景更低的半封閉場景,圖像模糊不清或者因光照或角度遮擋等條件造成隧道背景與行人目標難以區分。這些因素導致常用的圖像識別算法很難在隧道交通場景下獲得良好的表現,不能滿足實際工程要求。因此,如何通過圖像增強算法改善隧道場景下物理設備獲取的原始圖像畫質,凸顯更多的行人特征信息,對于提高隧道行人目標檢測準確性,是一個亟待解決的問題。

目前,國內外學者提出各種理論和算法來解決圖像增強問題,原理上可將其分為5種類型:分布映射類[1]、色調映射類[2]、背景融合類[3]、模型優化類[4-6]和深度學習類。其中,深度學習作為近年來發展最快的方法之一,已經被廣泛應用于低級視覺任務中。然而,深度學習技術在解決低光照圖像增強問題上仍然存在許多挑戰[7]。最早基于深度學習技術來解決低光照增強問題的工作從2017年開始,后逐漸發展成為一種主流方法[7]。從實現目的上,基于深度學習技術來實現的低光照增強方法分兩類:亮度增強類方法和結合亮度增強與噪聲去除類方法。

亮度增強類的方法的核心是通過提升圖像亮度來突出圖像的更多結構和細節,由于早期缺乏成對數據集的原因,大多采用合成數據進行訓練。Chen等[8]基于U-Net[9]架構進行全局增強,并采用Wasserstein GAN(generative adversarial network)的訓練機制,然后通過自適應加權達到更快的收斂速度。Yu等[10]使用深度強化對抗學習,將原始低光照圖像分割為可反映曝光動態范圍變化的子圖像,并在子圖像上使用策略網絡的順序自動學習每個子圖像的局部曝光,以達到整體曝光的平衡。

以上方法都致力于對亮度的估計和提升來增強圖像,但是容易忽略一些惡劣條件下圖像的噪聲問題。因此,結合亮度增強與噪聲去除的神經網絡模型被提出。Wei等[11]提出了RetinexNet,一種基于Retinex理論的低光照圖像增強網絡。該網絡由光照估計和反射層估計模塊組成,能夠同時預測圖像的光照分量和反射分量。為了訓練網絡,Wei等[11]還建立了一個基于曝光時間的調整來獲得有合成噪聲的全新成對數據集(即LOL數據集)。然而,該方法仍然存在一些未知偽影和過于細化的細節,這是因為對中間變量的約束不足。KinD[12-13]是一種低光照圖像增強網絡,它的架構類似于RetinexNet。與RetinexNet不同的是,KinD在訓練過程中加入了更多的損失函數來引導網絡的權重更新。另外,Wang等[14]將低光照圖像增強的問題看成一個殘差學習問題,即對低光照和正常光照之間的殘差進行估計。為了準確地估計出殘差光照,他們在網絡結構中迭代地執行增亮和變暗過程,使用光照反向映射(LBP)來實現。

由于當前成對數據訓練機制泛化性能的不足和現有成對數據自身的不精確性,很多旨在減輕對成對數據集依賴的工作正在相繼提出。為了使增強圖像更加自然,Guo等[15]提出了Zero-DCE(zero-reference deep curve estimation),這是一種基于圖像處理軟件亮度曲線的像素級別曲線估計卷積神經網絡。他們采用逐步推導的方法,設計了一系列零參考訓練損失函數,解決了光照不足時的圖像增強問題。該網絡在訓練中不需要依賴于成對數據集,因此在某些特殊場景下具有較好的實用價值。Li等[16]提供了加速的版本Zero-DCE++,顯著提升運算效率,性能幾乎保持不變。Jiang等[17]提出了一種具有自我注意力機制的生成對抗網絡,該網絡使用不成對的數據集進行訓練。盡管該方法的性能遠優于現有的一系列基于GAN的低光增強方法,但由于忽略了物理原理的影響,因此效果總是不如預期,會產生一些未知的偽像。

近年來,計算機視覺技術飛速發展,在交通領域中也發揮極大作用,如車牌識別、行人檢測等。其中,基于深度學習的視覺識別技術用于隧道場景下的行人檢測也逐漸開始應用。然而,受光線強度、角度以及物體遮擋影響,導致隧道拍攝圖片成像質量較差、局部區域亮度偏低、噪聲較多,在不升級硬件基礎上,通過軟件優化交通隧道場景下行人圖像的相關研究工作較少。Guo等[15]提出的Zero-DCE算法能有效增強圖片中的弱光部分,但是,其光照特征提取主干網絡的設計比較簡單,導致模型在增強弱光時損失了圖片中較多的特征和細節,且增強效果受原始圖像限制,特別是當原圖中含有噪聲時,算法表現更為敏感。因此,該模型雖具有較高的泛化性,但在實際工程應用場景中表現不如預期。

為了更好地對隧道場景中的圖像進行優化和增強,本文中提出DA-Zero-DCE(denoising-attention based zero-reference deep curve estimation)算法模型,其在Zero-DCE[15]模型基礎上加入了NAF-Net[18]噪聲去除模塊,將原算法低光照增強后的數據再進行去噪處理,從而進一步提升圖像質量。此外,該算法還改進了低光照增強部分的損失函數,將空間一致性損失從4鄰域計算改為8領域計算,讓光照增強后的圖像與原圖具有更好的結構相似度;將低光照增強的主干網絡替換為U-Net結構[9],讓輸出特征圖具有更多的語義信息,在適當損失泛化性的同時提高了結果的增強質量;加入坐標注意力機制Coordinate Attention[19]讓網絡更加關注需要低光照增強的區域,從而緩解增強后圖像整體過曝的情況。

1 算法設計

Zero-DCE[15]以一幅原始低光照圖像作為輸入,通過主干網絡DCE-Net提取圖像特征,訓練亮度參考曲線參數圖,然后利用訓練的結果對圖像亮度進行像素級別調整。經過多次迭代得到增強后的圖像,總體處理流程如圖1所示[20],參數迭代見式(1)。

圖1 Zero-DCE算法總體流程

LEn(x)=LEn-1(x)+Λn(x)LEn-1(x)(1-LEn-1(x))

(1)

本文在Zero-DCE算法的基礎上,對低光照增強的算法處理過程進行了改進與優化,如圖2所示。

圖2 DA-Zero-DCE算法流程

首先,通過5層U-Net網絡結構作為光照估計的主干網絡對輸入圖像進行特征提取;然后,在特征輸出結果上加入坐標注意力機制,讓網絡自身更加關注需要被增強的局部低光照區域,再通過輸出各像素的光照估計參數,計算出光照增強后的圖像;將弱光增強后的圖像送入去噪模塊NAF-Net,對圖像進行噪聲去除,輸出最終結果。此外,通過對損失函數的優化,本算法可以在訓練過程中獲得低光照增強與圖像去噪的雙重能力。與原算法Zero-DCE相比,本文中提出的DA-Zero-DCE隧道低光照增強算法在局部光照優化與圖像去噪方面有明顯提升。

1.1 坐標注意力機制

由于輕量級網絡模型的參數數量和計算能力限制,目前應用在該類模型上的注意力機制以Squeeze-and-Excitation (SE) attention[21]為主,依賴于在2D數據上做全局池化操作來計算通道維度的權重,最后與通道數據相乘得到注意力的作用結果。從過程中可以看出其計算過程比較簡單直接,并且數據處理的角度有限,僅僅關注了通道維度的全局信息而并未考慮局部的特征分布,然而局部特征在視覺類任務中對圖像結構的學習和感知尤為重要。

DA-Zero-DCE將主干網絡設計成U-Net結構與坐標注意力機制相結合,使得主干網絡不僅可以學習到圖像的跨通道特征,還可以捕獲對于方向與位置敏感的信息,使主干網絡在不需要大量增加算力消耗的同時可以學習到需要進行亮度增強的局部感興趣區域,坐標注意力機制結構如圖3所示,其中,C為特征圖通道維度,H、W分別為特征圖的寬、高維度,r為通道壓縮倍數。

圖3 坐標注意力機制結構

基于精確的位置信息與通道的對應關系和長期依賴性編碼,坐標注意力機制實現了注意力作用過程,步驟大致分為坐標信息嵌入以及坐標注意力生成2步。首先,通過H維度和W維度的平均池化操作得到每行與每列的權重分布,然后通過數據堆疊的方式進行合并,合并以后經過卷積層與正則化層和激活函數。然后,將結果拆分為H維和W維的數據,拆分的數據并行進入一個卷積層和Sigmoid激活函數。最后,生成H維的權重和W維的權重,與輸入特征圖進行相乘,即可得到坐標注意力作用后的結果。

1.2 基于U-Net改進特征提取主干網絡

神經網絡的特征提取性能將極大地影響后續的預測結果,相對使用復雜的卷積神經網絡來提取圖像的特征,輕量級網絡具有參數少、計算量小、推理時間短等特點,能極大地提升模型特征提取效率,可以非常好地應用于實際的工程場景或移動設備上。U-Net作為這種輕量級的特征提取網絡的代表,被廣泛應用于實際場景中。

U-Net采用encoder-decoder結構,參考圖4(a),分為編碼部分和解碼部分,左側的編碼部分的實現為典型的VGG網絡中的下采樣模塊的組合,下采樣模塊由2或3個重復堆疊的3×3卷積和ReLU層構成,而每個模塊間通過最大池化操作對寬高尺寸進行縮放。而右側的解碼部分則是每層通過2×2的卷積核,步長為2的轉置卷積來實現上采樣操作,使通道數減半且寬高加倍。然后,與編碼部分每個模塊的提取結果進行通道維度的拼接,再經過2個3×3的卷積和ReLU層。經過4次這樣的解碼操作后,通過1×1的卷積層調節最后的通道數,再結合全連接層來調節最后的輸出shape。

圖4 特征提取主干網絡結構

U-Net具有淺層和深層卷積的特征融合操作,一方面,淺層卷積能獲取到更多細節特征;另一方面,深層卷積更加關注高層語義特征,通過連接的方式使得特征圖兼顧了二者。下采樣操作通常容易丟失一些邊緣細節信息,而這些信息在上采樣中無法通過學習得到,而通過連接的方式則可以彌補這種信息的缺失,使最后的結果更加具有準確性。因此,我們將Zero-DCE算法中用于生成光照估計曲線的特征提取主干網絡DCE-Net替換為U-Net,在輸出結果前加入坐標注意力模塊,作為DA-Zero-DCE的主干網絡結構,如圖4(b)所示。

1.3 NAF-Net去噪模塊

增強后的圖像雖然暗光區域的特征得到加強,但仍然存在一些噪聲。為此,引入了NAF-Net去噪模塊來對調整后的圖像進行去噪處理,其結構如圖5所示,其中,⊙為矩陣點乘,*為按通道相乘。(d)為模塊總體架構,(a)為NAF Block內部結構,(b)為簡化后的通道注意力機制SCA(simple channel attention),(c)為用于替換GELU激活函數的結構SimpleGate。

圖5 NAF-Net模塊結構

模塊參考了U-Net結構,采用基于塊的跳躍連接堆疊方式,充分減少了內部塊之間的復雜度。此外,還加入LayerNormal層使得訓練更加平滑,可以通過放大學習率的方式提升性能。GELU激活函數在保持降噪性能的同時可以大幅提升模型去模糊化的性能,但由于其復雜性影響模型效率,使用SimpleGate替換原始ReLU激活函數,簡化模型結構。此外,簡化版通道注意力機制(SCA)可以滿足計算效率的同時引入全局信息。

通過DA-Zero-DCE算法,圖像增強功能具有局部暗光區域提亮的同時,噪聲也得到了消除與緩解。

1.4 損失函數設計

NAF-Net去噪模塊讓整個算法模型具有了圖像去噪能力, CharbonnierLoss損失引導去噪部分結構的權重在反向傳播時進行學習和更新,去噪損失函數如式(2)。

(2)

Losstotal=WexpLossexp+WtvALosstvA+WcolLosscol+WspaLossspa+Lossdenoise

(3)

Lossexp代表圖像曝光損失,如式(4)。

(4)

式中:E為圖像亮度中間值,一般取0.6[15];Y為大像素區域中亮度平均值;M為大像素總個數。

LosstvA代表圖像的光照平滑損失,如式(5)。

(5)

式中:N為迭代次數;▽x和▽y分別表示水平和垂直梯度算子,即當前像素與左方像素的差值以及當前像素與上方像素的差值。

Losscol表示色彩恒定損失,如式(6)。

(6)

式中:p與q遍歷了RGB顏色通道中的兩兩組合,Jp表示顏色通道p的平均亮度值。

Lossspa代表空間一致性損失,如式(7)。

(7)

從式(7)中可以看出,該損失函數的思路是通過類似卷積的4個濾波器來刻畫單一像素與4個鄰域之間的空間差異性,再與原圖做最小二乘法。其中,K是圖像的總像素個數,i是像素遍歷索引,Ω(i)是第i個像素的4鄰域,Y與I分別為增強圖像與輸入圖像。在DA-Zero-DCE中,將Ω(i)作用范圍進行了擴大,即與第i個像素相鄰的8個相鄰像素,提高了增強圖像與原圖的空間一致性。

最后,在總損失Losstotal的計算表達式中,權重項Wexp、Wcol、Wspa、WtvA分別為10、5、1、200[15]。

2 實驗與分析

2.1 實驗設置

DA-Zero-DCE算法的訓練與測試在CPU為i5-10400、顯卡NVIDIA GTX3070 Lap-top(8 GB)、內存16 GB平臺上進行,深度學習程序基礎框架Pytorch。訓練參數包括:輪次為300次、批次大小為5、優化器采用Adam、初試學習率為0.000 1,學習率按余弦函數衰減。

2.2 數據集

本文所用的模型訓練數據集為LOL,其中包含了500個低光照與正常光照圖像的配對,圖像尺寸為600(w)×400(h),通道數為RGB三通道,其中大多數圖像通過調整相機的曝光時間和ISO來得到。雖然Zero-DCE的訓練不需要正常光照的圖像來計算損失,但由于引入了圖像噪音去除模塊,所以需要通過最終的正常光照圖像來衡量去噪損失,改進的算法訓練過程如圖6所示。

圖6 訓練過程數據變化

2.3 評價指標

本文采用了峰值信噪比(PSNR)和結構相似性 (SSIM)來評價圖像增強的效果。PSNR峰值信噪比使用較為廣泛,是一種誤差敏感的圖像質量評價指標;SSIM結構相似性指標考慮到了人眼的視覺感受,分別從對比度、亮度以及結構3個方面去衡量與計算圖像的相似性。PSNR值與SSIM值越高,表明算法增強后的結果圖像質量越優。

2.4 實驗分析

由于該算法的應用場景是在交通隧道對隧道行人進行目標檢測,因此,對于隧道中圖像的增強能力需要進行實驗和證明。

通過收集到的隧道圖像,對本模型進行訓練和預測,圖像增強結果如圖7所示,圖7(a1)—圖7(a3)為原始圖像輸入,圖7(b1)—圖7(b3)為LI提出的隧道圖像增強算法[22]增強后的圖像輸出,圖7(c1)—圖7(c3)為DA-Zero-DCE算法增強后的圖像輸出。

圖7 DA-Zero-DCE算法對隧道場景下的增強圖像

通過圖7可知, DA-Zero-DCE算法對于隧道場景下的圖像,在保證暗區部分光照的提升的同時也很好地平衡了圖像噪聲。由于LI提出的隧道圖像增強算法處理單張圖片的效率約2 s,對比圖8中的處理效率,本算法對單張圖像的增強所耗的時間約50 ms,當前隧道視頻流的處理能力需求在20 fps左右,可以在一定程度上滿足工程要求。

圖8 DA-Zero-DCE算法與Zero-DCE算法效率曲線

為驗證所提模型在增強圖像上的有效性,對比了原始Zero-DCE 算法,LI提出的隧道圖像增強算法[22](P7)以及DA-Zero-DCE算法。

從表1可以看出,U-Net結構的替換(P3—P6)、NAF-Net去噪模塊(P2、P6)、坐標注意力的引入(P4-P6)對算法的PSNR和SSIM的提升較為明顯,而損失函數的改進(P1—P2、P5—P6)對于兩大指標的提升則較小。以上指標對比結論可證明DA-Zero-DCE模型的相關改進對于增強結果是有效的。

表1 各項改進組合與評價指標(基于LOL數據集)

此外,為驗證通過DA-Zero-DCE算法增強圖像對行人檢測準確性的提升,基于經典圖像分類模型AlexNet[20],對圖9中采用DA-Zero-DCE算法增強前(a1)—(d1)與增強后(a2)—(d2)的圖片進行是否包含行人的分類預測,預測結果如表2所示。

表2 AlexNet模型預測結果

圖9 DA-Zero-DCE對真實隧道行人圖像的增強效果

從表2的AlexNet模型預測結果可以得出,對比原始圖像,使用DA-Zero-DCE算法增強后的圖像的預測置信度有了顯著提升,進一步驗證了本文算法在圖像質量優化層面的有效性。

3 結論

隧道場景下的行人目標檢測,圖像質量很大程度上決定了目標檢測結果的準確性。然而,隧道拍攝的圖像受環境限制,通常存在局部偏暗、噪點較多等問題。為優化隧道場景下成像質量,本文中提出了一種基于坐標注意力機制的隧道行人檢測圖像增強算法DA-Zero-DCE,在Zero-DCE算法基礎上,把主干網絡改進為U-Net結構,并結合了坐標注意力機制,將空間一致性損失函數擴展到了8鄰域的損失計算,優化結果的平滑度,緩解輸出失真和局部過曝的現象。為進一步減少輸出結果的噪聲,引入NAF-Net圖像去噪模塊,可有效去除輸出圖像中的大部分噪聲,使最終的增強效果更清晰。通過相關的消融實驗和效果驗證,對比Zero-DCE算法,在增強結果上PSNR提升約10 dB、SSIM提升約0.1,證明了相關改進的有效性。此外,基于AlexNet分類模型,對比原始圖片和增強圖片識別結果的置信度可得出,通過本算法對原始圖像增強后,有利于提升隧道行人識別的準確性。

主站蜘蛛池模板: 国产手机在线小视频免费观看| 天天做天天爱天天爽综合区| 日韩无码黄色网站| 国产综合在线观看视频| 国产麻豆精品手机在线观看| 看你懂的巨臀中文字幕一区二区 | 亚洲第一综合天堂另类专| 久久亚洲精少妇毛片午夜无码| 国产精品尤物铁牛tv| 麻豆国产在线不卡一区二区| 国产精品久久久久鬼色| 国产成人1024精品下载| 国产乱子伦无码精品小说| 久久婷婷六月| 久久99国产视频| 欧美一级高清片欧美国产欧美| 亚洲色图另类| 无码专区国产精品一区| 国产欧美视频一区二区三区| 日韩高清无码免费| 美女一区二区在线观看| 国产精品自在自线免费观看| 成人福利免费在线观看| 日韩欧美国产另类| 国产精品福利一区二区久久| AV无码国产在线看岛国岛| 色噜噜综合网| 精品自窥自偷在线看| 亚洲成人免费在线| 国产午夜无码专区喷水| 亚洲日韩日本中文在线| 青青青伊人色综合久久| 日韩AV无码免费一二三区| 国内精品视频| 夜夜操天天摸| 亚洲an第二区国产精品| 婷婷六月色| 六月婷婷精品视频在线观看| 91久久国产热精品免费| 精品国产91爱| 操美女免费网站| 国产精品太粉嫩高中在线观看| 8090午夜无码专区| 亚洲成a人片77777在线播放| 男女精品视频| 国产成人调教在线视频| 国产全黄a一级毛片| 98精品全国免费观看视频| 欧美区在线播放| 91精品视频播放| 亚洲高清在线天堂精品| 毛片久久久| 国产精品开放后亚洲| 精品国产自| 日韩精品成人网页视频在线| 熟妇丰满人妻| 全裸无码专区| 麻豆AV网站免费进入| 亚洲精品少妇熟女| 国产浮力第一页永久地址| 国产超薄肉色丝袜网站| 伊人久久婷婷五月综合97色| 青草免费在线观看| 欧美成人午夜影院| 国产日产欧美精品| 免费一级毛片在线观看| 国产后式a一视频| 日本人真淫视频一区二区三区| 久久香蕉国产线看精品| 婷婷亚洲最大| 久久香蕉国产线看精品| 色有码无码视频| 国产主播福利在线观看| 亚洲欧美一级一级a| 国产一区二区三区在线精品专区| 久久精品只有这里有| 亚洲中文精品人人永久免费| 亚洲国产中文欧美在线人成大黄瓜 | 免费在线成人网| 欧美日韩高清在线| 欧美日韩在线亚洲国产人| www.99在线观看|