999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進(jìn)YOLOv5的隧道火災(zāi)幀差檢測網(wǎng)絡(luò)與應(yīng)用方法

2023-01-29 13:21:52張晉瑞宋煥生孫士杰梁浩翔張朝陽劉蒞辰
計算機(jī)工程與應(yīng)用 2023年2期
關(guān)鍵詞:特征檢測方法

張晉瑞,宋煥生,孫士杰,梁浩翔,張朝陽,王 宇,劉蒞辰

1.長安大學(xué) 信息工程學(xué)院,西安710064

2.中車株洲電力機(jī)車有限公司,湖南 株洲412000

進(jìn)入21世紀(jì)以來,我國在隧道工程建設(shè)規(guī)模上已經(jīng)成為了世界上數(shù)量最多、里程最長的國家。統(tǒng)計數(shù)據(jù)顯示,我國公路隧道共有21 999.3 km[1],其中超過70%為長隧道和特長隧道。公路隧道的結(jié)構(gòu)復(fù)雜、空間狹小、封閉性強(qiáng)、出入口少,火災(zāi)事故是危害最大的一類事故,成因復(fù)雜,且事故發(fā)生具有不確定性,會破壞隧道內(nèi)部結(jié)構(gòu),對被困人員的人身和財產(chǎn)安全構(gòu)成極大的威脅,在社會上產(chǎn)生較大的負(fù)面影響。因此對隧道火災(zāi)進(jìn)行實時監(jiān)測是十分必要的,是隧道火災(zāi)研究的重點和難點,同時有助于隧道火災(zāi)事故的應(yīng)急處理與防治。

火災(zāi)發(fā)生往往先有陰燃產(chǎn)生的煙霧然后才有火焰,形狀顏色多種多樣,許多研究者利用火災(zāi)煙霧的靜態(tài)特征和動態(tài)特性進(jìn)行檢測。顏色是火災(zāi)煙霧最明顯的靜態(tài)特征,通過提取圖像的顏色直方圖[2],可以確定火災(zāi)煙霧區(qū)域。因單一特征的檢測準(zhǔn)確率很差,通過提取顏色、紋理、能量等多特征融合的方法提高了火災(zāi)煙霧的檢測精度[3-4]。但是這種方法提取的特征數(shù)較多,計算量較大,導(dǎo)致檢測速度慢。為了提升檢測速度同時保證準(zhǔn)確率,引入了機(jī)器學(xué)習(xí)的方法,利用支持向量機(jī)(support vector machine,SVM)生成候選區(qū)域進(jìn)行分類[5-6]。人工提取的特征受天氣、光照、時間等影響大,分類器閾值的選取多依賴于個人經(jīng)驗,使得方法的抗干擾能力較差。這類方法普遍存在一定局限性。

深度學(xué)習(xí)方法能夠跳出傳統(tǒng)模式識別的框架局限,但使用深度學(xué)習(xí)進(jìn)行火災(zāi)檢測的研究內(nèi)容和數(shù)據(jù)集相對較少。Frizzi等[7]采用LeNet進(jìn)行火焰和煙霧檢測,但只能檢測火災(zāi)是否發(fā)生而無法得知火災(zāi)的具體位置。通過預(yù)處理方法提取圖像可疑運(yùn)動區(qū)域,然后使用卷積神經(jīng)網(wǎng)絡(luò)對可疑區(qū)域進(jìn)行識別[8-10]的方法可有效降低誤檢的發(fā)生,但存在漏檢的情況,且檢測速度較慢。Zhang等[11]使用Faster R-CNN,通過合成圖像自制數(shù)據(jù)集的方式解決了訓(xùn)練數(shù)據(jù)缺乏的問題,但網(wǎng)絡(luò)模型難以保證在真實場景中的檢測精度。石磊等[12]將DenseNet網(wǎng)絡(luò)作為SSD的基礎(chǔ)網(wǎng)絡(luò),提高了對小目標(biāo)的檢測能力,但在數(shù)據(jù)集上存在過擬合現(xiàn)象。羅小權(quán)等[13]對YOLOv3做了一系列改進(jìn),提升了網(wǎng)絡(luò)模型檢測火災(zāi)的精度,但數(shù)據(jù)集樣本數(shù)較少,檢測速度較低。Namozov等[14]使用傳統(tǒng)數(shù)據(jù)增強(qiáng)技術(shù)和生成對抗網(wǎng)絡(luò)解決有限數(shù)據(jù)集引起的過擬合問題。謝書翰等[15]使用YOLOv4網(wǎng)絡(luò)訓(xùn)練火災(zāi)煙霧檢測模型,嵌入通道注意力機(jī)制提升模型性能。Ding等[16]提出了一種基于時空注意機(jī)制的雙流卷積神經(jīng)網(wǎng)絡(luò)煙霧區(qū)域分割算法,提高了細(xì)煙、小煙的分割能力,但模型在不同場景的適應(yīng)能力較差。現(xiàn)有的基于深度學(xué)習(xí)的方法檢測往往依賴于單幅圖像,很難同時兼顧檢測精度和速度,存在較多漏檢和誤檢,不能達(dá)到現(xiàn)有工業(yè)場景應(yīng)用的需求。

聚焦到隧道火災(zāi)檢測,根據(jù)近年來的研究表明,傳統(tǒng)火災(zāi)探測器[17]在公路隧道等大空間環(huán)境存在響應(yīng)慢和功能單一的問題,使用傳感器手段檢測[18-20]的精度往往依賴于傳感器的數(shù)量和位置,且維護(hù)成本較高。目前在隧道中使用的火災(zāi)探測技術(shù)還存在一定的局限性[21]。Sarvari等[22]通過隧道監(jiān)控相機(jī)人工判斷火災(zāi)事故點存在響應(yīng)不及時的問題。通過將圖像在顏色空間中分割疑似火災(zāi)區(qū)域[23-24],并提取多種特征進(jìn)行模型訓(xùn)練的方式,在人為制作的模擬隧道火災(zāi)煙霧視頻中的準(zhǔn)確率較高,但該方法計算量大,檢測速度慢,難以反映真實隧道火災(zāi)場景的檢測。Wu等[25]利用人工智能方法實現(xiàn)隧道內(nèi)溫度時空分布的實時預(yù)測,在模擬隧道火災(zāi)場景數(shù)據(jù)庫中有較高的預(yù)測精度,但缺乏實際場景的應(yīng)用。通過上述研究可以看出,基于隧道監(jiān)控視頻進(jìn)行火災(zāi)檢測成為這一領(lǐng)域研究的主流,在實際工程應(yīng)用中,檢測需要實時可靠,可以在早期檢測到火災(zāi)事件并定位,且要排除隧道內(nèi)其他因素如車輛燈光、尾氣等引起的誤報。

YOLOv5檢測網(wǎng)絡(luò)具有輕量化,檢測精度較高、速度較快的優(yōu)點,因此使用YOLOv5檢測網(wǎng)絡(luò)是目前視覺火災(zāi)檢測研究的一個方向。Lei等[26]證明了YOLOv5在地下環(huán)境感知退化的場景中,遷移學(xué)習(xí)的目標(biāo)檢測效果最好。Zhang等[27]證明了使用YOLOv5進(jìn)行環(huán)境異常檢測的有效性,包括火災(zāi)、煙霧、水和漏油檢測。Wu等[28]通過改進(jìn)SPP與NMS模塊提高了YOLOv5對小火焰目標(biāo)的檢測效果,但對于形似火焰的光照仍存在誤檢。Huang等[29]使用YOLOv5提取火焰蔓延位置、蔓延速度和火焰寬度等火災(zāi)發(fā)展關(guān)鍵參數(shù),可以為制定滅火救援戰(zhàn)術(shù)提供重要關(guān)鍵依據(jù),并以城市能源輸送的綜合管廊火災(zāi)監(jiān)控為例說明有效性,但該場景較為昏暗,火災(zāi)發(fā)生時特征明顯,與公路隧道存在差異。而目前YOLOv5在隧道火災(zāi)領(lǐng)域的研究較為匱乏,因此針對上述問題,本文提出了一種改進(jìn)YOLOv5的隧道火災(zāi)檢測網(wǎng)絡(luò),主要貢獻(xiàn)如下:

(1)使用3D卷積構(gòu)建幀差網(wǎng)絡(luò),將其銜接至YOLOv5形成隧道火災(zāi)檢測網(wǎng)絡(luò),使網(wǎng)絡(luò)可以融合視頻幀間的時空信息,提高檢測精度;同時優(yōu)化了損失函數(shù),模型可以更快收斂。

(2)基于訓(xùn)練后的網(wǎng)絡(luò),通過實驗選取最優(yōu)的隧道火災(zāi)分析策略,形成了一種隧道火災(zāi)檢測應(yīng)用方法,可進(jìn)一步降低漏檢、誤檢情況的發(fā)生。

(3)根據(jù)研究內(nèi)容構(gòu)建了大型高分辨率隧道火災(zāi)數(shù)據(jù)集。數(shù)據(jù)集以場景進(jìn)行分類,添加公開數(shù)據(jù)集的部分場景進(jìn)行擴(kuò)充,增強(qiáng)網(wǎng)絡(luò)模型的魯棒性。

經(jīng)實驗驗證,本文方法可以有效提高隧道火災(zāi)的檢測精度,且具有實時檢測的能力,可為隧道火災(zāi)檢測提供重要參考。

1 YOLOv5檢測網(wǎng)絡(luò)

YOLOv5是由Ultralytics公司提出的單階段目標(biāo)檢測算法,在YOLOv4[30]的基礎(chǔ)上做了進(jìn)一步的改進(jìn),模型尺寸更小,推理速度更快。YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,主要分為Backbone、Neck和Head三部分。

Backbone是檢測網(wǎng)絡(luò)的主干,包括Focus模塊、卷積層、B_CSP模塊和SPP模塊。其中,F(xiàn)ocus模塊設(shè)計目的用于降低FLOPS并提高速度。B_CSP模塊借鑒跨局部連接網(wǎng)絡(luò)(CSPNet)的設(shè)計思路,將基礎(chǔ)層的特征圖劃分為兩部分,通過CSP結(jié)構(gòu)合并,實現(xiàn)更豐富梯度組合的同時減少了計算量,既保證了推理速度和準(zhǔn)確率,又減小了模型尺寸。YOLOv5設(shè)計了2種CSP結(jié)構(gòu),Backbone中使用B_CSP_1,采用了殘差結(jié)構(gòu)。SPP模塊為空間金字塔池化,通過4個不同大小的最大池化層進(jìn)行下采樣,進(jìn)行多尺度融合,增大感受野。

Neck將特征進(jìn)行融合,包含F(xiàn)PN結(jié)構(gòu)[31]和PAN結(jié)構(gòu)[32]。FPN結(jié)構(gòu)自頂向下傳遞特征,通過上采樣對信息進(jìn)行融合,PAN結(jié)構(gòu)為自底向上的特征金字塔,通過下采樣增強(qiáng)網(wǎng)絡(luò)特征融合的能力。主要生成特征金字塔,增強(qiáng)模型對于不同縮放尺度對象的檢測,從而能夠準(zhǔn)確識別不同大小和尺度的同一物體。Neck中使用了B_CSP_2,沒有殘差結(jié)構(gòu)。

Head主要用于最終檢測部分,在特征圖上應(yīng)用anchor框,并生成帶有包圍框、對象置信度得分和類別概率的最終輸出向量。

YOLOv5檢測網(wǎng)絡(luò)有較高的檢測精度和速度,但在隧道火災(zāi)檢測領(lǐng)域方面,因光線、車輛等因素的影響,檢測精度難以保證,本文提出了幀差網(wǎng)絡(luò)結(jié)構(gòu),設(shè)計了隧道火災(zāi)檢測應(yīng)用方法,并通過實驗驗證本文方法在隧道火災(zāi)檢測方面的可行性。

2 隧道火災(zāi)幀差檢測網(wǎng)絡(luò)

2.1 幀差網(wǎng)絡(luò)

火災(zāi)在視頻中具有運(yùn)動特性,但目前的單幀目標(biāo)檢測算法只關(guān)注單幅圖像中目標(biāo)的特征,對火災(zāi)檢測來說無法做出及時準(zhǔn)確的反應(yīng)。因此本文設(shè)計了幀差網(wǎng)絡(luò)(frame difference network,F(xiàn)DN),既可以利用時間上下文信息消除幀間的信息冗余,又可以獲取目標(biāo)在幀間的運(yùn)動信息,補(bǔ)充單幀圖像中信息提供有限的問題,從而實現(xiàn)更快更準(zhǔn)的檢測。FDN主要由3D卷積組成,在圖像的寬、高基礎(chǔ)上增加時間維度,增強(qiáng)CNN的學(xué)習(xí)能力,網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,可以分為網(wǎng)絡(luò)輸入、3D切片、分支融合、網(wǎng)絡(luò)輸出四個模塊。

圖2 FDN網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 FDN network structure

(1)網(wǎng)絡(luò)輸入

使用3D卷積更適合于時空特征的學(xué)習(xí),傳統(tǒng)的2D卷積,它僅在空間上完成;而3D卷積可以更好地建模時間信息,在時空上執(zhí)行。兩者運(yùn)算的差異如圖3所示。對于單幅圖像的2D卷積將輸出一個圖像,在每次卷積運(yùn)算后就會丟失數(shù)據(jù)的時間信息,只有3D卷積才能保留時間信息。

圖3 2D卷積和3D卷積運(yùn)算Fig.3 2D convolution and 3D convolution operations

通常3D卷積運(yùn)算較為耗時,且對設(shè)備要求較高,這會增加成本,網(wǎng)絡(luò)模型較大導(dǎo)致檢測速度會降低,同時網(wǎng)絡(luò)輸入的圖片數(shù)量也會影響計算量。因此FDN結(jié)構(gòu)雖全部由3D卷積組成,但通過控制網(wǎng)絡(luò)輸入的圖片數(shù)量來降低計算量。這樣既可以提取目標(biāo)的時空特征,又能夠降低網(wǎng)絡(luò)訓(xùn)練對設(shè)備的要求,節(jié)約成本,還可以滿足實時檢測。

FDN網(wǎng)絡(luò)的輸入是通過滑動窗口在視頻中選取的關(guān)鍵幀,選取方法如圖4所示,其中藍(lán)色虛線框代表滑動窗口,棕色部分代表挑選出的關(guān)鍵幀。滑動窗口大小為0.5 s,選取相隔t的2幅圖像為關(guān)鍵幀作為網(wǎng)絡(luò)的輸入,并以前1幅圖像為主,圖像大小為640×640。

圖4 關(guān)鍵幀選取Fig.4 Key frame selection

火災(zāi)發(fā)生后短時間內(nèi)目標(biāo)形態(tài)跳變比較明顯,因此設(shè)置滑動窗口大小為0.5 s;又因相鄰幀時間跨度太小,目標(biāo)的特征變化并不明顯,因此選擇相隔t挑選關(guān)鍵幀,t隨機(jī)生成,范圍在0.2 s到0.4 s之間。

(2)3D切片

網(wǎng)絡(luò)采用3D切片主要通過改進(jìn)下采樣的方式降低模型的計算量,具體操作如圖5所示。對于輸入的2張圖片,每隔一個像素點取一個值,經(jīng)過Concat得到8張圖片,每4張為一組,組間圖片的信息是互補(bǔ)的,不存在信息丟失,這樣變向地將圖片的寬高信息整合到通道空間,原先的RGB三通道變成了12通道,最終經(jīng)過一個3D卷積,得到?jīng)]有信息丟失的而被下采樣特征圖。

圖5 3D切片示意圖Fig.5 3D slice diagram

普通下采樣與3D切片的計算量對比如圖6所示,可以發(fā)現(xiàn),3D切片的計算量約為普通卷積的55.6%,大大降低了模型的復(fù)雜度。(3)分支融合

圖6 計算量對比Fig.6 Comparison of calculation amount

隨著卷積神經(jīng)網(wǎng)絡(luò)層數(shù)的加深,輸出到輸入的路徑就會變得很長,這樣當(dāng)反向傳播時易出現(xiàn)梯度消失的現(xiàn)象,同時梯度信息的重復(fù)利用也會導(dǎo)致神經(jīng)網(wǎng)絡(luò)在推理過程中計算量過高,檢測的速度變慢。因此使用分支融合設(shè)計可以將梯度的變化從頭到尾集成到特征圖中,提升網(wǎng)絡(luò)的學(xué)習(xí)能力。

將輸入通過一個3D卷積進(jìn)行通道拆分,實現(xiàn)分支。其中一個分支將一半的特征經(jīng)過卷積核大小為3的3D卷積,獲得淺層特征。另一分支將一半的特征經(jīng)過稠密層(dense layer),獲得深層特征;最終經(jīng)過Concat將特征進(jìn)行融合。稠密層除了常規(guī)卷積之外,增加了殘差結(jié)構(gòu)(Res unit)可以增加層與層之間反向傳播的梯度值,避免因為網(wǎng)絡(luò)加深帶來的梯度消失,而且可以提取到更細(xì)粒度的特征,不用擔(dān)心網(wǎng)絡(luò)退化。

分支融合的做法可以為網(wǎng)絡(luò)各層均勻地分配計算量,提高每個計算單元的利用率,減少不必要的能耗。因為參與稠密層的通道只有原來的一半,所以可以減少近一半的計算瓶頸。同時這種層次化的特征融合機(jī)制,采用了截斷梯度流的策略來防止不同的層學(xué)習(xí)重復(fù)的梯度信息,最大化了梯度組合的差異,這樣在減少計算量的同時保證準(zhǔn)確率。

(4)網(wǎng)絡(luò)輸出

將FDN銜接至YOLOv5網(wǎng)絡(luò)的Backbone處形成隧道火災(zāi)幀差檢測網(wǎng)絡(luò),具體銜接方式如圖7所示。

圖7 FDN銜接YOLOv5示意圖Fig.7 FDN connection YOLOv5 schematic diagram

去掉YOLOv5主干網(wǎng)絡(luò)中Focus模塊與一個2D卷積,在第一個B_CSP_1模塊處接入FDN。因為FDN為全3D卷積結(jié)構(gòu),而YOLOv5為2D卷積結(jié)構(gòu),F(xiàn)DN的輸出大小與YOLOv5的輸入大小是不同的,所以將FDN網(wǎng)絡(luò)的輸出經(jīng)過線性層(Linear),消除時間維度,并把對應(yīng)位置的2幅特征圖融合,實現(xiàn)降維。最終FDN的輸出128×2×320×320變?yōu)?28×320×320,作為YOLOv5中B_CSP_1模塊的輸入,進(jìn)行2D卷積提取特征的過程。

隧道火災(zāi)幀差檢測網(wǎng)絡(luò)可以檢測單幅圖像及兩幅圖像,向下兼容。

2.2 損失函數(shù)優(yōu)化方法

YOLOv5的損失函數(shù)由邊界框損失、置信度損失和分類損失組成,如式(1)所示:

其中,Lbox為邊界框回歸損失,Lobj為置信度損失,Lcls為分類損失。

YOLOv5算法采用GIOU作為邊界框回歸的損失函數(shù),GIoU方法克服了IoU缺點的同時又充分利用了IoU的優(yōu)點,但對于預(yù)測框和目標(biāo)框包含或者寬高對齊的情況,檢測精度會下降,收斂速度慢。為解決此問題,本文方法使用CIoU[33]計算邊界框回歸損失,同時針對火災(zāi)檢測問題將置信度損失和分類損失融合,使用二值交叉熵?fù)p失函數(shù)計算。優(yōu)化后的損失函數(shù)計算公式如式(2)所示:

其中,L為總損失,LCIoU為邊界框回歸損失,LBCE為置信度和分類損失。

CIoU將目標(biāo)與anchor之間的距離、重疊率、尺度以及寬高比都考慮進(jìn)來,使目標(biāo)回歸框更加穩(wěn)定,進(jìn)一步快速收斂和提高性能。使用參數(shù)υ度量寬高比的相似性,計算如式(3)所示:

其中,w、h和wgt、hgt分別為預(yù)測框和真實框的寬和高。參數(shù)α為υ的權(quán)重函數(shù),重疊區(qū)域可以控制權(quán)重大小,計算如式(4)所示:

完整的CIoU函數(shù)計算如式(5)所示:

其中,IoU為預(yù)測框和真實框的交并比,ρ(·)為歐氏距離,b和bgt分別是預(yù)測框和真實框的中心點,c表示最小包圍預(yù)測框和真實框的對角線長度。

3 結(jié)果與分析

3.1 實驗環(huán)境與數(shù)據(jù)

3.1.1 實驗環(huán)境

本文實驗在如表1所示的環(huán)境平臺上進(jìn)行,編程語言為Python,深度學(xué)習(xí)框架為Pytorch。

表1 實驗環(huán)境Table 1 Experimental environment

3.1.2 TFD數(shù)據(jù)集

本文的實驗數(shù)據(jù)共包含2部分。一部分為根據(jù)現(xiàn)有研究數(shù)據(jù)構(gòu)建了大型高分辨率隧道火災(zāi)數(shù)據(jù)集(tunnel fire dataset,TFD)。數(shù)據(jù)集按照場景進(jìn)行分類,包含4個公路隧道場景和1個隨機(jī)場景,隧道場景由4段高速公路隧道中的火災(zāi)視頻制作而成,隨機(jī)場景由公開火災(zāi)數(shù)據(jù)集與自制數(shù)據(jù)集組成。數(shù)據(jù)集示例如圖8所示。

圖8 各子集示例圖Fig.8 Example diagram of each TFD subset

據(jù)研究統(tǒng)計,隧道內(nèi)70%的火災(zāi)事故是由車輛故障引起的,18%是由車輛交通事故引起的。由此可見車輛是隧道火災(zāi)的主要成因。本文的TFD數(shù)據(jù)集主要包含這兩種情況,如子集1、3和4為車輛故障,子集2為車輛交通事故。因隧道內(nèi)火災(zāi)位置發(fā)生的不確定性,在部分監(jiān)控視頻中火災(zāi)為小目標(biāo),TFD中的子集3為遠(yuǎn)景小目標(biāo)。同時考慮到隧道的火災(zāi)監(jiān)控視頻數(shù)據(jù)不易獲取,且隧道內(nèi)存在一些干擾因素會影響火災(zāi)目標(biāo)的檢測,因此在TFD中子集5由部分公開火災(zāi)數(shù)據(jù)集樣本與自制樣本組成,子集5的作用在于增強(qiáng)火災(zāi)目標(biāo)的特征,增加在不同場景中的火災(zāi)樣本,提高模型的魯棒性。

選用標(biāo)注工具LabelImg對TFD的樣本進(jìn)行標(biāo)注,因火災(zāi)為非剛性物體,沒有固定的形狀,在標(biāo)注時存在人為因素的影響,因此制定標(biāo)注規(guī)則:對火災(zāi)的顯著性特征進(jìn)行標(biāo)注,盡可能降低背景信息。數(shù)據(jù)集共有23 612張樣本,各子集中訓(xùn)練集、驗證集和測試集占比分別為60%、20%、20%,具體樣本數(shù)據(jù)統(tǒng)計結(jié)果如表2所示。

表2 TFD樣本數(shù)據(jù)統(tǒng)計Table 2 TFD sample data statistics

為了讓網(wǎng)絡(luò)能夠更好地學(xué)習(xí)火災(zāi)目標(biāo)的特征,TFD樣本數(shù)據(jù)在訓(xùn)練前進(jìn)行數(shù)據(jù)增強(qiáng),以提高模型的魯棒性。本文使用的數(shù)據(jù)增強(qiáng)方法有灰度變換、高斯模糊;翻轉(zhuǎn)、裁剪、仿射變換和透視變換。其中仿射變換包含平移、旋轉(zhuǎn)和放縮,仿射變換和透視變換占比較大。數(shù)據(jù)增強(qiáng)如圖9所示。

圖9 數(shù)據(jù)增強(qiáng)示例Fig.9 Data enhancement example diagram

實驗數(shù)據(jù)的另一部分為本文整合2個公開數(shù)據(jù)集中的視頻數(shù)據(jù)組成的火災(zāi)視頻集(fire video set,F(xiàn)VS),來源于江西財經(jīng)大學(xué)袁非牛教授團(tuán)隊和韓國啟明大學(xué)火災(zāi)視頻庫,包括火災(zāi)視頻和非火災(zāi)視頻。FVS不參與模型訓(xùn)練,部分示例圖如圖10所示。

圖10 FVS示例圖Fig.10 Example diagram of FVS

3.2 評價指標(biāo)

本文共有兩類評價指標(biāo),一類評價模型,另一類評價應(yīng)用方法。

模型評價包括訓(xùn)練后模型檢測的準(zhǔn)確率(precision,P)、召回率(recall,R)、平均精度(average precision,AP)、每秒檢測幀數(shù)(frames per second,F(xiàn)PS)和模型大小(size,S),由公式(6)~(8)計算:

其中,TP為真正例,F(xiàn)P為假正例,F(xiàn)N為假負(fù)例。AP為以準(zhǔn)確率和召回率分別為Y軸和FP X軸繪制曲線,進(jìn)而計算所得。隧道火災(zāi)檢測對應(yīng)的P-R曲線如圖11所示。

圖11 P-R曲線Fig.11 P-R curve

應(yīng)用方法的評價包括火災(zāi)視頻的漏檢率(miss detection rate,M)和非火災(zāi)視頻的誤檢率(wrong detection rate,W),由公式(9)、(10)計算:

其中,N為視頻總幀數(shù),df為檢測到火災(zāi)目標(biāo)的幀數(shù),wf為發(fā)生誤檢的幀數(shù)。

3.3 實驗結(jié)果與分析

3.3.1 模型訓(xùn)練

TFD通過本文網(wǎng)絡(luò)進(jìn)行訓(xùn)練,初始學(xué)習(xí)率為0.000 1,動量因子為0.9,迭代500輪,批處理大小(batch size)為64,網(wǎng)絡(luò)輸入大小為2×640×640。采用數(shù)據(jù)增強(qiáng)來增加訓(xùn)練樣本,在訓(xùn)練過程中保存訓(xùn)練日志同時更新權(quán)重,根據(jù)損失函數(shù)對網(wǎng)絡(luò)進(jìn)行調(diào)參至最優(yōu),選擇loss收斂時的權(quán)重作為最終權(quán)重,進(jìn)行檢測。

loss變化曲線如圖12所示,可以看出,在訓(xùn)練400輪之后,loss曲線趨于平滑,說明模型已收斂,選擇此時的權(quán)重進(jìn)行實驗。

圖12 loss曲線Fig.12 loss curve

3.3.2 不同改進(jìn)模塊的消融實驗

本文在第2章中提出了FDN網(wǎng)絡(luò)和CIoU損失函數(shù)優(yōu)化方法對YOLOv5進(jìn)行改進(jìn)。

FDN網(wǎng)絡(luò)整體使用3D卷積提取視頻幀間的圖像特征,由殘差結(jié)構(gòu)和分支分別完成對深層特征的提取以及特征的融合。FND對YOLOv5的改進(jìn)結(jié)果如表3所示。

表3 FDN改進(jìn)結(jié)果Table 3 Improvement results of FDN

其中,F(xiàn)DN_1與FDN_2為不同結(jié)構(gòu)的幀差網(wǎng)絡(luò)設(shè)計,F(xiàn)DN_1不包含殘差結(jié)構(gòu)和分支,只使用3D卷積;FDN_2包含殘差結(jié)構(gòu)但沒有分支;FDN既包含殘差結(jié)構(gòu)又有分支。通過將這3種不同的幀差網(wǎng)絡(luò)銜接至YOLOv5,并與YOLOv5檢測網(wǎng)絡(luò)在檢測精度與速度進(jìn)行對比,可以看出,4種方法的檢測速度基本持平,都可以滿足實時檢測;但在檢測精度方面,經(jīng)過3種不同幀差網(wǎng)絡(luò)的改進(jìn),與原YOLOv5相比,檢測的平均精度有了不同程度的提高,分別提高了0.3、2.43、6.84個百分點,其中FDN對于YOLOv5提升最為明顯,說明使用3D卷積提取幀間特征的方法對隧道火災(zāi)檢測是有效的。FDN相比FDN_1和FDN_2對YOLOv5檢測精度提高了6.54、4.41個百分點,說明包含殘差結(jié)構(gòu)與分支設(shè)計的FDN結(jié)構(gòu)對YOLOv5的改進(jìn)效果更好。

使用CIoU損失函數(shù)可以克服原GIoU損失函數(shù)的缺點,并使網(wǎng)絡(luò)可以快速收斂。通過圖13可以看出,GIoU損失函數(shù)在第460輪訓(xùn)練開始收斂,而使用CIoU損失函數(shù)收斂的時間提前了60輪,這表明本文的loss函數(shù)加快了收斂速度。

圖13 loss改進(jìn)結(jié)果Fig.13 Improvement results of loss

3.3.3 測試集檢測結(jié)果

本文方法TFD的測試集檢測的平均精度達(dá)到了91.03%,部分檢測結(jié)果如圖14所示。

圖14 本文方法部分檢測結(jié)果Fig.14 Test results of this method

圖14中(a)、(b)為隧道場景,(c)、(d)為其他場景。(a)和(c)中的火災(zāi)目標(biāo)區(qū)域較大,(b)和(d)中的火災(zāi)目標(biāo)區(qū)域較小,本文方法可以有效檢測到遠(yuǎn)處火災(zāi)目標(biāo)以及小火災(zāi)目標(biāo),并且有較高的置信度;(a)和(b)中場景較為復(fù)雜,受視頻分辨率和隧道、車輛燈光等因素的影響,本文方法依然可以在復(fù)雜情況下有效檢測火災(zāi)目標(biāo);同時(a)、(b)和(c)、(d)的結(jié)果表明,針對隧道場景的模型在其他場景下也可以有效檢測火災(zāi)目標(biāo)。

實驗結(jié)果表明本文方法可以有效檢測隧道場景下的火災(zāi)目標(biāo),且對于其他場景有一定的魯棒性,對于遠(yuǎn)處小火災(zāi)目標(biāo)也有良好的檢測效果,能夠有效區(qū)分火災(zāi)區(qū)域和非火災(zāi)區(qū)域。

3.3.4 與先進(jìn)檢測方法的對比實驗

為了進(jìn)一步驗證本文方法在隧道火災(zāi)檢測上的有效性,將本文方法與YOLOv3、YOLOv4、YOLOv5、Deformable DETR以及STPM等方法在TFD數(shù)據(jù)集上進(jìn)行對比實驗分析,6種方法測試結(jié)果如表4所示。

表4 不同模型對比結(jié)果Table 4 Comparison results of different models

與YOLO系列算法進(jìn)行對比,本文方法的AP與FPS相比YOLOv3和YOLOv4分別提升了21.75個百分點、49.0與14.5個百分點、27.4,在性能上有大幅度提高。本文方法相比YOLOv5,P、R、AP分別提升了5.6個百分點、5.34個百分點、6.84個百分點,因增加了幀差網(wǎng)絡(luò),雖然FPS降低了2.7、模型大小S增加了1.5 MB,但卻以犧牲少量檢測速度為代價提升了檢測精度,使模型綜合性能更佳,達(dá)到了實時檢測的要求。

本文方法與Deformable DETR[34]相比,P、R、AP FPS分別提高了6.63個百分點、4.16個百分點、7.61個百分點、61.19,Deformable DETR是典型的使用transformers注意力機(jī)制的算法,更加關(guān)注局部特征。該算法整體性能較好,但模型較大,F(xiàn)PS僅為2.51,檢測速度慢,無法達(dá)到隧道火災(zāi)實時檢測的需求。

火災(zāi)屬于隧道中的意外性異常事件,STPM[35]是一種針對此類事件的異常檢測網(wǎng)絡(luò)。本文方法比STPM的P、R、AP、FPS提高了4.81個百分點、2.44個百分點、5.86個百分點、56.04。雖然STPM的檢測精度較高,但FPS為7.66,檢測速度較低,同樣無法滿足實時檢測的需求。

將標(biāo)注的真值框和YOLOv4、YOLOv5、Deformable DETR、STPM以及本文方法的檢測結(jié)果進(jìn)行對比,結(jié)果如圖15所示,為突出檢測區(qū)域,顯示時對框內(nèi)部做了顏色加深,同時馬賽克處理了敏感信息。

圖15 部分檢測結(jié)果對比Fig.15 Comparison of different test results

YOLOv4的檢測框區(qū)域普遍比真值框更小,結(jié)果受隧道內(nèi)燈光、車輛等因素的影響較大,誤檢情況較多,置信度低。YOLOv5的檢測框區(qū)域則比真值框大,結(jié)果受隧道燈光、車輛的影響較輕,但還存在誤檢和漏檢的情況,置信度較低。Deformable DETR檢測精度較高,但檢測框較真值框略大,且在第2、4、5幅圖的這種有較多車輛和燈光的復(fù)雜環(huán)境中,存在誤檢情況。STPM的檢測精度較高,僅低于本文方法,但檢測框區(qū)域同樣偏大,同時對于隧道這種昏暗的復(fù)雜場景中,如第3、4、5幅圖,環(huán)境中其他因素的干擾導(dǎo)致誤檢情況較為嚴(yán)重。以上4種方法的檢測精度均低于本文方法,存在不同程度的檢測框大小偏離以及誤檢情況。本文方法的檢測結(jié)果更貼近真值框,幀差網(wǎng)絡(luò)可以屏蔽大部分靜態(tài)因素的干擾,置信度較高。此外第一幅圖的對比結(jié)果表明,本文方法可以區(qū)分不連通的火災(zāi)區(qū)域為不同目標(biāo),表明對火災(zāi)目標(biāo)的定位更加精確。

本文方法可以滿足隧道火災(zāi)的實時檢測,并以每秒63.7幀的檢測速度,達(dá)到了91.03%的平均精度。本文方法的檢測結(jié)果位置更精確,置信度更高,抗干擾能力強(qiáng),可以有效降低漏檢和誤檢情況的發(fā)生。實驗證明了本文方法對于隧道火災(zāi)檢測的可行性。

3.3.5 魯棒性驗證

為了驗證本文方法的魯棒性,將本文方法訓(xùn)練的模型在3.2節(jié)的FVS中進(jìn)行實驗,結(jié)果如表5所示。

表5 本文方法在FVS的實驗結(jié)果Table 5 Results of thismethodin FVS

通過表5可以看出,在TFD上訓(xùn)練的模型在FVS中的多個不同場景中的P、R、AP、FPS達(dá)到了83.26%、78.49%、85.34%、63.5,有較高的檢測精度和速度,表明本文方法模型具有良好的魯棒性。

4 隧道火災(zāi)檢測應(yīng)用方法與測試

本文提出了隧道火災(zāi)幀差檢測網(wǎng)絡(luò),并基于該網(wǎng)絡(luò)設(shè)計了不同的分析策略,形成隧道火災(zāi)檢測應(yīng)用方法,在隧道場景與其他場景下,對火災(zāi)視頻和非火災(zāi)視頻進(jìn)行檢測測試,對比不同策略下的漏檢率和誤檢率,選取最優(yōu)的策略。

4.1 分析策略

火災(zāi)是一個持續(xù)的事件,單獨一幀圖像的檢測結(jié)果并不可靠,無法得出準(zhǔn)確的判斷,因此可以通過對連續(xù)的多幀圖像進(jìn)行分析,綜合判斷得到可靠準(zhǔn)確的結(jié)果。中華人民共和國國家標(biāo)準(zhǔn)(GB 15631—2008)中特種火災(zāi)探測器對于圖像型火災(zāi)探測的響應(yīng)時間規(guī)定為:從發(fā)生火災(zāi)到發(fā)出火災(zāi)報警信號的響應(yīng)時間應(yīng)不大于20 s。本文設(shè)計了不同的基于多幀圖像的火災(zāi)判定方法:

(1)判斷連續(xù)10幀圖像是否均檢測到火災(zāi)目標(biāo);

(2)判斷連續(xù)25幀圖像中存在火災(zāi)目標(biāo)的圖像是否大于等于20幀;

(3)判斷連續(xù)125幀圖像中存在火災(zāi)目標(biāo)的圖像是否大于等于100幀。

4.2 測試結(jié)果

本文設(shè)計的隧道火災(zāi)檢測應(yīng)用方法在隧道場景和其他場景中使用不同策略進(jìn)行測試,結(jié)果如表6所示。

表6 不同策略測試結(jié)果Table 6 Test results of different strategies

根據(jù)表6可以看出,策略(1)對于火災(zāi)視頻在隧道場景的漏檢率為2.52%,比策略(2)和策略(3)分別低1.43個百分點和1.83個百分點;在其他場景的漏檢率為2.18%,比策略(2)和策略(3)分別低1.93個百分點和2.6個百分點。說明策略(1)判斷連續(xù)10幀均檢測到火災(zāi)目標(biāo)的方法可以有效降低漏檢情況的發(fā)生,提高了火災(zāi)檢測的精度。

對于非火災(zāi)視頻在隧道場景的誤檢率,策略(1)為2.03%,比策略(2)和策略(3)分別低2.77個百分點和4.38個百分點;在其他場景,策略(1)的誤檢率為1.82%,比策略(2)和策略(3)分別低2.23個百分點和5.2個百分點。說明策略(1)可以大幅降低算法在實際場景中檢測火災(zāi)的漏檢率,使隧道火災(zāi)檢測應(yīng)用方法有更高的可靠性。

隧道火災(zāi)檢測應(yīng)用方法使用隧道火災(zāi)幀差檢測網(wǎng)絡(luò),通過判斷連續(xù)10幀圖像是否均檢測到火災(zāi)目標(biāo),確定是否發(fā)生火災(zāi)。實驗證明,隧道火災(zāi)檢測應(yīng)用方法具有較低的漏檢率和誤檢率,基本可以滿足實際應(yīng)用場景的需求。

5 結(jié)束語

目前關(guān)于隧道火災(zāi)檢測的研究方法和數(shù)據(jù)都比較缺乏,通過研究現(xiàn)有的火災(zāi)檢測方法,本文提出了一種基于全卷積的隧道火災(zāi)幀差網(wǎng)絡(luò)。FDN使用3D卷積提取關(guān)鍵幀的特征,有時序感知能力;CIoU函數(shù)優(yōu)化網(wǎng)絡(luò)的損失函數(shù),使模型可以更快收斂。通過隧道火災(zāi)數(shù)據(jù)集和整合的公開火災(zāi)視頻集進(jìn)行實驗。

本文設(shè)計了改進(jìn)模塊的消融實驗、與先進(jìn)檢測器的對比實驗,結(jié)果表明,本文方法在數(shù)據(jù)集TFD上達(dá)到了91.03%的AP,每秒檢測速度高達(dá)63.7,模型在FVS上有很好的魯棒性。基于提出的隧道火災(zāi)幀差網(wǎng)絡(luò),通過實驗選取最優(yōu)的分析策略,構(gòu)成隧道火災(zāi)檢測應(yīng)用方法。該方法能夠進(jìn)行實際應(yīng)用,可對隧道火災(zāi)檢測提供重要參考。在之后的工作中,如何有效擴(kuò)充隧道火災(zāi)數(shù)據(jù)集是今后研究的重點;在保證檢測速度的前提下,通過3D卷積進(jìn)行多幀檢測提升精度是今后研究的難點。

猜你喜歡
特征檢測方法
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達(dá)“特征”
不忠誠的四個特征
抓住特征巧觀察
小波變換在PCB缺陷檢測中的應(yīng)用
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 欧美α片免费观看| 男女男免费视频网站国产| 国产免费久久精品99re不卡 | 国产91精品久久| 91九色视频网| 亚洲最大看欧美片网站地址| 不卡网亚洲无码| 91精品国产自产在线老师啪l| 亚洲无码高清免费视频亚洲 | 久久精品国产精品一区二区| a亚洲视频| 天天操天天噜| 欧美另类视频一区二区三区| 2021国产精品自产拍在线| 国产成人精品一区二区秒拍1o| 伊人久久精品亚洲午夜| 午夜激情婷婷| 亚洲国产综合自在线另类| 国产人人乐人人爱| 国产美女精品一区二区| 亚洲天堂高清| 婷婷亚洲最大| 青草精品视频| 无码又爽又刺激的高潮视频| 999精品在线视频| 91探花国产综合在线精品| 99re经典视频在线| 一本无码在线观看| 久久青青草原亚洲av无码| 欧美日本不卡| 毛片在线播放a| 国产成人高清在线精品| 国产第一页第二页| 国产精品欧美激情| 国产精品不卡片视频免费观看| 国产乱人伦精品一区二区| 国产一二三区视频| 国产成人精品免费视频大全五级| 无码在线激情片| 日韩不卡免费视频| 成人精品亚洲| www.av男人.com| 不卡色老大久久综合网| 色成人综合| swag国产精品| 亚洲av成人无码网站在线观看| 国产高颜值露脸在线观看| 免费高清毛片| 97青青青国产在线播放| 免费看美女自慰的网站| 爱做久久久久久| 青青草国产免费国产| 动漫精品中文字幕无码| 久久综合色88| 日韩123欧美字幕| 女人天堂av免费| 91娇喘视频| 亚洲中字无码AV电影在线观看| 九九九国产| 免费在线看黄网址| 谁有在线观看日韩亚洲最新视频| 天天操天天噜| 亚洲最猛黑人xxxx黑人猛交 | 亚洲AV无码乱码在线观看代蜜桃| 波多野结衣久久高清免费| 亚洲AV电影不卡在线观看| 亚洲中文字幕久久精品无码一区| 色欲国产一区二区日韩欧美| 日本一区高清| 国产网站免费| 亚洲欧美国产视频| 最新亚洲av女人的天堂| 日日摸夜夜爽无码| 十八禁美女裸体网站| 国产精品黑色丝袜的老师| 国产无码在线调教| 久久久久国产精品熟女影院| 无码免费试看| 91免费精品国偷自产在线在线| 欧美日韩第二页| 国产无遮挡猛进猛出免费软件| 伊人成色综合网|