999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv7的火災火焰檢測模型

2025-08-27 00:00:00劉成明吳凡李學相
鄭州大學學報(理學版) 2025年5期

關鍵詞:YOLOv7;火災檢測;Wise-IoU損失函數(shù);注意力機制;PConv模塊 中圖分類號:TP391 文獻標志碼:A 文章編號:1671-6841(2025)05-0001-08 DOI:10.13705/j. issn.1671-6841.2024041

A Flame Detection Model Based on Improved YOLOv7

LIU Chengming,WU Fan,LI Xuexiang ( School of Network Technology Security, Zhengzhou University, Zhengzhou 45Oo02,China)

Abstract:The issue of inadequate effectivenessof existing object detection models for detecting flame was addressed.A novel fire detection model was proposed by optimizing and enhancing the network structure of the YOLOv7 algorithm. Several innovative improvements were introduced in three key aspects.Firstly, the YOLOv7 was augmented with a small object detection layer and SE attntion,coordinate attention, and Biformer modules were incorporated to enhance the extraction of smallobject features. Secondly,the CoordConv and PConv modules were integrated to replace the standard convolution blocks in the network, resulting in reduced computational complexity during training and deployment,and improved network detection speed.Lastly,the issue of inconsistent quality of annotated bounding boxes in the experimental dataset was addressed by replacing the CIoU loss function with the Wise-IoU loss function. Experimental results conducted on the KMU Fire and Smoke database demonstrated that the improved model achieved a 2.5 percentage points increase in average precision and a 1.7 percentage points increase in recall. Additionally,the frame rate reached 79.4 frames per second. This dual improvement in detection performance and speed surpassed that of traditional object detection algorithms,making the model more effective in detecting fires.

Key words: YOLOv7; fire detection; Wise-IoU loss function; atention mechanism; PConv module

0 引言

滅災作為一種對人們生命財產(chǎn)安全有著巨大威脅的災害,其爆發(fā)往往是突然的、迅猛的。火災檢測是目前防范火災的重要手段之一,而深度學習算法在火災檢測場景下的應用正逐漸成為主流[]。傳統(tǒng)的火災檢測技術主要依賴于煙霧傳感器、火焰?zhèn)鞲衅鳌囟葌鞲衅鞯任锢韨鞲衅鱽頇z測火災的發(fā)生。但煙霧傳感器容易受到其他煙霧或污染物的干擾,誤報率高,火焰?zhèn)鞲衅餍枰銐虻墓饩€才能正常工作,不適用于一些特殊環(huán)境。相比于傳統(tǒng)的檢測方法,基于計算機視覺算法的火災檢測技術已經(jīng)相對成熟,各種相關技術快速發(fā)展。

近年來,研究人員提出了一些方法來改善火焰煙霧檢測模型的性能。比如陳俊周等2提出了一種提取原始圖像靜態(tài)紋理信息的方法,利用光流序列提取動態(tài)紋理信息,使得在復雜場景下可以進行火焰煙霧檢測。殷亞萍等[3使用高斯混合模型提取運動目標進行判斷,提高多場景下的模型適用性。Simonyan等[4]基于改進的VGG16網(wǎng)絡,提出了一種計算量較小的模型。張堅鑫等[5]基于FasterR-CNN網(wǎng)絡[6改進特征提取過程來實現(xiàn)火災檢測。Ryu等[在火焰數(shù)據(jù)預處理問題上使用HSV通道和角點檢測器的解決方案,使得傳入數(shù)據(jù)在特征提取之后,可以在高誤檢率場景中實現(xiàn)較好的火災檢測性能。現(xiàn)有的火焰煙霧檢測模型盡管取得了一些進步,但仍存在一些局限性,如誤報率高、難以檢測小火焰目標,以及對光照條件變化敏感等。

本文借助 YOLOv7[8] 算法檢測模型,在主干網(wǎng)絡中增加了新的特征提取層,引入Wise-IoU[9]機制,并對 SE[10]、Coord[1]、Biformer[12]注意力機制以及PConv[13]卷積模塊進行融合。通過實驗對比不同結構的效果,在提高網(wǎng)絡訓練和推理速度的同時保證模型復雜度基本一致。

1相關工作

目標檢測作為計算機視覺領域的研究熱點,可分為傳統(tǒng)目標檢測[14]和基于深度學習的目標檢測[15]。傳統(tǒng)的目標檢測方法主要依靠特征提取器,利用滑動窗口提取圖像特征生成大量的目標候選區(qū)域[16]。隨著卷積神經(jīng)網(wǎng)絡成為圖像特征提取和分類的工具,基于深度學習的目標檢測技術通過使用多結構網(wǎng)絡模型及其訓練算法自適應地學習圖像的高級語義信息。在Redmon 等[17]提出了YOLO(youonlylookonceversion)算法后,分類、定位和檢測功能集成在了一個網(wǎng)絡中,大大提高了檢測效率。在此之后,YOLO系列開發(fā)了許多升級版本,如基于YOLOv3[18]、YOLOv4 和 YOLOv5等的檢測算法[19-21]。但是較新的 YOLOv7 算法尚未充分調優(yōu)并應用于火焰檢測。YOLOv7主體網(wǎng)絡層分為四個部分。

1)Input層。YOLOv7的Input層與YOLOv5基本相同,但整體的數(shù)據(jù)預處理方式和模型相關源碼不變,主要使用數(shù)據(jù)增強的方式豐富數(shù)據(jù)集,隨機縮放和排布使小目標增加,平衡了顯存壓力和訓練速度之間的矛盾。

2)Backbone層。YOLOv7的主干特征提取網(wǎng)絡顯著區(qū)別于YOLOv5,主要使用高效聚合(efficientlayeraggregationnetwork,ELAN)網(wǎng)絡模塊。ELAN結構可以通過控制最短和最大的局部梯度路徑來構造相對密集的殘余誤差結構,這種殘余誤差結構便于對反向傳播進行優(yōu)化,還可以考慮通過加大深度來改善特征提取程度。

3)Neck與Head層。對主干網(wǎng)絡中所提取到的特征進行融合利用,主要使用了SPPCSPC[20]空間金字塔池化及跨階段部分連接模塊、下采樣優(yōu)化模塊、REP卷積結構,以及同主干層中相似的ELAN高效聚合結構。在YOLOv7中,SPPCSPC空間金字塔模塊與跨階段部分連接模塊結合,將特征分為兩個分支,一部分進行常規(guī)的卷積處理,另一部分接入SPP結構處理。經(jīng)過融合特征之后,得到三個融合加強后不同大小的特征,分別負責預測大、中、小三種尺度上的目標框,之后將三個特征圖傳入頭部網(wǎng)絡中獲取預測結果。

2 YOL0v7算法及改進策略

本文對YOLOv7算法的改進分為特征提取層添加、注意力機制引入、卷積模塊替換以及損失函數(shù)優(yōu)化四個方面,以期解決模型對細粒度特征的分辨能力不足、對小目標的檢測效果不穩(wěn)定的問題,同時減少數(shù)據(jù)集標注框質量對模型檢測效果的影響。另外,在保證以上問題得以解決的基礎上保證模型參數(shù)量在合理范圍內,實現(xiàn)檢測效果和檢測效率的雙重提升。對模型進行改進后的結構如圖1所示。改進后的模型增加了小目標檢測層網(wǎng)絡,從特征提取層的第一個ELAN模塊處理特征后就開始進行特征提取和增強,后續(xù)會接受來自深層特征的上采樣信息與細粒度信息融合后繼續(xù)向下層傳遞,讓原模型中的輸出通道都能提高對小目標物體的檢測敏感度,進而提高對小目標的檢測性能。

圖1改進YOLOv7模型結構圖

2.1 改進的注意力結構

YOLO系列模型在對目標位置進行預測時并不會借助先驗信息,這導致對目標定位時會喪失部分精度,并且對初始單元格內部的特征無法區(qū)分。因此,在特征提取網(wǎng)絡中引入注意力機制會使早期目標較小的火焰特征的檢測性能有較大提升。本文嘗試在模型中加人輕量級的SE注意力機制來調整每個通道權重。改進模型設計時,考慮到特征融合網(wǎng)絡增加了小目標檢測層會使得計算量提高,為了保證預測部署時的計算速度和運行幀率,僅在連接處添加了改進后的SE模塊。

SE模塊通過一對被稱為擠壓和激勵的操作來完成,擠壓操作通過全局池化將輸入特征圖壓縮為一個向量,然后連接一個全連接層,進一步將其映射為一個較小的變量,以此來降低特征圖的空間維數(shù)。激勵操作使用全連接網(wǎng)絡和激活函數(shù)來構建信道依賴性,并生成一組注意力權重,將這些權重用于縮放特征圖,得到加權特征圖后傳遞到網(wǎng)絡的下一階段。SE注意力模塊結構簡單,在實驗中表現(xiàn)出色,進一步將模塊中的激活函數(shù)替換為SiLU函數(shù),同卷積模塊與特征融合模塊中的激活函數(shù)保持一致。由于SiLU函數(shù)有著無上界而有下界,且相較于ReLU函數(shù)增加了平滑非單調的特點,這使得替換激活函數(shù)之后的SE模塊表現(xiàn)更加穩(wěn)定,在復雜檢測場景下的誤判率有所降低。SE注意力機制見圖2。

Figure1Structure of improved YOLOv7

圖2改進SE注意力機制結構圖

Figure 2 Structure of improved SE attention mechanism

為了進一步增強模型對火焰邊緣位置區(qū)域的關注程度,抑制雜亂的背景信息特征,本文在兩處最大池化模塊之前引入空間注意力機制[]。如圖3所示,通過將輸入特征分別按照長度方向和寬度方向進行一維自適應平均池化,從而分別得到保留有長度方向和寬度方向的獨立感知特征,之后將池化特征的維度進行統(tǒng)一調整后拼接,再經(jīng)過一個卷積,以及非線性激活函數(shù)將得到的特征在通道維度進行拆分,通過卷積以及Sigmoid激活函數(shù)得到特定空間方向依賴的特征圖,兩個特征圖可以應用到輸入特征圖來增強感興趣的目標。

CA(coordinateattention)注意力機制著重考慮空間位置信息,將空間維度的通道作為注意力權重分配的重要依據(jù),旨在捕捉圖像中不同對象特征之間的空間關系,并考慮了特征位置與檢測對象之間相對位置的相關性和重要性。近年來,目標檢測模型在注意力機制方面的改進大多圍繞自注意力機制進行,這種結構可以幫助網(wǎng)絡捕捉長距離上下文依賴,在一定程度上帶來了性能上的提升,卻有著占用內存大、計算代價高的問題。有許多工作對自注意力機制進行了優(yōu)化,大體上都是通過引入不同手工模式的稀疏注意力來減輕復雜性,或者是基于可變形注意力,并通過不規(guī)則網(wǎng)格來實現(xiàn)圖像自適應稀疏性。不同于通過引入手工制作和與內容無關的稀疏性,文獻[12]提出的Biformer是一種全新的稀疏注意力機制,借助雙層路由注意力機制(Bi-levelroutingattention,BRA)使得Transformer具備更加靈活的計算分配方式,以及更加細致的內容感知能力,從而達到動態(tài)地查詢和感知特征圖稀疏性。流程圖見圖4。

圖3空間注意力機制結構圖

Figure3Structureof spatial attention mechanism

圖4BRA模塊流程圖

Figure 4 BRA module flow chart

從圖4可以看出,輸入的長和寬分別被記為 H? W ,且被分成 S2 個子區(qū)域,繼續(xù)將特征輸人變換形狀,對特征向量進行線性變換得到 Q,K,V 三個矩陣,計算公式為

其中: Xr 代表特征輸入; , WV 分別表示進行Q,K,V 三個矩陣運算中相互獨立的權重矩陣。

對每個區(qū)域的 Q,K 進行區(qū)域平均處理,得到每個區(qū)域的 和 Kr ,之后計算兩者的點積得到用于測量區(qū)域之間相關性的鄰接矩陣 A ,緊接著對鄰接矩陣進行過濾,將相關性最低的粗粒度區(qū)域舍去,保留相關性最高的前 k 個區(qū)域,以此獲得路由索引矩陣 Ir ,具體公式為

A=Q(K)?

Ir=topkIndex(Ar),

其中:區(qū)域相關性鄰接矩陣 Ar=[A1,A2,?,Ar] ;路由索引矩陣為 Ir=[I1,I2,?,Ir] ;topkIndex代表一種相關性過濾運算。

隨后對路由索引矩陣 Ir 繼續(xù)在細粒度級別上使用token-to-token注意力,收集這 k 個區(qū)域中的所有 K,V 矩陣,以獲得 Kg,Vg ,之后進行注意力處理,并增加局部上下文增強項,以得到最終的輸出張量o ,計算公式為

Kg=gather(K,Ir),

O=Attention(?Kg,Vg)+LCE(V), (8)其中: Kg,Vg 表示相關性最高的前 k 個區(qū)域中的鍵矩陣和值矩陣;gather代表一種聚合運算;Attention代表自注意力運算; LCE 代表局部上下文增強項。

YOLOv7無法學習獲得全局特征之間的關系,而基于Transformer模塊提出的Biformer注意力機制很好地彌補了卷積神經(jīng)網(wǎng)絡模型在這一方面的不足,構建出健壯穩(wěn)定的數(shù)據(jù)驅動模型以獲取特征之間的相關程度,使模型在處理復雜場景時顯現(xiàn)出更強的魯棒性和靈活性。考慮模型部署平臺的計算能力和存儲資源可能有限,將Biformer模塊引入SPPCSPC模塊中不僅可以優(yōu)化模型的參數(shù)規(guī)模、節(jié)省計算資源,還能夠提高模型對重要信息的注意度,優(yōu)化模型檢測性能。改進后的SPPCSPC模塊結構見圖5。考慮加入主干網(wǎng)絡中會導致預訓練權重無法使用,因此本文將注意力機制插入特征融合網(wǎng)絡中,注意力模塊嵌入位置見圖5。

圖5改進SPPCSPC模塊結構圖

2.2 卷積模塊

傳統(tǒng)的CNN依賴于簡單的卷積運算,這些卷積運算不是為顯式模擬空間坐標而設計的,為了解決這個問題,提出了CoordConv模塊。CoordConv模塊向輸入張量添加了兩個額外的通道,用以表示特征圖中每個像素的坐標,更好地學習與圖像坐標對齊的空間變換,以此來提高目標檢測任務的準確性。本文將CoordConv模塊加在YOLO特征融合層中,以此使得網(wǎng)絡獲得空間坐標感知能力。經(jīng)過測試發(fā)現(xiàn),CoordConv模塊放在上采樣之前代替普通卷積模塊,這樣可以使得主干網(wǎng)絡學習到的特征第一時間經(jīng)過該模塊進行處理。另一種嵌入方式是放在檢測頭之前,在將融合后的結果拼接之后,再次進行帶有空間坐標的卷積,可以在增加少量計算量的基礎上,保持相當程度的平移不變性和平移依賴性。

目前各種計算機視覺任務憑借人工神經(jīng)網(wǎng)絡的進步得到了高速發(fā)展,但由于終端設備的部署需求以及計算能力的限制,網(wǎng)絡設計更加偏向于追求低延遲和高吞吐量,從而讓使用者獲得更好的體驗。過去的工作絕大部分聚焦于如何通過設計網(wǎng)絡來達到減少浮點運算的目的,但是一味地追求浮點運算的減少并不一定會使模型潛在規(guī)模縮小,部分卷積PConv被提出來解決冗余計算和內存訪問的問題,同時能更有效地提取空間特征。

不同于分組卷積和深度可分離卷積,PConv利用濾波器的冗余性來減少參數(shù)量和浮點運算量,PConv應用僅在輸入通道中部分使用正則卷積,其余保持不變,將連續(xù)通道作為整個特征圖的代表進行計算。為了避免退化成普通卷積,剩余的未被濾波器處理的通道仍然保留,這使得特征信息得以流經(jīng)所有通道。本文在主干網(wǎng)絡層中的ELAN模塊中引入PConv模塊,替換其中最長路徑上的普通卷積來達到減小計算成本的目的。

2.3 損失函數(shù)改進

YOLOv7中采用CIoU或GIoU作為Boundingbox的損失函數(shù)。但是不管是CIoU還是GIoU所做出的優(yōu)化工作,都是假設大多數(shù)訓練數(shù)據(jù)有較高的質量,然后致力于強化邊界框損失的擬合能力。本文采集的數(shù)據(jù)集火焰標注質量較低,因此需要對不同質量的錨框加以區(qū)分才能有效提高檢測性能,

1)傳統(tǒng)無聚焦機制IoU。真實框與預測框重合情況,見圖6。

Figure 5Structure of improved SPPCsPC module

圖6真實框和預測框圖示

Figure 6Illustration of real box and prediction box

IntersectionoverUnion(IoU)用于度量目標檢測任務中錨框和目標框之間的重疊程度,用 IIoU 表示,

其中: LIoU 代表IoU的損失函數(shù); Wi,Hi 表示真實框和預測框重合部分的寬和高; Su 代表真實框和預測框進行并集運算后的面積。

通過這種方式設計出的IoU有很明顯的缺陷,模型預測出來的邊界框與真實框沒有產(chǎn)生重疊,會使得網(wǎng)絡在進行反向傳播的過程中產(chǎn)生梯度消失的情況,導致訓練期間不能更新重疊區(qū)域的寬度。目前,圍繞邊界損失函數(shù)設定這一問題所提出的解決方法通常是在考慮錨框幾何因素的同時,構造不同的懲罰項 Ri 進行加法處理來解決梯度可能消失的問題,較為常用的有Distance-IoU、Complete-IoU、Scylla-IoU以及FocalEIoU等。

2)帶有聚焦機制的IoU。為了解決上面所提到的標注質量影響網(wǎng)絡性能的問題,F(xiàn)ocal-EIoUv1在損失函數(shù)中加入了聚焦機制,但是它的聚焦機制并不能夠隨著訓練的進行而動態(tài)調整,這也使得聚焦機制的潛能并沒有被更好地激發(fā),所以本文選用具有動態(tài)非單調聚焦機制的Wise-IoU損失函數(shù),它的設計基于雙層注意力機制,使得損失函數(shù)可以根據(jù)目標框和真實框的距離度量來合理地分配比重。Wise-IoUv1的計算公式為

LwIoUv1=RwIoULIoU

其中: LWIoUv1 代表Wise-IoUv1的損失函數(shù); RWIoU 代表目標框和真實框距離度量; (x,y),(xgt,ygt) 表示預測框和真實框中心的坐標; Wgt,Hgt 表示真實框的寬和高。

Wise-IoUv3作出了較大改變,使用新定義的離群度來替換Wise-IoUv2中的梯度增益因子,如果該值較小則說明錨框質量可能更高,反之則說明錨框質量可能較低。接下來分別為其分配較小的梯度增益和較大的梯度增益,這樣便可以在回歸任務中更多地關注普通質量錨框,防止低質量錨框在反向傳播中生成的無益梯度對模型泛化產(chǎn)生影響。本文中使用的WIoUv3在上述損失函數(shù)的基礎上又加入動態(tài)聚焦機制,隨著訓練過程的推進,動態(tài)修改區(qū)分閥值,使得數(shù)據(jù)集中普通質量的錨框在回歸中占據(jù)更大比重,使模型得到更好的回歸效果。

3 實驗與結果分析

3.1 評估指標

本文采用目標檢測模型常用的評估指標參數(shù)量Params , R ,平均精度 mAP 以及FPS(frames per sec-ond)進行模型評估。 R 指預測結果中正樣本的回收率 ,mAP 指每個類別 AP 的均值, AP,mAP 以及FPS值越大越好。

3.2實驗環(huán)境和參數(shù)設置

實驗所用顯卡為NVIDIAGeForceRTX308012GB,虛擬環(huán)境為 Python3.9+Cuda11.0+Py. Torch1.8.1。數(shù)據(jù)集按照一定比例劃分為訓練集和驗證集,其中驗證集和測試集保持一致。考慮到顯存大小和運行速度,實驗中將批量大小設置為16,初始學習率為0.01,總共進行150次迭代。

本文的火災與煙霧數(shù)據(jù)集主要采用CVPR實驗室采集的KMUFireandSmokedatabase火焰圖像,以及來自網(wǎng)絡的火災圖像等。為了對小目標火焰進行檢測,從網(wǎng)絡上收集并篩選一些含有小火焰的圖片進行手動標注。數(shù)據(jù)集包含白天、黑夜、室內、室外等多種場景,共計5066張圖片。標注好的數(shù)據(jù)集以VOCdevkit目錄格式進行存儲。對5066張圖片進行隨機挑選,測試集共617張,驗證集617張,訓練集4449張。

3.3實驗設計與結果分析

本文使用YOLOv7原模型作為基準模型,使用上述數(shù)據(jù)集對YOLOv7原模型與本文新模塊進行重新訓練。分析訓練數(shù)據(jù)發(fā)現(xiàn),當訓練迭代次數(shù)達到100以后,模型收斂速度明顯變慢,150次迭代后開始出現(xiàn)過擬合現(xiàn)象,所以下文訓練所選取訓練迭代次數(shù)均為150。

本文設計了四組消融實驗,通過消融實驗來驗證不同改進模塊對 YoLOv7 網(wǎng)絡的影響,最后再綜合分析改進模型的性能。加入SE注意力機制與Coord注意力機制后, mAP0.5 分別提升了 1.7% 和1.3% , R 分別提升了 5.1% 和 4.3% ,檢測性能得到了較大提升,幀率有小幅度下降。雖然Biformer模塊單獨引入后,相比于原模型在各方面指標都有所下降,但是在后續(xù)實驗驗證中發(fā)現(xiàn),如果Biformer模塊同其他模塊連接,模型的檢測性能會得到提升。對此實驗結果,認為是由于Biformer模塊中特殊的Transformer和路由索引機制所提取出來的特征,在后續(xù)的卷積過程中提供了普通卷積沒有提取到的特征,從而提高了模型表征能力。

為了驗證WIoU替換YOLOv7中CIoU后的檢測效果,本文使用Wise-IoUv3作為損失函數(shù),發(fā)現(xiàn)WIoU相較于CIoU能夠顯著提高模型的召回率和平均精度,尤其是在 mAP0.5;0.9 上的提升尤為明顯,提升了2.5個百分點。綜合后續(xù)實驗結果分析,只在原模型的基礎上將CIoU替換為WIoU已經(jīng)可以獲得較好的結果,但是對于幀率有一定影響。另外,缺少注意力機制的引入,使得在空間縱深和復雜環(huán)境遮擋等情況的圖像檢測效果欠佳。

在本文中,探索了CoordConv模塊和PConv 在YOLOv7網(wǎng)絡中融合的有效性(下文消融實驗表中簡寫為CC和PC),并將其性能與傳統(tǒng)CNN進行了比較。在加入CoordConv模塊后,模型檢測精度有所提高,整體與CA注意力機制表現(xiàn)相當,但召回率較低,幀率下降明顯。另外在原模型ELAN模塊中用 PConv 置換普通卷積后所得到召回率和 mAP0.5 均有所下降,分別降低了1.8個和1.5個百分點,但是檢測幀率達到了84.7幀/s,相比于原模型提升較大。部分消融實驗結果見表1。

表1部分消融實驗結果

Table1Resultsof partial ablation experiments

對各個模塊的有效性和性能進行驗證后,將有效模塊串聯(lián)拼接進行實驗,最終得出各個改進模型結果見表2。

表2各改進點組合消融實驗結果

Table2Experimental resultsof combined ablation at various improved points

先驗證了單一注意力機制結合WIoU以及兩種卷積模塊的有效性,最終得出的改進模型,使用SE注意力機制結合選用帶有空間特征提取能力的Coord注意力機制可以獲得更好的檢測性能,獲取空間感知能力的任務更多地交由CoordConv卷積模塊來完成,再將Biformer嵌入到SPPCSPC模塊中負責建立相關區(qū)塊的依賴關系,實驗證明這樣的網(wǎng)絡設計可以提高對小型火焰目標的檢測能力,如圖7所示,原始模型對于小型火焰以及成片的火焰目標檢測判定表現(xiàn)一般,而改進后模型對于火焰可進行更加細致的劃分和檢測,而且置信度也有明顯增加。同時,在有遮擋物的場景下,改進后的模型能夠更加精準地將分割后的火焰目標進行識別和標注。表3為YOLO系列模型表現(xiàn)對比結果。

表3YOLO系列模型檢測結果

Table3Detection resultsofsomeYOLOseriesmodels

圖7原始模型與改進模型預測效果圖

Figure 7 Prediction renderings of the original model and improved model

4結語

作為傳統(tǒng)火焰檢測的補充或替代,基于深度學習算法的火焰檢測系統(tǒng)也愈發(fā)成熟,本文針對目前目標探測模塊對小型火災目標探測有效性不足的情況,結合現(xiàn)有的目標檢測技術,實現(xiàn)了對YOLOv7模型網(wǎng)絡、檢測頭以及損失函數(shù)等部分的改進,使得模型檢測精度和速度得到了提升。

本文所做對比實驗使用的數(shù)據(jù)集規(guī)模較小。未來將改進模型應用于特定場景下,收集特定場景下的火焰圖片,或是模擬火災場景的圖片來擴充數(shù)據(jù)集,進一步探索更加輕量級的網(wǎng)絡模型進行訓練,豐富改進模型的使用場景,提高其應用價值。

參考文獻:

[1] 祝玉華,司藝藝,李智慧.基于深度學習的煙霧與火 災檢測算法綜述[J].計算機工程與應用,2022,58 (23):1-11. ZHUYH,SIYY,LI ZH.Overview of smoke and fire detection algorithms based on deep learning[J]. Computerengineeringandapplications,2022,58(23):1-11.

[2] 陳俊周,汪子杰,陳洪瀚,等.基于級聯(lián)卷積神經(jīng)網(wǎng) 絡的視頻動態(tài)煙霧檢測[J].電子科技大學學報, 2016,45(6): 992-996. CHENJZ,WANG ZJ,CHEN H H,etal.Dynamic smoke detection using cascaded convolutional neural networkfor surveillancevideos[J].Journal ofuniversityof electronic science and technology of China, 2016, 45(6) : 992-996.

[3]殷亞萍,柴文,凌毅德,等.基于特征分析的卷積神 經(jīng)網(wǎng)絡煙霧識別[J].無線電工程,2021,51(7): 526-533. YIN Y P,CHAI W,LING Y D,et al. Convolutional neural network for smoke recognition based on feature analysis[J].Radio engineering,2021,51(7):526- 533.

[4]SIMONYAN K,ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[EB/OL]. (2014-09-04)[2024-02-21].http:// arxiv.org/abs/ 1409.1556.

[5]張堅鑫,郭四穩(wěn),張國蘭,等.基于多尺度特征融合 的火災檢測模型[J].鄭州大學學報(工學版),2021, 42(5):13-18. ZHANG J X,GUO S W, ZHANG G L, et al. Fire detection model based on multi-scale feature fusion[J]. Journal of Zhengzhou university(engineering science), 2021,42(5):13-18.

[6]REN SQ,HE K M,GIRSHICK R,et al.Faster RCNN: towards real-time object detection with region proposal networks[J]. IEEE transactions on pattern analysis and machine intelligence,2017,39(6):1137-1149.

[7]RYU J,KWAK D. Flame detection using appearancebased pre-processing and convolutional neural network [J]. Applied sciences,2021,11(11):5138.

[8]WANG C Y,BOCHKOVSKIY A,LIAO H Y M. YOLOv7:Trainable bag-of-freebies sets new state-of-theart for real-time object detectors[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway:IEEE Press ,2023:7464-7475.

[9]TONG Z,CHEN Y,XU Z,et al. Wise-IoU: bounding box regression loss with dynamic focusing mechanism[EB/ OL].(2023-01-24)[2024-02-28]. http: //arxiv.org/ abs/2301. 10051.

[10]HU J,SHEN L,ALBANIE S,et al. Squeeze-and-excitation networks[EB/OL].(2017-09-05)[2024-02-24].http:// arxiv.org/abs/1709.01507.

[11]HOU Q,ZHOU D,F(xiàn)ENG J. Coordinate attention for efficient mobile network design[EB/OL].(2021-03-04) [2024-02-24]. http://arxiv.org/abs/2103.02907.

[12]ZHU L,WANG X J,KE Z H,et al.BiFormer:vision transformer with bi-level routing attention[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway:IEEE Press,2023:10323 - 10333.

[13] CHEN JR,KAO S H,HE H,et al.Run,don’t walk: chasing higher FLOPS for faster neural networks[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway:IEEE Press,2023:12021- 12031.

[14]FORSYTH D. Object detection with discriminatively trained part-based models[J]. Computer,2014,47(2) : 6-7.

[15]LIU D L,TENG W. Deep learning-based image target detection and recognition of fractal feature fusion for BIOmetric authentication and monitoring[J]. Network modeling analysis in health informatics and bioinformatics, 2022,11(1) :17.

[16]VIOLA P,JONES M.Rapid object detection using a boosted cascade of simple features[C]//Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Press, 2001:511-518.

[17]REDMON J,DIVVALA S,GIRSHICK R,et al. You only look once: unified,real-time object detection[EB/OL]. (2015-06-08)[2024-02-04].http://arxiv.org/abs/ 1506.02640.

[18] REDMON J,F(xiàn)ARHADI A. YOLOv3: an incremental improvement[EB/OL].(2018-04-08)[2024-02-04]. http: //arxiv. org/abs/1804.02767.

[19]王陽,袁國武,瞿睿,等.基于改進 YOLOv3的機場 停機坪目標檢測方法[J].鄭州大學學報(理學版), 2022,54(5): 22-28. WANGY,YUAN G W,QU R,et al. Target detection method of airport apron based on improved YOLOv3[J]. Journal of Zhengzhou university (natural science edition),2022,54(5):22-28.

[20]YAO Y,PEI D,REN Q,et al. Research on lightweight flame detection algorithm based on improved YOLOv5[C] //2022 3rd International Conference on Computer Vision, Image and Deep Learning International Conference on Computer Engineering and Applications. Piscataway : IEEE Press,2022:1128-1132.

[21]YAN G B,GUO JL,ZHU DY,et al. A flame detection algorithm based on improved YOLOv7[J]. Applied sciences,2023,13(16):9236.

主站蜘蛛池模板: 国产精品私拍在线爆乳| 国产一区二区人大臿蕉香蕉| 久久大香香蕉国产免费网站| 亚洲精品国产日韩无码AV永久免费网 | 欧美日韩国产综合视频在线观看| 久久久成年黄色视频| 精品无码一区二区三区在线视频| 国产成人1024精品下载| 免费a在线观看播放| 亚洲高清资源| 日韩无码黄色| 国产精品国产三级国产专业不 | 精品免费在线视频| 欧美国产精品拍自| 亚洲精品视频在线观看视频| 97av视频在线观看| 亚洲国产日韩视频观看| 亚洲有码在线播放| 国产夜色视频| 91在线国内在线播放老师| 国产传媒一区二区三区四区五区| 久久精品亚洲专区| 午夜电影在线观看国产1区| 久久6免费视频| 国产经典三级在线| 呦系列视频一区二区三区| A级毛片高清免费视频就| 国产精品妖精视频| 亚洲综合色婷婷| 久久中文电影| 97在线免费视频| 国产精品吹潮在线观看中文| 伊人大杳蕉中文无码| 美女毛片在线| 亚洲精品你懂的| 国模视频一区二区| 亚洲成人网在线播放| 有专无码视频| 国产男女XX00免费观看| 亚洲AⅤ波多系列中文字幕| 欧美h在线观看| 一级毛片在线直接观看| 国产小视频免费观看| 一级一毛片a级毛片| 999国内精品久久免费视频| 日本精品影院| 欧洲在线免费视频| 狠狠色丁香婷婷综合| 91小视频在线| 亚洲乱码在线视频| 国产激情无码一区二区APP| 亚洲h视频在线| 国产av无码日韩av无码网站 | 99偷拍视频精品一区二区| 国产福利小视频高清在线观看| 精品国产免费第一区二区三区日韩| 日韩一级毛一欧美一国产| 国产日韩精品欧美一区喷| 色久综合在线| 亚洲黄色成人| 亚洲va视频| 手机在线免费不卡一区二| 国产成人亚洲日韩欧美电影| 怡红院美国分院一区二区| 成人小视频网| 国产精品中文免费福利| 精品少妇人妻一区二区| 国产制服丝袜无码视频| 国产91精品久久| 波多野结衣在线一区二区| 欧美日韩在线观看一区二区三区| 国产高清毛片| 国产精品无码影视久久久久久久 | 亚洲高清在线播放| 久久动漫精品| 在线观看国产精品日本不卡网| 中文字幕欧美日韩| 国产精品一区二区不卡的视频| 精品国产成人高清在线| 国产第一福利影院| 精品国产黑色丝袜高跟鞋| 国产午夜无码片在线观看网站|