何揚 胡秀云



摘? 要:近年來,大多數火災自動報警系統都是通過檢測感溫、感煙和感光等傳感器的方法進行檢測,只能針對單一特征信息進行判斷識別,受到外界空間、環境或人為因素的影響。卷積神經網絡(CNN)以其高準確率的識別率在廣泛應用成為一個活躍的研究課題。然而如何可靠、有效地解決火焰檢測問題仍然是實踐中一個具有挑戰性的問題。本文提出了一種新的基于CNN的火焰實時檢測算法,該算法通過對普通攝像機監控場景產生的視頻數據進行處理。首先,為了提高識別效率,提出了一種候選目標區域特征提取算法,用于處理可疑火焰區域。其次,提取候選區域的圖像特征根據設計的基于CNN的深度神經網絡模型進行分類,最后根據分類得到相應的判斷。
關鍵詞:卷積神經網絡? 火焰檢測? 特征提取? 深度學習
中圖分類號:TP319? ? ? ? ? ? ? ? ? ? ? ? ? 文獻標識碼:A文章編號:1674-098X(2021)05(b)-0109-03
Flame Detection Method Based on Convolution Neural Network
HE Yang? HU Xiuyun
(School of Information Science and Engineering, Shenyang Ligong University, Shenyang, Liaoning Province, 110159 China)
Abstract: In recent years, most of the automatic fire alarm systems are detected by detecting temperature, smoke and light sensors. They can only judge and identify single feature information, which is affected by the external space, environment or human factors. Convolutional neural network (CNN) has become an active research topic in a wide range of applications because of its high accuracy. However, how to solve the problem of flame detection reliably and effectively is still a challenging problem in practice. In this paper, a new real-time flame detection algorithm based on CNN is proposed. The algorithm processes the video data produced by ordinary camera monitoring scene. Firstly, in order to improve the recognition efficiency, a candidate target region feature extraction algorithm is proposed to deal with the suspicious flame region. Secondly, the image features of candidate regions are extracted and classified according to the designed CNN based deep neural network model. Finally, the corresponding judgment is obtained according to the classification.
Key Words: Convolution neural network; Flame detection; Feature extraction; Deep learning
為了有效地實時檢測火災,傳統的火焰檢測方法識別算法大多采用人工特征,如顏色、形狀、質地和運動。然而,火焰單一特征的提取不能滿足高的火焰檢測率。所以各種深度學習算法被廣泛應用于該領域,反向傳播(BP)、貝葉斯神經網絡(BNN)和卷積神經網絡(CNN),去提高火災視頻檢測性能。
1? 火焰檢測方法概述
提出了一種基于卷積神經網絡[1]的彩色火焰特征檢測與識別方法。首先,利用所提出的RGB模型[2]提取火焰圖像的顏色特征,得到候選區域。其次,利用神經網絡對歸一化特征圖進行分類。最后,利用卷積神經網絡的分類結果得到報警信號,并對所提出的神經網絡的性能進行了測試。本文選用方法主要包括3個主要階段。
2? 火焰視頻圖像采集
首先選取火焰視頻圖像數據作為自己的訓練集[3],訓練集主要包含在不同環境下采集的圖像數據,其次訓練集中的圖像數據包括75%的正序列(fire)和25%的負序列(nofire),正序列即包含帶有火焰的數據圖像,負序列即不帶有火焰的圖像數據。
3? 擬定方法
本文以提高火災探測性能為目標,提出了一種基于深度神經網絡的火災探測方法。
算法原理圖如圖1所示。該算法可分為2個主要階段。第一,提出了一種基于不同環境的顏色模型來精確分割視頻序列中的火災候選區域。第二,通過以下方法確定歸一化候選區域,即一種基于CNN的新型結構。第三,根據辨識結果做出響應。
3.1 候選火焰區域提取方法
因為火災危害極大,警告越早火災造成的損失越小。因此,火焰識別算法的實時性要求在實際消防工程中具有重要意義。
傳統的目標檢測深度學習方法大多基于多尺度滑動窗口[4],但這些方法大大降低了算法的效率。本文通過加入火焰顏色特征模型,提高了算法的計算速度。由于RGB模型的計算復雜度低于其他顏色模型[5],因此本文采用RGB模型提取火焰顏色特征。首先,利用火焰顏色模型對原始圖像進行分割,得到候選區域,基于統計經驗數據,實驗結果表明,火災的每個RGB像素應滿足以下條件:
這里,M(x,y)表示分段函數圖像顏色二值化掩模,fR(x,y)是通道R的值,fB(x,y)是通道B的值。然后,通過獲取連通區域的外矩形,提取神經網絡的歸一化候選區域,得到不同外場景的外矩形區域的二值圖像。
3.2 神經網絡的結構
卷積神經網絡(CNN)的結構分為3個部分:卷積層、池化層和全連通層。這3個部分的功能分別是魯棒特征提取、函數特征降維和分類[6]。根據CNN的結構,提出了一種新的CNN結構更適合火災探測的卷積神經網絡結構。
3.2.1 卷積層
卷積層是所提出的神經網絡的核心。為了有效區分火和像火一樣的分心,這些層由一個矩形的神經元網格組成,這使得分類更加快捷。在卷積層中,基于RGB模型的火災圖像經過三次卷積運算,卷積核大小分別設置為最優參數。眾所周知,ReLU[7]函數φ(x)具有單側抑制、寬激發邊界和稀疏激活等優點,因此具有ReLU函數φ(x)在每個卷積層后采用,滿足以下條件:φ(x)=max(0,x),其中max(.)表示0和x之間的較大值。第一層卷積核函數的可視化,神經網絡模型的卷積濾波器主要檢測邊緣、角度和曲線等低階特征。然后,第一層的卷積特征映射,可以看出得出不同的特征由不同的濾波器檢測出來。
3.2.2 匯集層
在前3個ReLU函數φ(x)之后,處理后的數據在池層中進行下采樣。為了減少更多參數的成本,采用了一個最大池化窗口。為了提高該結構的泛化能力,避免擬合現象的產生,數據在前兩個池化層用范數理論進行歸一化。歸一化函數滿足以下條件:
其中,||.||1和||.||2分別代表L1范數和L2范數,x表示卷積特征向量火災候選區域。
3.2.3 完全連接層
最后,在第3個池化層之后,全連通層的功能是級聯火災特征圖像。為了減少過平滑現象,在最后2個ReLU函數φ(x)之后采用了dropout方法,包括以一定的概率將所選層中每個隱藏神經元的輸出設置為零。
4? 結語
本文提出的基于卷積神經網絡(CNN)的算法流程圖如圖2所示。在訓練神經網絡模型的過程中,卷積層的訓練就是訓練一些卷積濾波器,這些濾波器具有高激活度的獨特模式,以達到CNN的目的。層數越多,特征就越復雜。為了訓練出更好的卷積核,并得到這些卷積核更有效的組合方式,本文利用所提出的模型得到最優參數,然后用最優參數對測試樣本進行有效分類,訓練集和測試集的損失函數通過計算可以得出,隨著訓練和測試迭代次數的增加,損失函數都減小,函數趨于穩定。試驗精度通過計算可以得出,隨著訓練迭代次數的增加,測試精度提高。
參考文獻
[1] 楊真真,匡楠,范露,等.基于卷積神經網絡的圖像分類算法綜述[J].信號處理,2018,34(12):1474-1489.
[2] 王玲.彩色數字圖像的量子表示及加密算法研究[D].哈爾濱:哈爾濱工業大學,2020.
[3] 馬天兵,劉健,杜菲,等.基于改進Otsu方法的振動圖像分割研究[J].電光與控制,2019,26(2):11-15,31.
[4] 鐘卓耀.基于深度學習的自然場景圖像中文字檢測的研究和應用[D].廣州:華南理工大學,2020.
[5] 陳杰.基于色彩信息的圖像增強研究[D].南京:南京郵電大學,2017.
[6] 章琳,袁非牛,張文睿,等.全卷積神經網絡研究綜述[J].計算機工程與應用,2020,56(1):25-37.
[7] 王紅霞,周家奇,辜承昊,等.用于圖像分類的卷積神經網絡中激活函數的設計[J].浙江大學學報:工學版,2019,53(7):1363-1373.