999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Faster R-CNN的顏色導(dǎo)向火焰檢測(cè)

2020-06-07 07:07:12巢夏晨語(yǔ)董翔宇尚偉偉
計(jì)算機(jī)應(yīng)用 2020年5期
關(guān)鍵詞:特征區(qū)域檢測(cè)

黃 杰,巢夏晨語(yǔ),董翔宇,高 云,朱 俊,楊 波,張 飛,尚偉偉*

(1.國(guó)網(wǎng)安徽省電力有限公司檢修分公司,合肥230061; 2.中國(guó)科學(xué)技術(shù)大學(xué)信息科學(xué)技術(shù)學(xué)院,合肥230027;3.國(guó)網(wǎng)安徽省電力有限公司,合肥230022)(?通信作者電子郵箱wwshang@ustc.edu.cn)

0 引言

隨著計(jì)算機(jī)視覺(jué)的發(fā)展,基于計(jì)算機(jī)視覺(jué)的火焰檢測(cè)技術(shù)得到了大量的研究。從圖像中檢測(cè)火焰比煙霧報(bào)警器更快,從而能夠?qū)馂?zāi)進(jìn)行提前預(yù)警。目前,基于機(jī)器視覺(jué)的火焰檢測(cè)方法(后簡(jiǎn)稱為火焰檢測(cè))主要分為基于人工設(shè)計(jì)的圖像特征與基于卷積神經(jīng)網(wǎng)絡(luò)提取的深度特征兩大類。在基于深度特征的方法中,一種廣泛使用的方法是將卷積神經(jīng)網(wǎng)絡(luò)作為分類器應(yīng)用于火焰檢測(cè),這種方法僅能判斷出圖像中是否存在火焰,而無(wú)法給出火焰所在的位置,因此僅能用于火災(zāi)的預(yù)警。而對(duì)于需要自動(dòng)滅火的場(chǎng)合,如自動(dòng)滅火機(jī)器人[1]、大空間自動(dòng)射流裝置[2]等,需要首先確定火焰所在圖像中的位置,才能進(jìn)一步計(jì)算與火焰之間的距離,從而實(shí)現(xiàn)自動(dòng)撲滅火焰。

在傳統(tǒng)的火焰檢測(cè)方法中,一般采用人工設(shè)計(jì)的特征進(jìn)行火焰識(shí)別。T?reyin等[3]訓(xùn)練一個(gè)高斯混合模型作為火焰的顏色模型,結(jié)合運(yùn)動(dòng)檢測(cè)算法來(lái)提取候選區(qū)域,再對(duì)這些區(qū)域進(jìn)行時(shí)域與空域上的小波分析,從而判斷各區(qū)域是否為火焰區(qū)域;Foggia等[4]使用背景減法來(lái)獲取候選區(qū)域,再利用顏色、形態(tài)變化、運(yùn)動(dòng)這三種圖像特征,建立三個(gè)評(píng)價(jià)模塊來(lái)對(duì)各個(gè)區(qū)域進(jìn)行判別,并使用一個(gè)有權(quán)重的投票策略進(jìn)行綜合決策。這兩種方法僅能用于固定的攝像頭上,無(wú)法應(yīng)用于自身存在運(yùn)動(dòng)的視覺(jué)系統(tǒng)中;Chino等[5]構(gòu)建了BoWFire數(shù)據(jù)集,同時(shí)提出了一個(gè)顏色特征與超像素紋理辨別相結(jié)合的火焰檢測(cè)算法框架,其局限性在于對(duì)圖像中火焰的召回率不能滿足實(shí)際應(yīng)用的需求。

由于深度特征在多個(gè)領(lǐng)域取得了比人工特征更好的效果,深度特征也被應(yīng)用在了火焰檢測(cè)領(lǐng)域。Muhammad等[6]訓(xùn)練了一個(gè)二分類的GoogleNet用于檢測(cè)火焰,在數(shù)據(jù)集[5]上取得了較好的準(zhǔn)確度(84%~92%),且能展現(xiàn)較好的魯棒性;Frizzi等[7]使用卷積神經(jīng)網(wǎng)絡(luò)來(lái)獲取圖像的特征圖,再在特征圖上以12×12大小的滑動(dòng)窗口判斷是否存在火焰或煙霧,其局限性在于沒(méi)有在更大規(guī)模的數(shù)據(jù)集中進(jìn)行測(cè)試;Maksymiv等[8]使用局部二值模式(Local Binary Pattern,LBP)特征與AdaBoost算法來(lái)獲取圖像中可能存在火焰的區(qū)域,再使用一個(gè)卷積神經(jīng)網(wǎng)絡(luò)對(duì)各區(qū)域進(jìn)行判別;王華秋等[9]提出一種基于雙曲正割函數(shù)的變步長(zhǎng)最小均方算法(Least Mean Square,LMS)改進(jìn)的小腦模型神經(jīng)網(wǎng)絡(luò)(Cerebellar Model Articulation Controller,CMAC),使用最優(yōu)閾值搜尋算法分割圖像后,提取區(qū)域的特征向量輸入CMAC進(jìn)行判別。隨著基于深度特征的目標(biāo)檢測(cè)方法的興起,先進(jìn)的通用目標(biāo)檢測(cè)方法被應(yīng)用在火焰檢測(cè)上。Barmpoutis等[10]訓(xùn)練一個(gè)更快速的區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Faster Region-based Convolutional Neural Network,F(xiàn)aster R-CNN)[11]模型來(lái)獲取圖像中潛在的火焰區(qū)域,使用線性動(dòng)態(tài)系統(tǒng)(Linear Dynamical System,LDS)提取這些區(qū)域的紋理特征,再使用局部聚合描述向量(Vector of Locally Aggregated Descriptors,VLAD)算法對(duì)特征編碼,并最終判別各個(gè)區(qū)域是否為火焰區(qū)域;Kim等[12]使用Faster R-CNN檢測(cè)可能的火焰區(qū)域,隨后由長(zhǎng)短期記憶(Long Short-Term Memory,LSTM)網(wǎng)絡(luò)在一個(gè)時(shí)間區(qū)間內(nèi)累積該區(qū)域的特征,并判別區(qū)間內(nèi)該區(qū)域是否存在火焰,最后利用多個(gè)時(shí)間區(qū)間的判別結(jié)果進(jìn)行投票得到最終的檢測(cè)結(jié)果。

針對(duì)上述研究,本文提出一種由顏色引導(dǎo)的Faster RCNN模型,利用掩膜卷積技術(shù),使錨僅生成在顏色與火焰相近的區(qū)域,提高了Faster R-CNN火焰檢測(cè)的效率。本文主要工作包括以下方面:

1)提出顏色引導(dǎo)的拋錨策略,使用簡(jiǎn)單的顏色模型有效減少了Faster R-CNN在火焰檢測(cè)任務(wù)中初始錨生成的數(shù)量。

2)提出了掩膜RPN(Region Proposal Network),利用掩膜卷積技術(shù),改進(jìn)Faster R-CNN的區(qū)域生成網(wǎng)絡(luò),使得Faster RCNN在火焰檢測(cè)任務(wù)上的速度相較于原Faster R-CNN提高了10.1%。

3)將提出的方法在BoWFire與Corsician數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),并與最新的火焰檢測(cè)方法進(jìn)行了比較,驗(yàn)證了本文方法的有效性。

中國(guó)旅游節(jié)由國(guó)家林業(yè)和草原局主辦,廣州市人民政府、廣東省林業(yè)局、廣東省文化和旅游廳共同承辦,主題是“綠水青山就是金山銀山——粵森林、悅生活”。

1 Faster R-CNN

Faster R-CNN[11]是一種在區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Regionbased Convolutional Neural Network,R-CNN)[13]和快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Fast Region-based Convolutional Network,F(xiàn)ast RCNN)[14]的基礎(chǔ)上改進(jìn)得到的通用目標(biāo)檢測(cè)方法,它與另外兩種R-CNN的主要不同在于使用區(qū)域生成網(wǎng)絡(luò)(Region Proposal Network,RPN)來(lái)獲取初始的候選框,以代替耗時(shí)的選 擇 性 搜 索 算 法 。Faster R-CNN 在 COCO[15]與 PASCAL VOC[16]目標(biāo)檢測(cè)任務(wù)上取得了很好的效果,因此,本文選擇Faster R-CNN作為文中方法的基礎(chǔ)。

Faster R-CNN的檢測(cè)框基于錨生成,錨是在目標(biāo)檢測(cè)過(guò)程中生成的最初的一批候選框。依據(jù)人為確定的m種大小比例(Scale)與n種橫縱比(Aspect Ratio),將這些比例與橫縱比進(jìn)行組合,可以在每個(gè)錨點(diǎn)處獲得m×n種形狀確定的錨。圖1展示了一個(gè)錨點(diǎn)以及該點(diǎn)處生成的所有錨候選框,圖片中心處的點(diǎn)為錨點(diǎn),其周圍的方框即為錨。錨點(diǎn)以一定間隔分布在整張圖像上,因此錨可以覆蓋整幅圖像。

圖1 一個(gè)錨點(diǎn)以及該點(diǎn)處的錨候選框Fig.1 An anchor point and theanchor candidate boxesgenerated at that point

本文使用的Faster R-CNN模型結(jié)構(gòu)如圖2所示,主要分為三部分,分別是特征提取器、區(qū)域生成網(wǎng)絡(luò)和R-CNNhead。其中,特征提取器主要由一系列卷積層構(gòu)成,輸入圖像經(jīng)過(guò)特征提取器后可以得到該圖像的一系列特征圖。隨后,這些特征圖被送入RPN中,RPN是一個(gè)滑動(dòng)窗口形式的物體檢測(cè)器,它的本質(zhì)是3個(gè)卷積層,輸入特征圖后,經(jīng)過(guò)3×3卷積層將特征圖映射到一個(gè)較低維的空間,并由兩個(gè)并聯(lián)的1×1大小卷積核的卷積層在特征圖的每個(gè)點(diǎn)處生成各個(gè)錨中是否包含物體的置信分?jǐn)?shù)S與各個(gè)錨的修正量,RPN輸出的錨修正量為其中與代表錨中心位置在圖像X、Y方向上的偏移量代表錨長(zhǎng)寬的變化量。將錨經(jīng)過(guò)對(duì)應(yīng)的修正后得到一系列候選框,再對(duì)這些候選框進(jìn)行非最大值抑制,濾除與置信度最高的候選框面積交叉過(guò)大的候選框。經(jīng)過(guò)非最大值抑制后,對(duì)每個(gè)候選框分別進(jìn)行感興趣區(qū)域(Region of Interest,RoI)池化,得到各候選框?qū)?yīng)的特征圖,最后由R-CNNHead的線性層分別輸出每個(gè)候選框的分類預(yù)測(cè)p與進(jìn)一步的候選框修正量R-CNNHead輸出的修正量與RPN輸出的修正量的物體意義完全相同。

圖2 Faster R-CNN模型結(jié)構(gòu)Fig.2 Structureof Faster R-CNNmodel

2 顏色引導(dǎo)的拋錨策略

在Faster R-CNN中,為了使錨點(diǎn)分布在盡可能廣的圖像位置上,保證各個(gè)區(qū)域都被大小合適的錨所覆蓋,其錨點(diǎn)是密集分布的,錨生成在特征圖的每一個(gè)點(diǎn)上。在通用目標(biāo)檢測(cè)中,沒(méi)有特定的目標(biāo)種類,所以需要密集的拋錨策略。但是在火焰檢測(cè)任務(wù)上,圖像區(qū)域的種類僅剩下兩種:火焰或者背景,密集的拋錨策略會(huì)使得錨生成在很多沒(méi)有火焰的圖像區(qū)域。再考慮到火焰在圖像上存在的顯著特性,這使得Faster R-CNN的檢測(cè)可以在引導(dǎo)下進(jìn)行。本文中,受到文獻(xiàn)[17]中導(dǎo)向性拋錨的啟發(fā),提出了一種稀疏的拋錨策略,在Faster RCNN中使用火焰自身的圖像特性來(lái)引導(dǎo)錨的生成,代替原本密集的拋錨策略,從而提升檢測(cè)火焰的效率與準(zhǔn)確度。

在火焰的圖像特征中,顏色特征較為容易獲取,也是在火焰檢測(cè)中被廣泛使用的火焰特征。為了使得錨能夠生成在圖像中所有與火焰顏色相近的區(qū)域,且錨框盡量不會(huì)遺漏火焰區(qū)域,本文使用了一個(gè)較為寬松的顏色模型。這個(gè)顏色模型覆蓋了一般火災(zāi)情形下的火焰顏色,不考慮特殊材料燃燒時(shí)產(chǎn)生的火焰的顏色(藍(lán)色等),其定義為式(1):

其中:M(x,y)表示生成的火焰顏色掩膜;fR、fG、fB指圖像的R、G、B三通道的圖像值;TR表示R通道上設(shè)置的閾值。在該模型中,TR的取值依據(jù)于本文中使用的數(shù)據(jù),其典型值為150~200,TR取值過(guò)大會(huì)使得模型過(guò)于嚴(yán)格,導(dǎo)致一些火焰區(qū)域存在被漏檢的可能,TR取值過(guò)小則模型偏向于寬松,RPN中錨的生成數(shù)量增加,導(dǎo)致檢測(cè)效率的下降。

通過(guò)這個(gè)顏色模型,可以獲得一個(gè)較為寬松的顏色掩膜,這個(gè)掩膜中包含了火焰,以及所有與火焰顏色相近的圖像區(qū)域。本文中,將Faster R-CNN原本的密集錨生成策略,改變?yōu)橛深伾龑?dǎo)的拋錨策略:僅將錨點(diǎn)設(shè)置在掩膜中的感興趣區(qū)域,而掩膜的其他區(qū)域則不生成任何錨,這樣可以大大減少初始生成的錨數(shù)量,且錨都分布在與火焰顏色相近的物體周圍,這也提高了錨的平均質(zhì)量。圖3展示了由顏色引導(dǎo)的拋錨策略的錨點(diǎn)位置,圖3(c)中分布在火焰附近的點(diǎn)即為錨點(diǎn)。為了實(shí)現(xiàn)以上說(shuō)明的拋錨策略,本文主要對(duì)Faster R-CNN的核心,即RPN進(jìn)行了改進(jìn),稱之為掩膜RPN,它接受一個(gè)與特征圖大小一致的額外掩膜作為輸入,從而可以結(jié)合掩膜信息,使得錨僅在感興趣的區(qū)域生成。

圖3 顏色引導(dǎo)的拋錨策略的錨點(diǎn)生成Fig.3 Anchor generation of color-guided anchoringstrategy

模型的整體結(jié)構(gòu)如圖4所示。首先,將圖像輸入特征提取器,得到特征圖;同時(shí)將輸入圖像通過(guò)顏色模型,獲取輸入圖像的火焰顏色掩膜;將特征圖與縮放到相同大小的掩膜輸入掩膜RPN,得到經(jīng)過(guò)篩選與修正的區(qū)域;最后,將各區(qū)域輸入分類與回歸兩個(gè)分支網(wǎng)絡(luò),即R-CNN Head,得到最終的檢測(cè)框。圖4中展示了掩膜RPN的具體結(jié)構(gòu),在Faster R-CNN的基礎(chǔ)上,將各個(gè)卷積層均替換為掩膜卷積(masked convolution)[18-19]層,掩膜卷積僅在掩膜的感興趣區(qū)域進(jìn)行卷積,其他區(qū)域均置零,從而可以減少一部分矩陣點(diǎn)乘運(yùn)算。通過(guò)使用掩膜卷積來(lái)實(shí)現(xiàn)顏色引導(dǎo)的拋錨策略,可以提高模型計(jì)算的效率。

此外,上述顏色引導(dǎo)的拋錨策略對(duì)于其他基于錨的目標(biāo)檢測(cè)算法同樣適用,如 YOLOV2[20]、YOLOV3[21]、SSD(Single Shot multibox Detector)[22]、特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network,F(xiàn)PN)[23]等,由于這些方法均在特征圖的每一個(gè)點(diǎn)上生成錨,故與本文中提出的方法相同,在拋錨策略中加入火焰顏色掩膜即可,即將對(duì)應(yīng)的普通卷積層替換為掩膜卷積層。

圖4 由顏色引導(dǎo)的Faster R-CNN模型結(jié)構(gòu)與掩膜RPNFig.4 Model structureof color-guided Faster R-CNNand masked RPN

3 Faster R-CNN的訓(xùn)練

對(duì)于Faster R-CNN的訓(xùn)練,本文參照文獻(xiàn)[11]中的訓(xùn)練策略:每一張訓(xùn)練圖像中,選取64個(gè)正樣本候選框與64個(gè)負(fù)樣本候選框,若正樣本候選框數(shù)量達(dá)不到64個(gè),則使用負(fù)樣本候選框補(bǔ)齊,保持總數(shù)為128個(gè)。誤差的來(lái)源有四個(gè),分別是RPN、R-CNN Head的分類誤差與定位誤差。對(duì)于RPN輸出的候選框的分類誤差與R-CNNHead輸出的候選框的分類誤差,均采用交叉熵計(jì)算損失,而對(duì)于候選框的定位誤差,則使用平滑L1損失函數(shù)。相較于文獻(xiàn)[11]的四步交替迭代訓(xùn)練方法,本文使用近似聯(lián)合訓(xùn)練,從而使得訓(xùn)練以端到端的形式進(jìn)行,速度更快。訓(xùn)練的主要困難來(lái)源于掩膜RPN,即掩膜卷積層的誤差反向傳播問(wèn)題。為了解決這個(gè)問(wèn)題,本文使用以下方案:在訓(xùn)練時(shí),將掩膜RPN各層替換為普通卷積層,對(duì)于掩膜RPN層輸出的候選框,將中心在掩膜感興趣區(qū)域外的候選框全部濾除。

RPN的損失函數(shù)設(shè)計(jì)為:

其中:表示交叉熵函數(shù);表示平滑L1函數(shù);s i是RPN輸出的第i個(gè)候選框的置信度分?jǐn)?shù),表示該候選框中是否包含物體的置信度;s*i是該候選框?qū)?yīng)的ground truth候選框的置信標(biāo)簽;t ri是RPN輸出的第i個(gè)候選框的修正量,t ri*為該候選框移動(dòng)到對(duì)應(yīng)的ground truth候選框所需的修正量。其中,修正量包括候選框中心在X、Y方向上的偏移量與候選框長(zhǎng)、寬的變化量。

R-CNNHead的損失函數(shù)設(shè)計(jì)為:

與RPN的損失計(jì)算相似的,p i是R-CNN Head輸出的第i個(gè)候選框的分類分?jǐn)?shù),表示該候選框中的物體為火焰或其他,是該候選框?qū)?yīng)的ground truth候選框的分類標(biāo)簽是RCNNHead輸出的第i個(gè)候選框的修正量,是該候選框相對(duì)于對(duì)應(yīng)的ground truth候選框所需的修正量。最后,F(xiàn)aster RCNN的整體損失計(jì)算方法為式(2)與式(3)的相加,即RPN與R-CNNHead的損失之和。

4 實(shí)驗(yàn)結(jié)果與分析

本文中使用了來(lái)源不同的多個(gè)數(shù)據(jù)集,包括ImageNet、BoWFire、Corsician Fire[24]這3個(gè)公開(kāi)的火焰數(shù)據(jù)集,以及利用Google與Baidu搜索引擎下載的一些火焰圖像,表1展示了實(shí)驗(yàn)中使用的各數(shù)據(jù)集名稱以及各數(shù)據(jù)集中的圖像數(shù)量。訓(xùn)練Faster R-CNN的數(shù)據(jù)集來(lái)自 Baidu、Google以及 ImageNet,共1525張圖像。本文的測(cè)試在BoWFire數(shù)據(jù)集與Corsician Fire數(shù)據(jù)集上進(jìn)行,共822張圖像,測(cè)試數(shù)據(jù)集不參與模型的訓(xùn)練。

表1 實(shí)驗(yàn)中使用的數(shù)據(jù)集名稱及圖像數(shù)量Tab.1 Different datasetsand their numbersof imagesused in experiments

一般目標(biāo)檢測(cè)任務(wù)中衡量模型性能的指標(biāo)為平均精度均值(Mean Average Precision,MAP),由于火焰檢測(cè)是單目標(biāo)檢測(cè),該指標(biāo)與平均精度(Average Precision,AP)等價(jià)。但是,火焰目標(biāo)檢測(cè)中,火焰的標(biāo)注沒(méi)有一個(gè)確定的標(biāo)準(zhǔn),不同人的標(biāo)注風(fēng)格不盡相同,因此,以往的研究中,火焰檢測(cè)的性能評(píng)判標(biāo)準(zhǔn)都是按幀計(jì)算的,而不使用AP值來(lái)衡量。但在Faster R-CNN的訓(xùn)練中,仍需要通過(guò)AP指標(biāo)來(lái)確定模型是否向正確的方向收斂,為了能夠在BoWFire數(shù)據(jù)集與Corsician Fire數(shù)據(jù)集上計(jì)算AP指標(biāo),本文對(duì)這兩個(gè)數(shù)據(jù)集進(jìn)行了標(biāo)注。同時(shí),為了與其他火焰檢測(cè)方法進(jìn)行比較,衡量本文模型性能的指標(biāo)也按幀計(jì)算:對(duì)于一幅火焰圖像,當(dāng)圖像中的火焰均被檢測(cè)框覆蓋,則認(rèn)為這張圖像的檢測(cè)結(jié)果正確。

首先,本文在BoWFire數(shù)據(jù)集上研究本文方法在火焰檢測(cè)任務(wù)上的性能,并與基于人工特征的方法[5]、基于卷積神經(jīng)網(wǎng)絡(luò)的先進(jìn)方法[6]進(jìn)行了比較。表2在精度、召回率與F值三個(gè)方面與Chino等[5]和Muhammad等[6]的方法進(jìn)行了比較。其中:文獻(xiàn)[5]中使用樸素貝葉斯模型構(gòu)建火焰顏色模型,并使用超像素的方法將圖像分塊并進(jìn)行紋理分析;文獻(xiàn)[6]訓(xùn)練一個(gè)二分類的GoogleNet來(lái)辨別圖像中是否存在火焰,并使用遷移學(xué)習(xí)方法進(jìn)一步提高了網(wǎng)絡(luò)在火焰檢測(cè)上的性能。

表2 各方法的性能比較Tab.2 Performancecomparison of different methods

從表2中可以看到:由顏色引導(dǎo)的拋錨機(jī)制可以小幅提升火焰檢測(cè)的召回率,97.48%的火焰圖像中的火焰都被正確檢出,達(dá)到了各種方法中的最優(yōu),但是這也會(huì)帶來(lái)一些精度上的下降。綜合上述效果,火焰檢測(cè)的F值略有上升。

隨后,本文也進(jìn)行了效率上的測(cè)試,結(jié)果如表3所示。由于在掩膜卷積中,掩膜中不感興趣的區(qū)域都被忽略,故計(jì)算速度較原來(lái)提高了10.1%,而提高不是特別明顯的原因是僅掩膜RPN中的普通卷積層替換為了掩膜卷積層,若將特征提取器的卷積層也進(jìn)行替換,則可以進(jìn)一步提高檢測(cè)速度。此外,掩膜的計(jì)算也需要耗費(fèi)一些時(shí)間(在BoWFire數(shù)據(jù)集上約耗費(fèi)3 s)。

表3 各方法的運(yùn)行時(shí)間對(duì)比 單位:sTab.3 Comparison of running time of different methods unit:s

最后,在Corsician Fire數(shù)據(jù)集上進(jìn)行了測(cè)試,以進(jìn)一步檢驗(yàn)對(duì)火焰的檢測(cè)效果,表4展示了Corsician Fire數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果。可以看到使用了顏色引導(dǎo)的拋錨機(jī)制的Faster RCNN達(dá)到了更優(yōu)的準(zhǔn)確度,Barmpoutis等[10]的方法在該數(shù)據(jù)集上達(dá)到了最優(yōu)的檢測(cè)結(jié)果。在Faster R-CNN后串聯(lián)紋理分析會(huì)使得火焰檢測(cè)更加可靠,但顯然會(huì)進(jìn)一步增加計(jì)算量,因此本文方法也可以應(yīng)用于文獻(xiàn)[10]的方法中,提高其火焰檢測(cè)的速率。

表4 各方法在Corsician Fire數(shù)據(jù)集上的準(zhǔn)確度對(duì)比Tab.4 Accuracy comparison of different methodson Corsician Firedataset

本文實(shí)驗(yàn)所使用的硬件平臺(tái)均為英特爾I7-9700K八核CPU與有12 GB顯存的GeForce GTX TITAN X GPU。實(shí)驗(yàn)軟件開(kāi)發(fā)環(huán)境為python,使用的模型通過(guò)pytorch框架搭建。實(shí)驗(yàn)中,F(xiàn)aster R-CNN使用的骨干網(wǎng)絡(luò)為ResNet101。圖5展示了仿真環(huán)境下一些火焰圖像的檢測(cè)結(jié)果,可以看到圖中一些較小的火焰沒(méi)有被檢出,其余均被正確檢出。

圖5 檢測(cè)結(jié)果示例Fig.5 Samples of detection results

5 結(jié)語(yǔ)

本文提出了由顏色引導(dǎo)的火焰檢測(cè)方法,一個(gè)新穎的顏色引導(dǎo)的拋錨策略。該策略易于實(shí)現(xiàn),并可以提高Faster RCNN在火焰檢測(cè)中的效率與召回率。通過(guò)在BoWFire數(shù)據(jù)集上與兩個(gè)現(xiàn)有工作進(jìn)行的比較,本文方法可以達(dá)到最高的召回率(97.48%)。同時(shí),通過(guò)在BoWFire數(shù)據(jù)集上進(jìn)行的速度測(cè)試,顏色引導(dǎo)的拋錨策略可以將Faster R-CNN的檢測(cè)速度提升10.1%。最后,在Corsician Fire數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)驗(yàn)證了本文方法的魯棒性。本文方法的良好性能來(lái)自兩個(gè)原因:一是Faster R-CNN中卷積層的強(qiáng)大特征提取能力,另一個(gè)是訓(xùn)練數(shù)據(jù)集的豐富性。未來(lái)的工作中,將研究在特征提取層使用掩膜卷積來(lái)進(jìn)一步提升檢測(cè)效率,并將本文的方法移植到消防機(jī)器人上,在實(shí)踐中測(cè)試其有效性。

猜你喜歡
特征區(qū)域檢測(cè)
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
小波變換在PCB缺陷檢測(cè)中的應(yīng)用
關(guān)于四色猜想
分區(qū)域
基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
主站蜘蛛池模板: 强乱中文字幕在线播放不卡| 久久美女精品| 91免费在线看| 日本人妻一区二区三区不卡影院| 嫩草国产在线| 亚洲国产无码有码| 精品伊人久久大香线蕉网站| 欧美综合成人| 国产亚洲高清在线精品99| 免费观看国产小粉嫩喷水| 欧美日韩北条麻妃一区二区| 3D动漫精品啪啪一区二区下载| 欧美日本视频在线观看| 99久久精品视香蕉蕉| 手机精品福利在线观看| 亚洲国产在一区二区三区| 超碰精品无码一区二区| 多人乱p欧美在线观看| 国产麻豆精品在线观看| 91黄色在线观看| 国产精品免费露脸视频| 成人久久18免费网站| 99这里只有精品6| 国产一区二区三区在线观看视频| 91无码人妻精品一区| 亚洲综合色婷婷| 五月婷婷导航| 精品久久777| 真人高潮娇喘嗯啊在线观看| 亚洲精品不卡午夜精品| 日本午夜精品一本在线观看 | 麻豆国产精品| 99久久性生片| 国产呦精品一区二区三区网站| 精品三级在线| 国产精品观看视频免费完整版| 亚洲欧美日韩成人高清在线一区| 亚洲精品无码抽插日韩| 成色7777精品在线| 亚洲国产精品一区二区第一页免 | 欧美午夜网| 538国产在线| 国产福利2021最新在线观看| 波多野结衣第一页| 亚洲成人手机在线| 婷婷在线网站| 国产免费怡红院视频| 精品乱码久久久久久久| 国产高颜值露脸在线观看| 精品無碼一區在線觀看 | 日本高清在线看免费观看| 免费在线国产一区二区三区精品 | 日韩精品中文字幕一区三区| 亚洲91精品视频| 真实国产乱子伦视频| 国产呦精品一区二区三区网站| 日韩欧美高清视频| 999国内精品视频免费| 久久精品人妻中文系列| 国产成人凹凸视频在线| 日本三级黄在线观看| 国产成人永久免费视频| 性做久久久久久久免费看| 久久精品国产精品青草app| 99性视频| 欧美a在线| 夜夜操天天摸| a毛片免费看| 夜夜操天天摸| 波多野结衣国产精品| 欧美特黄一级大黄录像| 国产呦视频免费视频在线观看 | 久久先锋资源| 伊人久热这里只有精品视频99| 91精品久久久久久无码人妻| 欧美va亚洲va香蕉在线| 欧美亚洲国产精品久久蜜芽| 伊人久综合| 第九色区aⅴ天堂久久香| 中文字幕无码av专区久久| 欧美日本在线一区二区三区| 国产精品欧美日本韩免费一区二区三区不卡|