999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的宿舍火災(zāi)檢測(cè)報(bào)警系統(tǒng)的研究

2023-11-16 14:04:37周鄭歡李閃閃趙媛媛
客聯(lián) 2023年7期
關(guān)鍵詞:深度學(xué)習(xí)

周鄭歡 李閃閃 趙媛媛

摘 要:針對(duì)宿舍火災(zāi)檢測(cè)報(bào)警系統(tǒng)的需求,提出了一種基于深度學(xué)習(xí)的宿舍火災(zāi)檢測(cè)報(bào)警系統(tǒng)。該系統(tǒng)使用了深度學(xué)習(xí)技術(shù),利用視頻監(jiān)控技術(shù)進(jìn)行圖像處理,對(duì)宿舍樓及室內(nèi)的火焰、煙霧等參數(shù)進(jìn)行實(shí)時(shí)監(jiān)測(cè)和分析,以判斷是否發(fā)生火災(zāi),并及時(shí)發(fā)出警報(bào)。該系統(tǒng)具有較高的準(zhǔn)確率和實(shí)時(shí)性,能夠有效地檢測(cè)宿舍的火災(zāi)發(fā)生情況,提高了火災(zāi)預(yù)防和救援的效率。

關(guān)鍵詞:深度學(xué)習(xí);目標(biāo)檢測(cè);火災(zāi)檢測(cè);報(bào)警系統(tǒng)

一、引言

由于擴(kuò)招政策的落實(shí),學(xué)生數(shù)量急劇增加,使得高校辦學(xué)規(guī)模也逐漸擴(kuò)大,而學(xué)生宿舍是高校安全事故的多發(fā)區(qū),常常出現(xiàn)火災(zāi)隱患或是盜竊問(wèn)題,其中火災(zāi)隱患的危害性更大,學(xué)生安全意識(shí)不高,在宿舍內(nèi)常常使用熱得快電氣產(chǎn)品或是吸煙行為,甚至私設(shè)電線,形成火災(zāi)隱患,使得火災(zāi)事故頻發(fā)。由于火災(zāi)具有破壞力強(qiáng)、蔓延速度快等特性,所以應(yīng)對(duì)早期火災(zāi)特征快速檢測(cè),以減少損失。在這樣的環(huán)境背景下,探究高校學(xué)生宿舍火災(zāi)監(jiān)測(cè)系統(tǒng)設(shè)計(jì)具有非常重要的現(xiàn)實(shí)意義。[1]

目前,傳統(tǒng)的火災(zāi)檢測(cè)方法主要依靠人工巡查和煙霧探測(cè)器等設(shè)備。但是,這些方法存在許多問(wèn)題,如人工巡查不夠及時(shí)和全面、煙霧探測(cè)器容易誤報(bào)等。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,基于深度學(xué)習(xí)的火災(zāi)檢測(cè)報(bào)警系統(tǒng)逐漸成為研究熱點(diǎn)。

深度學(xué)習(xí)是一種人工智能技術(shù),可以通過(guò)大量的數(shù)據(jù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型,實(shí)現(xiàn)對(duì)復(fù)雜問(wèn)題的高精度預(yù)測(cè)和分類。在火災(zāi)檢測(cè)中,深度學(xué)習(xí)可以通過(guò)對(duì)火災(zāi)特征的學(xué)習(xí)和提取,實(shí)現(xiàn)對(duì)火災(zāi)的準(zhǔn)確預(yù)測(cè)和報(bào)警。因此,基于深度學(xué)習(xí)的火災(zāi)檢測(cè)報(bào)警系統(tǒng)具有檢測(cè)精度高、響應(yīng)速度快、誤報(bào)率低等優(yōu)點(diǎn),能夠有效提高火災(zāi)檢測(cè)的效率和準(zhǔn)確率。

隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,基于深度學(xué)習(xí)的火災(zāi)檢測(cè)報(bào)警系統(tǒng)得到了廣泛關(guān)注和研究。國(guó)內(nèi)外學(xué)者針對(duì)不同場(chǎng)景和應(yīng)用需求,開(kāi)展了大量的研究工作。在目標(biāo)檢測(cè)領(lǐng)域,國(guó)內(nèi)外學(xué)者已經(jīng)開(kāi)展了大量的工作。Ross Girshick等人在2014年提出了目標(biāo)檢測(cè)算法R-CNN[2],它通過(guò)在圖像中提取候選區(qū)域,然后對(duì)每個(gè)候選區(qū)域進(jìn)行分類和邊界框回歸來(lái)實(shí)現(xiàn)目標(biāo)檢測(cè)。R-CNN在目標(biāo)檢測(cè)領(lǐng)域具有較好的性能,但仍有計(jì)算量大,速度慢等缺點(diǎn)。后續(xù)的研究提出了一系列改進(jìn)算法,如Fast R-CNN[3]、Faster R-CNN[4]等,以加快目標(biāo)檢測(cè)的速度和提高準(zhǔn)確率。2016年,Redmon J 首次提出了單階段深度學(xué)習(xí)目標(biāo)檢測(cè)算法 YOLO[5],它的核心思想是將目標(biāo)檢測(cè)任務(wù)轉(zhuǎn)化為一個(gè)回歸問(wèn)題,通過(guò)單次前向傳播即可同時(shí)預(yù)測(cè)圖像中多個(gè)目標(biāo)的類別和邊界框。YOLO在速度方面很具優(yōu)勢(shì),但是在小目標(biāo)的檢測(cè)精度上存在不足。而后續(xù)的YOLOv2[6]、YOLOv3[7]、YOLOv4[8]、YOLOv5等版本,都針對(duì)精度等問(wèn)題做出了改進(jìn),在兼顧速度的同時(shí)精度也有極大提升。使得YOLO系列成為了目標(biāo)檢測(cè)領(lǐng)域中備受關(guān)注和廣泛使用的算法之一。

在宿舍等人員密集場(chǎng)所的火災(zāi)檢測(cè)方面,國(guó)內(nèi)外學(xué)者也開(kāi)展了相關(guān)的研究。例如,馮路佳[9]等提出了一種基于目標(biāo)區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)火災(zāi)煙霧識(shí)別,該方法構(gòu)建了兩層火災(zāi)煙霧識(shí)別模型,可以在復(fù)雜環(huán)境下的數(shù)據(jù)集中,有效降低誤檢率,提高煙霧識(shí)別的準(zhǔn)確率。陳培豪[10]等提出了一種基于深度學(xué)習(xí)的視頻火災(zāi)識(shí)別算法,采用混合高斯建模法進(jìn)行運(yùn)動(dòng)檢測(cè),然后采用集成學(xué)習(xí)中 Adaboost 算法對(duì)運(yùn)動(dòng)圖像進(jìn)行疑似火災(zāi)區(qū)域提取,最后采用輕量級(jí)神經(jīng)網(wǎng)絡(luò) MobileNetv3 自動(dòng)提取疑似火災(zāi)區(qū)域特征進(jìn)行火災(zāi)識(shí)別,能在保證準(zhǔn)確率的同時(shí)保證較好的實(shí)時(shí)性。

綜合來(lái)看,國(guó)內(nèi)外學(xué)者已經(jīng)在火災(zāi)檢測(cè)報(bào)警系統(tǒng)方面取得了一定的研究進(jìn)展。但是,目前還存在一些問(wèn)題,如檢測(cè)精度不高、響應(yīng)速度慢等。因此,需要進(jìn)一步深入研究和探索,以提高火災(zāi)檢測(cè)的效率和準(zhǔn)確率。

二、基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法

(一)單階段目標(biāo)檢測(cè)方法

單階段目標(biāo)檢測(cè)算法是一類計(jì)算機(jī)視覺(jué)算法,用于檢測(cè)圖像或視頻中的目標(biāo)。與傳統(tǒng)的兩階段目標(biāo)檢測(cè)算法相比,單階段目標(biāo)檢測(cè)算法更加簡(jiǎn)單和高效,能夠在實(shí)時(shí)應(yīng)用中取得較好的性能。

常見(jiàn)的單階段目標(biāo)檢測(cè)算法有:

1.YOLO(You Only Look Once):YOLO是一種經(jīng)典的單階段目標(biāo)檢測(cè)算法。它將目標(biāo)檢測(cè)任務(wù)轉(zhuǎn)化為一個(gè)回歸問(wèn)題,通過(guò)將圖像劃分為網(wǎng)格并為每個(gè)網(wǎng)格預(yù)測(cè)邊界框和類別概率來(lái)檢測(cè)目標(biāo)。YOLO具有較快的速度和較好的準(zhǔn)確性,適用于實(shí)時(shí)目標(biāo)檢測(cè)應(yīng)用。

2.SSD(Single Shot MultiBox Detector):SSD是另一種常見(jiàn)的單階段目標(biāo)檢測(cè)算法。它通過(guò)在不同尺度的特征圖上預(yù)測(cè)邊界框和類別概率來(lái)檢測(cè)目標(biāo)。SSD使用了多個(gè)卷積層來(lái)提取不同尺度的特征,并通過(guò)多個(gè)預(yù)測(cè)層來(lái)預(yù)測(cè)不同大小的目標(biāo)。

3.RetinaNet:RetinaNet是一種基于特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network,F(xiàn)PN)的單階段目標(biāo)檢測(cè)算法。它通過(guò)在不同尺度的特征圖上進(jìn)行目標(biāo)檢測(cè),并引入了一種稱為Focal Loss的損失函數(shù),用于解決目標(biāo)類別不平衡的問(wèn)題。RetinaNet在檢測(cè)小目標(biāo)方面表現(xiàn)出色。

4.EfficientDet:EfficientDet是一種高效的單階段目標(biāo)檢測(cè)算法,它結(jié)合了EfficientNet網(wǎng)絡(luò)和BiFPN(Bi-directional Feature Pyramid Network)模塊。EfficientDet通過(guò)在不同尺度的特征圖上進(jìn)行目標(biāo)檢測(cè),并使用BiFPN模塊來(lái)提高特征的語(yǔ)義信息和上下文信息的傳遞。

對(duì)于火災(zāi)實(shí)時(shí)檢測(cè)來(lái)說(shuō),YOLO系列算法更為合適。YOLOv5是一種基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法,它是YOLO(You Only Look Once)系列算法的最新版本。YOLO系列算法的主要特點(diǎn)是實(shí)時(shí)性和準(zhǔn)確性,能夠在圖像或視頻中快速檢測(cè)和定位多個(gè)目標(biāo)。YOLOv5相對(duì)于之前的版本有一些改進(jìn)和優(yōu)化。它采用了一種新的架構(gòu),使用了更深的網(wǎng)絡(luò)結(jié)構(gòu),并且引入了一些新的技術(shù)來(lái)提高檢測(cè)的準(zhǔn)確性和速度。YOLOv5的訓(xùn)練和推理過(guò)程都可以在GPU上進(jìn)行,這使得它在實(shí)時(shí)目標(biāo)檢測(cè)任務(wù)中表現(xiàn)出色。

(二)YOLOv5算法

1.YOLOv5的主要優(yōu)點(diǎn)包括:

(1)高速度:YOLOv5能夠?qū)崟r(shí)檢測(cè)圖像或視頻中的目標(biāo),并且在保持較高準(zhǔn)確性的同時(shí),具有較快的處理速度。

(2)高準(zhǔn)確性:通過(guò)使用更深的網(wǎng)絡(luò)結(jié)構(gòu)和一些新的技術(shù),YOLOv5在目標(biāo)檢測(cè)任務(wù)中取得了更好的準(zhǔn)確性,能夠準(zhǔn)確地檢測(cè)和定位多個(gè)目標(biāo)。

(3)靈活性:YOLOv5可以應(yīng)用于各種不同的目標(biāo)檢測(cè)任務(wù),包括人體檢測(cè)、車(chē)輛檢測(cè)、物體檢測(cè)等。它可以適應(yīng)不同的場(chǎng)景和需求,并且可以進(jìn)行定制化的訓(xùn)練和調(diào)整。

(4)易用性:YOLOv5提供了簡(jiǎn)單易用的API和工具,使得用戶可以方便地進(jìn)行訓(xùn)練、測(cè)試和部署。它還提供了預(yù)訓(xùn)練的模型和權(quán)重,可以直接在各種應(yīng)用中使用。

2.YOLOv5的輸入端

Mosaic數(shù)據(jù)增強(qiáng),能夠豐富數(shù)據(jù)集和減少GPU;自適應(yīng)錨框計(jì)算,每次訓(xùn)練時(shí)能夠自適應(yīng)的計(jì)算不同的訓(xùn)練集的最佳錨框值;自適應(yīng)圖片縮放,YOLOv5可以通過(guò)計(jì)算,更改圖片比例的同時(shí)添加最少的黑色邊框,這樣可以減少計(jì)算量,提高檢測(cè)速度。

3.Backbone

(1)Focus結(jié)構(gòu)

Focus結(jié)構(gòu)的核心是對(duì)圖片進(jìn)行切片操作。圖3以一個(gè)的簡(jiǎn)單的3×4×4輸入圖片為例。對(duì)于紅色的區(qū)域,不論寬還是高,都從0開(kāi)始,每隔兩個(gè)步長(zhǎng)取值;黃色的區(qū)域,不論寬還是高,都從1開(kāi)始,每隔兩個(gè)步長(zhǎng)取值;依次類推,對(duì)三個(gè)通道都采取這樣的切片操作。最后將所有的切片,按照通道concat在一起,得到一個(gè)12×2×2的特征圖。在yolov5網(wǎng)絡(luò)模型中,原始608x608x3的圖像輸入Focus結(jié)構(gòu),采用切片操作,先變成304×304×12的特征圖,再經(jīng)過(guò)一次32個(gè)卷積核的卷積操作,最終變成304×304×32的特征圖。

(2)CSP結(jié)構(gòu)

YOLOv5中的CSP結(jié)構(gòu)是一種用于構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)的模塊設(shè)計(jì)。CSP結(jié)構(gòu)的核心思想是通過(guò)將輸入特征圖進(jìn)行分割,將一部分特征圖直接進(jìn)行處理,而另一部分則通過(guò)一系列卷積操作后再與之前處理的特征圖進(jìn)行融合。

具體來(lái)說(shuō),CSP結(jié)構(gòu)包含以下幾個(gè)關(guān)鍵組成部分:主干特征提取網(wǎng)絡(luò):CSP結(jié)構(gòu)首先通過(guò)一系列卷積層來(lái)提取輸入圖像的特征。這部分網(wǎng)絡(luò)通常是一個(gè)深度的卷積神經(jīng)網(wǎng)絡(luò),例如Darknet-53;主干特征圖的分割:在CSP結(jié)構(gòu)中,主干特征圖被分割成兩個(gè)部分。一部分特征圖直接進(jìn)行處理,而另一部分則通過(guò)一系列卷積操作后再與之前處理的特征圖進(jìn)行融合;融合操作:分割后的特征圖經(jīng)過(guò)一系列卷積操作后,與之前處理的特征圖進(jìn)行融合。融合的方式可以是簡(jiǎn)單的通道拼接,也可以是使用注意力機(jī)制等更復(fù)雜的方式;輸出特征圖:最終,經(jīng)過(guò)融合操作后得到的特征圖將作為下一層的輸入,或者用于目標(biāo)檢測(cè)的預(yù)測(cè)。

CSP結(jié)構(gòu)的設(shè)計(jì)可以有效地減少網(wǎng)絡(luò)中的參數(shù)數(shù)量和計(jì)算量,從而提高了網(wǎng)絡(luò)的速度和精度。通過(guò)分割特征圖并進(jìn)行融合,CSP能夠更好地捕捉不同尺度的特征信息,并提升網(wǎng)絡(luò)的感受野。這使得YOLOv5在目標(biāo)檢測(cè)任務(wù)中具有更好的性能。

(3)Neck

主要是指用于特征融合的部分,通常位于卷積神經(jīng)網(wǎng)絡(luò)的中間。這個(gè)部分的設(shè)計(jì)有助于將不同層次的特征信息融合在一起,從而提高目標(biāo)檢測(cè)的性能。

YOLOv5采用PANet來(lái)進(jìn)行特征金字塔融合。PANet可以有效地整合不同尺度的特征圖,以便更好地捕捉各種目標(biāo)的信息。它通過(guò)自上而下和自下而上的路徑來(lái)聚合不同尺度的特征,從而產(chǎn)生具有更豐富語(yǔ)義信息的特征圖。FPN也是一種特征金字塔網(wǎng)絡(luò),用于融合不同尺度的特征圖。它的工作方式是在主干網(wǎng)絡(luò)中選擇幾個(gè)特定層的特征圖,然后通過(guò)上采樣和卷積操作將它們?nèi)诤显谝黄穑援a(chǎn)生多尺度的特征金字塔。YOLOv5中還引入了SAM,這是一種用于捕捉空間信息的模塊。SAM可以通過(guò)學(xué)習(xí)每個(gè)位置的注意力權(quán)重,使網(wǎng)絡(luò)更注重關(guān)注物體的空間位置,有助于提高檢測(cè)性能。

這些Neck結(jié)構(gòu)的設(shè)計(jì)目的是增強(qiáng)目標(biāo)檢測(cè)模型對(duì)不同尺度和復(fù)雜性的目標(biāo)的感知能力,從而提高檢測(cè)的準(zhǔn)確性。這些結(jié)構(gòu)一起協(xié)同工作,確保網(wǎng)絡(luò)在不同尺度下都能夠有效地檢測(cè)目標(biāo),使YOLOv5成為一種強(qiáng)大的目標(biāo)檢測(cè)算法。

4.YOLOv5的輸出端

YOLOv5的輸出端通常是一系列的錨定框(anchor boxes)以及對(duì)應(yīng)的目標(biāo)類別和置信度(confidence)預(yù)測(cè)值。每個(gè)錨定框都會(huì)輸出對(duì)各種可能的目標(biāo)類別的預(yù)測(cè)概率。模型會(huì)輸出錨定框的位置信息,包括邊界框的中心坐標(biāo)、寬度和高度。也會(huì)輸出每個(gè)錨定框的置信度,表示該框中是否包含一個(gè)目標(biāo)以及該預(yù)測(cè)的可信度。YOLOv5的輸出是一個(gè)三維張量,其中第一個(gè)維度對(duì)應(yīng)錨定框的數(shù)量,第二個(gè)維度對(duì)應(yīng)每個(gè)錨定框的信息(類別概率、位置信息、置信度等),第三個(gè)維度則對(duì)應(yīng)不同的類別。

三、系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)

(一)宿舍火災(zāi)檢測(cè)報(bào)警系統(tǒng)架構(gòu)

通過(guò)紅外探測(cè)儀成像輸出視頻,對(duì)視頻進(jìn)處理檢測(cè)。

火災(zāi)檢測(cè)算法整體流程圖,本文的火災(zāi)檢測(cè)算法整體流程如圖5所示。先通過(guò)攝像頭對(duì)煙霧數(shù)據(jù)進(jìn)行采集,建立煙霧數(shù)據(jù)庫(kù),再對(duì)煙霧數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng);然后讀取煙霧數(shù)據(jù)輸入到Y(jié)OLOv5檢測(cè)模型中進(jìn)行數(shù)據(jù)訓(xùn)練學(xué)習(xí),從而得到結(jié)果模型;同時(shí),對(duì)受監(jiān)控場(chǎng)景,通過(guò)攝像頭獲取監(jiān)控視頻幀序列,將視頻幀圖像送入訓(xùn)練好的檢測(cè)模型中進(jìn)行檢測(cè);在此基礎(chǔ)上,對(duì)視頻幀圖像做判斷處理;當(dāng)待檢測(cè)的視頻幀序列滿足條件時(shí),則判定為有煙霧,并發(fā)出煙霧警報(bào)。

在宿舍中安裝紅外成像儀進(jìn)行監(jiān)測(cè),實(shí)時(shí)傳遞視頻到檢測(cè)模型進(jìn)行分析檢測(cè),如果判定有火災(zāi)隱患,就啟動(dòng)報(bào)警系統(tǒng),通知宿舍同學(xué)及宿舍管理人員,第一時(shí)間進(jìn)行處理,在火災(zāi)并未形成嚴(yán)重災(zāi)害的情況及時(shí)撲滅,有效防止人員傷亡及財(cái)產(chǎn)損失。

YOLOv5與EfficientDet兩個(gè)目標(biāo)檢測(cè)器協(xié)同工作并行檢測(cè)火災(zāi),通過(guò)生成候選框以及非極大值抑制確定目標(biāo)火災(zāi)區(qū)域,引入EfficientNet用于關(guān)注全局信息,以降低誤報(bào)率。集成3個(gè)網(wǎng)絡(luò)的火災(zāi)檢查模型,改善特征提取方法,能夠最大化利用全局特征和局部特征,提升小目標(biāo)檢測(cè)精度,提高召回率。

(二)微信小程序設(shè)計(jì)

為了讓學(xué)生更快地接收到火源警報(bào),設(shè)計(jì)通過(guò)小程序服務(wù)通知向?qū)W生以及管理人員發(fā)送警報(bào)消息。因事關(guān)財(cái)產(chǎn)人身安全,程序后臺(tái)必須保持運(yùn)行并且服務(wù)器不能崩壞,系統(tǒng)將搭載云服務(wù)器進(jìn)行服務(wù)。小程序是控制和連接用戶與系統(tǒng)之間的導(dǎo)線和接觸口,為了保證用戶使用感良好,小程序應(yīng)該有著強(qiáng)大的續(xù)航能力和處理數(shù)據(jù)的能力,再加上簡(jiǎn)單明了的操作界面,讓用戶能夠輕松的接收實(shí)時(shí)場(chǎng)景的圖像,并判斷火災(zāi)的有無(wú)。提供一些設(shè)置選項(xiàng),例如報(bào)警方式、報(bào)警靈敏度等,讓用戶可以根據(jù)自己的需求進(jìn)行設(shè)置。小程序端與云平臺(tái)可以進(jìn)行數(shù)據(jù)的交互,小程序可以接收來(lái)自云平臺(tái)傳輸?shù)男畔⒗缁馂?zāi)圖片等,當(dāng)火災(zāi)發(fā)生時(shí),實(shí)現(xiàn)報(bào)警機(jī)制,例如發(fā)出聲音警報(bào)、發(fā)送警報(bào)信息給相關(guān)人員或自動(dòng)觸發(fā)火災(zāi)報(bào)警系統(tǒng)等,以便及時(shí)提醒宿舍內(nèi)的人員并促使他們采取逃生措施。

在小程序中,采用雙重保障機(jī)制,首先以服務(wù)通知的形式向用戶發(fā)送火源警報(bào),用戶在確認(rèn)手機(jī)號(hào)和地址后點(diǎn)“進(jìn)入小程序查看”便可查看攝像頭捕捉到的火源圖片。若確認(rèn)為火源,則點(diǎn)擊確認(rèn)選項(xiàng),信息發(fā)送至平臺(tái)服務(wù)器,平臺(tái)報(bào)警前往查看。若是發(fā)現(xiàn)誤判了火源,則可以點(diǎn)擊誤判選項(xiàng)。因火源引發(fā)的安全事務(wù)緊急,涉及到人身財(cái)產(chǎn)安全,若用戶一分鐘內(nèi)未點(diǎn)擊確認(rèn)或誤判做出回復(fù),警報(bào)系統(tǒng)將將報(bào)警信息與火災(zāi)圖片信息告知于宿舍管理人員及消防部門(mén),由消防部門(mén)對(duì)火災(zāi)情形進(jìn)行處理。小程序可以記錄火災(zāi)檢測(cè)的數(shù)據(jù),包括火災(zāi)發(fā)生的時(shí)間、地點(diǎn)和檢測(cè)到的火災(zāi)跡象等信息。用戶可以查看歷史記錄,以便更好地了解火災(zāi)發(fā)生的情況和采取相應(yīng)的措施。

(三)數(shù)據(jù)庫(kù)結(jié)構(gòu)設(shè)計(jì)

本系統(tǒng)基于MySQL構(gòu)造數(shù)據(jù)庫(kù),數(shù)據(jù)庫(kù)主要包含火災(zāi)歷史,火災(zāi)上報(bào)和用戶等信息等,MySQL功能強(qiáng)大,可擴(kuò)展,兼容性較好的數(shù)據(jù)庫(kù)管理系統(tǒng)。

MySQL主要特性有:1.體積小、速度快、總體擁有成本低,開(kāi)源;2.系統(tǒng)的并發(fā)性能好,可支持多人同時(shí)訪問(wèn)。容量大,可保存5000萬(wàn)條記錄;3.支持多種語(yǔ)言函數(shù),實(shí)現(xiàn)遠(yuǎn)程訪問(wèn);4.相比于其他同類數(shù)據(jù)庫(kù),訪問(wèn)和處理的速度較快;5.采用基于多線程的內(nèi)存分配方法,穩(wěn)定性高,操作簡(jiǎn)單,上手快。

①火災(zāi)歷史表。火災(zāi)發(fā)生后將火災(zāi)發(fā)生地,火災(zāi)名稱,發(fā)生時(shí)間以及當(dāng)時(shí)的環(huán)境等存儲(chǔ)在該表中,目的是為以后查看和研究提供數(shù)據(jù)依據(jù)。

②火災(zāi)上報(bào)表。系統(tǒng)在監(jiān)測(cè)到當(dāng)前區(qū)域發(fā)生火災(zāi)之后,把當(dāng)前區(qū)域的地點(diǎn)和環(huán)境以及發(fā)生火災(zāi)的攝像頭ID和當(dāng)前管理人員等信息存儲(chǔ)在該表中。并上報(bào)火災(zāi)進(jìn)行報(bào)警,記錄報(bào)警時(shí)間。

③用戶信息表。主要存儲(chǔ)宿舍值班和管理人員基本信息,方便對(duì)登錄,查看等進(jìn)行權(quán)限管理。

這些數(shù)據(jù)的記錄還可用于數(shù)據(jù)分析,得出當(dāng)?shù)鼗馂?zāi)易發(fā)生的原因,更好的做到防患于未然,而內(nèi)部對(duì)于火勢(shì)的圖像監(jiān)控,也能更好的幫助消防人員采取救火措施。

四、結(jié)論

基于深度學(xué)習(xí)的火災(zāi)監(jiān)測(cè)系統(tǒng)可以廣泛運(yùn)用于室內(nèi)外的火災(zāi)監(jiān)測(cè),通過(guò)攝像頭的實(shí)時(shí)畫(huà)面進(jìn)行識(shí)別,及時(shí)甄別出火災(zāi)隱患,大大減少因火災(zāi)帶來(lái)的人身安全和財(cái)產(chǎn)上的損失。該系統(tǒng)使用深度學(xué)習(xí)算法對(duì)宿舍內(nèi)的圖像或視頻進(jìn)行分析,能夠準(zhǔn)確地檢測(cè)出火災(zāi)跡象,如火焰、煙霧等。通過(guò)實(shí)時(shí)監(jiān)測(cè),可以及早發(fā)現(xiàn)火災(zāi)并采取相應(yīng)的措施。一旦系統(tǒng)檢測(cè)到火災(zāi)跡象,它會(huì)立即觸發(fā)報(bào)警機(jī)制,例如發(fā)出聲音警報(bào)、發(fā)送警報(bào)信息給相關(guān)人員或自動(dòng)觸發(fā)火災(zāi)報(bào)警系統(tǒng)。這能夠迅速提醒宿舍內(nèi)的人員并促使他們采取逃生措施。系統(tǒng)可以持續(xù)監(jiān)控宿舍內(nèi)的情況,無(wú)需人工干預(yù)。這樣可以提高監(jiān)測(cè)的效率,并減少人為疏忽或錯(cuò)誤導(dǎo)致的火災(zāi)未被及時(shí)發(fā)現(xiàn)的風(fēng)險(xiǎn)。

宿舍火災(zāi)檢測(cè)報(bào)警系統(tǒng)還可以記錄火災(zāi)檢測(cè)的數(shù)據(jù),包括火災(zāi)發(fā)生的時(shí)間、地點(diǎn)和檢測(cè)到的火災(zāi)跡象等信息。這些數(shù)據(jù)可以用于事后分析和調(diào)查,幫助改進(jìn)火災(zāi)預(yù)防措施和安全管理。如果未來(lái)該系統(tǒng)更加成熟,可以推廣到更多的應(yīng)用場(chǎng)景,可以給各個(gè)場(chǎng)景的攝像頭都增加此功能,讓火災(zāi)可能造成損害的可能性降到最低。

參考文獻(xiàn):

[1]龐淑蘭,王曉輝.高校學(xué)生宿舍火災(zāi)監(jiān)測(cè)系統(tǒng)的設(shè)計(jì)探究[J].考試周刊,2019(32):196.

[2]RSHICK R, DONAHUE J, DARRELL T, et al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recogni‐tion.2014:580-587.

[3]GIRSHICK R. Fast R-cnn[C]//Proceedings of the IEEE International Conference on Computer Vsion.2015:1440-1448.

[4]REN S, HE K, GIRSHICK R, et al.Faster R-cnn:To‐wards Real-time Object Detection with Region Pro‐posal Networks[J].Advances in Neural Information Pro ‐cessing Systems,2015,39(6):1137-1149.

[5]Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 779-788.

[6]Redmon J, Farhadi A. YOLO9000: better, faster, stronger[C]//Proceedings of the IEEEConference on Computer Vision and Pattern Recognition, 2017: 7263-7271.

[7]Redmon J, Farhadi A. Yolov3: An incremental improvement[J]. arXiv preprint arXiv:1804.02767, 2018.

[8]Bochkovskiy A, Wang C-Y, Liao H-Y M. Yolov4: Optimal speed and accuracy of object detection[J]. arXiv preprint arXiv:2004.10934, 2020.

[9]馮路佳,王慧琴,王可等.基于目標(biāo)區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)火災(zāi)煙霧識(shí)別[J].激光與光電子學(xué)進(jìn)展,2020,57(16):83-91.

[10]陳培豪,肖鐸,劉泓.基于深度學(xué)習(xí)的視頻火災(zāi)識(shí)別算法[J].燃燒科學(xué)與技術(shù),2021,27(06):695-700.

[11]楊劍,陳世娥.基于圖像處理技術(shù)的煙霧檢測(cè)在家庭火災(zāi)防范中應(yīng)用[J].電腦知識(shí)與技術(shù),2021,17(06):189-191.DOI:10.14004/j.cnki.ckt.2021.0476.

[12]金潤(rùn)澤,陳凱,陸晨菲等.基于深度學(xué)習(xí)的智能火災(zāi)檢測(cè)報(bào)警系統(tǒng)[J].長(zhǎng)江信息通信,2022,35(10):88-91.

作者簡(jiǎn)介:周鄭歡,女,漢族,安徽宣城人,宿州學(xué)院在讀本科學(xué)生。李閃閃,女,漢族,碩士研究生,宿州學(xué)院講師,研究方向:數(shù)據(jù)挖掘、多標(biāo)簽學(xué)習(xí)。趙媛媛,女,漢族,安徽合肥人,宿州學(xué)院在讀本科學(xué)生。

基金項(xiàng)目:宿州學(xué)院資助安徽省大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練計(jì)劃項(xiàng)目“基于深度學(xué)習(xí)的宿舍火災(zāi)檢測(cè)報(bào)警系統(tǒng)的研究與實(shí)現(xiàn)” (S202310379096)。

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類器的圖書(shū)館亂架圖書(shū)檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 97在线国产视频| 日本三区视频| 久久熟女AV| 亚洲天堂视频在线观看免费| 2021国产精品自产拍在线观看| 久久精品aⅴ无码中文字幕 | 亚洲—日韩aV在线| 国产成人91精品免费网址在线| 亚洲天堂啪啪| 国产精品精品视频| 亚洲Va中文字幕久久一区| 国产欧美性爱网| 精品国产www| 精品国产网站| 亚洲人免费视频| 嫩草在线视频| 热这里只有精品国产热门精品| 啪啪啪亚洲无码| 福利在线不卡一区| 精品国产香蕉在线播出| 四虎亚洲精品| 国产免费黄| 国产尤物在线播放| a毛片基地免费大全| 国产精品hd在线播放| 国产精品久久久久久久伊一| 午夜日b视频| 99热这里只有精品免费| 亚洲无限乱码一二三四区| 久久综合久久鬼| 午夜无码一区二区三区| 伊人91视频| 国产欧美日韩综合在线第一| 99热国产这里只有精品9九| 日韩欧美视频第一区在线观看| 国产精品99在线观看| 四虎成人在线视频| 免费国产在线精品一区 | 久久国产V一级毛多内射| 欧美午夜在线播放| 伊伊人成亚洲综合人网7777| 18禁影院亚洲专区| 久久香蕉国产线看观看亚洲片| 色偷偷av男人的天堂不卡| 国产精品一区二区不卡的视频| 亚洲另类色| 亚洲永久色| 国产日韩久久久久无码精品| 亚洲水蜜桃久久综合网站| 国产91av在线| 爆操波多野结衣| 91探花在线观看国产最新| 亚洲欧洲日韩久久狠狠爱| 四虎国产精品永久一区| 伊人久久精品无码麻豆精品 | 日本午夜三级| 欧美亚洲另类在线观看| 国产丝袜无码精品| 日韩福利视频导航| 国产在线视频自拍| 亚洲天堂首页| av午夜福利一片免费看| 青草视频在线观看国产| 国产成人高清精品免费5388| 怡红院美国分院一区二区| 国产成人精品高清在线| 秋霞午夜国产精品成人片| 国产免费高清无需播放器| 自偷自拍三级全三级视频| 色亚洲激情综合精品无码视频| 伊人无码视屏| 国产香蕉一区二区在线网站| 91精品免费久久久| 欧美中文字幕无线码视频| 真实国产乱子伦视频| 亚洲欧美色中文字幕| 亚洲第一区在线| 国产成人无码播放| 国产又粗又猛又爽| 2021国产精品自产拍在线观看| 一本综合久久| 无码专区国产精品一区|