999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的實時吸煙檢測算法

2021-02-05 18:10:58陳睿龍蔡志平馬文濤
計算機與生活 2021年2期
關鍵詞:特征檢測模型

陳睿龍,羅 磊,蔡志平,馬文濤

國防科技大學計算機學院,長沙 410073

隨著技術不斷地進步,吸煙檢測的方法也隨之不斷地改進。傳統吸煙檢測的方法通常都是通過煙霧傳感器、可穿戴設備等物理方式進行檢測。然而,這些方法存在諸多局限:一是室外場景中煙霧濃度被極大地稀釋,無法被煙霧傳感器所感應;二是可穿戴設備執行檢測的成本較高,需要人人擁有。此外,這種方法通過判斷肢體多個部位的運動軌跡和速度,與吸煙的動作行為進行模式匹配,進而通過支持向量機(support vector machine,SVM)等機器學習分類方法對匹配度進行判斷,故而該類方法的檢測的準確率和效率比較低[1-2]。

除了使用物理設備的方法檢測吸煙外,還有學者嘗試使用傳統圖形學中目標檢測的方法檢測吸煙,這類方法主體分為三個步驟[3]:首先設定不同的大小和步長滑動窗口,然后將所有的窗口在圖像上每個位置進行滑動。對于每個窗口,通過方向梯度直方圖(histogram of oriented gradient,HOG)或尺度不變特征變換(scale-invariant feature transform,SIFT)方法提取出待測物體特征,最后使用分類算法對每個滑動窗口進行分類,比如SVM、Adaboost 等方法,選取最高得分的滑窗作為檢測結果。但是這類方法存在如下缺陷:首先是檢測效果不理想,易受到其他物體干擾,并且定位不準確,依賴預設滑動窗口尺寸與滑動步長;其次該方法計算量也大,需要對每個滑動窗口進行特征處理與分類判斷;最后手動提取特征的方式和過程比較復雜,不具備泛化性。

2012 年AlexNet 網絡模型誕生,并在當年獲得了ImageNet 圖像分類比賽的冠軍[4],由此,無論是學術界還是工業界,都對深度學習在計算機視覺領域中的運用給予了廣泛的關注,如人臉識別、車輛檢測等。本文將吸煙檢測問題歸為目標檢測問題,即通過定位行人與煙頭的位置關系來判斷是否存在吸煙現象。

本文通過借鑒YOLO(you only look once)[5]高性能檢測算法,設計了一種輕量級吸煙檢測網絡模型,該模型通過融合多層次不同的特征圖向量,增加注意力機制模塊、殘差模塊以及SPP(spatial pyramid pooling)模塊等改良了原網絡結構,提高了小型目標的檢測準確率;同時,減少了模型的卷積核參數,進而減少了模型計算量,加快了模型最終的推演速度,達到滿足檢測實時性要求。針對模型魯棒性問題,通過訓練數據增強、改變損失函數與激活函數、增加正則化方法、利用上下文信息等方法提高了本文模型的魯棒性。

1 相關工作

傳統目標檢測算法包括VJ(Viola and Jones)級聯檢測器[6]、HOG 檢測器[7]以及DPM(deformable parts model)模型[8]等,存在著計算量大、手工提取特征復雜、特征表征性能較弱以及模型的泛化能力較差等問題,很難解決不同場景中的吸煙檢測問題。而卷積神經網絡中的卷積核作為“天然”的濾波器,具有優越的特征提取能力,這也正是其在計算機視覺領域中取得顛覆性突破的主要因素之一。除此之外,使用多種場景的數據集進行訓練,使得卷積神經網絡模型具有很強的泛化能力,因此,目前深度學習已成為目標檢測領域的首選解決方案。

通常目標檢測所使用的經典特征提取網絡如VGG(visual geometry group)[9]、GoogLeNet[10]、ResNet[11]等,之所以使用在圖像分類領域里面取得顯著成效的預訓練網絡結構,是因為其具有強大的特征抽取能力,通過提取到的大量特征完成高難度的多圖像分類任務。而目標檢測同樣需要大量的圖像特征,因此檢測模型的骨干網絡(backbone)通常會使用GoogLeNet 的Inception 結構、ResNet 的殘差結構等,不僅可以避免神經網絡反向傳播更新權重時的梯度消失等問題,還能夠加速模型收斂。

目標檢測算法發展至今,出現了兩大流派,雙階段和單階段檢測算法。前者的代表算法主要包括Faster RCNN(region convolutional neural networks)[12]、FPN(feature pyramid networks)[13]、RFCN(region fully convolutional networks)[14]以及Cascade RCNN[15]等。以Faster RCNN 為例,這類算法首先通過基礎卷積神經網絡提取圖像特征,輸出特征圖。再使用RPN(region proposal network)網絡,對輸入的特征圖中的每個位置,使用softmax 預測2×k個分數,k為本文預設的錨框(anchor)個數,2 表示前景和背景兩個類別的得分,同時利用邊框回歸,對每個特征圖的位置預測4×k個坐標回歸特征矩陣,使得前景樣本的錨框通過變換更加接近真值,之后通過候選網絡層(proposal layer)通過非極大值抑制(non maximum suppression,NMS)[16]和得分排序,篩選生成候選區域(region proposals)。綜合候選區域與之前得到的特征圖信息,經過ROI(region of interest)池化生成候選特征圖(proposal feature maps),將其傳輸至全連接層完成最終的物體分類和邊框回歸定位。后者的代表算法則包括YOLO、SSD(single shot multibox detector)[17]、RetinaNet[18]以及EfficientDet[19]等。以YOLO 為例,這類算法將分類問題轉換為回歸問題,不需要經過提取候選區域步驟,而是直接通過卷積神經網絡得出目標的位置與類別。通過基礎卷積神經網絡提取圖像特征后,直接在每個特征圖上執行目標分類與邊框回歸定位,同樣借助錨框加速邊框回歸,輸出向量再經過非極大值抑制得出最終預測結果。兩類算法各有優劣,單階段的算法長于速度,具有較快的模型推演速度,但在預測精度方面稍遜一籌;相比之下,雙階段的檢測算法的目標檢測準確率較高,但模型推演速度較慢。

基于視覺的吸煙檢測易受圖像噪聲干擾進而產生誤檢,并且煙頭目標較小,難以發現與識別,因此,目前學術界中,基于目標檢測的吸煙檢測方法較少,相關工作和理論并不完善。本文借助目標檢測理論的基本思路,將煙頭視為待檢目標,通過設計卷積神經網絡的結構,在本人制作的數據集中進行訓練,與經典的深度學習檢測器YOLO、SSD、Faster RCNN 等相比,對吸煙行為的檢測,具有更高的檢測準確率和檢測速度。此外,在一些公開數據集中,本文的算法模型也有著更好的表現。

2 吸煙檢測難點以及解決方案

通過深度學習目標檢測來完成吸煙檢測的方法,存在著如下難點:

2.1 小目標檢測

首先,需要對小目標物體給出相關定義。在微軟COCO 數據集中,存在著對小物體目標的描述,指的是目標面積小于32×32 的物體,單位為像素。小目標物體由于分辨率較低,圖片拍攝過程中較之于大物體更容易出現模糊、抖動等現象的干擾,并且抗噪能力較弱,即使是常見的圖形學噪聲如椒鹽噪聲、高斯噪聲等也容易對目標物體造成較大程度的干擾,通過去噪手段也很難完全恢復小物體目標的特征。其次,小目標物體受制于其本身尺寸,攜帶的圖形學信息較少,因此在提取特征的過程中,能提取到的特征非常少。

針對小目標物體難以發現的問題,可以利用模型淺層的特征圖(feature map)向量。特征圖是與目標檢測相關的基本概念,輸入圖像經過一個卷積核或者池化核后,輸出的二維矩陣向量就是特征圖,與特征圖息息相關的另一個概念為感受野(receptive field)。所謂感受野,指的是卷積神經網絡每一層輸出的特征圖上每個位置的輸出向量在輸入圖片上映射的區域大小。感受野的大小與原輸入圖像所經過的卷積層或者池化層中核的尺寸呈平方正相關關系,感受野越大的特征圖,它的每個位置的向量所能“感受”的區域越大,越能夠捕捉深層次的高維隱藏特征以及大型物體目標的特征;相反,小感受野的特征圖通常捕捉淺層細節特征以及小型物體目標的特征。對于卷積神經網絡來說,淺層網絡的特征圖所具有的感受野較小,可以發現較小的目標物體。同理,如果模型的卷積神經網絡層數較多,深層的特征圖感受野越大,特征圖中的一個向量代表了原圖較大區域的特征,則更多地將小物體周圍背景或者其他物體的特征納入特征表示,從而使模型喪失發現小物體的能力。淺層網絡通常提取的特征偏向于細節特征,主要包括邊緣、形狀等方面;而深層網絡則提取較為抽象的特征,如圖1 所示(左圖為原圖,從左至右特征圖所在的卷積層深度依次增加)。對此,可以借鑒FPN 網絡的思想,將深淺層次的特征圖進行融合,既盡可能多地保留小物體的特征,又可以很好地檢測不同尺度下的待測物體。這里的融合指的不是特征圖對應二維空間位置向量值的相加,而是在維度(channel)層面的擴張,可以理解為多張特征圖的“堆疊”。

Fig.1 Feature maps of different scales圖1 不同尺度特征圖

注意力機制同樣能夠增強模型檢測小物體目標能力。注意力模型最初被應用于機器翻譯任務,2017 年,SENet(squeeze-and-excitation networks)[20]通過設計的注意力模塊,取得了最后一屆ImageNet 圖像分類比賽的冠軍,標志著注意力機制在計算機視覺領域中的成功運用。2018 年,注意力模型CBAM[21](convolutional block attention module)在SENet 的基礎上,設計了結合空間位置和特征通道兩個維度的注意力模塊,取得了更好的效果,如圖2 所示。

Fig.2 Convolutional attention module圖2 卷積注意力模塊

特征通道表示某層特征圖的個數,與該層卷積核的個數相等。假設特征圖的輸入為c(特征通道數)×h(特征圖高度) ×w(特征圖寬度),通過將特征圖的h和w進行平均池化和最大池化壓縮成一維,之后將這兩個c×1×1 的輸出向量加和,得出c×1×1 的輸出向量,將其作用于原輸入特征圖執行卷積相乘運算,來增強特征通道維度的注意力。空間位置的特征注意力機制則分別將平均池化和最大池化作用于輸入特征圖,再將二者在特征通道維度進行拼接,此時特征圖變為2c×h×w,然后將其輸入至一個卷積核個數為c的卷積層,最后與原特征圖進行卷積相乘,完成空間位置的注意力增強。實驗證明[20-21],注意力模塊能夠幫助卷積神經網絡提取到更加魯棒的特征,本文設計了注意力模塊來解決小目標物體難以捕捉的問題,它的設計借鑒了CBAM 的設計思想,模塊的上半部分通過融合經過最大池化層和平均池化層的特征圖向量,增強了空間位置的注意力,下半部分通過加和經過最大池化層和平均池化層的特征圖向量,增強了特征通道維度的注意力。

2.2 輕量級特征提取網絡

吸煙檢測需要關注實時性問題,需要及時發現并警示吸煙行為,由于吸煙動作和過程較為短暫,若不實時地執行檢測,及時作出響應,則容易出現漏檢的情況。目標檢測是兩個子任務的結合,即圖像分類和邊框定位,而兩者都需要大量的待檢物體的特征。因此,檢測模型通常由兩部分組成,骨干網絡(backbone)和執行檢測的頭部(heads)。骨干網絡通常使用大量的卷積層提取特征,頭部則使用所提取的特征完成目標定位和分類過程,模型推演的時間損耗主要在于骨干網絡。骨干網絡的規模之所以越來越龐大,是為了學習更為復雜的非線性映射關系,提取更多潛在的特征,但隨著層數和參數量增多,推演計算量也不可避免地增加,因此需要在保證能夠提取到充分的目標特征的基礎上,設計輕量的特征提取網絡。

實際上,在一些場景中部署檢測模型,需要考慮硬件資源的計算能力,這也是設計輕量級特征提取網絡的另一重要因素。比如將模型部署到Nvidia TX2 等開發板上,由于開發板的算力遠遠達不到深度學習專用顯卡的算力,模型的推演速度將進一步被減緩,因此設計輕量型特征提取網絡更加具有研究意義。本文設計了殘差模塊和SPP 模塊,并將其與普通卷積層組建形成骨干特征提取網絡。與常規的卷積神經網絡層組成的骨干特征提取網絡相比,本文的骨干網絡在不增加參數量的情況下,提高了特征提取能力。

Fig.3 ResNet module(left)and ResNeXt module(right)圖3 ResNet模塊(左)與ResNeXt模塊(右)

Fig.4 Basic network module of detection model圖4 檢測模型的基礎網絡模塊

殘差模塊ResNet 在圖像分類任務中取得了顯著成效,其具體的結構如圖3 所示,ResNeXt[22]借鑒繼承了ResNet 的殘差思想,并且其通過實驗證明了其提出的分組多基數路徑結構可以在不增加參數復雜度的前提下學習更多的特征,提高了分類準確率,同時還減少了模型超參數的數量。因此,本文借鑒了ResNeXt 模塊,如圖4(a)所示,本文在檢測模型的特征提取的骨干網絡中設計了殘差模塊,代替了傳統的簡單卷積網絡層。該模塊首先通過卷積步長為2的卷積操作完成特征圖的下采樣過程,之后參照了ResNeXt 結構,通過建立的32 組多路徑結構,完成分組卷積,同時使用了兩個殘差組卷積的堆疊,通過雙層殘差進一步增強網絡的特征學習能力,避免出現梯度爆炸、梯度消失等問題。

SPPNet[23](空間金字塔池化)原本是為了解決卷積層和全連接層相接時,不同尺寸的輸入特征圖無法產生固定長度的特征表示,從而導致卷積層輸出與全連接層輸入連接失敗的問題。本文則是利用了SPPNet 的潛在特征融合特性,它利用不同步長的最大池化核作用于輸入特征圖,得到不同大小感受野的輸出特征圖,然后通過特征通道維度的向量拼接,融合了多級特征,加強網絡對抽象特征、深層語義特征的學習能力。相比于執行多次卷積操作后,再進行向量拼接,取得相同效果的同時,顯著減少模型運行復雜度和參數計算量。因此,本文借鑒了SPPNet模塊,在骨干網絡的末尾設計了SPP 模塊,如圖4(b)所示,它包含了四路不同尺寸的池化核模塊,輸入的特征圖分別通過四個池化層后會產生四類感受野面積不同的特征圖,其中通過1×1 池化核的特征圖感受野最小,通過13×13 池化核的特征圖感受野最大感受野范圍正比于池化核的尺寸。SPP 模塊通過融合四種不同感受野的特征圖向量,彌補了整體網絡下采樣次數不足的缺陷,進而有利于發現目標物體整體特征以及深層語義特征。

2.3 模型魯棒性

基于深度學習的目標檢測算法模型除了主體是由卷積神經網絡構成,還包括了常規的組件,如激活函數、損失函數、正則化方法等。激活函數為模型提供了非線性建模的能力,卷積和池化操作僅僅是矩陣運算,僅僅是高維空間的線性建模與計算,而激活函數通過輸入輸出的非線性映射,可使神經網絡模型去學習并擬合非線性函數的函數。目標檢測中子問題可歸結為目標分類和坐標回歸定位,無論是分類還是回歸函數都不可能僅僅是線性函數,因此需要選擇性能更強的激活函數Mish[24]代替原有的激活函數。Mish 激活函數如式(1)所示:

損失函數衡量模型預測的好壞,度量預測值與實值之間的差異,也就是模型訓練的目標。損失函數通過公式的方式描述了本文要解決的問題,而目標檢測的損失函數可分為兩部分,分類損失和邊框回歸損失。分類損失函數選擇YOLO 算法中的二分類交叉熵(binary cross entropy,BCE)損失函數,該部分的損失函數包括兩部分,置信度損失和類別損失,如式(2)所示:

其中,S代表輸出特征圖大小,anchor表示每個特征圖向量負責預測的錨框個數,λobj和λnoobj表示懲罰項因子,tconf和predconf分別表示存在物體的置信度真值和預測值,tcls和predcls則分別表示物體的類別真值與預測值,表示第i個位置的第j個錨框是否存在待測物體,若存在物體其值為1,不存在則為0。

早期的目標檢測算法YOLO 使用MSE(mean square error)損失函數,Faster RCNN 使用L1-smooth損失函數,作為邊框回歸損失函數,然而以Ln范數衡量回歸損失并不準確。2019 年,DIoU(distance intersection over union)[25]損失函數的提出,使得目標檢測的邊框回歸過程較之以往的損失函數更加快速與準確,該損失函數如式(3)所示:

其中,B和Bgt分別表示預測的邊框和邊框真值,B∩Bgt與B∪Bgt表示二者的交集面積和并集面積,b和bgt表示B和Bgt的中心點,ρ2(·)表示歐式距離,c為覆蓋B和Bgt最小矩形框的對角線長度。由此,得出檢測模型的總體損失函數為式(4):

機器學習中常用的正則化方法為Dropout[4],在神經網絡前向傳播的過程中以一定的概率忽略輸入神經元,通過模擬人類的遺忘現象,防止模型出現過擬合現象,使模型更加魯棒。Dropout 通常被廣泛用于全連接層的正則化,但它作用于卷積層的效果并不明顯。卷積層中的激活單元是空間關聯的,即便是使用Dropout 隨即丟棄特征圖某些位置上的向量,物體的信息仍然能夠通過卷積網絡傳輸到下一層。因此,本文使用DropBlock 方法完成對特征圖的正則化約束,以一定的概率忽略圖中的相鄰區域塊而非某一個點,如圖5 所示。

Fig.5 Dropout regularization(left)and DropBlock regularization(right)圖5 Dropout正則化(左)與DropBlock 正則化(右)

對于深度學習算法來說,數據集的重要性不言而喻,數據集的質量決定了檢測模型的質量。通常來說,數據量越大,包含的待測場景越多,檢測模型的泛化性能越強,檢測準確率也會相應提高。通過訓練數據增強技術如Mixup、CutMix[26]、多尺度放縮、平移、旋轉以及對稱等,進一步提高訓練數據的多樣性,防止模型訓練數據太過單一。最后,利用上下文信息,在檢測時設置兩個待檢測類,行人和煙。輸出的最終預測結果向量經過非極大值抑制后,通過先選取出置信度較大的行人檢測框,反向排除吸煙檢測框與行人檢測框IoU(intersection over union)小于0 的預測向量,減少煙頭誤檢率,提高檢測準確率。

3 模型結構設計

Fig.6 Overall network structure of detection model圖6 檢測模型的整體網絡結構

Fig.7 Flow chart of smoking detection圖7 吸煙檢測流程示意圖

本章將介紹本文提出的總體吸煙檢測模型結構以及檢測流程。該模型借鑒了YOLO 算法的單階段檢測思想,直接通過深度學習模型對待測物體進行目標分類與邊框回歸定位,得到物體的位置與類別。

3.1 整體網絡結構

首先是負責特征提取的骨干網絡部分,如圖4(d)所示,它由卷積層、殘差模塊、SPP 模塊和注意力模塊組合而成,學習和提取待測物體特征。圖6 所示的是本文提出的吸煙檢測模型的整體網絡架構,本文借鑒了谷歌EfficientDet 模型中的BiFPN(bidirectional feature pyramid network)結構,融合了三種不同感受野尺度的特征圖輸出向量。經過下采樣的特征圖尺寸相應縮減為原特征的一半,通過雙線性插值的上采樣方法,擴大特征圖尺寸,以便與原特征圖完成特征通道維度的向量拼接。最終獲得三個尺度的輸出結果,盡可能地覆蓋不同尺寸的香煙目標,使用非極大值抑制算法、上下文信息計算處理以及預測置信度排序等方法處理匯總三層的輸出向量,排除干擾項,得出最終的待測目標類別以及在圖像中的位置。

3.2 吸煙檢測流程

本文通過實時視頻流協議(real-time streaming protocol,RTSP)按照一定的幀數間隔讀取視頻幀,將幀進行簡單預處理后輸入到本文設計的吸煙檢測模型中,經過模型計算出置信度較高的煙頭以及行人所在位置,首先使用NMS 排除冗余檢測框,之后通過上下文信息關聯算法,將每個煙頭預測坐標與行人預測坐標進行IoU 計算,排除計算值小于某個閾值的預測框,表示煙頭與行人毫無關聯,不存在吸煙現象。最后將捕捉到的吸煙現象視頻幀進行標注并保存至本地,并向有關人員發出警示信息,具體的檢測流程如圖7 所示。

4 實驗分析

由于缺乏相應的吸煙檢測數據集,首先完成相關數據集的制作,使用該數據集訓練檢測模型,深度學習訓練框架為Darknet,訓練所使用的顯卡型號為NVIDIA GeForce RTX 2080Ti,操作系統為64 位Ubuntu kylin 16,配置CUDA10.0,CUDNN7.5。

4.1 數據集的制作

本文制作的數據集中的數據來源于爬取的谷歌和百度圖片、HMDB 人類行為數據庫中吸煙片段以及自己錄制的吸煙視頻。數據標注使用的是Github開源標注工具YOLO Mark。目標標注的內容為五元組(class,x,y,w,h),其中class表示物體類別,為Int類型的整數;0 ≤x,y,w,h≤1 表示目標物體的中心點坐標以及標注的真值框的高度和寬度在原輸入圖像中的比例,通過歸一化方法處理標注值,方便后續模型的推演與計算。數據標注的可視化如圖8 所示,數據集的劃分如表1 所示,干擾項指的是沒有任何吸煙目標的樣本。

Fig.8 Data annotation圖8 數據標注

Table 1 Settings of dataset表1 數據集的劃分

4.2 實驗結果

在使用Darknet訓練框架搭建好本文的檢測模型后,首先在本文自制的數據集上展開實驗。

首先進行數據預處理過程,數據增強手段包括多尺度放縮、平移旋轉、對稱、隨機擦除以及CutMix。整個訓練過程中的迭代次數為30 000,批量大小為64,使用Adam 梯度優化器,起始學習率為0.001,權重衰減系數為0.000 5,正則化方法采用Dropblock,損失函數則為本文中的式(4)。圖9 所示為本模型在自制數據集上訓練時的損失值的變化以及訓練集和驗證集的mAP 的變化,發現模型在驗證集的檢測效果非常好。訓練完成的模型在真實場景中的檢測效果如圖10 所示。

Fig.9 Training log圖9 訓練日志

Fig.10 Detection results圖10 檢測效果圖

在本文制作的數據集上,使用YOLOv3、SSD、RetinaNet 以及本文提出的目標檢測算法進行了實驗,檢測結果如表2 所示,通過在配有英偉達GeForce RTX 2080Ti 顯卡的主機上進行測試實驗,可以看到,本文提出的檢測算法在檢測準確率(mAP)以及模型推演速度(FPS)上要高于本文所借鑒的YOLOv3 算法以及其他代表性的單階段檢測算法。表明了本文算法在總體吸煙目標檢測準確率以及檢測速度方面有了相應的提升。

Table 2 Detection results of different algorithms on proposed dataset表2 不同算法在本文數據集上的檢測結果

之后,使用本文提出的模型在公開數據集PASCAL VOC 上進行訓練測試,訓練模型時增添了一塊TITAN 顯卡,使用雙顯卡進行訓練。表3 描述了本文算法在PASCAL VOC 數據集上的訓練檢測結果,推演過程使用的是GeForce RTX 2080Ti 顯卡,與YOLOv3、SSD、Faster RCNN 等經典檢測算法相比,本文算法仍然具有一定的優勢。

Table 3 Detection results on PASCAL VOC表3 PASCAL VOC 數據集上的檢測結果

為了驗證本文算法在小目標檢測方面的提升,本文在公開數據集Tsinghua-Tencent 100K(TT100K)交通標志牌檢測數據集上進行了模型訓練與測試。該數據集包括了3 類交通標志牌,即禁令類標志、警示類標志以及指示類標志,因此訓練數據的標注類別,設置為3。該數據集的訓練集有6 107張圖片,測試集有3 073張圖片,之后選擇了YOLOv3 模型(本文模型的主要參考和對比模型)、未加AttentionBlock(該部分替換為普通卷積層)的本文模型、未使用多層特征圖雙向融合的本文模型(該部分替換為普通的單向FPN 網絡結構)以及完整的本文模型進行實驗對比,最終的檢測結果如表4 所示。

Table 4 Detection results on TT100K表4 在TT100K 數據集上的檢測結果

檢測的推演過程使用的是GeForce RTX 2080Ti顯卡,經過實驗對比,本文算法利用了Attention Block模塊以及多尺度雙向特征圖融合預測等結構,加強了對小目標的識別與檢測能力。圖11 是本文算法與YOLOv3 算法檢測交通標志牌的對比實例圖。

Fig.11 Comparison of detection results on traffic sign圖11 交通標志檢測效果對比圖

5 結束語

本文根據吸煙行為的實際應用場景,提出了一種基于深度學習的能快速發現和警告吸煙行為的檢測模型,該模型對細粒度的小目標具有較好的檢測效果。一方面為了解決模型實時性檢測的問題,對提取圖像特征的卷積神經網絡骨干網絡的結構進行了優化,不僅減少了模型參數量與計算量,加快了模型推演速度,進而提高了檢測速度,還能將該結構用于計算資源受限的場景中。另一方面為了改善模型的魯棒性,將新型激活函數Mish 引入到本文模型的卷積層中,同時在檢測模型中增加正則化DropBlock模塊,防止模型過擬合。其次,選擇DIoU 邊框回歸損失函數替換常規的均方根誤差損失,提高目標物體定位的準確率。最后,利用上下文信息,減少目標物體的誤檢率。通過本文自制的數據集訓練本文提出的模型,驗證了模型具有較好的檢測效果。受限于數據集的多樣性,本文模型在實際生產應用中效果不理想,未來將進一步擴充數據集,完成模型增量訓練,進一步減少誤檢與漏檢率,提升模型在實際工業運用中的檢測效果。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 国产成熟女人性满足视频| 久久精品无码中文字幕| 亚洲欧美日韩成人高清在线一区| 五月婷婷精品| 国产成人久久综合777777麻豆| 国内视频精品| 亚洲欧美在线综合一区二区三区| 在线免费无码视频| 欧美精品伊人久久| 91精品国产综合久久不国产大片| 亚洲男人的天堂在线| 国产一二三区视频| 四虎国产精品永久一区| 国产精品久久自在自2021| 亚洲人成网站18禁动漫无码| 国产一级裸网站| 狠狠综合久久| 欧美亚洲另类在线观看| 久久精品国产电影| 国产91在线|日本| 2020久久国产综合精品swag| 久久国语对白| 亚洲国产高清精品线久久| 91网站国产| 91啪在线| 欧美黄网站免费观看| 亚洲精品国产综合99| 狠狠色综合久久狠狠色综合| 国产91精品调教在线播放| 手机精品福利在线观看| 国产真实自在自线免费精品| 国产一区二区三区日韩精品| 亚洲区一区| 国产视频自拍一区| 日韩高清欧美| 99无码中文字幕视频| 伊人久久精品无码麻豆精品| 欧美色视频网站| 制服丝袜国产精品| 欧美精品影院| 免费一级毛片在线播放傲雪网| 全部无卡免费的毛片在线看| 毛片大全免费观看| 欧美成人国产| 91久久偷偷做嫩草影院免费看| 天堂网国产| 国产精品久久自在自2021| 成人一级黄色毛片| 婷婷亚洲天堂| 操国产美女| 亚洲一级色| 深爱婷婷激情网| 亚洲天堂精品视频| 欧美成人在线免费| 亚洲欧洲AV一区二区三区| 九九热精品视频在线| 国产一级毛片在线| 国产视频大全| 亚洲欧美自拍中文| 欧美国产日韩一区二区三区精品影视| 亚洲欧美日本国产综合在线| 亚洲成人网在线播放| 亚洲一区二区黄色| V一区无码内射国产| 国产日韩欧美一区二区三区在线 | 国产99视频精品免费视频7| 91av国产在线| 久久亚洲天堂| 91麻豆精品国产高清在线| 欧美日韩一区二区三区四区在线观看| 亚洲 欧美 偷自乱 图片| 四虎永久在线精品影院| 久久夜色精品国产嚕嚕亚洲av| 丰满少妇αⅴ无码区| 麻豆国产在线观看一区二区| 国产三级国产精品国产普男人| 国产又粗又猛又爽视频| 激情亚洲天堂| 久久精品这里只有精99品| 亚洲不卡av中文在线| 国产av剧情无码精品色午夜| 久久国语对白|