999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

監(jiān)控視角下密集人群口罩佩戴檢測算法

2023-09-18 04:36:16張榮芬劉宇紅饒庭漓
計算機工程 2023年9期
關鍵詞:檢測模型

孫 龍,張榮芬,劉宇紅,饒庭漓

(貴州大學 大數(shù)據(jù)與信息工程學院,貴陽 550025)

0 概述

正確佩戴口罩可以有效阻絕新型冠狀病毒在人群中的傳播[1]。然而,疫情常態(tài)化的趨勢使得民眾逐漸放松了警惕,公共場所等高風險區(qū)域不戴口罩或不規(guī)范佩戴口罩等現(xiàn)象頻發(fā),例如,據(jù)“深圳發(fā)布”2022 年10 月11 日消息,深圳新一輪疫情中一部分新增病例因不規(guī)范佩戴口罩而發(fā)生隔空感染。因此,在高風險場所內如何結合安防攝像頭對密集人群進行口罩佩戴檢測,成為一個值得研究的問題。與此同時,隨著深度學習及計算機視覺的快速發(fā)展,目標檢測這一計算機視覺下的子分支在安防監(jiān)控、自動駕駛、無人機場景分析等領域中得到廣泛應用。目標檢測是語義分割、實例分割等高級視覺任務的基礎,可簡單定義為:給定輸入圖像,通過目標檢測算法,在輸入圖像中檢測出指定物體類別及其對應坐標位置信息,并通過矩形框可視化標注。

現(xiàn)有目標檢測算法可根據(jù)階段數(shù)分為單階段與雙階段兩類。常見單階段目標檢測算法包括YOLO[2]、SSD[3]、Retina-Net[4]等,常見雙 階段算 法包括Fast R-CNN[5]、Faster R-CNN[6]、Cascade R-CNN[7]等。單階段目標檢測算法往往以檢測精度為代價從而具有較快的推理速度,而雙階段算法則與之相反。

本文研究的口罩佩戴情況包括正確佩戴、不規(guī)范佩戴、未佩戴等3 個類別。目前已有許多研究者將目標檢測算法運用于口罩佩戴檢測這一任務中。春雨童等[8]提出新冠肺炎疫情背景下聚集性傳染風險智能監(jiān)測模型,基于Cascade-Attention R-CNN目標檢測算法,利用兩階段網(wǎng)絡精度高的優(yōu)點實現(xiàn)對聚集區(qū)域、行人和口罩佩戴情況的自動檢測,但仍然不可避免兩階段檢測網(wǎng)絡檢測效率的難題。HE 等[9]提出基于HSV+HOG 特征和SVM 的人臉口罩檢測算法,利用人臉關鍵點檢測人臉口罩佩戴情況。該算法雖然達到了一定的檢測精度,但時間復雜度較高,魯棒性較差。李雨陽等[10]提出基于改進SSD 的口罩佩戴檢測算法,同時通過引入?yún)f(xié)調注意力機制、使用Quality Focal Loss 實現(xiàn)更優(yōu)的正負樣本分配策略。曹城碩等[11]提出利用YOLO-v3 算法進行口罩佩戴檢測,但所構建數(shù)據(jù)集樣本過少,且未針對特定場景做出優(yōu)化。白梅娟等[12]提出利用可見光與紅外圖像進行聯(lián)合口罩佩戴檢測研究。此種方式雖然能提升模型算法的準確率與召回率,但應對復雜多變的外部環(huán)境時不具備普適性。

上述研究都一定程度上實現(xiàn)了性能優(yōu)異的口罩佩戴檢測算法,但作為目標檢測子任務之一的口罩佩戴檢測同樣會遭遇目標檢測中的幾大難題,如目標樣本密集分布、遮擋、圖像畸變、小目標檢測等,而在監(jiān)控視角下針對密集人群的口罩佩戴檢測也同樣會面臨以上問題。為此,本文提出基于YOLO-v5 改進的針對監(jiān)控視角下密集人群的口罩佩戴檢測算法MDDC-YOLO,主要工作如下:改進YOLO-v5 特征融合策略,選擇對小目標檢測更為友好的C2 特征圖輸入特征路徑聚合網(wǎng)絡FPN+PANet中;受Trident-Net 啟發(fā),利用空洞卷積構建用于增強感受野的多分支空洞卷積模塊MRF-C3,替換YOLO-v5 中用于構建骨干網(wǎng)絡的C3 模塊,提高模型小目標檢測能力;引入Repulsion Loss,采用基于樣本邊界框排斥吸引的原則,提高模型應對目標遮擋的魯棒性;引入ECA(Efficient Channel Attention)注意力機制,賦予模型進行自適應關注通道特征的能力;提出基于透視變化結合縮放拼接的離線數(shù)據(jù)擴充方法,增加監(jiān)控視角下小目標、目標不同透視角度的樣本數(shù)量,并使用能生成更多小目標樣本的 Mosaic-9 數(shù)據(jù)增強結合隨機擦除的在線數(shù)據(jù)增強方法。

1 MDDC-YOLO 算法

MDDC-YOLO 監(jiān)控視角密集人群口罩佩戴檢測算法改進于通用目標檢測算法YOLO-v5,為使其適用于本文所針對的應用場景,相對YOLO-v5 做出以下改進:利用空洞卷積構造多分支感受野模塊MRF-C3替換YOLO-v5 中常規(guī)C3模塊,解決密 集人群中小目標占比大、普遍存在遮擋的現(xiàn)象;使用Repulsion Loss 基于樣本邊界框排斥吸引的原則,提高模型抗遮擋能力;引入ECA 注意力機制,賦予模型進行特征通道最優(yōu)化選擇的能力。MDDC-YOLO網(wǎng)絡結構如圖1 所示(彩色效果見《計算機工程》官網(wǎng)HTML 版,下同)。

圖1 MDDC-YOLO 網(wǎng)絡結構Fig.1 Structure of MDDC-YOLO network

1.1 MRF-C3 模塊

為提高網(wǎng)絡對多尺度目標檢測的魯棒性,受Trident-Net[13]研究啟發(fā),本文在原三叉戟塊(Trident blocks)的基礎上,設計用于增強模型不同層次感受野的多分支感受野模塊MRF-C3,如圖2 所示,其中,圖2(a)為YOLO-v5 中原始C3模塊,圖2(b)為MRF-C3 模塊。

圖2 C3 與MRF-C3 模塊Fig.2 C3 and MRF-C3 modules

MRF-C3 模塊采用膨脹率分別為(1,2,3)的3 組空洞卷積與1 條來自于上層輸入的殘差連接構成,并最終形成四分支并行的特征圖輸出模塊。值得注意的是,Trident-Net 的提出者認為應使模型學習到目標不同尺寸的特征,而不是將被縮放至不同尺寸的同一物體視為毫無關聯(lián)的多個不同物體[13],因此,在3 條由空洞卷積構成的分支中,將不同分支的空洞卷積設置為參數(shù)共享。本文將這樣的多分支感受野聚合模塊MRF-C3 嵌入YOLO-v5 骨干網(wǎng)絡CSPDarkNet53 中,以提升模型對目標尺度變化的敏感性。

1.2 Repulsion Loss

針對密集人群的口罩佩戴檢測常常會遇到目標之間相互遮擋的問題,如圖3 所示。在訓練階段,目標間遮擋會導致本屬于目標B 的預測框被與之重疊的目標A 的真實框吸引,從而導致訓練過程中正樣本丟失,影響訓練精度;在預測階段,由于目標檢測器預測時后處理中通常使用非極大值抑制(Non-Maximum Suppression,NMS)來抑制針對同一目標產生的多個冗余框,而目標間遮擋時會出現(xiàn)前文中所提及的交叉物體干擾的現(xiàn)象,導致經(jīng)NMS 后處理后出現(xiàn)交叉物體漏檢現(xiàn)象。

圖3 目標遮擋示意圖Fig.3 Schematic diagram of target occlusion

為解決以上問題,本文采用WANG 等[14]基于預測框與真實框排斥吸引的Repulsion Loss 來解決密集人群口罩佩戴檢測中的目標遮擋問題。Repulsion Loss 可定義為式(1):

其中:LAttr為吸引項,作用為使預測框與相匹配的真實框盡可能接近,具體可定義為式(2),式中,P+為圖像中正樣本集合,BP為預測框,GP,Attr為與該預測框對應的真實框;LRepGT及LRepBox為排斥項,前者作用為排斥該預測框周圍的其余真實框,后者作用為排斥其余分別歸屬于不同真實框的預測框,兩者分別定義為式(3)、式(4),在式(3)中,IIoG(BP,GP,Attr)為該預測框與其對應真實框之間重疊部分在真實框中的占比,在式(4)中,Ι[]為標識函數(shù),ε為功能常數(shù),用于避免出現(xiàn)分母為0 的情況,SmoothLn具體定義如式(5)所示,平滑因子σ?)[0,1 ;α與β為平衡兩者損失的補償項。

1.3 ECA 注意力機制

注意力機制意在空間層面及通道層面對各組成部分進行權重分配從而使得網(wǎng)絡性能獲得提升。近年來,大量與視覺相關的注意力研究相繼被提出,如關注通道間關系的SE[15]、同時關注空間與通道間特征關系的CBAM[16]以及對通道間關系關注更為高效的ECA[17],本文選擇ECA 注意力機制作為提升各層級特征表達的模塊,并將其插入FPN[18]與PANet[19]連接處,如圖4 中藍色虛線框中藍色箭頭所示。

圖4 ECA 注意力插入位置示意圖Fig.4 Schematic diagram of ECA attention insertion position

在ECA 注意力模塊中,首先將輸入特征進行全局平均池化,并將其輸入至核大小為k的一維卷積中,然后通過Sigmoid 激活函數(shù)獲得各通道權重,最后對各通道特征進行權重分配,從而獲得輸出特征。ECA 注意力模塊具體結構如圖5所示。

圖5 ECA 注意力模塊結構Fig.5 Structure of ECA module

1.4 數(shù)據(jù)增強策略

考慮到真實監(jiān)控視角下口罩人臉存在透視畸變的問題,在離線數(shù)據(jù)增強中,本文引入透視變換進行數(shù)據(jù)擴充從而獲得口罩人臉多角度樣本。為增強模型抗遮擋的魯棒性,在訓練過程中引入圖像區(qū)域隨機擦除方法[20],為進一步解決監(jiān)控視角下口罩人臉目標小的問題,使用Mosaic-9 替代常規(guī)Mosaic[21]數(shù)據(jù)增強方法。

透視變換具有將圖像從一個視平面投影至新的視平面,使得一個平面圖像產生透視效果的能力,透視變換可表示如下:

其中:x、y、w為原始圖像坐標,對應得到經(jīng)投影變換后的圖像坐標x′、y′、w′;矩陣A為投影變換矩陣。

本文將透視變換結合縮放拼接的方式應用于目標數(shù)為1 圖像中,以此進行數(shù)據(jù)集擴充,即通過設置不同的透視變換矩陣,獲得原始圖像不同透視角度的圖像,并結合原圖進行縮放拼接。離線數(shù)據(jù)增強示意圖如圖6 所示。

Mosaic-9 與Mosaic 數(shù)據(jù)增強總體思路相同,都是使用多張圖像進行縮放拼接處理,從而使樣本在訓練過程中得到多尺度表達,有助于增加數(shù)據(jù)集多尺度樣本、豐富檢測物體的背景以及在批歸一化計算時同時計算多張圖像數(shù)據(jù)。在原始YOLO-v5 中,隨機從數(shù)據(jù)集中選取4 張圖像進行Mosaic 處理,但在本文所針對的應用場景下,為盡可能多地提供小目標樣本,采用9 張圖像作為Mosaic 數(shù)據(jù)增強的最小組合,如圖7 所示,處理流程如下:1)隨機抽取9 張圖像,保持原始圖像高寬比進行整體隨機縮放;2)將9 張圖像分別放置于尺寸相同的初始圖像的9 個區(qū)域中;3)對每一張初始圖像按照圖中所示橙色分割線進行分割,并將9 個分屬于不同圖像的分割結果拼接為一張圖像,原始圖像縮放比例及分割線位置都為隨機選取。在上述處理流程的基礎上,使用隨機擦除數(shù)據(jù)增強方法,并采用圖像均值進行擦除區(qū)域填充。將上述針對數(shù)據(jù)處理策略統(tǒng)稱為DAFS。

圖7 Mosaic-9 數(shù)據(jù)增強示意圖Fig.7 Schematic diagram of Mosaic-9 data augmentation

2 實驗結果與分析

2.1 實驗平臺

硬件配置:CPU 為Intel?酷睿?i7-12700KF,GPU為GeForce RTX?3090,操作系統(tǒng)為Ubuntu 18.04 LTS。深度學習環(huán)境配置:深度學習框架PyTorch 版本為1.8.2 LTS,CUDA 版本為11.1,Python 版本為3.8。

2.2 實驗數(shù)據(jù)集

本文利 用公開 數(shù)據(jù)集MaskedFace-Net[22]與PWMFD[23]組建實 驗數(shù)據(jù) 集。PWMFD 數(shù)據(jù)集中包含3 個類別的口罩佩戴類型,共計9 205 張圖像,但不規(guī)范佩戴口罩這一類別目標數(shù)僅為366 個,類別極度不均衡,而MaskedFace-Net 提出名為MTFDM(Mask-to-Face Deformable Model)的模型,用于根據(jù)已有人臉數(shù)據(jù)集生成佩戴口罩人臉圖像,并基于FFHQ(Flickr-Faces-HQ)[24]構建包 含3 個類別共計133 783 張圖像的人臉口罩數(shù)據(jù)集。

本文算法通過人臉關鍵點與口罩關鍵點匹配,從而獲得包括正確佩戴口罩、未完全遮擋下巴、露出鼻子、露出嘴和鼻子等類別的數(shù)據(jù),各類別關鍵點匹配示意如圖8 所示。

圖8 各類別關鍵點匹配示意圖Fig.8 Schematic diagrams of matching each class of landmarks

為解決不規(guī)范佩戴口罩這一類別樣本嚴重缺乏的問題,選取8 585 張類別為不規(guī)范佩戴的圖像作為實驗數(shù)據(jù)補充,并采用本文提出的DAFS 方法進行數(shù)據(jù)擴充,得到如表1 所示數(shù)據(jù)集。

表1 實驗數(shù)據(jù)集 Table 1 Experimental dataset

實驗中并未以圖片數(shù)量作為數(shù)據(jù)集劃分的最小單位,而是以樣本數(shù)量即圖像中的目標數(shù)量作為依據(jù),按照8∶1∶1 的比例將數(shù)據(jù)集劃分為訓練集、測試集、驗證集,具體如表2 所示。

表2 數(shù)據(jù)集劃分 Table 2 The partition of dataset

2.3 實驗結果

為驗證本文中所采用的各改進策略的有效性,設計消融實驗進行驗證研究,訓練過程總共迭代300 個epoch,batch size 設置為32,使用SGD 優(yōu)化器,在開始的3 個epoch 中使用warm up 調整學習率,初始學習率設置為0.001,momentum 設為0.937,MDDC-YOLO 訓練結果如圖9 所示,消融實驗結果如表3 所示。

表3 消融實驗結果 Table 3 The result of ablation experiment

圖9 訓練結果Fig.9 Train results

與YOLO-v5(baseline)相比,在骨干網(wǎng)絡CSPDark Net53中嵌入多分支感受野模塊MRF-C3 后,模型以犧牲幀率為代價獲得1.6 個百分點mAP 的提升,通過替換邊界框損失函數(shù)為Repulsion Loss 后模型獲得1.9 個百分點mAP 的提升,這來源于目標密集分布場景下,該損失函數(shù)使得訓練過程中遮擋正樣本得到充分利用。引入ECA 注意力機制后可使特征通道權重化,模型能夠快速準確提取不同重要性的特征信息,最后使用透視變換、隨機擦除等離線數(shù)據(jù)增強策略,增加了目標多角度樣本,并在Mosaic-9 及隨機擦除的增強下,獲得0.7 個百分點mAP 的提升,并最終將幀率保持在32 幀/s,從而滿足算法實時性應用的需求。

為比較MDDC-YOLO 算法與目標檢測領域常見算法在監(jiān)控視角下密集人群口罩佩戴檢測這一任務上的優(yōu)劣,本文進一步設計對比實驗進行研究,實驗結果如表4和表5所示,其中加粗數(shù)據(jù)為最優(yōu)數(shù)據(jù)。

表4 對比實驗結果 Table 4 The result of comparative experiment

表5 與其他YOLO-v5 改進模型對比實驗結果 Table 5 The result of comparative experiment with others model improved base YOLO-v5

表4 數(shù)據(jù)表明,本文提出的MDDC-YOLO 算法達到了98.1%的mAP,相比本文所選擇的基礎算法YOLO-v5,mAP 獲得6.5 個百分點的提升,同時僅使幀率由42 幀/s 下降至32 幀/s,而目標檢測領域中將檢測器檢測幀率是否大于30 幀/s 作為判斷檢測器實時與否的標準,故本文所提出算法仍屬于實時檢測器的范疇;表5 對比中以YOLO-v5 為基礎改進的幾個模型,雖能夠在通用目標檢測上取得優(yōu)異的性能表現(xiàn),但面對本文所針對監(jiān)控視角下人群密集分布場景時,均出現(xiàn)一定程度的精度丟失,無法滿足密集人群高風險公共場所視頻監(jiān)控這一應用場景的要求。

為直觀展示檢測效果,實驗最后給出可視化檢測效果,如圖10、圖11 所示,其中邊界框顏色藍、黃、紅分別對應正確佩戴口罩、不規(guī)范佩戴口罩、未佩戴 口罩等3 個類別,圖10(a)、圖10(c)和圖11(a)為監(jiān)控視角下密集人群圖像原始圖像。可以看出,針對正確佩戴口罩、不正確佩戴口罩、未佩戴口罩這3 個類別,面對透視畸變、側臉、遮擋以及模糊等監(jiān)控視角下的諸多問題,本文算法均能得到較好的檢測效果。

圖10 MDDC-YOLO 檢測效果1Fig.10 Detection effect 1 of MDDC-YOLO

圖11 MDDC-YOLO 檢測效果2Fig.11 Detection effect 2 of MDDC-YOLO

3 結束語

基于改進YOLO-v5[29]通用目標檢測算法,本文提出一種監(jiān)控視角下密集人群口罩佩戴檢測算法MDDC-YOLO。為應對監(jiān)控視角下小目標檢測的難點,提出基于空洞卷積的多分支感受野模塊MRF-C3,并將其嵌入YOLO-v5 骨干網(wǎng)絡中,然后采用Repulsion Loss 提升目標密集分布情況下模型的抗遮擋能力。在此基礎上,在YOLO-v5 特征聚合部分插入ECA 注意力模塊,使得各通道間特征得到最優(yōu)化選擇,以提升模型檢測精度。最后,提出采用透視變換及Mosaic-9 等數(shù)據(jù)增強策略,提升適用于監(jiān)控視角密集人群口罩佩戴檢測的樣本數(shù)量。在一系列改進策略的支撐下,MDDC-YOLO 相較于YOLO-v5取得6.5 個百分點mAP 的提升,并最終使模型幀率保持在32 幀/s,相較于其他通用目標檢測模型,體現(xiàn)出推理速度更快、檢測精度更高的性能優(yōu)勢。本文在解決透視畸變時除采用離線數(shù)據(jù)增強之外,并未進行更多處理,所以透視角度過大時,存在口罩佩戴檢測失準的情況。后續(xù)可進一步考慮引入小微型神經(jīng)網(wǎng)絡嵌入主模塊中,針對透視變換矩陣進行學習,從而進行自適應的透視畸變矯正,以對抗真實應用場景中復雜的外部條件。

猜你喜歡
檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 国产女人在线| 午夜综合网| 无码精品国产dvd在线观看9久| 亚洲人网站| 亚洲欧美极品| 精品日韩亚洲欧美高清a| 午夜视频日本| 国产精品视频白浆免费视频| 亚洲av无码久久无遮挡| 一级爱做片免费观看久久 | 国产91熟女高潮一区二区| 波多野结衣一区二区三区四区视频| 青青青国产免费线在| 国产特级毛片aaaaaa| 亚洲av综合网| 久久黄色视频影| 欧美成人a∨视频免费观看| 亚洲日韩高清在线亚洲专区| 国产精彩视频在线观看| 亚洲日本一本dvd高清| 99er精品视频| 99热精品久久| 国产综合精品日本亚洲777| 色悠久久久| 国产激情国语对白普通话| 国产精品国产三级国产专业不| 免费观看无遮挡www的小视频| 欧美国产综合色视频| 国产精品成人第一区| 午夜免费小视频| 国产成人一区| 人妻丰满熟妇av五码区| 亚洲AV无码久久天堂| 99re这里只有国产中文精品国产精品 | 67194亚洲无码| 91麻豆精品国产高清在线| 三级国产在线观看| 四虎永久免费网站| 天天综合色天天综合网| 久久婷婷五月综合97色| 在线观看视频一区二区| 亚洲男人天堂久久| 中文字幕色站| 亚洲aaa视频| 国产精品久久国产精麻豆99网站| 最新国产成人剧情在线播放 | 国产高清在线精品一区二区三区| 国产精品偷伦在线观看| 免费观看成人久久网免费观看| 日韩在线欧美在线| 日韩高清一区 | 久久久久亚洲精品成人网| 黄色网站在线观看无码| 成年人福利视频| 久精品色妇丰满人妻| 欧美在线黄| 88av在线看| 亚洲欧美在线看片AI| www中文字幕在线观看| 特级做a爰片毛片免费69| 天堂成人av| 日韩中文无码av超清| 女人毛片a级大学毛片免费| 国产高清在线丝袜精品一区| 日本妇乱子伦视频| 午夜福利在线观看成人| 日本不卡在线| 日韩小视频在线播放| 99视频国产精品| 98精品全国免费观看视频| 亚洲精品va| 超薄丝袜足j国产在线视频| 伊人AV天堂| 国产一区成人| 欧美精品影院| 99在线免费播放| 欧美精品影院| 九九九久久国产精品| 欧美一道本| 国产SUV精品一区二区6| 国产精品久久久久鬼色| 亚洲第一天堂无码专区|