999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于注意力機制的多尺度融合人群計數算法

2024-03-21 08:15:22謝新林尹東旭張濤源謝剛
計算機工程 2024年3期
關鍵詞:特征融合信息

謝新林,尹東旭,張濤源,謝剛

(1.太原科技大學電子信息工程學院,山西 太原 030024;2.太原科技大學先進控制與裝備智能化山西省重點實驗室,山西 太原 030024)

0 引言

人群計數任務可以為人群監(jiān)督提供技術支持,減少或避免因人員聚集而引發(fā)安全事故,因此在體育館、音樂會、集會等人群密集場所的應用越來越廣泛。然而,在現(xiàn)實場景中因攝像機透視效應引起的人頭尺度變化大和復雜場景下背景噪聲高,使得不同場景下人群計數任務面臨巨大挑戰(zhàn)。在人群計數的早期研究中主要使用基于檢測[1]和回歸[2]的方法,但是當遇到高度擁擠的場景圖像時,該方法無法提取足夠的人群特征,計數精度較低。鑒于強大的深度特征表達能力,基于卷積神經網絡(CNN)的人群計數算法被廣泛提出,但仍存在多尺度信息提取不足、背景噪聲區(qū)分錯誤率高的問題。

為有效應對人頭尺度變化大的問題,現(xiàn)有人群計數算法通常引入多尺度特征融合模塊來學習不同感受野大小的特征[3-5]。許多早期方法使用多列架構網絡來處理大規(guī)模變化問題[6]。例如,文獻[7]構建一種多列卷積神經網絡,該網絡由具有不同感受野大小的3 個分支組成。但是,該方法因多分支網絡的引入,導致計算量增加、訓練效率降低。因此,一些改進方法嘗試將高級語義信息和上下文信息融合到深度網絡中[8-10],這些信息有助于網絡理解擁擠人群特征。其中,文獻[11]搭建一種基于分組卷積的多通道融合結構,但該方法不能有效聚合上下文信息。文獻[12]設計一種以VGG16 為前端、擴張卷積為后端的網絡,用于提取具有更大感受野的特征,但不能有效融合深層和淺層信息。文獻[13]提出一種規(guī)模聚合網絡,采用不同大小的卷積核提取多尺度特征,但大卷積核容易造成計算量增大,且在整個圖像中只采用卷積操作來獲得多尺度特征,易導致網絡丟失部分全局信息。文獻[14]構建一種反饋網絡,并在網絡中使用空洞空間金字塔模塊聚合上下文信息,但是該卷積操作易造成原始特征圖中的空間細節(jié)信息丟失。然而,上述方法無法捕獲足夠的全局上下文信息,且在像素之間未建立全局關系,易通過卷積操作使網絡丟失原始特征圖的空間細節(jié)信息[15]。

針對擁擠場景下背景噪聲高的問題,現(xiàn)有人群計數算法通常引入注意力機制對人頭特征進行加權[16-18]。文獻[19]構建一種雙路徑網絡架構,并使用注意力圖優(yōu)化密度圖,但所提注意力圖只關注特征圖的空間位置信息,忽略通道類別信息。為此,文獻[20]介紹一種通道注意力模塊對通道特征重新校準以充分學習通道類別信息,但該方法忽略了空間位置信息。文獻[21]基于卷積和池化操作提出一種空間和通道融合的混合注意力網絡,同時關注空間和通道信息,但由于卷積和池化操作只能使用局部信息進行加權,因此丟失了部分像素信息,使網絡無法充分利用每個特征像素信息進行加權。盡管基于注意力的人群計數方法針對當前或先前層的特征,利用激活函數生成權重圖加權空間信息,以消除背景噪聲。

本文提出一種基于注意力機制的多尺度融合人群計數算法AMFNet。該算法能融合不同層不同尺度大小的特征信息來解決人頭尺度變化大的問題,并通過像素級注意力機制對圖片的通道和空間信息進行像素加權融合來處理擁擠場景下背景噪聲高的問題。本文設計基于殘差連接的空洞空間金字塔池化(ASPP-R),通過多分支卷積捕獲多尺度頭部目標特征的同時使用殘差連接保留原特征圖的空間細節(jié)信息;構建跨層多尺度特征融合模塊融合深層和淺層的多尺度特征,并構建基于多分支的特征融合模塊(FFS-MB)融合當前層不同感受野大小的特征信息。設計基于像素級特征的空間和通道注意力機制模塊(AM-CS),通過矩陣相似性運算使網絡提取像素級特征對空間和通道信息進行加權融合。

1 本文網絡

針對現(xiàn)有人群計數方法頭部尺度變化大以及背景噪聲復雜的問題,本文提出一種基于注意力機制的多尺度融合人群計數網絡。所提方法由3 個主要部分組成:基于殘差連接的空洞空間金字塔池化、基于多分支的特征融合結構和通道、空間注意力機制模塊。

1.1 基于殘差連接的空洞空間金字塔池化

為提高網絡對于多尺度頭部目標的學習能力,本文構建基于殘差連接的空洞空間金字塔池化,通過設計殘差結構以及多個不同擴張率的空洞卷積捕獲多尺度的頭部目標特征。圖1 所示為ASPP-R 模塊結構。

圖1 基于殘差連接的空洞空間金字塔池化結構Fig.1 Structure of atrous spatial pyramid pooling based on residual connection

首先,針對輸入特征信息,使用1×1 卷積將特征圖的通道維度從512 降低為128,其目的在于減少模型的參數量。此外,引入批歸一化層(BN),以加快網絡的訓練和收斂速度。

其次,為充分學習不同尺度大小的頭部目標,設計擴張率為(1,3,7,13)的并行3×3 卷積。全局平均池化分支能夠保留圖像的全局上下文信息,為恢復輸入特征的空間大小,引入雙線性插值的方式進行上采樣。此外,為了避免空洞卷積和全局平均池化造成信息丟失,引入殘差連接保留輸入特征的空間細節(jié)信息。

最后,為融合多尺度目標信息、全局上下文信息、輸入特征信息,將多分支信息以通道拼接的方式進行融合。此外,為進一步減少計算量,本文設計1×1 卷積壓縮通道維度從640 降低至512。

1.2 基于多分支的特征融合模塊

特征融合模塊通過融合低級與高級信息來增強不同尺度的特征表達,淺層網絡具有較強的細節(jié)信息學習能力,有利于高度擁擠場景的人群計數,深層網絡具有較強的語義信息學習能力,有利于區(qū)分人頭、樹葉、建筑物等復雜背景。因此,本文構建基于多分支的特征融合模塊(FFS-MB)結構,其特點是設計不同感受野大小具有豐富特征信息的分支結構。圖2 所示為FFS-MB 模塊結構。

圖2 基于多分支的特征融合模塊結構Fig.2 Feature fusion module structure based on multi-branch

首先,融合主干網絡相鄰層級的特征信息。Input_1 為主干網絡第n層的特征信息,Input_2 為主干網絡第n-1 層的特征信息,通過雙線性插值方式對Input_1 進行上采樣,得到與Input_2 相同空間維度的特征信息。此外,引入通道拼接的方式實現(xiàn)相鄰層級特征的初步融合。

其次,構建具有豐富特征信息的多分支結構。多分支結構包含3 個卷積分支和2 個池化分支。其中,1×1 卷積的目的是壓縮通道維度信息以減少計算量。卷積的3 個分支結構分別具有不同大小的感受野,Conv 1×1 分支用于保存原始輸入的特征信息,Conv 1×1、Conv 3×3 分支的有效感受野為3×3 卷積,Conv 1×1、Conv 3×3、Conv 3×3 分支的有效感受野為5×5 卷積,其特點是能夠關注不同尺寸的頭部特征。在池化的2 個分支結構中,為了抑制圖像中復雜的背景噪聲,本文設計MaxPooling 3×3、Conv 1×1 消除冗余信息,此外,為了防止在高度擁擠場景下MaxPooling 導致相似信息丟失,本文設計AvePooling 3×3、Conv 1×1 分支結構。

最后,融合多分支結構的特征信息。Conv 分支和MaxPooling 分支具有相同的通道維度,為了防止目標信息弱化,AvePooling 分支的通道維度為其余分支的1/2,然后以通道拼接的方式融合5 個分支的特征信息。此外,為減少計算量,本文使用1×1 卷積降低通道數為[512,256,128]。

1.3 基于通道與空間的注意力機制模塊

為進一步突出圖像中的人群區(qū)域,本文構建基于通道和空間的注意力機制模塊(AM-CS),通過矩陣運算提取每個像素的空間和通道特征進行加權,分別用于加強網絡對于背景和人頭目標的辨別能力、自適應矯正位置信息。圖3 所示為構建的AM-CS模塊結構。

圖3 基于通道與空間的注意力機制模塊結構Fig.3 Attention mechanism module structure based on channel and spatia

首先,分別構建空間和通道注意力模塊,對特征信息任意2 個像素之間的空間關系以及特征通道之間的相互依賴關系進行建模。將輸入特征X?RC×H×W重塑為A?RC×N,其 中,N=H×W。通過AT與A之間的矩陣乘法計算空間相似矩陣,通過A與AT之間的矩陣乘法計算通道相似矩陣。Softmax函數用于生成空間注意力權重Patt?RN×N及通道注意力權重Qatt?RC×C,具體計算式如下:

其中:pij表示第i個位置對第j個位置的影響;qij表示第i個通道對第j個通道的影響表示AT的第i行;Aj表示A的第j列。

其次,融合通道和空間注意力機制。通過A與P之間的矩陣乘法計算融合空間注意力的特征信息,通過Q與A之間的矩陣乘法計算融合通道注意力的特征信息,采用逐像素相加的方式獲得具有通道和空間注意力的特征信息,其過程如下:

其中:Reshape 將維度大小為C×N的特征信息重塑為C×H×W;Frefine表示注意力機制模塊輸出的特征信息。

基于注意力機制的多尺度融合人群計數網絡結構如圖4 所示(彩色效果見《計算機工程》官網HTML版),其中,Stage 1~Stage 4 為VGG16 前10 層的4 個階段特征圖,分別為原圖1/2、1/4、1/8、1/16 的大小,Stage 3、Stage 4 為深層分支,Stage 1、Stage 2 為淺層分支。

圖4 基于注意力機制的多尺度融合網絡總體結構Fig.4 Overall structure of multi-scale fusion network based on attention mechanism

2 實驗結果與分析

為驗證基于注意力機制的多尺度融合人群計數算法的性能,本文首先介紹人群計數數據集ShanghaiTech[7]和UCF_CC_50、評價指 標與實驗配置、聯(lián)合損失函數,然后通過消融實驗驗證本文所提模塊的有效性,最后通過與先進算法進行定量和定性對比分析,驗證所提算法的有效性。

2.1 數據集

ShanghaiTech 是目前評估算法模型性能最常用的人群計數數據集,共包含1 198 張帶注釋的圖像,總計330 165 個人。根據人群密度和場景不同分為SHA 和SHB 2 個部分。SHA 是從互聯(lián)網上下載的不同擁擠場景圖像,人群密度更大并存在少量灰度圖片,其包含人數從33~3 139 個人不等的300 張訓練和182 張測試圖片。SHB 是從上海街道拍攝相對稀疏的人群場景圖像,且受攝像機視角不同的影響,圖片具有人頭尺度大小不同的特點,其包含人數從9~578 個人不等的400 張訓練和316 張測試圖片。

UCF_CC_50[22]是1 個極其擁擠并且訓練樣本極少的人群計數數據集,該數據集僅包括50 張不同分辨率、視角和光線的圖像,包含體育館、音樂會、集會、馬拉松等場景。頭部注釋的數量從94~4 543 個人不等,平均為1 280 個。受復雜背景和密集人群分布的影響,數據集挑戰(zhàn)難度較高。為了更好地評估模型在UCF_CC_50 數據集上的性能,本文設置數據集執(zhí)行5 倍交叉驗證[22],并把5 次實驗結果均值作為最終評估結果。

2.2 評價指標與實驗配置

本文通過平均絕對誤差(MAE)和均方根誤差(RMSE)來評估算法模型的計數效果,評價指標定義如下:

其中:N為測試集包含的圖像個數;Ci和分別為預測人數和真實人數。MAE 反映計數的準確度,RMSE 反映算 法的魯棒性。因 此,MAE 和RMSE 值越小表示性能越好。

此外,為了更直觀地展示測試圖片計數效果,本文采用計數差值(CD)來描述算法測試圖片的效果,計算式如下:

本文算法實驗配置參數:操作系統(tǒng)Ubuntu20.04;顯 卡RTX2080Ti;深度學 習框架PyTorch 1.7.1;數據處理Python 3.8。

本文算法的權重衰減為1×10-4;優(yōu)化器為Adam;學習率為5×10-4;epoch 設為700,使用高斯核模糊生成真值圖DGT,計算式如下:

其中:x為像素在圖像中的位置;C為頭部注釋的數量;參數μ為高斯核大小,μ=15;參數ρ為標準差,ρ=4。

在數據增強過程中,如果圖像短邊小于512,則先調整為512,使用400×400 像素的圖像塊在隨機位置進行剪裁,使網絡進行多批次訓練。以概率0.2 將原圖更改為灰度圖,以概率0.5 隨機水平翻轉圖像。

2.3 聯(lián)合損失函數

歐氏幾何距離損失通過逐像素度量預測密度圖和真值密度圖的差異,以獲得高質量的人群密度圖,但是沒有針對預測人數進行損失。基于回歸人數的損失度量預測人數和真實人數的差異,通過生成與圖像真實人數相對應的數量特征信息,提高計數的準確性。為了在生成高質量密度圖的同時提高計數的準確性,本文設計一種結合歐氏幾何距離損失和基于回歸人數損失的聯(lián)合損失函數,計算式如下:

其中:N表示1 個訓練批次中圖片的個數;F(Xi;θ)表示人群密度預測圖;Xi和θ表示網絡學習參數和輸入圖像 ;D表示人 群密度 真值圖 ;表示歐氏距離損失;Ci表示預測人數;C表示真實人數表示基于回歸人數的損失;λ為加權比例,本文設置為1。

2.4 消融實驗

為驗證ASPP-R、FFS-MB、AM-CS 和聯(lián)合損失函數的有效性,本文僅使用基礎模塊進行消融實驗,將具有1×1、3×3、3×3、3×3 和ImagePooling 分支,擴張率為[1,6,12,18]的ASPP 結構作為基礎ASPP 模塊并用A 表示,將具有1×1、3×3、5×5、7×7 的多分支作為基礎特征融合模塊并用F 表示,基礎損失函數為歐氏幾何距離損失。

消融實驗結果如表1 所示。相比Backbone+A+F,在基礎網絡Backbone 后接注意力機制AM-CS(Backbone+A+F+AM-CS)的MAE 和RMSE 分別降低1.4%和1.8%。相比Backbone+A+F+AM-CS,將基礎模塊A 和F 替換成本文所提的ASPP-R 和FFS-MB 后(Backbone+ASPP-R+FFS-MB+AM-CS),MAE 和RMSE 分別降低1.4%和3.1%。把基礎網絡使用的歐氏幾何距離損失替換成本文所提的聯(lián)合損失函數后,MAE 和RMSE 分別降低0.3%和0.1%。由此證明本文所提的ASPP-R、FFS-MB、AM-CS 模塊、聯(lián)合損失函數均能有效提高網絡計數性能和魯棒性。

表1 消融實驗結果Table 1 Ablation experimental results

為驗證AM-CS模塊的有效性,本文對所提AM-CS與空間注意力模塊[8](SAM)和SE通道注意力模塊[20](SECAM)進行對 比實驗,實驗結果如表2 所示,加粗表示最優(yōu)數據。

表2 基于注意力機制模塊的對比結果Table 2 Comparison results based on attention mechanism modules

從表2 可以看出,本文所提AM-CS 模塊相比SAM 模塊,MAE 和RMSE 分別降低2.6%和3.4%,所提AM-CS 模塊與SECAM 模塊相比,MAE 和RMSE分別降低1.6%和2.9%。因此,本文所提AM-CS 模塊的性能優(yōu)于基于空間和基于通道的注意力模塊。

2.5 實驗結果

2.5.1 定量分析與比較

考慮到UCF_CC_50 數據集的數據量較小,本文使用基于SHA 數據集上預訓練的模型進行網絡訓練。表3 所示為AMFNet 網絡與近5 年先進方法在ShanghaiTech 和UCF_CC_50 數據集上的對比結果,加粗表示最優(yōu)數據。

表3 不同算法在ShanghaiTech 和UCF_CC_50 數據集上的實驗結果Table 3 Experimental results among different algorithms on ShanghaiTech and UCF_CC_50 datasets

從表3 可以看出,本文算法AMFNet 在更為密集且背景復雜ShanghaiTech 數據集的SHA 部分比其他最好算法MAE 和RMSE 分別降低1.4%和4.2%,證明AMFNet 算法能有效提高存在背景噪聲的人群圖片計數精確度和魯棒性。在較為稀疏的SHB 數據集中也取得較小的計數誤差,MAE 和RMSE 分別為7.4和11.2,證明網絡能有效應對人群圖片中因攝像機視角不同而引起人頭比例變化較大的問題。SHB 數據集頭部尺度變化較小,包含人數密度水平較低,背景簡單,本文算法針對頭部尺度變化較大且復雜背景干擾構建的跨層多尺度融合模塊和注意力模塊對SHB 數據集性能提升效果不明顯,導致在SHB 數據集上性能不如SGANet,但是仍優(yōu)于其他對比算法。本文算法在最密集的UCF_CC_50 數據集上比其他最優(yōu)算法的MAE 和RMSE 分別降低4.9%和1.8%,證明AMFNet 算法在不同密度、背景、光照條件下具有較強的泛化性能。

與采用基礎ASPP 來提取多尺度上下文信息和多層特征融合的RANet 相比,本文算法在SHA 和UCF_CC_50 數據集上均取得更小的誤差,證明本文所提ASPP-R 模塊的有效性。與采用不同大小的濾波器聚合多尺度特征的SANet、TEDNet 相比,本文算法在3 個數據集上均取得最優(yōu)的效果,證明本文所提FFS-MB 模塊可以更充分地融合多尺度特征。與只采用空間注意力機制的SFANet、SGANet 相比,本文算法在SHA 和UCF_CC_50 數據集上均取得更小的誤差,驗證了本文所提基于矩陣相似度運算的像素級空間通道注意力模塊AM-CS 的有效性。

2.5.2 定性分析與比較

為了對所提算法AMFNet 進行定性分析,本文設計AMFNet 與MCNN、CSRNet、SANet、SFANet 網絡在ShanghaiTech 和UCF_CC_50 數據集上的對比實驗,給出不同對比算法在各數據集圖片上測試的計數誤差結果以及密度圖可視化結果,分別如表4和圖5 所示。

表4 不同對比算法的測試計數誤差結果Table 4 Test counting error results among different comparison algorithms

圖5 不同對比算法的密度圖可視化結果Fig.5 Density map visualization results among different comparison algorithms

從圖5 可以看出,由第1 行圖可見,SHA 數據集原圖中背景十分雜亂,包括椅子、帳篷、汽車、樹葉和遠處擁擠遮擋的人群,由表4 可知本文算法在SHA數據集上的誤差僅為3.80,遠小于對比算法中誤差最小的SFANet,證明網絡通過多尺度注意力圖路徑能有效抑制復雜的背景噪聲。由第2 行圖可見,SHB數據集原圖中背景較為簡單,但是由于攝像機的透視效應,因此出現(xiàn)了較大的人頭比例變化。從表4可以看出本文算法的預測誤差僅為2.45,小于其他所有對比算法的誤差,說明通過多尺度感知模塊使網絡能有效緩解大規(guī)模的人頭比例變化問題。由第3 行圖可見,UCF_CC_50 數據集原圖是極度擁擠密集且缺乏顏色信息的圖像,由表4 可知本文算法的計數誤差為243.66,是接近第2 小計數誤差SFANet 方法的1/4,接近最大計數誤差SANet 網絡的1/7,表明本文算法對極度密集人群計數十分準確。在3 個不同背景、人群密度、攝像機視角、顏色信息的3 個數據集上,本文算法都能基本達到最優(yōu)的MAE 和RMSE,具有較優(yōu)的準確性和魯棒性,同時還有較好的泛化性。

3 結束語

本文提出一種基于注意力機制的多尺度融合人群計數算法,用于解決人群計數圖像人頭尺度變化大、高背景噪聲的問題。首先,將人群數據集輸入到由基于VGG16 前10 層構建的特征提取模塊,用于提取Stage 1~Stage 4 的淺層和深層信息;然后,通過基于殘差連接的空洞空間金字塔池化和深層分支、淺層分支融合不同層的多尺度上下文語義信息;最后,通過注意力機制模塊加強網絡對于背景和人頭目標的判別能力。在ShanghaiTech 和UCF_CC_50 數據集上的實驗結果表明,本文算法具有較優(yōu)的準確性和穩(wěn)定性,并具有較優(yōu)的泛化性。由于單視角圖片包含擁擠場景下圖片信息較少,因此下一步將對多視角人群計數方法進行研究,以提高算法在復雜場景下的計數準確性。

猜你喜歡
特征融合信息
村企黨建聯(lián)建融合共贏
融合菜
從創(chuàng)新出發(fā),與高考數列相遇、融合
《融合》
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 美女免费黄网站| 午夜国产不卡在线观看视频| 黄色片中文字幕| 亚洲日韩第九十九页| a国产精品| 欧美在线黄| 国产欧美专区在线观看| 欧美日韩在线亚洲国产人| 制服丝袜一区| 欧美精品高清| 亚洲免费毛片| 色香蕉影院| 欧美日韩中文国产| 久久99国产精品成人欧美| av在线人妻熟妇| 亚洲无码高清视频在线观看| 色综合久久久久8天国| 永久免费无码成人网站| 免费一极毛片| 国产成人你懂的在线观看| 国产在线精品人成导航| 午夜视频免费一区二区在线看| 久久99国产综合精品1| 高清精品美女在线播放| 黄色成年视频| 午夜欧美在线| 欧美日韩第三页| 99视频精品全国免费品| 99成人在线观看| 97狠狠操| 日本三级欧美三级| 91亚洲精品第一| 中文字幕永久在线观看| 午夜小视频在线| 色婷婷综合激情视频免费看 | 国产精品黑色丝袜的老师| 成人字幕网视频在线观看| 亚洲天堂网在线视频| 99中文字幕亚洲一区二区| 亚洲成a人片| 欧美日韩高清在线| 91蜜芽尤物福利在线观看| 国产精品lululu在线观看| 国产精品福利导航| 91久久性奴调教国产免费| 一级毛片视频免费| 谁有在线观看日韩亚洲最新视频| 九色免费视频| 国内精品伊人久久久久7777人| 欧洲欧美人成免费全部视频| 亚洲性色永久网址| 全部无卡免费的毛片在线看| 99在线观看国产| 丰满人妻一区二区三区视频| 亚洲天堂视频网站| 亚洲第一成人在线| 永久免费精品视频| 国产簧片免费在线播放| 日韩午夜伦| 国产精品99久久久久久董美香| 日韩少妇激情一区二区| 国产精品嫩草影院视频| 无码免费的亚洲视频| 亚洲欧美一级一级a| 精品国产一区二区三区在线观看| 亚洲 欧美 日韩综合一区| 亚洲男人天堂2018| 亚洲第一天堂无码专区| 天天激情综合| 亚洲国产精品无码AV| 国产欧美日韩18| 精品国产美女福到在线直播| 国产情侣一区| 精品久久久无码专区中文字幕| 国产精品区视频中文字幕| 精品国产成人国产在线| 欧美全免费aaaaaa特黄在线| 国产精品女人呻吟在线观看| 国产尤物视频网址导航| 久久不卡精品| 一本久道久综合久久鬼色| 乱系列中文字幕在线视频|