999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于高分辨率網(wǎng)絡的地鐵人體姿態(tài)估計研究

2023-09-08 00:49:10劉珊珊馮賽楠田青錢付余豆飛牛志斌
鐵路技術創(chuàng)新 2023年3期
關鍵詞:關鍵點特征檢測

劉珊珊,馮賽楠,田青,錢付余,豆飛,牛志斌

(1.北方工業(yè)大學 信息學院,北京 100144;2.交控科技股份有限公司,北京 100070;3.北京市地鐵運營有限公司,北京 100044)

1 概述

隨著交通行業(yè)的快速發(fā)展,我國鐵路發(fā)生了翻天覆地的變化,見證了從無到有、從弱到強,從蹣跚起步、艱難延伸到鐵路密布、高鐵飛馳的發(fā)展歷程[1],面對新時代,為了滿足人民群眾高質量出行的需要,堅持和發(fā)展鐵路技術創(chuàng)新尤為重要。目前來說,地鐵成為人們工作生活中主要的出行方式,也正因為其過大的人流量,導致地鐵車站及車廂的人流量密集,傳統(tǒng)的行人檢測在密集場景下容易出現(xiàn)誤檢、漏檢的情況。人體姿態(tài)估計的任務是確定圖像中人體某一身體部位出現(xiàn)的位置,估計人關節(jié)點的坐標,廣泛應用于地鐵等密集場所下行人的動作識別,保證出行安全。研究依靠改進的人體姿態(tài)估計算法能夠更好地避免背景遮擋、光照變化等影響行人檢測,通過在地鐵等實際場景中利用人體姿態(tài)估計的方法來追蹤某段時間內人體姿勢的變化完成動作識別[2-4],得到對人體姿態(tài)的實時監(jiān)測與估計。

人體姿態(tài)估計方法可以分為自頂向下和自底向上2類[5]。其中自底向上的方法雖然在檢測效率上具有一些優(yōu)點,但檢測精度并不高,而自頂向下的方法可以先檢測出所有人體目標,再分別對每個目標的關鍵點進行檢測,因此檢測精度較高[6-8],所以本研究采取了自頂向下的方式進行人體姿態(tài)估計。

對于基于深度學習的人體姿態(tài)估計主要分為基于回歸的方式和基于熱圖的方式[9-10],前者直接預測每個關鍵點的位置坐標,后者針對每個關鍵點預測一張熱力圖。熱圖是關鍵點的概率分布圖,通常建模成圍繞每個關鍵點的高斯分布的疊加,每個像素都給1 個值,這個值對應像素屬于某個關鍵點可能性的值。當前基于熱圖的方式檢測效果更好,因此,本研究高分辨率網(wǎng)絡采用基于熱圖的方式進行關鍵點檢測[11]。

在人體姿態(tài)估計的網(wǎng)絡中,高分辨率網(wǎng)絡(High-Resolution Net,HRNet)在整個檢測過程中都保持著高分辨率的表征[12],將多分辨率子網(wǎng)通過并行的方式進行連接,同時進行多次多尺度融合[13],使該網(wǎng)絡能夠更加準確地預測熱圖。因此,采用了高分辨率網(wǎng)絡作為主干網(wǎng)絡,并在其基礎上做了如下改進:首先添加了注意力機制模塊,從空間維度和通道維度獲取關鍵特征信息,增強特征的提取能力;其次為了更加精確地定位關鍵點,對損失函數(shù)進行了改進,使網(wǎng)絡能夠容忍背景像素上的微小誤差,獲得更好的收斂速度。

2 網(wǎng)絡結構

2.1 HRNet整體結構

HRNet 主要是針對2D 人體姿態(tài)估計任務提出的。不同于其他網(wǎng)絡通過下采樣得到強語義信息,然后通過上采樣恢復高分辨率,在不斷地上下采樣過程中丟失大量的有效信息,HRNet 可以在整個過程中保持高分辨率表征,因此較其他網(wǎng)絡來說會明顯提升人體姿勢識別的效果。首先將高分辨率子網(wǎng)絡作為第1 階段的開始,逐步增加高分辨率到低分辨率的子網(wǎng)形成更多的階段,并將多分辨率子網(wǎng)并行連接,通過在并行的多分辨率子網(wǎng)絡上反復交換信息,進行多次多尺度融合,使每個高分辨率到低分辨率的表征都從其他并行表示中反復接收信息,從而得到豐富的高分辨率表征,多次融合之后的結果會更加精確[12,14],之后通過網(wǎng)絡輸出的高分辨率表示來估計關鍵點,提升預測的關鍵點熱圖的準確性(見圖1)。

圖1 HRNet結構

將HRNet 結構分為4 個部分,每個部分均存在1 個藍色框和1個橙色框,其中藍色框代表基本結構,橙色框代表過渡結構。HRNet 中第1 部分藍色框使用的是BottleNeck,其他部分藍色框使用的是BasicBlock。第1 部分橙色框是1 個TransitionLayer,第2 和第3 部分橙色框是1 個FuseLayer 和1 個TransitionLayer 的疊加,第4部分橙色框是1個FuseLayer。

(1)BottleNeck 結構能夠降低參數(shù)量,首先它利用PW(Pointwise Convolution)對數(shù)據(jù)進行降維,再進行常規(guī)卷積核的卷積,最后PW對數(shù)據(jù)進行升維,它的核心思想是利用多個小卷積核替代1 個大卷積核,利用1×1 卷積核替代大的卷積核的一部分工作。BottleNeck搭建模塊見圖2。

圖2 BottleNeck搭建模塊

(2)BasicBlock 結構包含1 個殘差支路和short-cut支路,它比傳統(tǒng)的卷積結構多了1個short-cut支路,用于傳遞低層的信息使得網(wǎng)絡能夠訓練地很深。Basic-Block搭建模塊見圖3。

圖3 BasicBlock搭建模塊

(3) FuseLayer 用來進行不同分支的信息交互,TransitionLayer 用來生成1 個下采樣2 倍分支的輸入feature map。

HRNet是高分辨率的網(wǎng)絡模型,面對頻繁的下采樣會導致空間方向特征丟失的問題,在進行特征提取和特征融合時,從輸入到輸出一直保持高分辨率表征[14],為了增強對輸入圖片的特征提取能力,因此在HRNet 中引入注意力機制模塊,突出圖像中尺度較小和遮擋人體關鍵點的特征,從而極大地提高HRNet 的性能。改進后的HRNet結構見圖4。

圖4 改進后的HRNet結構

2.2 注意力機制模塊

在計算機視覺中把聚焦圖像的重要特征、抑制不必要的區(qū)域響應方法稱作注意力機制(Attention Mechanisms),它在分類、目標檢測、人臉識別、動作識別、姿態(tài)估計、3D 視覺等任務中發(fā)揮著重要作用,極大地提升了計算機網(wǎng)絡的性能。

一般來說,注意力機制通常被分為通道注意力機制、空間注意力機制、時間注意力機制、分支注意力機制,把通道維度和空間維度組合[15],提出Convolutional Block Attention Module (CBAM),用于前饋卷積神經(jīng)網(wǎng)絡的簡單而有效的注意力模塊。相較于其他注意力機制模塊,CBAM模塊不僅保留了通道注意力,還添加了空間注意力,這使得網(wǎng)絡模型能夠注重關鍵信息的重要程度和關聯(lián)程度、提升對關鍵區(qū)域的特征表達;空間注意力使神經(jīng)網(wǎng)絡更加關注圖像中對分類起關鍵性作用的像素區(qū)域而忽略不重要的區(qū)域,通道注意力用于處理特征圖通道的分配關系,同時使用2個維度上的注意力機制使模型性能得到更加明顯的提升;CBAM內部使用輕量級卷積來獲取通道和空間的注意力權重,因此它是1種可以嵌入到任何主干網(wǎng)絡中以提高性能的輕量級模塊,具有通用性;引入CBAM 可以提高目標檢測和物體分類的精度,用到的計算量和參數(shù)都比較少,因此本研究引入CBAM 模塊提高網(wǎng)絡的檢測性能。給定1 張?zhí)卣鲌D,CBAM 模塊能夠序列化地在通道和空間2 個維度上產(chǎn)生注意力特征圖信息,然后2種特征圖信息再與之前原輸入特征圖進行相乘進行自適應特征修正,產(chǎn)生最后的特征圖。

CBAM模塊主要由通道注意力模塊和空間注意力模塊組成,2個注意力模塊采用串聯(lián)的方式,首先在空間和通道上進行注意力機制處理,沿著通道和空間2個維度推斷出注意力權重系數(shù),然后再與feature map 相乘,CBAM結構見圖5。

圖5 CBAM結構

2.2.1 CBAM總體流程

首先輸入網(wǎng)絡主干生成的特征圖F∈RC×H×W,經(jīng)過通道注意力模塊處理后,獲得通道注意力圖MC∈R1×1×C,通過跳躍連接的方式乘以輸入特征圖F中的相應元素,將結果F′送入空間注意力模塊中,之后利用空間注意力模塊生成帶有空間注意力權重的特征圖MS∈RH×W×1,最后乘以特征圖F′得到最終的輸出特征圖F′′。CBAM 模塊整體運行過程可以描述為以下公式:

式中:×表示元素級相乘。

2.2.2 通道注意力機制模塊

通道注意力機制通過特征內部之間的關系來產(chǎn)生注意力機制特征圖(見圖6),特征圖的每個通道可以當作一個特征檢測器。

圖6 通道注意力機制模塊

壓縮特征圖的空間維度能夠更高效地計算通道注意力特征,平均池化方法和最大池化方法都能夠學習到物體的判別特征,同時使用這2種方法得到的效果更好,經(jīng)過池化之后產(chǎn)生了2 種不同的空間上下文信息:代表平均池化特征的和代表最大池化特征的,然后再將該特征送入到一個共享的多層感知機(MLP)網(wǎng)絡中,產(chǎn)生最終的通道注意力特征圖Mc∈RC×1×1,為了降低計算參數(shù),在MLP 中采用了一個降維系數(shù)r,Mc∈RC/r×1×1。

通道注意力計算公式為:

2.2.3 空間注意力機制模塊

空間注意力機制通過特征圖空間內部的關系,來產(chǎn)生空間注意力特征圖(見圖7)。

圖7 空間注意力機制模塊

為了計算空間注意力,首先在通道維度通過平均池化和最大池化產(chǎn)生2D 特征圖:,然后拼接起來它們產(chǎn)生的特征圖,在拼接后的特征圖上,使用卷積操作產(chǎn)生最終的空間注意力特征圖:Ms(F)∈RH,W。

空間注意力計算方式為:

2.3 損失函數(shù)的改進

2.3.1 均方誤差損失(MSE)

均方誤差損失(MSE)存在2 個問題:(1)MSE 損失的梯度是線性的,對微小誤差不敏感,這影響了正確定位高斯分布mode 的能力;(2)在訓練過程中,所有的像素具有同樣的損失函數(shù)和權重[16],但是,在熱力圖中背景像素相對于前景像素是占有絕對主導地位的。這2 個問題導致由MSE 訓練的模型預測出結果的前景像素是模糊和膨脹的,這樣的低質量熱力圖可能會導致關鍵點的錯誤估計,因此將原本的MSE 損失函數(shù)改為Adaptive wing loss。

2.3.2 Adaptive wing loss

對于熱圖回歸的理想損失函數(shù),當誤差很大時,損失函數(shù)具有恒定的影響,因此它將對不準確的注釋和遮擋具有魯棒性。經(jīng)過不斷地訓練后誤差減小,會出現(xiàn)以下情況[16]:

(1)對于前景像素(y=1),影響和梯度應開始增加,訓練能夠更專注于減少他們的錯誤,當誤差接近于0時,影響會快速減少,此時這些已經(jīng)“足夠好”的像素不再被關注,正確估計的影響能夠幫助網(wǎng)絡保持收斂。

(2)對于背景像素(y=0),梯度應隨著訓練誤差的減小,梯度會減小到0,因此,當誤差較小時影響也會相對較小,訓練時對背景像素的關注減少,對背景像素微小誤差的敏感程度降低,能夠穩(wěn)定訓練過程。

由于ground truth 熱圖的像素值范圍是(0,1),這個損失函數(shù)應能夠根據(jù)不同的像素值進行平滑的轉換,且對于強度接近于1的ground truth像素,應增加小誤差的影響,對于強度接近于0 的ground truth 像素,損失函數(shù)應該像MSE loss 一樣,故而可以使用Adaptive Wing (AWing) loss[16],定義如下:

式中:y和分別為真實熱力圖和預測熱力圖的像素值;ω,θ,ε和α是正值;A=ω(1/(1+(θ/?)(α-y)))(α-y)((θ/?)(α-y-1))(1/?),C=(θA-ωln(1+(θ/?)α-y))是為了使損失函數(shù)在|y-|=θ時保持連續(xù)和平滑,變量θ作為閾值實現(xiàn)線性和非線性部分的轉換。

3 實驗

3.1 數(shù)據(jù)集

為了對提出的方法進行驗證,在大型公開COCO數(shù)據(jù)集上進行訓練和測試。COCO 數(shù)據(jù)集由微軟團隊發(fā)布,目前COCO keypoint track 是人體關鍵點檢測的權威公開數(shù)據(jù)集之一,包含超過20 萬張圖像和25 萬個標記有17 個關鍵點的實例。COCO 數(shù)據(jù)集中把人體關鍵點表示為17 個關節(jié),分別是鼻子、左右眼、左右耳、左右肩、左右肘、左右腕、左右臀、左右膝、左右腳踝[17-18]。

3.2 評價準則

在關鍵點檢測任務中一般用OKS(Object Keypoint Similarity)來表示預測關鍵點與真實關鍵點的相似程度,其值域在0~1,越靠近1 表示相似度越高,OKS 越大,表示檢測關鍵點的空間位置越準確[17]。

評價指標:

式中:i為第i個關鍵點;vi為第i個關鍵點的可見性,vi=0為在圖像外無法標注的點,vi=1為標注了但是被遮擋的點,vi=2 為標注了并且可見的點;對于δ(x),當x為True 時值為1,x為False 時值為0,di為檢測的關鍵點與數(shù)據(jù)集中標注的關鍵點之間的歐氏距離;s為目標的尺度因子,值為目標面積的平方根,這里的面積指的是分割面積;ki為用來控制關鍵點類別i的衰減常數(shù)。

一般用平均精度(Average Precision,AP)來評價實驗結果的準確性,在COCO數(shù)據(jù)集的實驗結果中,主要關注AP 這個指標,AP 的數(shù)據(jù)結果通過OKS 計算得出,對于單人姿態(tài)估計中的AP,計算方式為:

對于多人姿態(tài)估計而言,由于1張圖片中有M個目標,假設總共預測出N個個體,那么ground truth 和預測值之間能構成一個M×N的矩陣,然后將每一行的最大值作為該目標的OKS,則:

式中:AP 為所有圖片的OKS 大于閾值T的百分比,T由人為給定,在本實驗中AP 是指OKS=0.50,0.55,…,0.90,0.95時10個閾值之間所有檢測關鍵點準確率的平均值,AP50是在OKS=0.50時的檢測關鍵點的準確率,AP75 是在OKS=0.75 時的檢測關鍵點的準確率;APM 為中尺寸物體檢測關鍵點的準確率,APL 為大尺寸物體檢測關鍵點的準確率。

3.3 實驗結果

普通場景下的人體姿態(tài)估計效果見圖8。

圖8 普通場景效果圖

真實地鐵場景下的人體姿態(tài)估計見圖9。

圖9 地鐵場景效果圖

在真實的地鐵場景行人檢測實驗中,在遮擋嚴重情況下,依然能夠得到較好的檢測效果,因此該網(wǎng)絡適用于在地鐵等人流量密集、遮擋嚴重的場景下進行行人檢測任務。不同網(wǎng)絡模型在COCO數(shù)據(jù)集上的結果對比見表1。

表1 不同網(wǎng)絡模型在COCO數(shù)據(jù)集上的結果對比

由實驗結果可知,本次研究提出的方法精度比原HRNet網(wǎng)絡提升了0.7%,達到了74.1%,與當下流行的人體姿態(tài)估計網(wǎng)絡相比,如Hourglass、CPN、CPN+OHKM、Simple Baseline、Lite-HRNet、HRNet-W32,研究所使用的網(wǎng)絡在預測關鍵點的平均精度上分別提升了7.2、5.5、4.7、3.7、9.3、0.7個百分點,且對比表中所示的所有指標,網(wǎng)絡模型平均精度均高于其他網(wǎng)絡模型的平均精度。因此,改進后的網(wǎng)絡模型在人體姿態(tài)估計過程中,精確度更高、具有更好的魯棒性,證明本研究提出方法的有效性。

4 結束語

基于高分辨率網(wǎng)絡HRNet 對人體姿勢識別進行研究,在網(wǎng)絡中添加了注意力機制模塊CBAM,該模塊將空間和通道2 個維度進行結合,極大提高了網(wǎng)絡的性能,提升了重要特征的權重。使用Adaptive wing loss 作為損失函數(shù),當誤差很大時,損失函數(shù)具有恒定的影響,但當誤差較小時,會減少在訓練時對背景像素的關注,穩(wěn)定訓練過程。實驗結果證明,改進后的網(wǎng)絡模型能夠準確的檢測出尺度較小和遮擋的關鍵點,具有較好的檢測能力和魯棒性,因此,在地鐵實際情況中能夠更好應對人群密集、遮擋嚴重的問題。

猜你喜歡
關鍵點特征檢測
聚焦金屬關鍵點
肉兔育肥抓好七個關鍵點
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
小波變換在PCB缺陷檢測中的應用
醫(yī)聯(lián)體要把握三個關鍵點
主站蜘蛛池模板: 中文字幕在线看| 国产另类视频| 日韩精品无码免费专网站| 一本大道在线一本久道| 欧美亚洲日韩不卡在线在线观看| 国产精品妖精视频| av在线5g无码天天| 日韩精品高清自在线| 一级福利视频| 日韩精品高清自在线| 青青久久91| 手机在线免费不卡一区二| 午夜性刺激在线观看免费| 国产福利小视频在线播放观看| 亚洲最大综合网| 日本高清在线看免费观看| 99精品影院| 欧美午夜在线播放| 亚洲国产精品久久久久秋霞影院| AV天堂资源福利在线观看| 99尹人香蕉国产免费天天拍| 91精品人妻互换| 国产美女久久久久不卡| 国产麻豆永久视频| 九九九国产| 97视频精品全国免费观看| 夜色爽爽影院18禁妓女影院| 国产午夜小视频| 三级欧美在线| 99精品热视频这里只有精品7| 国产精品成人久久| 韩日免费小视频| 这里只有精品在线| 波多野结衣在线se| 一区二区三区四区精品视频| 国产乱子伦视频三区| 真实国产乱子伦高清| 五月婷婷丁香综合| 亚洲日韩高清在线亚洲专区| 第一页亚洲| 亚洲愉拍一区二区精品| 日本一本在线视频| 色婷婷国产精品视频| 欧美自慰一级看片免费| 无码高潮喷水在线观看| 国产剧情一区二区| 精品久久久久久成人AV| 日韩不卡高清视频| 制服丝袜 91视频| 尤物特级无码毛片免费| 伦精品一区二区三区视频| 欧美日韩国产在线人成app| 一本大道AV人久久综合| 伊人91在线| 免费99精品国产自在现线| 国产97视频在线观看| 国产精品丝袜在线| 婷婷色中文网| 国产成人av大片在线播放| 久久婷婷综合色一区二区| 亚洲高清中文字幕在线看不卡| 男人天堂亚洲天堂| 九色视频最新网址| 日韩国产欧美精品在线| 国产亚洲欧美在线专区| 久久99国产综合精品1| 污网站免费在线观看| 粉嫩国产白浆在线观看| 色综合久久88色综合天天提莫| 亚洲男人在线天堂| 日韩精品专区免费无码aⅴ| 国产精品所毛片视频| 亚洲人成网线在线播放va| 高清不卡一区二区三区香蕉| 中文字幕永久在线看| 鲁鲁鲁爽爽爽在线视频观看| 国产精品自在在线午夜区app| 国模视频一区二区| 成人噜噜噜视频在线观看| 99久久99视频| 久久久久亚洲AV成人网站软件| a级毛片一区二区免费视频|