999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

扶梯人員異常行為識別研究

2021-03-22 01:46:52楊超宇張鑫鑫
綏化學院學報 2021年3期
關鍵詞:關鍵點動作特征

楊 成 楊超宇 張鑫鑫

(安徽理工大學經濟與管理學院 安徽淮南 232000)

目前隨著行為識別的快速發展,認識和理解人類運動和行為逐漸成為計算機視覺領域的研究熱點,提出了很多種基于深度神經網絡的算法,行為識別一直是計算機視覺領域所研究的熱點之一[1-2]。行為識別的兩種基本方法,一種是手動提取有關特征,另一種是基于深度學習中神經網絡自動提取有關特征,前者有著明顯的局限性,后者有著很大的研究空間,為行為識別的進一步發展奠定了一個很好的基礎。

Chua等人根據人體的形狀特征,設計并計算出3個點分別代表人體的頭部、上半身和腿部,然后利用3個點之間的距離和方向來表示人體的運動,確定動作類別[3];Rougier C等人根據一個人在跌倒時,其行為在空間和時間上都會發生很大的變化,利用運動的歷史圖來探測大的運動行為,然后根據人體形態的特征,分析跌倒與行走的區別,最后區分行走與跌倒等行為[4]。Wang等人運用PCA網絡識別人類的異常行為,即利用PCA深度學習網絡提取人類行為特征,然后利用提取的特征訓練線性支持向量機分類器,對跌倒等行為進行分類識別[5]。NunezMarcos等人是利用卷積神經網絡來判斷跌倒行為[6]。首先根據RGB計算光流圖來表示運動信息,然后將得到的光流圖引入到基于VGG-16的神經卷積網絡中,得到用于訓練分類器的特征向量,最后將表示動作行為的特征向量引入到由全連接層和Softmax層組成的網絡中進行分類,然后確定相應的動作類別[7]。

根據眾多研究結果表明,近年來,對于異常行為識別持續升溫,研究趨勢也從手動提取特征發展到現在的基于神經網絡的自動提取特征,基于深度學習理論可以提取到維度更高的特征,識別結果就更精確,訓練出來的模型也將具有更強的泛化性和魯棒性.特定場景下的人體異常行為檢測有著很好實用性,不斷地得到越來越多的領域的高度重視。

一、Openpose模型

(一)算法簡介。Openpose是卡內基梅隆大學推出的一個開源項目,實現多線程的一種對關鍵點的實時檢測,不但可以追蹤身體軀干上的的各個部位,而且可以面部和手指的時時動作經行捕捉。先前的識別思路是自上而下,意是就是先在區域中找到人所處的位置,然后再去識別骨骼,而Openpose則是自下而上,先找到特部位,再去識別骨骼關鍵點。見圖1[8]。

圖1 識別流程

在輸出結果圖1(2)和(3)的過程中,得到兩個集合,集合和集合。集合S代表2D置信圖,能夠預測出人體關鍵點的位置,集合L代表有C個矢量場,每個肢體一個,表示關鍵點之間的相似性,中的每個圖像編碼一個2D向量.圖1(2)表示Part Confidence Map,稱為置信圖網絡,以下簡稱PCM,圖1(3)表示Part Affinity Fields,稱為親和場向量,以下簡稱PAF,用以預測身體各個部位部位之間的親和度。最后,通過貪婪推理的方法去分析置信度圖和親合場,得到結果圖1(4),最終的匹配所采用的方法是著名的匈牙利方法,得到最大匹配方案,輸出圖像中所有人的2D關鍵點即圖1(5)。

(二)算法流程。首先經過VGG-19的前10層對一張RGB三通道圖片進行處理,提取輸入特征,經過卷積神經網絡層提取的圖像特征輸入到兩個分支[9]。第一個分支是PCM網絡,即輸出各個位置上的存在關節點的概率圖,每一個置信圖表示身體的一個特定的部位在圖像上某點發生的可能性,標準置信度計算公式為:

它表示肢體c上j關鍵點的置信圖,k表示第k個人,xj,k表示第k個人的第j個關節點在圖像中的真實位置,σ決定了高斯分布的形狀,不同人的同一關節點的高斯分布可能會出現重疊,取最大值,以保證相近的兩個點的兩個尖峰不會因為平均而成為一個尖峰,計算公式為:

第二個分支是PAF,可以計算出兩個關鍵點之間的關聯置信度,用以預測兩個關鍵點之間的親和度。PCM可以表示關鍵點的位置,但是卻無法表示關鍵點之間的關系;特別圖像中的人數很多時候,各個關鍵點之間的關系是一個重要的信息。PAF對關鍵點之間的關系進行建模,PAF實際上就是一個2維的向量場,同時包含了位置和方向的信息,用來表示關鍵點之間的關系,見圖2。

圖2 肢體位置判斷方法

第k個人的手臂關節點肘部設為Xj1,k和手腕Xj2,k,點p為手臂上的一點,點p處的PAF值為:

其中c表示關節j1和j2之間的枝干,在上面的圖是前臂部分,v是p點的PAF值,是一個與j1關節點指向j2關節點方向一致的單位向量:

其中p的取值范圍是:

lc,k=‖xj2,k-xj1,k‖2,表示肢體c的長度,v⊥向量是v向量的垂直向量,σl是關于l的函數,表示肢體c的寬度.在包含多個人的圖像中,PAF的真實值是圖像中所有人各自的PAF的平均值,即:

其中nc(p)代表非零向量的個數。

當關鍵點信息和PAF值已知時,計算兩關鍵點線上的兩個關鍵點線向量和PAF向量之間的點積積分,從而計算出兩個關鍵點之間的相關性,計算公式如下:

對像素p進行采樣:

p(u)代表把j1到j2之間的像素點都取一遍.根據PCM得到離散的候選部位:,其中dmj表示第j類 身體部位的第m個關鍵點的位置,Nj表示肢體的候選部位的數量。匹配的目標是要求一個人的候選部位和其他部位相連,定義變量用來表示連接,所以候選部位的連線集合為Z=,單獨考慮肢體c的兩個部位j1和j2,目的是找到總親和值最高的匹配方式,其計算方法為:

Ec表示肢體c所有匹配的總權重,Emn表示兩種關鍵點之間的相關性,Zc表示肢體c匹配的z子集.約束條件是為了表示一個關鍵點只能與另一類關鍵點直接相連,方法采用著名的匈牙利算法,計算最大權重即為最佳匹配方式。

每個階段訓練的輸出都會作為下一個階段的輸入,不斷獲取最精確的特征,反向傳播精致來使得損失函數最小,損失函數的計算方法為:

網絡會自動調節損失loss,進行參數優化,最終得出的這種模型對于骨骼識別具有很好的精度。

二、特征處理與分類

在得到關鍵點信息之后,需要對這些原始骨骼數據進行處理,提取需要的特征,然后將這些特征輸送到機器學習分類器中,對當前所處的狀態進行分析,從而判斷當前人員所處的一種狀態,具體流程見圖3。

圖3 行為分析流程

(一)縮放坐標。圖像經Openpose輸出的原始關鍵點坐標和具有不同的單位,需要進行縮放,縮放的目標是為了使和具有相同單位以用來處理不同的圖像。

(二)去除關鍵點。在得到關鍵點信息之后,需要對這些原始骨骼數據進行處理,Openpose提取的骨骼有18個關鍵點,由于是對扶梯人員經行一種異常行為分析,而人的行為主要由軀干來支配,面部上的關鍵點起不到任何作用,因此需要去除頭上五個點,分別是眼睛,耳朵和頭,這些關鍵點不僅對人的行為分析沒有太大的作用,反而會影響速度。

(三)刪除無用數據。比如說視頻的某一幀檢測不到脖子、胳膊和大腿等關鍵點,構不成一個完整的骨架,那么這個骨骼數據沒有任何利用價值的,可以刪除。

(四)彌補骨骼某一處的殘缺。如果當前幀的關鍵點信息中沒有胳膊上的某一個關鍵點,可以利用上一幀或者其他幀的這個關鍵點與其他關鍵點的位置距離來添加關鍵點信息。骨骼關鍵點之間的距離是一定的,通過添加相鄰幀相同部位之間的距是完全沒有問題的。

(五)降低維度。處理好的骨骼數據可以直接用來特征提取,例如前N幀關鍵點的拼接,頸部的移動速度和關節的移動速度等,這些特征可以直接提取,但是提取后維度會比較的高,采用主層次分析算法進行降維,對特征經行簡化。

(六)DNN分類器。DNN意為深度神經網絡[10],其結構包含輸入層、隱藏層和輸出層3部分,其原理和感知機相似,一個線性關系加上一個激活函數,激活函數有很多種,例如,Sigmoid、Relu等.DNN反向傳播算法使得模型自動調節參數,不斷迭代優化,得到最佳模型,使得分類結果更加準確。通過查閱資料,借鑒了其他研究者設計的深度神經網絡模型[11],對參數進行了調整,隱含層層數設置為3層,每層的神經元數量為100,進行訓練,輸出特征向量經過Softmax得到每個動作類別的發生的概率,判斷當前動作。當識別準確率的不再上升,損失最小,就得到一個最佳的模型,根據輸出動作類別標簽分析當前狀態下人員所處的一種姿態。

三、行為分析

動作類別標簽共設置了9個動作標簽,當出現某一動作時,會在圖像右上角位置顯示,動作類別標簽是stand、walk、run、jump、sit、squat、kick、punch、wave,分別表示站立、行走、奔跑、跳躍、坐下、下蹲、踢、拳打、招手,在進行行為分析時,可以根據連續的動作來判定行為的發生,比如,在扶梯上踩空摔倒的過程伴隨著多種動作的發生,有kick、jump、sit(見圖4),采集了扶梯上人員的部分圖像信息,將圖像作為算法的輸入,得到結果如圖4,根據算法所識別出來的扶梯人員的一種動作,去分析判定當前人員所處的一種姿態,是處于跌倒或者是行走,或者是其他狀態。

圖4 動作識別結果

從圖中可以看出圖4(a)分類結果是屬于上樓梯的一種姿態,圖4(b)是扶梯人員在下扶梯,可以看出有多種動作可能發生的概率,比如jump、kick,取概率最大為當前所做出的動作,圖4(c)是上扶梯時抬腳的一個動作,從圖4(d)可以看出有摔倒現象的存在。

四、結語

筆者提出了一種關于扶梯人員異常行為檢測的一種算法,從實驗結果可以看出,對復雜場景人體的行為動作識別具有很好的效果[12],對于避免安全事故的發生具有重大的意義.研究結果發現,當用窗口大小為五幀提取標準化特征數據進行訓練后,在測試集上對9種動作識別的準確率為99.4%,用窗口大小每秒一幀提取原始特征訓練后,在測試集上對9種動作識別的準確率為97.3%。識別準確率都高于95%以上,也表明了特征的選取影響識別的精度。另一方面算法在很多方面也存在著不足,從結果也可以看出來這一現象,當在圖像中存在有物體遮擋現象或者是肢體沒有完全暴露時,會出現難以識別的情況,這也是算法需要進一步改進的地方。

猜你喜歡
關鍵點動作特征
聚焦金屬關鍵點
肉兔育肥抓好七個關鍵點
今日農業(2021年8期)2021-11-28 05:07:50
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
動作描寫要具體
抓住特征巧觀察
畫動作
動作描寫不可少
非同一般的吃飯動作
醫聯體要把握三個關鍵點
中國衛生(2014年2期)2014-11-12 13:00:16
主站蜘蛛池模板: 国产日韩精品一区在线不卡| 欧美h在线观看| 亚洲欧美不卡视频| 亚洲成aⅴ人在线观看| 99资源在线| 久久久久国产一级毛片高清板| 久久久精品无码一区二区三区| 国产欧美日韩va另类在线播放| 亚洲国产精品一区二区高清无码久久| 日韩亚洲综合在线| 天天摸天天操免费播放小视频| 国产成人福利在线| 国产精品手机视频一区二区| 萌白酱国产一区二区| 天堂在线亚洲| 青草精品视频| 最新无码专区超级碰碰碰| 91蝌蚪视频在线观看| 91丝袜乱伦| 国产精品久久久久鬼色| 99热这里只有精品免费| 国产欧美精品一区aⅴ影院| 国产区福利小视频在线观看尤物| 奇米影视狠狠精品7777| 一级在线毛片| 国产精品毛片一区视频播| 精品夜恋影院亚洲欧洲| 国产1区2区在线观看| 新SSS无码手机在线观看| 天堂在线视频精品| 蜜臀AV在线播放| 久青草免费在线视频| 国产精品网拍在线| 国产粉嫩粉嫩的18在线播放91| 又爽又大又黄a级毛片在线视频| 亚洲天堂视频网站| 国产成人精品免费视频大全五级| 国产精品久久久久久影院| 日韩午夜福利在线观看| 波多野结衣一二三| 欧美国产日产一区二区| 国产一级在线播放| 亚欧美国产综合| 亚洲国产av无码综合原创国产| 国产精品va| 亚洲av无码专区久久蜜芽| 日本www色视频| 国产精品无码影视久久久久久久| 精品久久久久久成人AV| www中文字幕在线观看| 久久久国产精品无码专区| 男女性色大片免费网站| 久久频这里精品99香蕉久网址| 日本亚洲最大的色成网站www| 国内毛片视频| 亚洲精品无码久久久久苍井空| 精品视频第一页| 午夜a视频| 亚洲无码高清视频在线观看 | 波多野结衣在线se| 日韩不卡免费视频| 亚洲欧美综合另类图片小说区| 精品国产三级在线观看| 91福利在线观看视频| 国内自拍久第一页| 国产视频一区二区在线观看| 国内精品久久久久久久久久影视| 国产成人久视频免费| 国产日韩欧美在线视频免费观看 | 亚洲天堂网2014| 久久伊人操| 乱码国产乱码精品精在线播放| 欧美全免费aaaaaa特黄在线| 亚洲综合精品香蕉久久网| 亚洲男人天堂久久| 亚洲欧美日韩中文字幕在线| 午夜不卡视频| 国产美女人喷水在线观看| 超级碰免费视频91| 99成人在线观看| 日韩国产黄色网站| 国产视频只有无码精品|