999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于OpenPose的滑雪動作分析

2022-04-28 14:10:00許志豪殷紹軒
智能計算機(jī)與應(yīng)用 2022年4期
關(guān)鍵詞:關(guān)鍵點動作模型

許志豪,高 銘,殷紹軒,崔 杰

(北京信息科技大學(xué) 計算機(jī)學(xué)院,北京 100101)

0 引 言

當(dāng)前,人體動作識別已經(jīng)廣泛應(yīng)用于視頻監(jiān)控、運動分析和醫(yī)療檢測等場景,關(guān)于人體姿態(tài)識別的研究越來越多。2003年,任海兵提出姿態(tài)識別和動作過程識別,歸納出基于統(tǒng)計、模板和語法的方法。2014年,李瑞峰等人將人體動作行為識別問題歸納為計算機(jī)經(jīng)過檢測動作數(shù)據(jù)而獲得符號化動作信息,繼而理解其特征的過程。同年,劉飛分析了深度圖像應(yīng)用于動作識別的可行性。2016年,吳軍等人針對人體動作的識別問題提出了一種運用深度卷積神經(jīng)網(wǎng)絡(luò)的方法,在Actitracker開源數(shù)據(jù)庫上達(dá)到了91.26%的識別率,使深度學(xué)習(xí)運用于人體動作識別。

現(xiàn)有研究表明,隨著中國冬奧會的成功舉辦,冬季運動在中國日漸流行,其中最典型的就是滑雪運動。2019年,中國滑雪產(chǎn)業(yè)白皮書指出,當(dāng)年國內(nèi)滑雪場的滑雪人次多達(dá)2 090萬。但由于滑雪運動具有一定的安全隱患,不正確的滑雪姿勢會對人體造成傷害。動作分類可用于規(guī)范滑雪者的動作,減小受傷的概率,并且目前動作識別領(lǐng)域中關(guān)于滑雪運動的模型仍然少見,本文進(jìn)行的滑雪動作分類框架開發(fā)可以為后續(xù)滑雪動作的識別評估等更深層次的研究提供有益基礎(chǔ)。

1 理論方法

本文搭建的滑雪動作分類框架,主要由2個部分組成:OpenPose識別提取人體關(guān)鍵點信息,STGCN模型處理數(shù)據(jù)并進(jìn)行分類,其主要流程如圖1所示。首先使用OpenPose識別訓(xùn)練集視頻中的人體關(guān)鍵點信息,其次通過Python編寫腳本,將單個視頻中連續(xù)的單幀的人體關(guān)鍵點信息按照時間序列分組構(gòu)建骨架時空圖,每幅圖中包含有300幀的人體關(guān)鍵點信息。然后,將骨架時空圖輸入到STGCN中訓(xùn)練模型、提取特征、得到分類器。

圖1 滑雪動作分類框架工作流程圖Fig.1 Work flow chart of skiing action classification framework

1.1 OpenPose

OpenPose是由美國卡耐基梅隆大學(xué)(CMU)基于卷積神經(jīng)網(wǎng)絡(luò)和監(jiān)督學(xué)習(xí)算法開發(fā)的一個用于檢測2D圖片中人體關(guān)鍵點(面部,四肢等)的開源實時系統(tǒng)。

由于在實際滑雪中,一張照片中極可能會有多人同時出現(xiàn)的情況,且人與人之間存在接觸、遮擋等復(fù)雜的空間干擾問題。傳統(tǒng)的自頂向下人體關(guān)鍵點識別算法,由于是先識別到人,再識別身體關(guān)鍵點,使得其結(jié)果嚴(yán)重依賴行人檢測器,且人數(shù)越多的情況下,所花費的時間就越多,導(dǎo)致關(guān)鍵點信息不能實時輸出。

OpenPose區(qū)別于傳統(tǒng)識別算法的是,研究時使用了自下而上的人體關(guān)鍵點信息識別,即尋找出人體的各個部位,再通過部分親和域(Part Affinity Fields)連接各部分。這使得OpenPose具有高魯棒性、可實時輸出的優(yōu)點。所以本文選擇使用OpenPose識別人體關(guān)鍵點信息。

OpenPose的算法流程如圖2所示。由圖2可知,先將整個圖片作為卷積神經(jīng)網(wǎng)絡(luò)的輸入(見圖2(a)),來聯(lián)合預(yù)測身體部位檢測的置信度(見圖2(b))和研究求得用于部位關(guān)聯(lián)的部分親和域(見圖2(c),圖2(d))。參見圖2(e)中,解析方法執(zhí)行一組二分匹配在候選的關(guān)鍵點里尋找最為接近的。最后參見圖2(f),將圖像中所有人的人體關(guān)鍵點組合起來。

圖2 OpenPose算法流程Fig.2 OpenPose algorithm flow chart

考慮到OpenPose的高魯棒性和可實時輸出的優(yōu)點,研究中用其來完成滑雪運動時人體關(guān)鍵點的提取工作,但OpenPose不具備動作分類的能力,因而本文選用了STGCN算法訓(xùn)練分類器。

1.2 STGCN

對于OpenPose識別輸出的人體關(guān)鍵點信息可以被視為一種拓?fù)浣Y(jié)構(gòu)。由于傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)(CNN)無法很好地解決非歐氏空間數(shù)據(jù)帶來的問題,不能有效提取出其空間特征,且提取出的特征缺乏泛化性,而GCN在提取拓?fù)鋱D的空間特征方面具有優(yōu)越的性能。另經(jīng)研究發(fā)現(xiàn),在滑雪過程中,完成某個動作都需要一定的時間,即在完成該動作的過程中,人體關(guān)鍵點在時間維度上具有一定的特征。因此選用時空圖卷積網(wǎng)絡(luò)STGCN作為本文動作分類的模型。

STGCN模型是由香港中文大學(xué)提出的一種時空圖卷積網(wǎng)絡(luò)模型,即將時域卷積神經(jīng)網(wǎng)絡(luò)TCN和圖神經(jīng)網(wǎng)絡(luò)GCN結(jié)合,處理有時序關(guān)系的圖結(jié)構(gòu)數(shù)據(jù)。如圖3所示。STGCN是同時在時序和空間兩個維度上進(jìn)行卷積并提取特征,由此得出模型。圖卷積神經(jīng)網(wǎng)絡(luò)GCN是對輸入的數(shù)據(jù)進(jìn)行空間卷積,即不考慮時間的因素,在同一時序的不同點的數(shù)據(jù)進(jìn)行卷積運算。時間卷積網(wǎng)絡(luò)TCN是對輸入數(shù)據(jù)進(jìn)行時序卷積,并考慮不同時序同一特征點的關(guān)系,卷積作用于不同時序同一點的數(shù)據(jù)。

圖3 STGCN算法流程[8]Fig.3 STGCN algorithm flow chart[8]

2 實驗

2.1 實驗設(shè)置

本文使用自制數(shù)據(jù)集,共有200個視頻,分為11個類別:平地滑行、平行直滑降、犁式直滑降、犁式制動、半犁式轉(zhuǎn)彎、犁式轉(zhuǎn)彎(深弧)、平行轉(zhuǎn)彎(中彎)、變向橫滑降、點仗小彎滑行、大彎刻滑、蘑菇雪道滑行。訓(xùn)練集與測試集比例為8:2。

本文的實驗環(huán)境配置如下:操作系統(tǒng)為Ubuntu 18.04LTS,GPU為GeForce RTX 2080。

2.2 實驗及結(jié)果分析

由于OpenPose只是在二維圖像上提取人體關(guān)鍵點信息,這些信息中只包含了動作的空間特征而沒有時間特征。為了彌補(bǔ)這一不足,本文使用Python編寫腳本程序,程序功能如圖4所示,將OpenPose識別得到的單幀的人體關(guān)鍵點信息構(gòu)建為帶有時間序列的骨架時空圖。

圖4 骨架時空圖Fig.4 Skeleton spatial-temporal diagram

在STGCN訓(xùn)練的過程中,通過調(diào)整和訓(xùn)練參數(shù),最終選取其中準(zhǔn)確率最好的一組參數(shù):學(xué)習(xí)率為0.1、批處理量為32、訓(xùn)練數(shù)為50。訓(xùn)練過程中的平均損失值如圖5所示。從圖5中可以看出STGCN算法基本收斂,從中選取平均損失值較低的3個模型進(jìn)行比較。比較結(jié)果見表1。由表1可以看出為39時,各項數(shù)值都達(dá)到了最優(yōu)的結(jié)果。所以選擇為39的模型作為本文框架所使用的滑雪動作分類器。

圖5 訓(xùn)練過程mean_loss隨訓(xùn)練epoch的變化圖Fig.5 The change of mean_loss with epoch

表1 模型訓(xùn)練評估Tab.1 Model training evaluation

使用該分類器在測試集上進(jìn)行測試,輸入動作已知的視頻,驗證輸出結(jié)果。測試樣例如圖6所示。由圖6分析可知,識別結(jié)果正確,為大彎刻滑(Big bend craving)。經(jīng)過測試,分類器在測試集上的表現(xiàn)與驗證集基本吻合,具有較高的準(zhǔn)確率。

圖6 模型測試效果圖Fig.6 Model test effect diagram

實驗結(jié)果表明,本文建立的滑雪動作分類框架,優(yōu)于直接使用傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)CNN進(jìn)行動作分類,可以做到高準(zhǔn)確率、且實時地對滑雪視頻進(jìn)行分類。傳統(tǒng)CNN由于模型的限制并不能直接分析視頻,這導(dǎo)致滑雪動作在時間維度上的特征被忽略。并且由于CNN不能識別非歐氏數(shù)據(jù),只能將整張圖片作為輸入,而本文框架使用了OpenPose提取人體關(guān)鍵點信息,使得需要運算的數(shù)據(jù)量大為降低,運算時間縮短到了可實時的程度。

3 結(jié)束語

本文使用OpenPose處理視頻,得到單幀的人體關(guān)鍵點信息,然后通過自制腳本合并為帶有時間序列的多幀集合,最后使用STGCN算法訓(xùn)練模型,得到分類器。使用該分類器可以完成滑雪視頻中的動作識別和實時滑雪動作的識別。本文為后續(xù)滑雪動作方面的研究做了鋪墊,填補(bǔ)了這方面的空白。基于OpenPose和STGCN的滑雪動作分類器具有較高的準(zhǔn)確性和較快的運行速度,但是該模型仍存在一定的局限性,在視頻畫質(zhì)模糊的情況下分類效果較差,在后續(xù)工作中可以嘗試使用圖像增強(qiáng)來改善分類效果。

猜你喜歡
關(guān)鍵點動作模型
一半模型
聚焦金屬關(guān)鍵點
肉兔育肥抓好七個關(guān)鍵點
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
動作描寫要具體
畫動作
動作描寫不可少
3D打印中的模型分割與打包
非同一般的吃飯動作
主站蜘蛛池模板: 亚洲精品动漫| 欧美区日韩区| 亚洲福利片无码最新在线播放 | 97在线碰| 国产成人成人一区二区| 中文字幕66页| 日韩毛片免费视频| 久久精品丝袜| 五月激情婷婷综合| 亚洲精品视频网| 波多野结衣久久精品| 手机在线国产精品| 欧美激情伊人| 91在线播放免费不卡无毒| 欧美成在线视频| 久久精品国产亚洲麻豆| 欧亚日韩Av| 无码AV日韩一二三区| 国产精品刺激对白在线| 亚洲天堂久久久| 成人国产小视频| 日本不卡视频在线| 国产国拍精品视频免费看| 亚洲无码高清免费视频亚洲 | 噜噜噜久久| 国内精品久久久久鸭| 日本三级黄在线观看| 亚洲黄网在线| 亚洲最猛黑人xxxx黑人猛交| 国产精品3p视频| 中文字幕在线一区二区在线| 日本在线免费网站| 久久久久亚洲av成人网人人软件| 国产成人亚洲无码淙合青草| 性欧美久久| 高清无码不卡视频| 成人欧美日韩| 亚洲三级视频在线观看| 国产精品香蕉| 欧美亚洲国产一区| 国产人成乱码视频免费观看| 97se亚洲综合在线韩国专区福利| 久久无码av三级| 中文字幕波多野不卡一区| AV无码无在线观看免费| 99re在线免费视频| 国产一区二区精品福利| 精品久久久久久成人AV| 久久这里只有精品66| 国产又粗又爽视频| 欧美精品高清| 亚洲免费毛片| 色AV色 综合网站| 中文成人在线| www.亚洲一区| 成人在线亚洲| 亚洲AⅤ无码国产精品| 国产精鲁鲁网在线视频| 久久婷婷综合色一区二区| 婷婷亚洲视频| 成人免费午夜视频| lhav亚洲精品| 日本精品中文字幕在线不卡| 蜜桃臀无码内射一区二区三区| 亚洲国语自产一区第二页| 国产高清在线精品一区二区三区| 在线毛片网站| 青青热久免费精品视频6| 伊人久久久久久久| 日韩人妻无码制服丝袜视频| 1024你懂的国产精品| 久久久久久久久久国产精品| 精品1区2区3区| 四虎国产永久在线观看| 色悠久久久久久久综合网伊人| 网友自拍视频精品区| 国产乱视频网站| 国产成人1024精品下载| 网友自拍视频精品区| 久久青草精品一区二区三区| 91免费国产高清观看| 亚洲综合极品香蕉久久网|