999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進OpenPose的視頻動作評分方法研究

2022-09-06 01:30:22柴自強
軟件工程 2022年9期
關(guān)鍵詞:關(guān)鍵點動作檢測

蘇 波,柴自強,王 莉

(河南理工大學電氣工程與自動化學院,河南 焦作 454000)

subo@hpu.edu.cn;18837250776@163.com;wangli@hpu.edu.cn

1 引言(Introduction)

動作評估與反饋可有效輔助健身運動練習者提高鍛煉收益,而實現(xiàn)自動量化評估可以減少主觀評價帶來的誤差并節(jié)省人力資源。人體姿態(tài)估計根據(jù)獲取數(shù)據(jù)方式不同分為基于傳感器與基于圖像的方法。薛智宏等設(shè)計了原地太極拳輔助訓練系統(tǒng),通過深度相機采集的坐標計算關(guān)節(jié)角度、瞬時速度進行評估;徐言東等利用Kinect相機采集人體數(shù)據(jù)并開發(fā)了康復訓練系統(tǒng),通過運動干預來提高患者康復效果;HASEGAWA等采用慣性傳感器檢測輪椅左右軸角速度,并以此對輪椅籃球的手法進行質(zhì)量評估。這些方法都依賴硬件傳感器,其設(shè)備較為昂貴,不易普及。隨著計算機視覺的發(fā)展,通過視頻圖像獲取信息更為便捷。QIAO等提出一種基于單目圖像的人體姿態(tài)分級系統(tǒng),通過計算標準與實時姿勢間的離散弗雷歇距離來進行評分;楊君等通過計算兩幅圖像中肢體關(guān)節(jié)角度偏差來進行動作對比;PARMAR等利用三維卷積神經(jīng)網(wǎng)絡(luò)提取跳水、跳馬視頻中的時空特征,并通過支持向量回歸機(Support Vector Regression,SVR)進行分數(shù)回歸,但前者方法忽略了動作快慢因素或者只針對單幅圖像,后者深度學習方法需要大量標注數(shù)據(jù)且訓練時間長,模型泛化能力較弱。

針對上述問題,提出一種基于視覺的動作評估方法,首先采用改進OpenPose算法獲取人體關(guān)鍵點坐標位置,根據(jù)關(guān)鍵點信息計算測試動作與標準動作的相似度,以此對視頻動作進行評估。

2 OpenPose算法(OpenPose algorithm)

基于深度學習的人體姿態(tài)估計方法分為自頂向下和自底向上,自頂向下是先檢測圖中的每個人,再對每個人進行關(guān)鍵點檢測,典型算法如RMPE、CPN;自底向上則先檢測圖中所有人的關(guān)鍵點,再將關(guān)鍵點分配給每個人,典型算法為OpenPose。由于后者有較好的魯棒性,因此本文采用OpenPose作為姿態(tài)檢測算法。算法流程如圖1所示,網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。輸入圖像首先經(jīng)過VGG19網(wǎng)絡(luò)得到深層特征,然后將特征經(jīng)過多階段網(wǎng)絡(luò),前四個階段用來預測人體部件親和場(Part Affinity Fields,PAFs),它是一組包含、方向的二維向量場,用于表征人體關(guān)鍵點之間的關(guān)聯(lián)度;后兩個階段用來預測人體關(guān)鍵點熱度圖(18 個Heatmaps),通過多階段的迭代來不斷細化和提純預測結(jié)果,最后通過二分匹配將關(guān)鍵點正確分配給每一個人并連接生成人體骨架圖。

圖1 OpenPose算法姿態(tài)檢測流程Fig.1 Pose detection process of OpenPose algorithm

圖2 OpenPose網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 OpenPose network structure

傳統(tǒng)OpenPose模型以VGG19作為特征提取部分,整體網(wǎng)絡(luò)結(jié)構(gòu)深且模型參數(shù)量較大,對計算機硬件設(shè)備要求較高,很難實時檢測。因此,本文對網(wǎng)絡(luò)結(jié)構(gòu)進行改進,更換特征提取網(wǎng)絡(luò)并減少預測部分的重復階段數(shù),使模型輕量化從而提高系統(tǒng)運行速度,達到實時檢測的效果。

3 基于Oct-MobileNet的改進OpenPose模型(Improved OpenPose model based on Oct-MobileNet)

3.1 八度卷積與Oct-MobileNet

在自然圖像中,高頻信息構(gòu)成圖像的邊緣和細節(jié),而低頻信息主要構(gòu)成圖像灰度等級,對圖像結(jié)構(gòu)的決定作用較小。同樣,卷積層的輸入、輸出通道也存在高、低頻分量。八度卷積OctConv的思想就是將卷積特征圖進行分頻表示,并將低頻特征圖大小減半,從而有效減少存儲和計算量。

八度卷積中的輸入、輸出通道特征以及卷積核都被分解為高頻部分XYW和低頻部分XYW;超參數(shù)表示低頻信息通道占比,且=。如圖3所示,高頻輸出Y=(X;W)+upsample((X;W),2),低頻輸出Y=(X;W)+(pool(X,2);W)。其中,Y是高頻輸入X卷積得到的部分高頻輸出,由于低頻與高頻通道尺寸不同,另一部分高頻輸出Y需要低頻輸入X先卷積再進行二倍上采樣后得到,最后兩者融合得到整體高頻輸出Y。同理,YYY的融合,其中高頻輸入到低頻輸出先進行平均池化再卷積。這些融合過程保證了高頻與低頻特征之間的信息交換,目的是進一步優(yōu)化最后的高頻輸出。

圖3 八度卷積運算流程Fig.3 Octave convolution operation procedure

以深度可分離卷積為核心的移動端輕量級網(wǎng)絡(luò)MobileNet,是將一個標準卷積操作分成了逐通道卷積(Depthwise,DW)和逐點卷積(Pointwise,PW),相比于VGGNet,在精度上略微降低但模型參數(shù)量大幅減少,運算成本更低。因此,本文將八度卷積與MobileNet進行有機結(jié)合,結(jié)構(gòu)設(shè)計如圖4所示。為了得到與VGG19輸出相同的維度特征,只選用MobileNet V1的前十層并加入兩層降維卷積,將所有深度可分離卷積里的DW卷積和PW卷積融入OctaveConv模塊,使網(wǎng)絡(luò)進一步降低參數(shù)量,在減少低頻信息冗余的同時更注重高頻信息,使提取的深層特征中包含更多有效信息。網(wǎng)絡(luò)具體參數(shù)如表1所示,其中第一層卷積為普通卷積,第二層開始為深度可分離卷積,并且在第一個OctaveConv模塊中設(shè)置=0、=0.5,即關(guān)閉低頻輸入通道,只保留由高頻輸入產(chǎn)生的兩條路徑;最后一個OctaveConv模塊設(shè)置=0.5、=0,關(guān)閉低頻輸出通道,使多頻特征表示恢復成正常大小的高頻特征;中間的模塊則設(shè)置==0.5,保證提升精度與降低參數(shù)兩者平衡。

圖4 Oct-MobileNet網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 Oct-MobileNet network structure

表1 Oct-MobileNet網(wǎng)絡(luò)參數(shù)Tab.1 Oct-MobileNet network parameters

3.2 改進OpenPose整體結(jié)構(gòu)及特征可視化

本文將Oct-MobileNet作為改進OpenPose的主干特征提取網(wǎng)絡(luò),改進結(jié)構(gòu)如圖5所示。在外部結(jié)構(gòu)上,將原來四個階段PAFs預測減至三個階段,預測Heatmaps減至一個階段,降低整體冗余。在內(nèi)部細節(jié)中,原先預測PAFs與Heatmaps中前五個卷積塊是由三個3×3標準卷積構(gòu)成的,現(xiàn)將第一個3×3卷積變?yōu)?×1卷積,第三個3×3卷積變?yōu)榕蛎浵禂?shù)為2的空洞卷積,使其保留與原先相同的感受野并進一步降低卷積核參數(shù)量;五個卷積塊依次連接,塊內(nèi)的卷積再殘差相連,使整體獲得增大感受野,提升捕獲遠程信息的能力。

圖5 改進OpenPose模型結(jié)構(gòu)Fig.5 Improved OpenPose model structure

為了驗證八度卷積對深層特征及預測階段效果是否產(chǎn)生增益,對改進OpenPose特征提取階段、預測階段PAFs 3及Heatmaps 1進行特征可視化,分析Oct-MobileNet與普通MobileNet的效果。如圖6所示,融合了八度卷積的MobileNet網(wǎng)絡(luò)提取的深層特征對人體輪廓這些高頻特征分量更重視,對其他低頻分量則起到抑制作用,證明了八度卷積模塊融入深度可分離卷積可以產(chǎn)生互補,對后續(xù)預測階段的效果也能帶來進一步的提升。

圖6 特征可視化對比效果Fig.6 Comparison effect of feature visualization

3.3 模型性能對比分析

實驗在Windows 10系統(tǒng)下進行,深度學習框架為Pytorch,硬件配置為:Inter Core i7-9750H CPU @3.20 GHz,GPU為RTX2060,顯存6 GB,RAM為8 GB。訓練與測試采用COCO2017數(shù)據(jù)集,實驗中模型優(yōu)化器為Adam,訓練迭代次數(shù)為3×10次,學習率為4×10。實驗對比結(jié)果如表2所示,其中前兩行為原論文中的數(shù)據(jù),mAP代表模型的檢測精度;FLOPs是卷積時發(fā)生的浮點運算次數(shù),代表模型的計算量,且1×GFLOPs=10×FLOPs。

表2 消融實驗對比Tab.2 Comparison of ablation experiments

從表2可以看出,在預測PAFs和Heatmaps的階段數(shù)目分別為3和1時,本文提出的改進OpenPose精度比原模型下降了1.2%,但Oct-MobileNet計算量GFLOPs僅有VGG19的12%左右。模型檢測速度如圖7所示,改進后的檢測幀率為30 fps左右,滿足實時性需求且檢測效果較好。

圖7 改進前后檢測幀率對比Fig.7 Comparison of detection frame rate before and after improvement

4 視頻動作評分方法(Video action scoring method)

本文提出的動作評分方法首先通過OpenPose檢測出人體關(guān)鍵點坐標,再用坐標信息表征人體運動姿態(tài),改進后的模型可以對視頻進行實時檢測,滿足算法需求。實驗數(shù)據(jù)為網(wǎng)上下載的《健身氣功八段錦》標準教學視頻以及個人練習動作視頻,以此來進行算法驗證。

4.1 關(guān)鍵點坐標預處理

由于動作練習者有不同的身高體型,也可能站在鏡頭不同位置,為了便于分析計算,對檢測到的關(guān)鍵點坐標進行預處理。模型輸出為人體18 個關(guān)鍵點的坐標(xy),∈[0,17],這些點的坐標可以用來創(chuàng)建一個最小邊界框,將圖片中的人包圍起來,如圖8所示,從而建立一個新的坐標系,解決了動作練習者出現(xiàn)在畫面不同位置的問題。新坐標系下關(guān)鍵點位置計算方式如式(1)所示,其中(,)表示邊界框的左下角端點位置。

圖8 坐標預處理流程Fig.8 Coordinate preprocessing process

4.2 視頻序列動作相似度及得分計算

由于頭部在運動過程中變化幅度較小,對動作整體影響不大,故計算過程中去除耳鼻眼等五個關(guān)鍵點,保留頸部與四肢共13 個關(guān)鍵點來構(gòu)成向量。對于視頻中某一幀的動作,可將預處理后的關(guān)鍵點坐標按順序表示成一個高維向量=[,,...,]。其中—為13 個關(guān)鍵點位置坐標,那么某兩幀的動作與動作的相似度便可轉(zhuǎn)化為兩個向量和之間的相似度。由于練習者距離鏡頭遠近發(fā)生變化會導致向量單位大小不一致,因此對各向量進行L2范數(shù)歸一化,以保證結(jié)果的準確性。

分析特征向量之間的相似性時,通常采用余弦相似度或余弦距離來表示,計算方法如式(2)、式(3)所示。將標準動作生成的向量作為基準向量,計算出基準向量與練習動作生成的向量的余弦相似度,其值越大,對應(yīng)余弦距離越小,代表動作越相似。

由于每個人的動作快慢不同,導致做相同動作的耗時不同,最后得到的向量序列長度也不一致。對于評估序列相似性問題,一般采用歐式距離和DTW(Dynamic Time Warping)距離,歐氏距離計算的是同一時刻兩組序列對應(yīng)點的直接距離,難以有效計算不同長度的序列相似度;而DTW算法允許擠壓或拉伸時間來計算兩組時間序列在最佳對齊時的最小距離,如圖9所示。

圖9 DTW算法原理圖Fig.9 Principle diagram of DTW algorithm

設(shè)時間內(nèi),視頻與的幀數(shù)分別為和,那么兩組視頻中的人體動作可表征為序列=[,,...,m,...,m],=[,,...,n,...,n],其中mn為某一幀的關(guān)鍵點坐標構(gòu)成的向量。由式(4)、式(5)可求出兩序列之間的距離:

其中,(,)表示mn之間的余弦距離,(,)則表示序列前個點與序列前個點的總距離,即等于當前點距離(,)與可以到達該點最小鄰近元素的累積距離之和,衡量的是整體相似度。最后,通過式(6)轉(zhuǎn)化為最后得分,式中表示序列與序列的DTW距離即(,),為相似度最低時的余弦距離。

如圖10所示,以《健身氣功八段錦》視頻中的“左右開弓似射雕”動作為例,圖10(a)為專家標準動作,將其設(shè)定為模板序列;圖10(b)為測試動作序列1;圖10(c)為另一專家動作序列,設(shè)為測試動作序列2。其中圖10(a)序列與圖10(c)序列動作規(guī)范且相似度較高,而圖10(b)動作序列規(guī)范性較差。用本文提出的評分算法計算結(jié)果如表3所示,其中序列圖10(c)得分高且與模板圖10(a)的幀數(shù)接近,代表各自在動作規(guī)范性及速度上都相似,序列圖10(b)動作較不規(guī)范且速度過快,因此評分也相應(yīng)較低。

表3 視頻序列相似度得分計算結(jié)果Tab.3 Calculation results of video sequence similarity scores

圖10 八段錦動作序列樣本Fig.10 Action sequence samples of Baduanjin

將三組視頻中人體某一關(guān)鍵點位移軌跡進行可視化,如圖11所示,其中曲線(a)、(c)的走勢相同,可以看作是相互平移所得,代表兩者動作相似度較高;而曲線(b)與模板(a)有類似的趨勢,但動作幅度不到位,導致曲線整體相似度較差。由此,進一步驗證了本文算法的有效性。

圖11 右膝x坐標變化曲線Fig.11 x coordinate curve of right knee

5 結(jié)論(Conclusion)

本文提出了以O(shè)ct-MobileNet為主干的改進OpenPose網(wǎng)絡(luò),對原網(wǎng)絡(luò)結(jié)構(gòu)進行了優(yōu)化。實驗結(jié)果表明,改進后的模型在精度略微減少的情況下模型計算量大幅減少,視頻檢測幀率達30 fps,滿足后續(xù)動作評分系統(tǒng)的實時性需求。

本文將OpenPose得到的關(guān)鍵點位置進行歸一化并構(gòu)成高維向量,用向量表示人體姿態(tài)。以八段錦招式為例,通過計算模板動作和練習動作之間向量的余弦距離來表示每一幀動作的相似度,最后采用DTW算法計算視頻動作的整體相似度并轉(zhuǎn)化為最后得分。實驗表明,本文提出的基于改進OpenPose的動作評分方法無須大量樣本訓練即可實現(xiàn)。算法在復雜度和速度上有較大優(yōu)勢,并且評價結(jié)果與實際情況吻合,在體育運動、健身鍛煉等方面具有一定的應(yīng)用價值。未來工作將關(guān)注在算法中加入更多評判條件及反饋信息,進一步完善動作評估系統(tǒng)的功能。

猜你喜歡
關(guān)鍵點動作檢測
聚焦金屬關(guān)鍵點
肉兔育肥抓好七個關(guān)鍵點
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
動作描寫要具體
畫動作
動作描寫不可少
小波變換在PCB缺陷檢測中的應(yīng)用
非同一般的吃飯動作
主站蜘蛛池模板: 国产人免费人成免费视频| 欧美精品二区| 中文字幕伦视频| 久久这里只有精品8| 日韩无码视频网站| 很黄的网站在线观看| 欧美成人精品一级在线观看| 91青青视频| 亚洲成年网站在线观看| 亚洲国产成人精品青青草原| 色135综合网| 美女扒开下面流白浆在线试听| a天堂视频在线| 亚洲,国产,日韩,综合一区| 亚洲国产成人麻豆精品| 亚洲日本在线免费观看| 国内嫩模私拍精品视频| 精品无码国产自产野外拍在线| 在线精品欧美日韩| 91娇喘视频| 成年人国产网站| 中国成人在线视频| 亚洲综合第一区| www.亚洲一区| 欧美日韩一区二区在线播放| 国产99视频免费精品是看6| 国产菊爆视频在线观看| 在线视频亚洲色图| 成人一级黄色毛片| 尤物亚洲最大AV无码网站| 亚洲欧美激情另类| 91探花在线观看国产最新| 狠狠做深爱婷婷综合一区| 999在线免费视频| 亚洲资源在线视频| 亚洲经典在线中文字幕| 久久窝窝国产精品午夜看片| 岛国精品一区免费视频在线观看| 亚洲一区二区日韩欧美gif| 欧美不卡在线视频| 青青久久91| 99久久精品无码专区免费| 国产农村精品一级毛片视频| 99精品伊人久久久大香线蕉| 黄色福利在线| 女人毛片a级大学毛片免费| 成人在线综合| 国产h视频在线观看视频| 国产一级一级毛片永久| 五月丁香在线视频| 日本欧美午夜| 激情综合婷婷丁香五月尤物 | 2020国产精品视频| 日韩人妻精品一区| 在线免费亚洲无码视频| 福利视频一区| 91一级片| 亚洲国产中文精品va在线播放| 2021最新国产精品网站| 欧美性色综合网| 国产黄色免费看| 亚洲性视频网站| 亚洲欧美精品日韩欧美| 好紧好深好大乳无码中文字幕| 99久久成人国产精品免费| 免费aa毛片| 无遮挡一级毛片呦女视频| 精品福利视频网| 日韩福利在线视频| 国内99精品激情视频精品| 国产情精品嫩草影院88av| 暴力调教一区二区三区| 日本高清在线看免费观看| 四虎成人在线视频| 欧美精品1区2区| www中文字幕在线观看| 又黄又湿又爽的视频| a级毛片网| 欧美有码在线| 亚洲视频免费在线| 毛片最新网址| 国产高清精品在线91|