
DOI:10.16652/j.issn.1004-373x.2025.16.008
中圖分類號:TN915.04-34;TP391.4 文獻標識碼:A 文章編號:1004-373X(2025)16-0045-05
Prediction of human motion sequence in projection subspace
YUEXiaoyu,ZHANGLulu (Nanjing Tech University,Nanjing211816,China)
Abstract:Inordertocomprehensivelyextractmotion features fromdiferentviewinganglesandimprove therobustnessof perspectivechanges,thepredictionmethodof human motionsequence in projectionsubspaceisproposed.Intheprojection subspace,the3DhumanmovementscapturedbyKinectcameraareconvertedinto2Dhumanmovementsequeneswithdiferent anglesof mainview,leftviewandtopview.Inthemulti-neighborhoodglobaladaptivegraphneuralnetwork,theadaptivegraph convolutionisusedastheencodertoextractthe2Dhumanactionsequencefeaturesfromthethreeviewingangles,soasto improvetherobustnessof thenetwork tothechangesof viewingangles.Thegatedrecurentunitbasedonmulti-neigborhod globaladaptivegraphconvolutionisusedasthedecoder,andcombinedwiththehumanmotionsequencecharacteristicsto obtainthehumanmotionsequencepredictionresultsunderdiferentviewingangles.Thefusionmoduleisused tofusethe predictedresultsof actionsequences fromvarious perspectives bymeansofthevoting fusion strategy,soas toobtain the final predictioresults.Theexperimentalresultsshowthattheproposedmethodcanefectivelyconvert 3Dhuman motionandobtain 2D human motionsequence.This method caneffectivelypredict humanactionsequence,andthedeterminationcoeffcientsof action sequence prediction arehigher under diferent viewing angles,thatis,the prediction accuracy is higher.
Keywords:human actionsequence prediction;projectionsubspace;2D action;feature extraction;adaptive graph convolution; gated recurrent unit
0 引言
人體動作序列預測是按照歷史人體動作序列數據,對后續動作序列的發展趨勢進行預測。在體育訓練場景下,預測人體動作序列可幫助教練清晰分析運動員的動作,并按照預測結果調整訓練計劃,增強運動員的動作標準度,提升運動成績2-3]。因此,研究人體動作序列預測方法具有重要意義。
文獻[4]融合處理不同時段人體動作序列的三維點云數據,利用時空鄰域分割數據,通過三層Meteor模塊提取人體動作特征,再結合全連接網絡預測人體動作序列。在視角改變情況下,三維點云數據的形態會發生改變,導致數據分割精度下降,降低特征提取精度。文獻[5]利用空間位置關系學習模塊統計關節點間的相對位置分布,提取空間位置特征;采用時間位置關系學習模塊統計相鄰幀間關節點的位置變動,提取時間位置特征,通過時空位置關系融合模塊加權融合空間與時間位置特征;利用時空變化特征學習模塊結合融合特征,預測人體動作序列。該方法是按照固定視角進行動作序列預測,對視角變化的魯棒性不足。文獻[6]通過ResNet-50網絡提取人體動作特征,采用卷積塊注意力模塊優化特征圖,使用ConvLSTM(卷積長短期記憶網絡)在優化特征圖內提取時空特征,并輸出人體動作序列預測結果。但ResNet-50網絡無法完全適應視角變化帶來的圖像差異。文獻[7]利用圖卷積網絡(GCN)挖掘骨架關節點間的空間特征,采用LSTM提取人體動作的時間序列特征,通過融合兩個特征得到人體動作序列預測結果。……