999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于感知學習算法的啦啦操動作風格識別與性能分析

2024-01-01 00:00:00徐靜
景德鎮學院學報 2024年3期
關鍵詞:機器學習

摘"要:為了解決傳統啦啦操動作風格評價因過度依賴裁判主觀判斷而導致的不準確性,文章提出了一種基于感知學習的啦啦操動作風格識別與評價方法。研究對象為正負樣本不均衡的啦啦操初學者,他們被隨機分為實驗組與對照組。同時,采用基于PUCNN和循環神經網絡的模式識別算法對標準姿勢輸入數據進行特征提取,并建立三種感知學習類型的識別評價模型,從而驗證PUCNN和循環神經網絡的模式識別算法的有效性。在感知學習過程中,基于PUCNN和循環神經網絡的模式識別算法與專家評委的打分相近;與DT算法、PCNN算法及LRCN算法相比,該算法的識別準確率最高,達976%,GPU運行時間最短,為2.2小時。

關鍵詞:啦啦操;動作風格識別;感知學習;計算機視覺;機器學習

中圖分類號:G837"""""文獻標識碼:A""""""文章編號:20959699(2024)03004805

啦啦操作為一種富有創造力、表現力和藝術性的現代體育項目,吸引了越來越多的關注[1]。啦啦操表演不僅可以增進團隊合作意識、培養學生的想象力和創造力,還可以提高個體的身體素質與協調性。傳統的啦啦操動作風格的識別與評價通常依賴于教練或裁判的經驗和觀察[2]。然而,這種主觀評價方式容易受到評價者個人認識和喜好的影響。為了克服這些局限性,基于機器學習和計算機視覺的動作識別技術得到了廣泛關注和研究[3]。

劉文萍等[4]提出了一種基于圖像識別的方法,利用圖像處理與特征提取技術識別和分析啦啦操上臂動作,從而檢測和糾正動作誤差。吳子依和陳泯融[5]介紹了一種融合時空域注意力模塊的多流卷積人體動作識別方法,通過對人體動作時空信息的建模和關注,提高了動作識別準確性。李麗等[6]以基于美國啦啦操教學模式為理論基礎,提出了一種基于協同治理理論的教學模式,以提升高校啦啦操教學的效果和質量。畢春艷、劉越[7]探討了基于深度學習的視頻人體動作識別的研究,綜述了深度學習在該領域的應用,包括基于3D卷積神經網絡和循環神經網絡的方法以及利用時空特征和注意力機制進行動作識別的技術。這些研究為啦啦操動作誤差識別、人體動作識別、教學模式和動作審美等方面提供了一些有益的見解。然而,仍然存在一些挑戰和問題亟待解決,例如不同動作風格的識別、數據集標注的一致性等[8]。特別是,對于正負樣本不均衡的動作樣本,識別效果常常不佳。姿態卷積神經網絡(Pose Convolutional Neural Networks,PCNN)是一種能夠有效處理正負樣本不平衡問題的深度學習模型[9]。在啦啦操動作風格識別中,正樣本通常是指特定風格的動作,而負樣本則涵蓋其他風格的動作或者非啦啦操動作。在訓練動作風格識別中,正樣本數量往往較少,而負樣本數量較多,導致傳統分類算法的識別效果較差。因此,采用PCNN能夠有效處理樣本不平衡的情況,提高動作識別的準確性和穩定性[9]。

文章通過引入感知學習方法,從學生的動作特征中提取信息,并根據個人的表演風格提出識別與評價學生啦啦操動作風格的方法。通過對動作風格的識別與評價,學生可以更好地了解自己的表演特點,并獲得個性化的指導和反饋。該研究為啦啦操教學帶來了個性化和智能化的變革,提高了學生的學習體驗和效果。同時,教練也能從中受益,可以更好地理解學生的特點和需求,針對性地進行教學和指導。這對于啦啦操教學領域的發展具有重要意義。

1"資料與方法

1.1"一般資料

該實驗選擇啦啦操選修班的學生作為實驗對象,隨機將學生分成實驗組與對照組,學生年齡在16至17歲之間。實驗組共有21名學生,男生5人,女生16人,其中5名學生(23.8%)有啦啦操學習經歷。對照組同樣有21名學生,男生6人,女生15人,其中6名學生(28.5%)有啦啦操學習經歷。

1.2"方法

1.2.1"測試方案

實驗組和對照組學生學習啦啦操中的規定動作和32個基本手位,共計16課時。根據風格劃分,該啦啦操內容分為視覺(80%以上為腳步運動)、聽覺(80%以上為嘴部運動)和觸覺(80%以上為手部拍擊動作)等三種類型,三種類型內容分別占據整體啦啦操時長的1/3。首先,采用深度攝像頭采集多名學生標準動作的視頻樣本,并使用python語言系統進行系統開發。然后,利用計算機視覺技術和姿態估計算法提取演示視頻的關鍵幀或關鍵點,將動作轉化為機器可識別的數值表示。通過專家評委打分確定標準動作的訓練得分。實驗中采用循環神經網絡和PoseUpgrade CNN算法(以下簡稱為PUCNN),其采用5通道圖片處理模式,包括灰度信息、三維梯度和方向光流。經過數據處理后,使用4位卷積核和池化核進行處理,最后,通過分類器得到結果。PUCNN在PCNN算法的基礎上增加輸入幀數,從7幀增加到17幀,以適應啦啦操運動員在訓練或比賽中使用的復雜連續動作。

訓練過程中,以及在16課時學習結束后,分別對實驗組與對照組進行評分,通過評分結果激勵學生的積極性與自我糾正意識;其中,實驗組基于感知學習模型的樣本視頻關鍵幀進行感知學習進行打分,對照組則采用傳統的教學老師進行打分。課程結束后,由專家評委老師對實驗組與對照組的學生進行打分,以檢驗學習效果。通過統計學分析方法對打分結果進行分析,衡量識別模型性能,驗證基于感知學習的教學是否比傳統教學有更加積極的影響。

1.2.2"人體動作智能捕捉

通過PUCNN算法基于RGB視頻提取人體三維骨骼數據,如圖1所示,黑點為檢測到的關鍵點,黑線表示各個關鍵點的物理連接。鑒于體操動作的復雜性和變化性較大,為準確識別復雜的體操動作,提高動作識別與評估的準確性,文章提出增加特征歸納法進行特征規范處理。該方法針對訓練樣本視頻庫中的動作樣本提取特征,使用TDF202視頻庫作為樣本庫。通過最大時長的計算獲取尺度不變特征變化匹配度值,并結合運動歷史圖像來完成特征提取。將目標矩形分割成小塊并計算匹配度值,選擇中心位置進行采樣。該值依賴于物體周圍的關鍵點,與圖像的位置無關,并減少光線等環境因素的影響。

1.2.3"基于循環神經網絡算法和PUCNN算法

使用三維卷積核實現相連幀的重復疊加,相連的幀的特征提取矢量圖通過與i-1層的對等相連幀勾連后,經過卷積層模擬人體動作信息[10]。計算公式如下所示:

Pabcij=CATHxij+∑n∑Qi-1q=0∑Ri-1r=0∑Si-1s=0wqrsijntx+qy+rz+si-1n(1)

式(1)中,Pabcij表示i層與j層之間特征比對的圖像點位a,b,c的結果數值,CATH()為雙曲線正切函數,xij為相鄰的兩層卷積層之間的凸顯差異值,n表示上一層識別的特征要素數量。Qi、Ri、Si、wqrsijn分別為三維卷積核的時間維度、空間維度、卷積核數量、卷積核的權重值;tx+qy+rz+si-1n為時間t的偏置向量。文中選擇3×3矩陣作為池化核的大小。

運動歷史圖像是基于圖像位置的變化軌跡,模擬并突出顯示人體動作的情況,具體算法如式(2)所示:

Isx,y,t=τ,ifφx,y,t=1max0,Isx,y,tδ(2)

式(2)中,使用x,y,t代表時間和空間維度值,τ表示持續時長,δ表示衰減值,φ表示幀與幀之間的差異函數,φx,y,t=1,ifDx,y,tδ0,esle,其中的D函數為Ix,y,t-Ix,y,t+ω,ω表示幀間的位置差。通過關鍵幀圖片記錄了與動作相關的信息,在視頻樣本模型建立過程中,將提取的特征動作信息與訓練模型信息進行比對與分類,實現規范化處理。

然而,在大型視頻樣本分析中,數據量過大可能會引發梯度消失等問題。為了解決這一問題,文章在原有神經循環網絡算法基礎上[11],引入了LSTM遺忘門結構[12],其計算方法為:

ft=sigmoidWfht-1xt+cf (3)

it=sigmoidWiht-1xt+ci(4)

ct=CATHWchc-1xt+cc(5)

ot=sigmoidWoht-1xt+co(6)

式中,ot為上一層輸出結果;ht-1為上一時刻的輸出結果,xt為當前的輸入數據。ft為遺忘門輸出結果,用于決定是否遺忘上一時刻的狀態。it和ct分別表示輸出結果和當前的狀態。它們的主要作用是確定是否更新當前狀態并將新的信息加入細胞狀態中。ct和ct-1分別表示更新前和更新后的細胞狀態。Wf、Wi、Wc、Wo表示權重矩陣,用于對遺忘門、輸入門和輸出門進行加權調整。cf、ci、cc、co表示偏置向量,用于進行偏置調整。

所有研究均在Linux 14.04操作系統中完成,測試環境為:CPU (6核,1.6 GHz)、GPU GTX1080 (顯存8GB),使用Caffe框架。基于循環神經網絡和PUCNN的識別算法執行過程包括以下步驟:特征提取、卷積操作、池化操作、歸一化操作和循環迭代等。循環神經網絡與PUCNN算法流程如圖2所示,需要將光流數據和待識別的 RGB 圖像數據作為并行輸入進行處理。在模型中進行各種模式識別和樣本訓練步驟,并對訓練結果進行加權處理,最終完成對啦啦操動作風格的識別。

1.3"評價標準

全國啦啦操委員會審定的《啦啦操評分標準》明確規定,啦啦操評判指標分為四個部分:“啦啦操動作完成技術;啦啦操團隊協作能力;編排設計因素;觀眾吸引能力”。因此,文中采用感知學習得分與專家評委打分作為實驗組和對照組的得分構成。

1.4"統計學方法

采用SPSS 20.0軟件進行數據處理,感知學習得分與識別計量資料以平均值表示;采用t檢驗進行單因素分析,其中顯著性水平Plt;0.05,表示數據差異具有統計學意義。

2"結果分析

2.1"感知學習識別與評價

為驗證識別與評價的效果,根據上述測試方案進行實驗,分別對實驗組與對照組進行t檢驗分析,結果如表1所示。從表1可知,實驗組視覺類型的均值為51.50分,聽覺類型的均值為45.66分,觸覺類型的均值為47.25分;對照組視覺類型的均值為52.33分,聽覺類型的均值為46.27分,觸覺類型的均值為46.58分。實驗組與對照組的評分非常接近,說明該訓練模型能夠有效的識別與評價啦啦操動作風格,有助于動作訓練指導。在不同風格類型方面,視覺類型學習者的感知學習得分相對較高,而聽覺和觸覺類型的學習者得分則相對較低。視覺和聽覺類型學習者的標準差較接近,分別為2.28和2.38,這意味著這兩類學習者之間的得分變異度相對較小,具有一定的一致性。在聽覺類型學習者中,t值為8.25,P值為0.004。這表明聽覺學習者與其他兩種類型的學習者存在顯著差異;而視覺類型與觸覺類型的t值分別為10.83與11.22,且差異不顯著(Pgt;0.05)。

2.2"光流數據與RGB圖像數據的訓練準確率

為了測試靜態圖像與動態視頻圖像對循環神經網絡和PUCNN算法識別準確率的影響,以錄制的啦啦操訓練視頻作為光流數據[13],隨機選取幀作為RGB圖像數據,分別進行大量的循環迭代訓練。實驗結果表明,隨著訓練次數的增加,動作識別準確率逐漸提升,并在后期趨于平穩,見圖3。其中,光流數據神經網絡在循環次數達到15 000次之前表現出顯著增幅,之后準確率趨于穩定;而RGB圖像數據神經網絡在循環次數9 000次后達到穩定閾值。兩者的準確率均能保持在95%以上。但光流數據的神經網絡需要更多的循環次數來達到穩定閾值,而RGB圖像數據神經網絡則相對較少。

2.3"光流數據與RGB圖像數據融合對動作識別的影響分析

在實驗過程中,對光流數據和RGB圖像數據按照一定的權重值進行融合。通過參數值的驗證,發現光流數據的動作識別整體上優于RGB圖像數據的識別效果,具體數據如圖4所示。識別準確率的峰值出現在光流數據權重為0.6時,達到最佳效果。該測試顯示出光流數據在動作識別中的重要性及其運動信息捕捉的優勢。因此,將光流數據與RGB圖像數據融合能夠有效提升動作識別的準確性。

為驗證文中提出的混合算法的識別效果,以UCF101數據庫的視頻圖像作為樣本集,總計6 680段視頻,分別對比決策樹(Decision Tree,DT)算法[14]、分離式長期循環卷積網絡(Separate longterm recurrent convolutional networks,LRCN)算法[15]、PCNN模型算法[9]以及循環神經網絡和PUCNN算法的識別效果,結果如表2所示。文中提出的算法在動作識別準確率方面表現出色,達到了97.6%;相比之下,DT模型算法的識別準確率為76.5%,LRCN模型算法為83.9%,PCNN模型算法為88.7%。文中提出的算法在動作識別任務中具有顯著優勢,且取得更高準確率。同時,在運行時間方面,文中提出的算法相較于其他三種算法表現出明顯優勢,運行時間分別減少約82%、67%和86%,為實際應用和實時場景的需求提供便利。

3"結論

研究提出的混合算法在啦啦操動作風格識別與評價任務中呈現出明顯優勢。通過將光流數據和RGB圖像數據的融合,并依托感知學習方法進行特征提取與模型訓練,使動作風格的識別和評價更加客觀和準確。在實驗過程中,光流數據和RGB圖像數據的循環迭代訓練準確率與訓練次數呈正相關。光流數據神經網絡在達到穩定循環次數后準確率優異;而RGB圖像數據神經網絡則較早達到穩定閾值。通過對光流數據和RGB圖像數據的融合實驗,發現基于光流數據的識別準確率整體高于基于RGB圖像數據的效果。在權重為0.6時,光流數據的識別準確率達到97.6%的峰值。由此可見,該研究對提升啦啦操動作風格識別與評價的重要性,為教學、訓練和比賽等領域提供理論與實踐指導。未來的研究可以進一步探討基于感知學習的方法在其他體育項目中的應用,并結合更多的數據和算法優化策略,提升動作識別的準確性和實用性。

參考文獻:

[1]張慶如.啦啦操運動發展演進及特征表現[J].北京體育大學學報,2010,33(12):142144.

[2]李萍,周楊.高校啦啦操“課程思政”:緊迫性、特色優勢與實踐路向[J].廣州體育學院學報,2021,41(06):115118.

[3]王駿昇,吳盡,尹軍.國家射箭隊運動員不同技術環節的身體姿態特征研究[J].中國體育科技,2022,58(11):36.

[4]劉文萍,李影.基于圖像識別的啦啦操上臂動作誤差識別方法[J].滄州師范學院學報,2023,39(01):106112.

[5]吳子依,陳泯融.融合時空域注意力模塊的多流卷積人體動作識別[J].華南師范大學學報(自然科學版),2023,55(03):119128.

[6]李麗,呂萬剛,區峻,等.美國啦啦操項目協同治理的經驗與啟示[J].體育與科學,2022,43 (03):8088.

[7]畢春艷,劉越.基于深度學習的視頻人體動作識別綜述[J].圖學學報,2023,44(04):625639.

[8]孫冬,宋楊,岑炫震,等.基于計算機視覺的運動動作無標記識別技術研究進展[J].上海體育學院學報,2021,45(09):16.

[9]張耕慎.基于深度學習的三維計算機視覺下的6D姿態估計[D].深圳:中國科學院大學(中國科學院深圳先進技術研究院),2021.

[10]周玉林,李翰君,姚天奇,等.基于神經網絡預測足球運動員側切變向動力學[J].醫用生物力學,2021,36(S01):148.

[11]姜華,歐陽紅,方紅旺,等.一種雙向長短時記憶循環神經網絡的問句語義關系識別方法[J].福州大學學報(自然科學版), 2018,46 (01):5258.

[12]楊賀羽,杜洪波,朱立軍.基于順序遺忘編碼和BiLSTM的命名實體識別算法[J].計算機應用與軟件,2020,37(02):213217.

[13]陳旭東,周昱琪,李夢杰,等.基于SoC FPGA和CNN模型的動作識別系統設計[J].電子技術應用,2019,45(02): 97104,108.

[14]丁曉慧,周磊.基于DTSVM優化算法的人體姿態特征提取與識別研究[J].太原師范學院學報(自然科學版),2024,23 (01):3944,52.

[15]李學翰,胡四泉,石志國,等.基于SLRCN的微表情識別算法[J].工程科學學報,2022,44(01):104113.

責任編輯:肖祖銘

Action Style Recognition and Performance Analysis ofCheerleading Based on Perceptron Learning Algorithm

XU Jing

(College of Physical Education, Huainan Normal University, Huainan 232001, China)

Abstract:In order to address the inaccuracies in traditional cheerleading style evaluation stemming from an overreliance on referee′ subjective judgments, this paper proposes a method of recognizing and evaluating cheerleading styles based on Perceptron Learning. Cheerleading beginners with uneven positive and negative samples are randomly divided into experimental group and control group. A pattern recognition algorithm based on PUCNN and recurrent neural network has been employed to extract features from the standard posture input data, and three types of Perceptron Learning style recognition evaluation models have been established to verify the effectiveness of the style recognition algorithm based on PUCNN and recurrent neural network. In the Perceptron Learning, the scores from the pattern recognition algorithm closely align with those from expert judges. Compared to DT algorithm, PCNN algorithm and LRCN algorithm, this algorithm achieves the highest recognition accuracy rate of 97.6% and the shortest GPU runtime of 2.2 hours.

Keywords:cheerleading; action style recognition; Perceptron Learning; computer vision; machine learning

猜你喜歡
機器學習
基于詞典與機器學習的中文微博情感分析
基于網絡搜索數據的平遙旅游客流量預測分析
時代金融(2016年27期)2016-11-25 17:51:36
前綴字母為特征在維吾爾語文本情感分類中的研究
科教導刊(2016年26期)2016-11-15 20:19:33
下一代廣播電視網中“人工智能”的應用
活力(2016年8期)2016-11-12 17:30:08
基于支持向量機的金融數據分析研究
基于Spark的大數據計算模型
基于樸素貝葉斯算法的垃圾短信智能識別系統
基于圖的半監督學習方法綜述
機器學習理論在高中自主學習中的應用
極限學習機在圖像分割中的應用
主站蜘蛛池模板: 欧美精品啪啪| 久久情精品国产品免费| 爱色欧美亚洲综合图区| 看av免费毛片手机播放| 性色一区| 日韩精品无码免费专网站| 中文字幕色在线| 亚洲精品中文字幕无乱码| 国产va在线观看| 色精品视频| 综合网久久| 久久国产拍爱| 3344在线观看无码| 成人无码区免费视频网站蜜臀| 精品第一国产综合精品Aⅴ| 欧美精品一区二区三区中文字幕| 精品视频91| 午夜福利视频一区| 在线观看免费黄色网址| 欧美国产视频| 网友自拍视频精品区| 欧美国产综合色视频| 91在线一9|永久视频在线| 色老二精品视频在线观看| 激情影院内射美女| 欧美亚洲一二三区| 国语少妇高潮| 国产区网址| 99人妻碰碰碰久久久久禁片| 麻豆精品在线播放| 中文无码精品a∨在线观看| 国产精品3p视频| 蜜臀AV在线播放| 高清不卡毛片| 伊人激情久久综合中文字幕| 思思99热精品在线| 亚洲精品无码在线播放网站| 日本欧美视频在线观看| 中文字幕欧美日韩高清| 91九色国产porny| 茄子视频毛片免费观看| 国产第四页| 国产AV毛片| 国产成人一区在线播放| 欧美成人在线免费| jizz在线观看| 青青草原国产一区二区| 免费在线国产一区二区三区精品| 亚洲毛片网站| 夜夜操狠狠操| 91破解版在线亚洲| 国产一区在线视频观看| 亚洲精品手机在线| 日本精品αv中文字幕| 欧美色综合网站| yy6080理论大片一级久久| 欧美综合激情| 亚洲欧美成aⅴ人在线观看| 久青草网站| 不卡无码h在线观看| 日韩欧美国产区| 国产丰满大乳无码免费播放| 日韩在线网址| 2048国产精品原创综合在线| 蜜桃视频一区| 51国产偷自视频区视频手机观看| 色播五月婷婷| 免费网站成人亚洲| 国产二级毛片| 中国一级毛片免费观看| 国产丝袜无码精品| 伊人久久久久久久| 热re99久久精品国99热| 911亚洲精品| 精品中文字幕一区在线| 少妇精品在线| 2020精品极品国产色在线观看| 亚洲大尺度在线| 91无码视频在线观看| 天天综合色网| 激情无码字幕综合| 中文天堂在线视频|