999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于加速度傳感器的人體前臂動(dòng)作識(shí)別

2016-06-21 07:02:34民權(quán)職業(yè)技術(shù)教育中心張金棟
電子世界 2016年11期
關(guān)鍵詞:特征提取

民權(quán)職業(yè)技術(shù)教育中心 張金棟

基于加速度傳感器的人體前臂動(dòng)作識(shí)別

民權(quán)職業(yè)技術(shù)教育中心 張金棟

【摘要】針對(duì)人體前臂運(yùn)動(dòng)識(shí)別困難,識(shí)別率低的問題,且為了有效并快速提取人體上肢前臂的運(yùn)動(dòng)特征,設(shè)計(jì)了一種基于加速度傳感器的人體前臂動(dòng)作識(shí)別系統(tǒng)。首先利用加速度傳感器來獲取的加速度原始數(shù)據(jù)矩陣,采用分段線性分類器對(duì)運(yùn)動(dòng)特征矩陣進(jìn)行動(dòng)作識(shí)別。實(shí)驗(yàn)表明,本系統(tǒng)能夠有效識(shí)別人體右手前臂向上,向下,向左,向右四種動(dòng)作,且動(dòng)作識(shí)別率達(dá)98%。

【關(guān)鍵詞】加速度傳感器;濾波;運(yùn)動(dòng)識(shí)別;特征提取

0.引言

目前主流的手勢(shì)識(shí)別技術(shù)有:(1)采用機(jī)器視覺方式來識(shí)別肢體運(yùn)動(dòng)模式[1]。此方法在于靜態(tài)運(yùn)動(dòng)模式上廣泛應(yīng)用[2],但成本較高,對(duì)硬件設(shè)備要求高且算法設(shè)計(jì)復(fù)雜難于推廣[3];(2)基于表面肌電信號(hào)來識(shí)別肢體運(yùn)動(dòng)模式[4]。此方法多用于醫(yī)療康復(fù)[5]、運(yùn)動(dòng)控制[6]等領(lǐng)域,但表面肌電信號(hào)微弱,易受干擾,獲取難度大[7];(3)基于慣性傳感器來識(shí)別肢體運(yùn)動(dòng)模式[8]。此方法在實(shí)時(shí)運(yùn)動(dòng)模式識(shí)別中廣泛應(yīng)用[9],且受外界干擾因素較少,易于獲取,只需佩戴具有慣性傳感器的體感設(shè)備,或是手持手機(jī),即可滿足需求,因而便于在日常生活中得到推廣[10]。因此,本系統(tǒng)采用基于加速度傳感器來實(shí)現(xiàn)人體上肢前臂動(dòng)作識(shí)別。

1.人體前臂動(dòng)作識(shí)別系統(tǒng)總體設(shè)計(jì)

前臂動(dòng)作識(shí)別系統(tǒng)由加速度原始數(shù)據(jù)采集[11]、加速度原始數(shù)據(jù)預(yù)處理、手勢(shì)運(yùn)動(dòng)模式分類以及后續(xù)處理五部分組成[12]。

圖1 前臂動(dòng)作識(shí)別系統(tǒng)總體設(shè)計(jì)框圖

2.前臂運(yùn)動(dòng)識(shí)別算法設(shè)計(jì)

圖2 前臂運(yùn)動(dòng)識(shí)別算法流程圖

前臂動(dòng)作識(shí)別算法設(shè)計(jì)框圖如圖2所示。經(jīng)過預(yù)處理后的數(shù)據(jù),在抬手過程中,Y軸數(shù)據(jù)在負(fù)半軸有明顯的變化趨勢(shì);在落手過程中,Y軸數(shù)據(jù)在正半軸有明顯的變化趨勢(shì);在向左運(yùn)動(dòng)時(shí),X軸數(shù)據(jù)在正半軸有明顯變化趨勢(shì), Y軸數(shù)據(jù)在負(fù)半軸有明顯的變化趨勢(shì);在向右運(yùn)動(dòng)時(shí),X軸數(shù)據(jù)在負(fù)半軸有明顯變化趨勢(shì), Y軸數(shù)據(jù)在負(fù)半軸有明顯的變化趨勢(shì)。圖2就是利用這種數(shù)據(jù)差異來因而采用線性分段分類器與決策樹來對(duì)這四種動(dòng)作模式進(jìn)行分類識(shí)別。

3.實(shí)驗(yàn)結(jié)果分析

實(shí)驗(yàn)中,為了測(cè)試算法的效率與通用性,挑選十名志愿者按照預(yù)定動(dòng)作,即右手佩戴體感帶有加速度傳感器的體感手環(huán),手心朝下做抬手,落手,向身體內(nèi)側(cè)運(yùn)動(dòng),展開前臂四種動(dòng)作自然運(yùn)動(dòng),以個(gè)人習(xí)慣與力度每種動(dòng)作做一百次,并與動(dòng)態(tài)時(shí)間規(guī)劃、隱馬爾科夫鏈、線性判別分析三種算法的對(duì)比結(jié)果如表1所示。

表1 四種不同算法的識(shí)別結(jié)果

從表1可以看出,基于決策樹分類器對(duì)前臂四種動(dòng)作模式的平均識(shí)別率為98%,而基于動(dòng)態(tài)時(shí)間規(guī)劃、隱馬爾科夫鏈、線性判別分析的平均識(shí)別率分別為:94%、92%和97%,基于決策樹分類器的識(shí)別率最高。

4.結(jié)束語

本文針對(duì)基于加速度傳感器的前臂運(yùn)動(dòng)識(shí)別設(shè)計(jì)了一種基于嵌人式系統(tǒng)的計(jì)算量小、個(gè)體適應(yīng)性強(qiáng)的方法。該方法針對(duì)加速度原始數(shù)據(jù)進(jìn)行了濾波和去重力場(chǎng)作用提取出動(dòng)作特征數(shù)據(jù),進(jìn)而使用模式識(shí)別方法中的決策樹實(shí)現(xiàn)了任意設(shè)備姿態(tài)下的前臂動(dòng)作識(shí)別,且與動(dòng)態(tài)時(shí)間規(guī)劃、隱馬爾科夫鏈、線性判別分析這三種分類器相比,識(shí)別準(zhǔn)確率較高,識(shí)別率達(dá)98%。但由于加速度傳感器數(shù)據(jù)通道數(shù)的限制和時(shí)域特征參數(shù)的限制,對(duì)于上肢前臂的動(dòng)作識(shí)別還不夠充分,例如手腕翻轉(zhuǎn)、連續(xù)動(dòng)作等,還不能有效識(shí)別。因此,在后續(xù)的工作中,針對(duì)加速度傳感器在上肢前臂的安裝位置與前臂動(dòng)作的運(yùn)動(dòng)關(guān)系,深入研究在不同前臂動(dòng)作下,采用多個(gè)加速度傳感器數(shù)據(jù)融合技術(shù)來識(shí)別更多的前臂運(yùn)動(dòng)模式,并提高識(shí)別正確率。

參考文獻(xiàn)

[1]趙澤彪,常丹華.基于DSP的穿戴式動(dòng)作傳感器的手勢(shì)識(shí)別[J].計(jì)算機(jī)工程與設(shè)計(jì),2013,34(4)∶1250-1253.

[2]嚴(yán)焰,劉蓉,黃璐.基于HMM的手勢(shì)識(shí)別研究[J].華中師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2012,46(5)∶555-559.

[3]荊雷,馬文君,常丹華.基于動(dòng)態(tài)時(shí)間規(guī)整的手勢(shì)加速度信號(hào)識(shí)別[J].傳感技術(shù)學(xué)報(bào),2012,25(1)∶72-75.

[4]Xu R Z,Zhou S L,Li W J.MEMS Accelerometer Based Nonspecific User Hand Gesture Recognition[J].EEE Sensors Journal,2012,12(5)∶1166-1173.

[5]張建忠,常丹華.基于區(qū)間分布概率矩陣模型的動(dòng)態(tài)手勢(shì)識(shí)別方法[J].測(cè)控技術(shù)與儀器儀表,2013,39(1)∶72-75.

[6]Yang Yu,Chen Xiang,Tu You-qiang,et a1.Human-machine interactionsystem based on surface EMG signals[J].Journal of System Simulation,2010,22(3)∶651-655.

[7]萬莎,侯文生,楊丹丹等.基于LabVIEW的多通道sEMG信號(hào)檢測(cè)系統(tǒng)設(shè)計(jì)[J].測(cè)控技術(shù)與儀器儀表,2012,38(3)∶78-81.

[8]肖茜,楊平,徐立波.一種基于MEMS慣性傳感器的手勢(shì)識(shí)別方法術(shù)[J].傳感技術(shù)學(xué)報(bào),2013,26(5)∶611-615.

[9]陳意,楊平,陳旭光.一種基于加速度特征提取的手勢(shì)識(shí)別方法[J].傳感技術(shù)學(xué)報(bào),2012,25(8)∶1073-1078.

[10]Yuan Tao,Wang Ben Accelerometer Based Chinese Traffic Police Gesture Recognition System[J].Chinese Journal of Electronics,2010(19)∶270-274.

[11]孫金秋,游有鵬,傅忠云.基于共軛梯度法和互補(bǔ)濾波相結(jié)合的姿態(tài)解算算法[J].傳感技術(shù)學(xué)報(bào),2014,27(4)∶524-528.

[12]呂印新,肖前貴,胡壽松.基于四元數(shù)互補(bǔ)濾波的無人機(jī)姿態(tài)解算[J].燕山大學(xué)學(xué)報(bào),2014,38(2)∶175-180.

作者簡(jiǎn)介:

張金棟(1972—),男,河南民權(quán)人,大學(xué)本科,講師,主要從事網(wǎng)絡(luò)搭建及計(jì)算機(jī)軟件開發(fā)方面的研究。

猜你喜歡
特征提取
特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
基于DNN的低資源語音識(shí)別特征提取技術(shù)
Bagging RCSP腦電特征提取算法
一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
基于DSP的直線特征提取算法
基于改進(jìn)WLD的紋理特征提取方法
淺析零件圖像的特征提取和識(shí)別方法
基于CATIA的橡皮囊成形零件的特征提取
主站蜘蛛池模板: 一本大道香蕉高清久久| 久久久久人妻一区精品| 国产精品成人啪精品视频| 性69交片免费看| 精品一区二区三区视频免费观看| 国产精品美人久久久久久AV| 国产一区二区三区夜色| 国产精品毛片一区| 日本一区二区不卡视频| 2021亚洲精品不卡a| 亚洲成人网在线播放| 日韩欧美国产精品| 国产情侣一区二区三区| 啦啦啦网站在线观看a毛片| 露脸一二三区国语对白| 国产尤物视频在线| 一级毛片免费高清视频| 91精品人妻互换| 国产一级精品毛片基地| 农村乱人伦一区二区| 最新国产网站| 青青青国产在线播放| 国产69精品久久| 国产黄色免费看| 亚洲欧美极品| 天天躁日日躁狠狠躁中文字幕| 国产手机在线观看| 亚洲欧美激情另类| 国产又大又粗又猛又爽的视频| 日本午夜三级| 国产噜噜噜视频在线观看 | 欧美日韩国产成人高清视频| 久久久久亚洲精品成人网| 亚洲一区网站| 成人伊人色一区二区三区| 免费看a毛片| 一本一本大道香蕉久在线播放| 国产96在线 | 毛片在线播放网址| 88av在线| 国产91蝌蚪窝| 就去色综合| 亚洲高清在线天堂精品| 尤物国产在线| 久久不卡国产精品无码| 最新加勒比隔壁人妻| 四虎免费视频网站| 人妻无码一区二区视频| 99中文字幕亚洲一区二区| 久久久久亚洲AV成人网站软件| 男女性色大片免费网站| 在线免费观看AV| 久久精品亚洲中文字幕乱码| 亚洲精品午夜天堂网页| 丁香综合在线| 亚洲男人的天堂在线观看| 亚洲天堂2014| 国产成人高清亚洲一区久久| 午夜国产理论| 99在线观看精品视频| 18禁不卡免费网站| 国产手机在线观看| a天堂视频| 蝴蝶伊人久久中文娱乐网| 在线精品亚洲一区二区古装| 欧美精品亚洲二区| 老司机午夜精品视频你懂的| 久久精品人妻中文视频| 国产欧美在线观看一区| 国产一级裸网站| 性喷潮久久久久久久久| 99热这里只有精品免费国产| 最新精品久久精品| 久久中文电影| 亚洲人人视频| 日韩a级毛片| 亚洲福利视频一区二区| 欧美午夜在线观看| 欧美黄网站免费观看| 99精品国产自在现线观看| 日韩AV手机在线观看蜜芽| 日韩av无码精品专区|