999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度圖像和稀疏表示的多手勢識別算法

2017-07-08 09:02:17沈先耿譚志國周歌朱海剛
現(xiàn)代電子技術 2017年13期

沈先耿+譚志國+周歌+朱海剛

摘 要: 針對復雜環(huán)境下多目標手勢區(qū)域分割難度較大、識別率較低的問題,提出一種基于深度圖像和稀疏表示的多手勢識別算法。該算法采用膚色和深度圖像分割相結合的方式對圖像中出現(xiàn)的多手勢進行精確分割,再對分割后的手勢圖像進行歸一化處理,最后通過稀疏表示的方法實現(xiàn)手勢識別。實驗結果表明,該算法識別率較高、魯棒性較好,具有良好的識別性能。

關鍵詞: 深度圖像; 稀疏表示; 多目標手勢; 手勢分割; 手勢識別

中圖分類號: TN911.73?34; TP391.4 文獻標識碼: A 文章編號: 1004?373X(2017)13?0044?04

Abstract: Since it is difficult to segment the multi?target gesture region in complex environment, and its recognition rate is low, a multi?gesture recognition algorithm based on depth image and sparse representation is proposed. The method combining skin color with depth image segmentation is adopted in the algorithm to segment the multi?objective gesture appeared in the image accurately. The normalization processing was performed for the segmented gesture image. The sparse representation method is used to recognize the gesture. The experimental results show that the algorithm has high recognition rate, strong robustness and superior recognition performance.

Keywords: depth image; sparse representation; multi?objective gesture; gesture segmentation; gesture recognition

0 引 言

目前,基于視覺的手勢識別[1]成為新一代人機交互的關鍵技術,其中復雜背景下的手勢識別是目前研究的熱點和難點。復雜背景下的手勢識別一般采用膚色模型進行手勢區(qū)域的分割,通過這種方法可以有效地區(qū)分出膚色和非膚色區(qū)域。但是該方法采集到的圖像一般都含有臉部和肢體的膚色區(qū)域,部分圖像還含有與膚色相近的背景顏色區(qū)域,這些都對手勢區(qū)域的提取與識別產(chǎn)生了較大影響。為了解決這個問題,文獻[2]提出一種基于深度圖像的手勢識別算法,但該算法只研究了單個手勢的識別問題,并且只識別了9種基本手勢。為此,本文提出一種基于深度圖像和稀疏表示的手勢識別算法,該算法利用膚色模型和深度圖像信息提取手勢特征區(qū)域的表現(xiàn)特征,而后利用稀疏表示的方法對多種手勢進行分類識別。

1 多目標手勢區(qū)域的檢測與分割

首先利用Kinect采集目標手勢的RGB圖像和深度圖像,而后利用YCbCr色彩空間對采集的圖像進行膚色檢測。本文采用YCbCr色彩空間中的藍色分量(Cb)和紅色分量(Cr),舍棄亮度分量(Y),從而減少光照對膚色分割的影響。文獻[3]指出膚色分割時在Cb?Cr空間應采用固定閾值進行膚色檢測,其取值范圍在像素區(qū)間內(nèi)滿足:。

通過閾值分割,可以得到多目標手勢的膚色分割圖像,如圖1~圖3所示。

由于在人機交互過程中,人體的手勢動作往往都置于身體之前,通過檢測手勢區(qū)域與背景區(qū)域的不同深度值可以分割出手勢。一般人體采用單手做手勢,另一只手自然下垂或者離身體較近。通過深度圖像分割,能夠忽略貼近身體的手部區(qū)域,并將身體前側手勢區(qū)域分割出來。由文獻[4]可知,正常人體的手掌面積大小約為100 cm2,因此在深度圖像中,手勢區(qū)域的像素較少。

本文采用深度直方圖來尋找手勢區(qū)域與復雜背景的分割閾值。原圖的深度圖像與深度直方圖如圖4和圖5所示。

由文獻[5]可知,手勢區(qū)域部位往往離攝像頭的距離較近,且手勢面積相對于背景區(qū)域面積較小,因此從深度值由小到大尋找像素點變化,將極小深度值和其旁邊的次小深度值作為分割閾值。由圖5可知,兩手勢區(qū)域大約在深度值1 000~1 300和1 800~2 000的范圍內(nèi)。對圖4的深度圖像分別進行分割,分割后的手勢圖像如圖6和圖7所示。

由于深度圖像中存在噪點和部分未分割區(qū)域灰度值為0的黑色,根據(jù)經(jīng)驗,通過分割灰度值在5~250范圍內(nèi)的圖像并進行二值化處理,得到的手勢圖像如圖8所示。

將兩手勢的分割圖像與膚色分割圖像進行運算,圖像中均為白點的區(qū)域判定為白點,其余區(qū)域判定為黑點,對得到的手勢圖像進行腐蝕,去掉圖像中的噪點,得到手勢圖像如圖9所示。

2 手勢歸一化

由于多目標手勢距離攝像頭的距離不同,采集到的樣本圖像與手勢庫中的手勢圖像大小不一致,因此需要對圖9得到的手勢分割圖像進行歸一化處理。

(1) 首先通過形態(tài)學中的腐蝕操作來獲取手勢區(qū)域的中心點。手勢區(qū)域中面積最大的部分為手掌區(qū)域,并且像素點最為集中,因此可以通過進行連續(xù)性的腐蝕操作[6]來消除手勢區(qū)域的邊界點,使得手勢區(qū)域逐漸縮小,最終得到兩手勢區(qū)域的中心點和如圖10所示。

(2) 計算兩手勢區(qū)域中心點到手勢邊緣區(qū)域的最大值和對手勢區(qū)域進行正方形分割,分割的正方形區(qū)域中心為兩手勢區(qū)域的中心點,正方形的邊長分別為和。假設手勢數(shù)據(jù)庫中已歸一化的手勢樣本圖像邊長為計算兩手勢樣本的縮放系數(shù)和對兩手勢圖像進行縮放,得到的歸一化手勢圖像如圖11所示。

3 稀疏表示分類

本文采用稀疏表示進行手勢的分類識別,該方法具有良好的魯棒性[7]。該方法的基本思想是將所有的手勢樣本圖像構建成一個冗余字典,通過尋找待識別的手勢圖像樣本在冗余字典中的稀疏表示,將手勢識別問題轉(zhuǎn)換為稀疏表示問題,并運用壓縮感知理論的方法進行求解,得到手勢樣本的所屬類別。

假設是一個由手勢圖像得到的維向量,字典是一個由類訓練樣本,每類訓練樣本中含有個維手勢向量構成的手勢字典,表示為:

式中:表示第類手勢圖像中的第個訓練樣本,因此向量就可以用字典中的元素進行線性表示,可得:

式中:為的表示系數(shù)。

若字典中的原子能夠張成維歐式距離空間那么字典就是完備的。當時,如果中的原子是線性相關的,那么就是冗余的。假如集合同時滿足完備和冗余的條件,那么集合就是超完備的。

一般采用范數(shù)表示這種稀疏性,滿足以下表達式:

式中:是由組成的向量,表示中非零系數(shù)的個數(shù)。

由于公式是一個NP難問題,無法直接進行求解,文獻[8]證明該公式的范數(shù)與范數(shù)是等價的,因此可以將范數(shù)轉(zhuǎn)變成最小化范數(shù)問題,即:

通過基追蹤算法求解公式的范數(shù)解,得到待測手勢樣本的稀疏表示系數(shù)再計算每類訓練樣本的重構圖像與待測樣本的殘差:

通常情況下,在待測樣本的稀疏表示系數(shù)中,除了其所屬類別的系數(shù)為非零外,其余系數(shù)均為零。因此,通過尋找待測樣本與每類訓練樣本重構圖像間殘差的最小值就可以判定待測手勢樣本的所屬類別為殘差最小值對應的所屬類別。

4 算法仿真及結果分析

由于目前還沒有深度手勢圖像數(shù)據(jù)庫,因此本文采用Thomas Moeslund手勢數(shù)據(jù)庫作為本文的實驗數(shù)據(jù)庫。該手勢數(shù)據(jù)庫中含有25個基本手勢,其中19種手勢含有100張樣本圖像,5種手勢含有40張樣本圖像,1種手勢含有60張樣本圖像,圖像大小為。通過對Thomas Moeslund手勢數(shù)據(jù)庫中的樣本圖像進行灰度閾值分割和手勢歸一化,得到二值化的手勢樣本數(shù)據(jù)庫,圖像大小為,如圖12所示。

本次實驗選取手勢樣本數(shù)據(jù)庫中的19種手勢,每種手勢選取100張圖像作為訓練樣本。通過Kinect獲取19種手勢待測樣本的深度圖像及其對應的RGB圖像,每種手勢各采集50張深度圖像及其對應的RGB圖像。而后隨機選取10種手勢進行實驗,每種手勢分別進行50次,共計500次測試。為了增加實驗對比性,本次實驗加入支持向量機的方法(SVM)進行了相同的測試,實驗結果如表1所示。

從兩種算法的識別率中可以看出,4種手勢的識別率為100%,4種手勢的識別率為98%,2種手勢的識別率在98%以下。由于非特定人物對手勢的表達有所差異,因此會造成手勢識別過程中產(chǎn)生錯誤。但從整體上看,手勢的平均識別率為98.2%,而支持向量機的平均識別率為88.8%,證明了本文算法的有效性。

從兩種算法的運行時間中可以看出,本文算法的平均運行時間為0.032 4 s,由于前期需要對待測樣本的深度圖像和RGB圖像進行手勢分割和歸一化,因而延長了算法的運行時間。但后期采用稀疏表示進行分類識別時,采用的是手勢分割圖像,圖像大小為148×148。與原圖相比,較大幅度地減小了需要處理的樣本數(shù)據(jù)量,在一定程度上減少了算法的運行時間和對系統(tǒng)硬件的需求。經(jīng)典的SVM算法的平均運行時間為0.053 2 s,本文算法的運行時間為SVM算法的60.9%,證明了本文算法的實時性。

5 結 語

本文根據(jù)復雜背景下的多目標手勢識別存在的難點,綜合利用人的膚色信息和深度圖像信息進行手勢分割,解決了多目標手勢在復雜背景下的手勢分割難度較大的問題,而后利用歸一化后的訓練樣本圖像構造冗余字典,采用稀疏表示的方法進行分類識別,提升了本文算法的運行效率。通過仿真實驗可以看出,本文算法的識別率較高,實時性較好,對系統(tǒng)的硬件需求較低,具有良好的識別性能。

參考文獻

[1] 陳皓,路海明.基于深度圖像的手勢識別綜述[J].內(nèi)蒙古大學學報,2014,45(1):105?111.

[2] 曹雛清,李瑞峰,趙立軍.基于深度圖像技術的手勢識別方法[J].計算機工程,2012,38(8):16?21.

[3] 張勤.基于稀疏表示的手勢識別研究[D].西安:西北大學,2013.

[4] 皮志明.結合深度信息的圖像分割算法研究[D].合肥:中國科學技術大學,2013.

[5] 王松林.基于Kinect的手勢識別與機器人控制技術研究[D].北京:北京交通大學,2014.

[6] 藍章禮,李益才.數(shù)字圖像處理與圖像通信[M].北京:清華大學出版社,2009.

[7] WRIGHT J, GANESH A, YANG A, et al. Robust face recognition via sparse representation [J]. IEEE transactions on pattern analysis and machine intelligence, 2009, 31(2): 210?227.

[8] 謝志鵬.迭代式正交匹配追蹤及稀疏解[J].微電子學與計算機,2009,26(10):53?56.

主站蜘蛛池模板: 无码一区18禁| 一本大道在线一本久道| 欧美a在线看| 手机精品视频在线观看免费| 欧洲精品视频在线观看| 国产裸舞福利在线视频合集| 99这里只有精品免费视频| 韩日午夜在线资源一区二区| 丁香亚洲综合五月天婷婷| 亚洲国产综合自在线另类| 在线播放国产99re| 亚洲综合中文字幕国产精品欧美| 国产精品久久久久鬼色| 欧美a在线视频| 91系列在线观看| 在线不卡免费视频| 国产美女精品在线| 香蕉eeww99国产精选播放| 亚洲人成网站色7777| 一区二区影院| 日韩无码黄色| 国产在线拍偷自揄观看视频网站| 欧美有码在线观看| 国产白浆在线观看| 欧美一级夜夜爽www| 国产精品免费久久久久影院无码| 91久草视频| 91成人在线观看| 国产成人精品男人的天堂| 伊人国产无码高清视频| 国产91透明丝袜美腿在线| 国产又黄又硬又粗| 国产女人综合久久精品视| 亚洲精品在线影院| 国产欧美精品午夜在线播放| 欧美福利在线播放| 欧美乱妇高清无乱码免费| 中文字幕免费在线视频| 99热这里只有成人精品国产| 亚洲欧洲日韩久久狠狠爱| 亚洲精品777| 亚洲中文字幕在线精品一区| 亚洲AV电影不卡在线观看| 在线免费看片a| 伊人激情综合网| 亚洲欧美日韩精品专区| 亚洲国产中文综合专区在| 天天摸夜夜操| 欧美日韩资源| 亚洲成av人无码综合在线观看| 午夜性刺激在线观看免费| 日韩无码真实干出血视频| 日本成人精品视频| 亚洲国产综合精品一区| 国产精品播放| 日韩中文精品亚洲第三区| 欧美日韩午夜| 欧美精品亚洲精品日韩专区va| 91在线一9|永久视频在线| 99国产在线视频| 亚洲高清免费在线观看| 91在线精品麻豆欧美在线| 国产91小视频| 日本欧美午夜| 欧美激情二区三区| 精品成人一区二区三区电影| 国产男女XX00免费观看| 国产1区2区在线观看| 国产乱子精品一区二区在线观看| 国产精品对白刺激| AⅤ色综合久久天堂AV色综合| 国产农村1级毛片| 国产男女免费视频| 69视频国产| 精品一区二区无码av| 欧美专区日韩专区| 四虎成人精品在永久免费| 99热这里只有精品2| a亚洲视频| 99在线视频网站| 欧洲熟妇精品视频| 久久a级片|