999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

仿真假體視覺下基于深度圖像的手勢識別研究

2019-08-23 05:34:47趙瑛王冬暉李琦于愛萍谷宇
現代電子技術 2019年16期

趙瑛 王冬暉 李琦 于愛萍 谷宇

摘? 要: 針對仿真假體視覺下彩色圖像和深度圖像對于手勢識別的不同效果,研究使用Kinect獲取彩色圖像以及深度圖像進行手勢識別。通過Kinect提取的骨骼信息與提取的深度圖像結合,將人體與背景圖像分離,對OpenCV庫分離后的圖像進行降噪,并進行像素化處理。在不同分辨率(32×32,48×48,64×64)下進行彩色圖像和深度圖像的手勢識別實驗。實驗結果表明,隨著分辨率的增加,手勢識別的準確率也不斷增加。同一分辨率下,深度圖像下的手勢識別率總體高于彩色圖像下的手勢識別率,且在32×32分辨率下,二者差異顯著。

關鍵詞: 視覺假體; 手勢識別; 深度圖像; 骨骼信息; 圖像降噪; 像素化處理

中圖分類號: TN911.73?34; TP301.6? ? ? ? ? ? ? ? ? 文獻標識碼: A? ? ? ? ? ? ? ? ?文章編號: 1004?373X(2019)16?0131?05

0? 引? 言

人類獲取外界信息大部分依靠眼睛,視覺通路的任何一部分受損或病變都會導致失明[1]。對于視力殘疾者而言,視覺的部分或者全部喪失對于他們的日常生活都有著無法言說的痛苦。然而,視覺假體能夠為如視網膜色素變性(Retinitis Pigmentosa, RP)和老年黃斑變性(Age?related Macular Degeneration, AMD)等眼類疾病提供一種可行性的視覺代替方案,為盲人重見光明帶來希望[2]。

視覺假體利用盲人殘存的部分完整且結構和功能完好的視覺通路,通過人工進行電刺激誘發“光幻視”使盲人產生部分視覺感受[3]。目前研究主要集中在人工視網膜的設計,被植入的位置更臨近于中央視覺區引起視覺感知的中央凹,而最有效的配置電極的位置和數量仍然是未知的;并且,植入人體刺激電極的數量需要嚴格限制,需要確定以最小視覺需求實現有用的人工視覺圖像識別[4]。所以,通過正常視力的被試者參與仿真假體視覺下的實驗來評估所給電極陣列的潛在益處能夠為臨床研究提供有益的幫助。同時,從心理物理學和行為學研究方式上來看,對于假體植入者而言,假體需要滿足其最基本的生活需求,比如辨物、尋路、避障、文字閱讀等,手勢識別則屬于此類基本需求之一。仿真假體視覺下的手勢識別有利于模擬假體植入者的視覺感受。

手勢識別經歷了不同的發展階段,最初的識別研究主要通過人手佩戴特有的硬件設備,如數據手套來獲取人的手部位置、伸展情況等信息,從而進行手勢定位、跟蹤與識別[5]。目前,手勢識別[6?7]主要使用的是基于計算機視覺[8]的方法,即直接利用攝像機等圖像采集設備采集手勢,通過對采集的圖像或視頻處理進而獲得手勢并對其進行識別。普通彩色攝像頭在家庭生活中的普及,使得基于彩色圖像的手勢識別得到了較大發展,并取得了許多很好的研究成果。但由于彩色圖像[9]易受光照強度、色度大小以及陰影環境等因素的影響,且采集的圖像所處環境一般較復雜,因此手勢的分割[10]及特征提取是識別靜態手勢的難點。隨著攝像技術的發展,3D攝像頭通過計算光的飛行時間獲取物體深度信息。而物體深度信息,可以方便地將場景進行前景與背景分離,在人手定位與追蹤方面有一定的優勢。微軟公司研發了一款體感外接設備Kinect[11?12],它能同時獲取彩色圖像和深度圖像,其中深度圖像包含物體在空間的三維信息,且不易受到其他干擾因素的影響,很好地解決了彩色圖像在計算機視覺研究中的一些問題。陳建軍基于Kinect獲取的深度信息進行手勢分割[13],然后利用動態時間規整算法(DTW)[14?15]并結合靜態手勢的識別,提出來一種動態手勢識別方法。毛雁明等人基于手勢深度圖,提出一種新的手勢識別方法——掃描線法[16]。

本文主要通過Kinect獲取深度圖像,進行仿真假體視覺下的手勢識別試驗,探討了仿真假體視覺下基于彩色圖像和基于深度圖像的手勢識別情況。

1? 深度圖像及骨骼圖像獲取與處理

1.1? 深度圖像及骨骼圖像獲取

Kinect V2采用了Time of Flight(TOF)技術[17],基本原理是通過連續發射光脈沖(一般為不可見光)到被觀測物體上,然后接收從物體反射回去的光脈沖,通過探測光脈沖的飛行(往返)時間來計算被測物體離相機的距離。

Kinect V2通過從投射的紅外線脈沖發射和接收的時間差來獲得深度信息。脈沖調制方案的照射光源一般采用方波脈沖調制,以利于數字電路的實現。

相機上的控制單元先打開光源后再關閉,發出一個光脈沖。與此同時,控制單元相繼打開和關閉接收端的電子快門,接收端接收到的電荷被存儲在感光元件中。然后,控制單元再次打開和關閉光源。這次快門在光源被關閉的時間點打開,新接收到的電荷也被存儲起來。

由于單個光脈沖的持續時間十分短暫,該過程會重復幾千次,直到達到曝光時間。然后讀出感光傳感器中的值,根據這些值來計算實際距離。記光的速度為c,光脈沖的持續時間為tp,較早的快門收集的電荷為S0,延遲的快門收集的電荷為S1,那么距離d可以表示為:

[d=c2·tp·S1S0+S1] (1)

Kinect V2將偵測到的3D深度圖像轉換到骨架追蹤系統[18]。骨骼追蹤技術通過處理深度數據來建立人體各個關節(在Kinect中使用25個關節點)的坐標,骨骼追蹤能夠確定人體的各個部位,如頭部、手、身體等,還能確定他們所在的位置。

被試的各關節點位置用(x,y,z)坐標表示,且骨架空間坐標的坐標單位是m。坐標軸x,y,z對應深度感應器實體的空間x,y,z坐標軸。坐標系屬于右手螺旋系,Kinect感應器處于原點上,z坐標軸則與Kinect感應的朝向一致;y軸正半軸向上延伸,x軸正半軸(從Kinect感應器的視角來看)向左延伸,如圖1所示。為了方便討論,稱這些坐標的表述為骨架空間(坐標)。

1.2? 手勢圖像處理

本文主要通過將Kinect獲取的3D深度圖像轉換到Kinect骨架追蹤系統,從而生成對應的骨骼圖像后與深度圖像結合,從而實現人體與背景分離。然后使用開源計算機視覺庫OpenCV對分離了背景之后的圖像進行二值化處理、降噪處理以及像素化處理后,生成像素化圖像,供被試識別。具體流程如圖2所示。

2? 實驗過程

2.1? 被試的選取

被試為來自內蒙古科技大學的學生志愿者,年齡范圍為20~25歲,實驗共有20位被試,男女比例為1∶1。所有的被試視力或矯正后視力正常,母語均為漢語。實驗進行前,所有被試需了解實驗目的及過程,并承諾認真完成實驗。正式實驗前,被試需要在實驗員的指導下對環境進行適應和熟悉,并且在理解實驗內容后開始實驗。在此期間,實驗員將會對被試進行實驗解說。

2.2? 實驗設備及方法

實驗設備由一臺戴爾電腦、網絡攝像頭以及待識別視頻組成。本實驗中,20名被試分別進行分辨率由低到高(32×32,48×48,64×64三種分辨率)的手勢識別實驗,考察被試在手勢識別過程中的識別準確率等實驗標準。實驗在一間沒有噪音干擾、光線良好的實驗室中進行,實驗前確保被試者不受外界干擾,保持放松。

2.3? 實驗素材庫構建

構建實驗素材庫,選取共計36個手勢姿勢。其中包括0~9十個數字手勢姿勢,A~Z二十六個字母手勢姿勢。實驗員在錄制視頻時手部位置應位于Kinect攝像頭50 cm以外,同時避免其他因素的干擾。由于數字手勢需要被試直接認識告知實驗員其看到的數字即可,故數字手勢0~9十個數字在同一視頻內,每個數字出現時間約為5 s。字母手勢則需要被試辨認并擺出相應的手勢,故字母手勢A~Z二十六個字母每個字母出現時間約為15 s,且為了避免視覺疲勞,每個字母手勢單獨錄制。視頻分別在彩色圖像和深度圖像下采用32×32,48×48,64×64三個分辨率進行錄制。

2.4? 實驗步驟

2.4.1? 0~9數字手勢識別

首先,被試需要進行訓練,能夠清楚地認知手勢0~9的正確擺法;其次,經由實驗員講解,被試應對像素化后的手部位置有所判斷。在此之后開始進行正式試驗。

實驗員選取32×32分辨率的彩色圖像數字視頻。視頻包括經由像素化處理后的0~9十個數字,且這10個數字是隨機選取的且不重復。被試通過在視頻播放過程中出現的數字識別并告知實驗員,實驗員記錄實驗數據。其次,只改變分辨率,其余條件與第一次實驗一致,在48×48,64×64分辨率的情況下進行實驗。最后,采用深度圖像數字視頻,實驗條件與第一次實驗完全相同,分別在32×32,48×48,64×64的分辨率下進行實驗。

2.4.2? A~Z字母手勢識別

本實驗中判斷被試是否辨認出手勢的方法是讓被試做出自己所能看到的手勢,如果與手勢庫中的相同就算識別正確,反之,與其不同或者是被試自己表示無法辨認出來就算辨認失敗。先選取一張正常字母手勢圖像由被試識別并能夠自己做出自己所看到的手勢。在此之后進行正式試驗,首先,實驗員選取32×32分辨率的彩色圖像字母視頻。視頻包括經由像素化處理后的A~Z二十六個字母,這26個字母是隨機選取的且不重復。被試通過識別在視頻播放過程中出現的字母并做出自己看到的手勢。實驗員判斷被試做出的手勢正誤,并記錄。其次,采用32×32分辨率的深度圖像字母視頻進行實驗,其余條件與第一次實驗一致。最后,在48×48,64×64分辨率的情況下進行實驗,其余條件與第一次實驗一致。為了避免學習效應,在字母識別中,同一分辨率下的彩色圖像視頻與深度圖像視頻先給被試觀看的次序是交替的,即有10組被試先看彩色圖像視頻,10組被試先看深度圖像視頻。

3? 實驗結果及討論

3.1? 不同分辨率下手勢識別率分析

圖3顯示了不同分辨率下彩色圖像和深度圖像數字手勢識別率。由圖可以看出,經由彩色圖像和深度圖像生成的像素化手勢圖像的識別率隨著分辨率的提高而提高。其中,數字手勢圖像在48×48,64×64兩種分辨率下的識別率幾乎接近于100%;識別率較低的數字有7和9,這兩個數字在一定程度上會被誤認為0和1。且由獨立樣本t檢驗得知不同分辨率之間不具有顯著性差異。

圖4為64×64分辨率下基于深度圖像生成的像素化數字圖像。由圖可以看出,數字0幾乎為全握拳狀態,數字7屬于半握拳狀態,數字7易被認為數字0;數字1和數字9的差別在于數字9的食指是彎回的,不仔細辨認很容易誤認為數字1。

圖5顯示了不同分辨率下彩色圖像和深度圖像字母手勢識別率。由圖可以看出,經由彩色圖像和深度圖像生成的像素化手勢圖像的識別率隨著分辨率的提高而提高。其中,字母手勢圖像在64×64分辨率下的識別率幾乎接近于100%;識別率較低的字母有K,Q,X;幾乎不可辨認的有字母M,N。

如圖6a)、圖6b)所示,二者分別為32×32分辨率下基于深度圖像生成的像素化字母圖像。由圖可以判斷該分辨率下T和V都是有兩根手指處于伸直狀態,字母T較為容易認出是食指和小指處于伸直狀態;而字母V則容易判斷為是食指和中指或者食指和無名指處于伸直狀態,甚至會和字母T混淆;圖6c)、圖6d)二者分別為64×64分辨率下基于深度圖像生成的像素化字母圖像,兩幅圖可以清楚地辨認出字母T和V的手勢。

3.2? 同一分辨率下彩色圖像與深度圖像手勢識別率分析

圖7為同一分辨率下彩色圖像與深度圖像數字識別率對比,由圖像可以直接看出同一分辨率下深度圖像數字識別率要高于彩色圖像數字識別率。32×32 分辨率下,采用成對樣本t檢驗,求得sig=0.028

圖8為同一分辨率下彩色圖像與深度圖像字母識別率對比,由圖像可以直接看出同一分辨率下深度圖像數字識別率要高于彩色圖像數字識別率。32×32 分辨率下,采用成對樣本t檢驗,求得sig=0.00

4? 結? 語

隨著分辨率的不斷增加,仿真假體視覺下彩色圖像和深度圖像的手勢識別率隨分辨率增加而逐漸增加,且從32×32 到48×48增長速度較快,從48×48到64×64增長速度略微緩慢。在32×32分辨率下,彩色圖像和深度圖像下的手勢識別率具有顯著性差異。隨著分辨率的增加,像素化后的手勢圖像信息更為清晰,此時二者之間的差異并不顯著。

對于仿真假體視覺下手勢識別的研究,由于獲取的圖像僅進行了人體與背景分離,當人體與手部位置重合時容易造成手部信息缺失,從而無法正確識別手勢。當手指相互貼合時可能會造成識別誤差,無法正確區分手指所屬部位。在之后的研究過程中,進一步改善仿真假體視覺下手勢的細節信息,并且通過對深度圖像灰度級的進一步分層,同時通過骨骼圖的關節點實現人體與手部分離,使呈現的圖像只具有手部特征從而更容易識別手勢。這些將在后續的工作中進一步探究。本研究的結果也可為仿真假體視覺下連續手語的識別提供一種可行方案。

參考文獻

[1] 李春勇.CFH,C2,C3,CFB,SERPING1基因與老年黃斑變性相關性的研究[D].成都:四川師范大學,2010.

LI Chunyong. CFH, C2, C3, CFB, SERPING1 Study on the relationship between genes and age?related macular degeneration [D]. Chengdu: Sichuan Normal University, 2010.

[2] KAWASHIMA Y, OISHI A, TSUJIKAWA A, et al. Effects of afliberceptfor ranibizumab?resistant neovascular age?related macular degeneration and polypoidal choroidal vasculopathy [J]. Graefes archive for clinical & experimental ophthalmology, 2015, 253(9): 1471?1477.

[3] 趙瑛.視覺假體最小信息需求研究[D].上海:上海交通大學,2010.

ZHAO Ying. Minimum requirements for visual prosthesis to restore useful vision [D]. Shanghai: Shanghai Jiao Tong University, 2010.

[4] MAYNARD E M. Visual prostheses [J]. Annual review of biomedical engineering, 2001, 3: 145?168.

[5] 陳皓,路海明.基于深度圖像的手勢識別綜述[J].內蒙古大學學報(自然科學版),2014(1):105?111.

CHEN Hao, LU Haiming. A survey of gesture recognition based on depth image [J]. Journal of Inner Mongolia University (Natural science edition), 2014(1): 105?111.

[6] 于澤升,崔文華,史添瑋.基于Kinect手勢識別的應用與研究[J].計算機科學,2016(z2):568?571.

YU Zesheng, CUI Wenhua, SHI Tianwei. Application and research on gesture recognition by kinect sensors [J]. Computer science, 2016(S2): 568?571.

[7] 崔家禮,解威,王一丁,等.基于自適應手指分割與判別的靜態手勢識別[J].計算機應用與軟件,2016(10):181?186.

CUI Jiali, XIE Wei, WANG Yiding, et al. Static gesture recognition based on adaptive segmentation and discrimination offingers [J]. Computer? applications and software, 2016(10): 181?186.

[8] 關然,徐向民,羅雅愉,等.基于計算機視覺的手勢檢測識別技術[J].計算機應用與軟件,2013(1):155?159.

GUAN Ran, XU Xiangmin, LUO Yayu,et al. A Computer vision?based gesture detection and recognition technique [J]. Computer applications and software, 2013(1): 155?159.

[9] 康曉東,王昊,郭軍,等.無監督深度學習彩色圖像識別方法[J].計算機應用,2015(9):2636?2639.

KANG Xiaodong, WANG Hao, GUO Jun, et al. Unsupervised deep learning method for color image recognition [J]. Journal of computer applications, 2015(9): 2636?2639.

[10] 莫舒.基于視覺的手勢分割算法的研究[D].廣州:華南理工大學,2012.

MO Shu. Hand gesture segmentation algorithm basedonvision [D]. Guangzhou: South China University of Technology, 2012.

[11] 王松林.基于Kinect的手勢識別與機器人控制技術研究[D].北京:北京交通大學,2014.

WANG Songlin. Research on gesture recognition and robot control technology based on Kinect [D]. Beijing: Beijing Jiaotong University, 2014.

[12] 陳一新.基于Kinect的手勢識別技術在人機交互中 的應用研究[D].成都:西南交通大學,2015.

CHEN Yixin. Research on the application of gesture recognition technology based on Kinect in human?computer interaction [D]. Chengdu: Southwest Jiaotong University, 2015.

[13] 陳建軍.基于Kinect手勢識別的網頁控制軟件設計[D].太原:太原理工大學,2015.

CHEN Jianjun. Design of Web control software based on Kinect gesture recognition [D]. Taiyuan: Taiyuan University of Technology, 2015.

[14] 劉賢梅,趙丹,郝愛民.基于優化的DTW算法的人體運動數檢索[J].模式識別與人工智能,2012,25(2):352?360.

LIU Xianmei, ZHAO Dan, HAO Aimin. Human motion data retrieval based on dynamic time warping optimization algorithm [J]. Pattern recognition and artificial intelligence, 2012, 25(2): 352?360.

[15] 余超,關勝曉.基于TLD和DTW的動態手勢跟蹤識[J].計算機系統應用,2015,24(10):148?154.

YU Chao, GUAN Shengxiao. Dynamic hand gesture tracking and recognition based on TLD and DTW [J]. Computer systems & applications, 2015, 24(10): 148?154.

[16] 毛雁明,章立亮.基于Kinect深度信息的手勢分割與識別[J].系統仿真學報,2015,27(4):830?835.

MAO Yanming, ZHANG Liliang. Gesture segmentation and recognition based on Kinect depth data [J]. Journal of system simulation, 2015, 27(4): 830?835.

[17] SONG W, LE A V, YUN S, et al. Depth completion for Kinect V2 sensor [J]. Multimedia tools & applications, 2017, 76(3): 4357?4380.

[18] 丁晨,王君澤,瞿暢,等.Kinect體感交互技術及其在醫療康復領域的應用[J].中國康復理論與實踐,2013(2):136?138.

DING Chen, WANG Junze, QU Chang, et al. Kinect somatosensory interaction technology and its application in medical rehabilitation [J]. Chinese journal of rehabilitation theory and practice, 2013(2): 136?138.

主站蜘蛛池模板: 亚洲色图欧美一区| 久久香蕉国产线看观| 免费毛片全部不收费的| 亚洲国产精品无码AV| 亚洲乱码视频| 国产黄色爱视频| 国产超碰一区二区三区| 午夜无码一区二区三区| 国产中文一区二区苍井空| 国产凹凸视频在线观看| AV熟女乱| 婷婷色中文| 色综合久久综合网| 亚洲欧美日韩中文字幕一区二区三区 | 999福利激情视频| 国产小视频在线高清播放 | 亚洲精品免费网站| 国产一区二区三区免费| 多人乱p欧美在线观看| 99精品欧美一区| 在线视频亚洲色图| 国产主播在线一区| 日本91在线| 精品国产成人国产在线| 亚洲高清中文字幕在线看不卡| 亚洲V日韩V无码一区二区| 国产一级视频久久| 99在线国产| 亚洲综合色区在线播放2019| 一级黄色欧美| 亚洲视频黄| 色屁屁一区二区三区视频国产| 日本a级免费| 黄色网站在线观看无码| 色欲综合久久中文字幕网| 97国产精品视频自在拍| 精品偷拍一区二区| 特级做a爰片毛片免费69| 亚洲男人的天堂久久精品| 91九色最新地址| 一级做a爰片久久免费| 欧美亚洲国产精品久久蜜芽| 无码有码中文字幕| 亚洲制服丝袜第一页| 五月婷婷伊人网| 国产熟睡乱子伦视频网站| 免费激情网站| 97亚洲色综久久精品| 亚洲第一色网站| 免费大黄网站在线观看| 国产精品综合久久久| 国产区网址| 国产成+人+综合+亚洲欧美| 亚洲永久色| 亚洲视频免| 伊人色在线视频| 亚洲国产天堂在线观看| 欧美日韩在线成人| 日本爱爱精品一区二区| 成人年鲁鲁在线观看视频| 一级毛片不卡片免费观看| 在线观看国产精品第一区免费 | 亚洲va视频| 99久视频| 国产精选自拍| 午夜欧美在线| 91精品aⅴ无码中文字字幕蜜桃| 国产白浆在线| 日本少妇又色又爽又高潮| 高清无码不卡视频| 亚洲AⅤ综合在线欧美一区 | 国产精品极品美女自在线看免费一区二区| 亚洲一区二区日韩欧美gif| 国产精品第页| 国内精自视频品线一二区| 性喷潮久久久久久久久| 97青草最新免费精品视频| 亚洲欧洲日韩综合色天使| 国模视频一区二区| 毛片在线播放网址| 日韩a在线观看免费观看| 人妻一区二区三区无码精品一区 |