999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的手勢識(shí)別研究

2019-12-12 06:05:16沈雅婷
軟件導(dǎo)刊 2019年11期
關(guān)鍵詞:特征提取深度學(xué)習(xí)

沈雅婷

摘 要:目前一些相對(duì)成熟的手勢識(shí)別算法,如基于模板匹配的方法、基于人工神經(jīng)網(wǎng)絡(luò)的方法以及基于隱馬爾科夫模型的方法,都存在計(jì)算復(fù)雜的劣勢,而基于深度學(xué)習(xí)的手勢識(shí)別具有一定優(yōu)勢。通過深度學(xué)習(xí)提取多層網(wǎng)絡(luò)簡化的高價(jià)值易用特征,通過向量等表示,簡化算法以實(shí)現(xiàn)良好的識(shí)別效果。通過攝像頭采集室內(nèi)復(fù)雜背景下的手勢圖像,在計(jì)算能力、存儲(chǔ)能力強(qiáng)大的PC平臺(tái)通過深度學(xué)習(xí)處理圖像,提取特征,然后進(jìn)行分類識(shí)別,能提高識(shí)別準(zhǔn)確率。通過改進(jìn)硬件或算法還可提高識(shí)別效率及安全性。

關(guān)鍵詞:深度圖像;預(yù)處理;特征提取;深度學(xué)習(xí);手勢識(shí)別

0 引言

手勢是人機(jī)交互的一種重要手段,是簡單且自然的交流方式[1]。手勢識(shí)別是計(jì)算機(jī)科學(xué)和語言技術(shù)研究的主題。手勢識(shí)別可通俗解釋為通過計(jì)算機(jī)理解人體語言,無需直接接觸機(jī)械設(shè)備即可使人類和機(jī)器進(jìn)行自然交互[2]。手勢識(shí)別在人機(jī)交互智能領(lǐng)域起著重要作用,但由于其在相對(duì)復(fù)雜的環(huán)境中處理困難,因此需要探究出更加適宜的方法。

早期大多通過有線技術(shù)連接計(jì)算機(jī)系統(tǒng)和用戶,從而將用戶手勢信息準(zhǔn)確地傳送給識(shí)別系統(tǒng),完成手勢識(shí)別[3]。如數(shù)據(jù)手套通過傳感器將諸如用戶手的位置和方向數(shù)據(jù)信息發(fā)送給計(jì)算機(jī),再通過機(jī)器學(xué)習(xí)算法進(jìn)行識(shí)別。雖檢測效果良好,但穿戴過程給操作者帶來極大不便且價(jià)格昂貴[4]。此后,數(shù)據(jù)手套被光學(xué)標(biāo)記方法所取代。光學(xué)標(biāo)志放置在人手上,就可將手的位置和變化通過紅外線傳給系統(tǒng)屏幕。該方法效果良好,但仍需復(fù)雜設(shè)備。雖然外部設(shè)備干預(yù)可以提高手勢識(shí)別的準(zhǔn)確性和穩(wěn)定性,但無法實(shí)現(xiàn)手勢的自然表達(dá)。為此,自然手勢識(shí)別被針對(duì)視覺的手勢識(shí)別取而代之[5]。

許多專家學(xué)者傾向于使用深度學(xué)習(xí)研究手勢識(shí)別。視覺手勢識(shí)別(即識(shí)別自然手勢)可以使用手勢來控制或與設(shè)備交互,無需接觸設(shè)備。由視頻設(shè)備捕獲的手勢圖像序列通過計(jì)算機(jī)技術(shù)處理,該過程可以是相關(guān)的深度學(xué)習(xí)算法經(jīng)過復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)層的篩選提煉,獲取高價(jià)值的特征[6]。視覺手勢識(shí)別分割易受硬件之類的外部環(huán)境影響,導(dǎo)致通常使用的機(jī)器學(xué)習(xí)算法識(shí)別精度偏低。因此,基于深度學(xué)習(xí)的手勢識(shí)別成為熱門研究領(lǐng)域[7]。

1 視覺手勢識(shí)別與流程

手勢識(shí)別基本流程如圖1所示。

首先,通過攝像頭捕獲圖像信息流,之后進(jìn)行預(yù)處理,如過濾噪聲數(shù)據(jù)(手勢檢索和分割);然后輸入識(shí)別系統(tǒng),針對(duì)手勢特征運(yùn)用深度學(xué)習(xí)進(jìn)行特征提取;最后通過訓(xùn)練完成分類算法以及系統(tǒng)定義的人工語法進(jìn)行識(shí)別輸出[8]。

靜態(tài)手勢和動(dòng)態(tài)手勢的特征提取和分析過程不一樣,靜態(tài)手勢只需通過各種方法對(duì)圖像進(jìn)行判斷,動(dòng)態(tài)手勢是一個(gè)變化過程,是一段時(shí)間內(nèi)的動(dòng)作集合,因此系統(tǒng)需要定義動(dòng)態(tài)手勢的開始和結(jié)束時(shí)間戳。動(dòng)態(tài)手勢通過一些手段能夠成為靜態(tài)手勢 [9]。

針對(duì)視覺的手勢識(shí)別重點(diǎn)在于圖像處理,手勢的特征提取直接影響最終的識(shí)別結(jié)果(本文提及的手勢識(shí)別即針對(duì)視覺的手勢識(shí)別)[10]。傳統(tǒng)的針對(duì)視覺的手勢識(shí)別包含多種算法,如何提高手勢識(shí)別的一致性和魯棒性一直是研究重點(diǎn)[11]。

2 相關(guān)技術(shù)及發(fā)展

通過神經(jīng)網(wǎng)絡(luò)對(duì)手勢進(jìn)行識(shí)別研究較多,但由于手勢軌跡的維數(shù)較大導(dǎo)致神經(jīng)網(wǎng)絡(luò)節(jié)點(diǎn)較多,從而使整個(gè)網(wǎng)絡(luò)復(fù)雜計(jì)算量增大[12]。研究發(fā)現(xiàn)通過深度學(xué)習(xí)算法限制玻爾茲曼機(jī)對(duì)手勢軌跡進(jìn)行特征提取,進(jìn)而使用神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練識(shí)別,比單純使用神經(jīng)網(wǎng)絡(luò)算法識(shí)別率要高。

深度學(xué)習(xí)作為一種新型的機(jī)器學(xué)習(xí)算法被廣泛研究,有很多深度學(xué)習(xí)模型,如自動(dòng)編碼器、去噪聲自動(dòng)編碼器、卷積神經(jīng)網(wǎng)絡(luò)、深度信念網(wǎng)和限制玻爾茲曼機(jī)等[13]。在ASL數(shù)據(jù)集中,不管是訓(xùn)練集還是測試集,普通手勢識(shí)別算法準(zhǔn)確性都不及深度學(xué)習(xí)算法。因?yàn)樯疃饶P湍軌蛴行Ю枚鄬泳W(wǎng)絡(luò),通過層層抽象的方式深度提取輸入數(shù)據(jù)的深層特征[14]。

本文首先通過深度學(xué)習(xí)算法對(duì)手勢軌跡進(jìn)行特征提取,然后對(duì)處理后的軌跡應(yīng)用分類算法(如分類器softmax)進(jìn)行識(shí)別[15]。

詳細(xì)流程如下:①通過Kinect采集深度圖像,如MNIST、ASL數(shù)據(jù)集,可壓縮,可加密、輸入;②對(duì)圖像進(jìn)行預(yù)處理,例如噪音過濾等(手勢檢索與分割);③通過深度學(xué)習(xí)算法對(duì)傳入的手勢數(shù)據(jù)進(jìn)行高價(jià)值特征提取,數(shù)據(jù)特征可用向量等表示;④通過對(duì)樣本訓(xùn)練獲得分類器,然后通過分類器對(duì)提取后的高價(jià)值特征數(shù)據(jù)進(jìn)行分類識(shí)別[16];⑤輸出(按要求描述相應(yīng)手勢,通過相應(yīng)的描述驅(qū)動(dòng)對(duì)應(yīng)程序)。

2.1 特征提取——深度學(xué)習(xí)

特征在手勢識(shí)別建模過程中起著十分重要的作用[17]。人手特征分為基于圖像外觀的特征和基于人手模型的特征[18]。基于圖像外觀特征簡單易操作,基于人手模型特征可以識(shí)別更復(fù)雜的人手動(dòng)作,但要求是深度圖像,最終算法的準(zhǔn)確性由特征良好性決定[19]。手工選擇需要專業(yè)知識(shí)和大量時(shí)間進(jìn)行調(diào)整,十分困難,完全憑借運(yùn)氣和經(jīng)驗(yàn)[20]。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的新領(lǐng)域,深度學(xué)習(xí)構(gòu)建的模型具有多層結(jié)構(gòu),原樣本空間經(jīng)過對(duì)海量數(shù)據(jù)的訓(xùn)練逐層轉(zhuǎn)換為一個(gè)新的特征空間,從而能學(xué)習(xí)出更有用的特征。這類似于人類從原始信號(hào)的低級(jí)抽象,逐漸往高級(jí)抽象迭代,并且在高級(jí)抽象層執(zhí)行終極分類或預(yù)測,獲取高的準(zhǔn)確性 [21]。

2.1.1 深度學(xué)習(xí)基本思想

2.1.2 深度學(xué)習(xí)訓(xùn)練過程

(1)采用自下而上的無監(jiān)督學(xué)習(xí)。①逐層構(gòu)建單層神經(jīng)元;②使用wake-sleep算法對(duì)每一層進(jìn)行調(diào)整,一次僅調(diào)整一層,逐層調(diào)整。這個(gè)過程可看作是一個(gè)特征學(xué)習(xí)過程,這是與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比最大的不同[22]。

(2)自頂向下的監(jiān)督學(xué)習(xí)。將學(xué)習(xí)獲取的每層參數(shù)作為第一步,在頂部編碼層添加如Logistic回歸、SVM等分類器,然后通過對(duì)已標(biāo)記數(shù)據(jù)的監(jiān)督學(xué)習(xí),使用梯度下降法微調(diào)網(wǎng)絡(luò)參數(shù)[23]。

2.1.3 深度學(xué)習(xí)模型與方法

(1)自動(dòng)編碼器(AutoEncoder)。將input信號(hào)輸入到encoder編碼產(chǎn)生code,即輸入的表示是code,然后通過decoder解碼,如果輸出信息類似于輸入信號(hào)input(理想情況下相同),那么code是可用的[24]。因此,通過調(diào)整encoder和decoder參數(shù)以最小化重構(gòu)誤差,獲得輸入input信號(hào)的第一個(gè)表示,即code[25]。

(2)稀疏自動(dòng)編碼器(Sparse AutoEncoder)。將[L1]的Regularity約束添加到AutoEncoder上([L1]主要是將每層中的大多數(shù)節(jié)點(diǎn)約束為0,只有少數(shù)不為0),就可以得到Sparse AutoEncoder法[26]。

(3)降噪自動(dòng)編碼器(Denosing AutoEncoder)。在自動(dòng)編碼器基礎(chǔ)上,噪聲添加于訓(xùn)練數(shù)據(jù)中,自動(dòng)編碼器必須通過學(xué)習(xí)去除該噪聲獲得未被污染的輸入[32]。因此,編碼器通過學(xué)習(xí)穩(wěn)健表示輸入信號(hào),其泛化能力優(yōu)于普通編碼器。

(4)限制玻爾茲曼機(jī)(Resricted Boltzmann Machine)。假設(shè)相同層中的節(jié)點(diǎn)之間沒有鏈接,一層是可見層,即輸入數(shù)據(jù)層[v],一層是隱藏層[h]。若假設(shè)所有節(jié)點(diǎn)都是[0,1]隨機(jī)變量節(jié)點(diǎn),全概率分布[pv,h]滿足Boltzmann分布,稱為RBM[33]。

(5)深度置信網(wǎng)絡(luò)(Deep Believe Network)。由幾個(gè)RBM結(jié)構(gòu)單元組成,堆棧中每個(gè)RBM單元的可見層神經(jīng)元數(shù)量等于之前RBM單元中隱藏層神經(jīng)元數(shù)量[34]。使用輸入樣本訓(xùn)練第一層RBM單元,并使用輸出訓(xùn)練第二層RBM模型,通過堆棧增加層使模型性能得以改善。

(6)深度玻爾茲曼機(jī)(Deep Boltzmann Machine)。增加RBM隱藏層中的層數(shù)可以獲得DBM,訓(xùn)練方法是首先使用無監(jiān)督的預(yù)訓(xùn)練方法獲得初始權(quán)值,然后使用場均值算法,最后再用監(jiān)督方式進(jìn)行微調(diào)[35]。

(7)卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks)。卷積神經(jīng)網(wǎng)絡(luò)具有多層,每層通過多個(gè)二維平面組成,每個(gè)平面通過許多獨(dú)立神經(jīng)元組成,它是第一個(gè)成功訓(xùn)練多層網(wǎng)絡(luò)結(jié)構(gòu)的學(xué)習(xí)算法[36]。

2.2 不采用深度學(xué)習(xí)特征提取的手勢識(shí)別方法

手勢識(shí)別是通過分析手勢的特征判斷手勢類型的過程[37],特征的優(yōu)秀程度對(duì)手勢判斷的準(zhǔn)確性有很大影響[38]。常用的手勢識(shí)別方法有基于模板匹配的方法、基于人工神經(jīng)網(wǎng)絡(luò)的方法和基于隱馬爾科夫模型的方法[39]。上述幾種方法對(duì)比如表1所示。

3 實(shí)驗(yàn)分析

對(duì)特征提取和手勢分類相關(guān)算法的研究和改進(jìn):首先通過深度學(xué)習(xí)算法進(jìn)行高價(jià)值特征提取,數(shù)據(jù)特征可用向量等表示,然后通過傳統(tǒng)機(jī)器學(xué)習(xí)分類算法進(jìn)行手勢分類[40]。

用于實(shí)驗(yàn)的手勢圖片中,手勢通常在復(fù)雜的環(huán)境中,如各種復(fù)雜背景因素、過亮或過暗的光、或與采集設(shè)備距離不同[41]。手勢數(shù)據(jù)大小不確定,太大需壓縮,可通過H.264算法對(duì)其進(jìn)行壓縮。手勢數(shù)據(jù)可預(yù)處理,過濾噪音。實(shí)驗(yàn)數(shù)據(jù)通常是小型MNIST數(shù)據(jù)集和ASL手勢數(shù)據(jù)集,或者由Kinect在復(fù)雜室內(nèi)背景中直接拍攝RGB手勢圖像。使用Kinect通過紅外線發(fā)射與接收獲取深度圖像更好,易于手勢分割,能提高識(shí)別準(zhǔn)確度[42]。Kinect是微軟2010年推出的體感外設(shè),深度攝像頭獲取人手運(yùn)動(dòng)的視頻信息,接著分割出人手前景。由于深度圖像中的每個(gè)像素點(diǎn)的值對(duì)應(yīng)于攝像頭距離場景中點(diǎn)的深度值,因此容易分割[43]。手部分割方法包括閾值分割、像素點(diǎn)聚類、結(jié)合彩色圖像和深度圖像等[44]。要有足夠的訓(xùn)練樣本,以便能訓(xùn)練出高精準(zhǔn)度的分類器[45]。

硬件配置:建議處理器主頻達(dá)到雙核2.66GHz。深度數(shù)據(jù)采集輸入設(shè)備[46]: Kinect for XBOX360(用于PC輸入需裝驅(qū)動(dòng))或Kinect for Windows攝像頭。

安全性:建議對(duì)傳輸過程進(jìn)行加密,并可通過開源加密算法OpenSSL對(duì)壓縮數(shù)據(jù)進(jìn)行加密[47]。

4 應(yīng)用分析

隨著人工智能的不斷發(fā)展,人機(jī)交互對(duì)傳統(tǒng)接觸式交互方式提出了挑戰(zhàn),新一代交互方式將以無接觸、高效自然的交互為主流[48],目前手勢交互已成為熱門話題[49]。手勢識(shí)別增強(qiáng)了現(xiàn)有的人機(jī)交互模式,實(shí)現(xiàn)更直接、更自然、更和諧的人機(jī)對(duì)話,并將帶來新的應(yīng)用,如手語識(shí)別[50]。

5 結(jié)語

手勢識(shí)別研究進(jìn)展對(duì)交互速度的發(fā)展至關(guān)重要,改進(jìn)的手勢識(shí)別技術(shù)為人機(jī)交互提供一種新的非接觸式交互模式。運(yùn)用深度學(xué)習(xí)通過多層網(wǎng)絡(luò)結(jié)構(gòu),從Kinect獲取深度圖像,基于深度學(xué)習(xí)解決實(shí)際應(yīng)用中的手勢識(shí)別高價(jià)值特征提取問題,以及用向量等表示數(shù)據(jù)特征問題。

目前手勢識(shí)別研究仍集中在追求高精確度的算法技術(shù)層面,將來應(yīng)整合心理學(xué)和人體工程學(xué)等研究成果,提高算法性能。

參考文獻(xiàn):

[1] 張雨晨,甘俊英,余飛,等. 基于深度學(xué)習(xí)的應(yīng)急手勢識(shí)別算法研究[J]. 五邑大學(xué)學(xué)報(bào):自然科學(xué)版, 2018,132(2):57-63.

[2] BOBICK A F, WILSON A D. A state-based approach to the representation and recognition of gesture[J]. IEEE Trans Pattern Analysis & Machine Intelligence,1997,19(12):1325-1337.

[3] KOHLER M. Special topics of gesture recognition applied in intelligent home environments[C].International Gesture Workshop, 1997:285-296.

[4] 常津津,羅兵,楊銳,等. 基于深度學(xué)習(xí)的交警指揮手勢識(shí)別[J]. 五邑大學(xué)學(xué)報(bào):自然科學(xué)版, 2018,132(2):42-48,70.

[5] JIA P, HU H H, LU T, et al. Head gesture recognition for hands‐free control of an intelligent wheelchair[J]. Industrial Robot An International Journal, 2007, 34(1):60-68.

[6] 張勛, 陳亮, 胡誠,等. 一種基于深度學(xué)習(xí)的靜態(tài)手勢實(shí)時(shí)識(shí)別方法[J]. 現(xiàn)代計(jì)算機(jī), 2017(34):8-13.

[7] VILLARREAL M, FRIDMAN EA, AMENGUAL A, et al. The neural substrate of gesture recognition[J]. Neuropsychologia, 2008, 46(9):2371-2382.

[8] FROLOVA D, STERN H, BERMAN S. Most probable longest common subsequence for recognition of gesture character input[J]. IEEE Transactions on Cybernetics, 2013, 43(3):871-880.

[9] 郭雷. 手勢識(shí)別中手分割算法[J]. 軟件, 2015, 36(4):81-83.

[10] YING W X. Recognition of complex dynamic gesture based on HMM-FNN model[J]. Journal of Software,2008,19(9):2302-2312.

[11] FERRO J M, MARTINS I P, MARIANO G, et al. CT scan correlates of gesture recognition[J]. Neurol Neurosurg Psychiatry, 1983, 46(10):943-952.

[12] 郭迎,吳蘊(yùn)翔. 人工智能背景下的無人機(jī)手勢識(shí)別設(shè)計(jì)研究[J]. 科技創(chuàng)新與應(yīng)用, 2018, 242(22):44-45.

[13] TORIGE A, KONO T. Human-interface by recognition of human gesture with image processing-recognition of gesture to specify moving direction[C]. IEEE International Workshop on Robot and Human Communication,1992:105-110.

[14] 桑農(nóng),倪子涵. 復(fù)雜場景下基于R-FCN的手勢識(shí)別[J]. 華中科技大學(xué)學(xué)報(bào):自然科學(xué)版, 2017(10):54-58.

[15] NAM Y,WOHN N,LEE-KWANG H. Modeling and recognition of hand gesture using colored Petri nets[J]. IEEE Transactions on Systems, Man, and Cybernetics -Part A: Systems and Humans, 2002, 29(5):514-521.

[16] PAULRAJ M P, YAACOB S, DESA H, et al. Extraction of head and hand gesture features for recognition of sign language[C]. IEEE International Conference on Electronic Design,2008:1-6.

[17] 易生, 梁華剛, 茹鋒. 基于多列深度3D卷積神經(jīng)網(wǎng)絡(luò)的手勢識(shí)別[J]. 計(jì)算機(jī)工程, 2017, 43(8):243-248.

[18] 郭雷. 動(dòng)態(tài)手勢識(shí)別技術(shù)綜述[J]. 軟件導(dǎo)刊, 2015, 14(7):8-10.

[19] HE G F, PARK J W, KANG S K, et al. Development of gesture recognition-based serious games[C]. IEEE-EMBS International Conference on Biomedical and Health Informatics, 2012:922-925.

[20] FR?HLICH M,WACHSMUTH I. Gesture recognition of the upper limbs — from signal to symbol[C]. International Gesture Workshop on Gesture and Sign Language in Human-Computer Interaction. Springer-Verlag, 1997:173-184.

[21] FR?HLICH M, WACHSMUTH I. Gesture recognition of the upper limbs — from signal to symbol[C]. International Gesture Workshop on Gesture and Sign Language in Human-computer Interaction, 1997:173-184.

[22] RAUTARAY S S, AGRAWAL A. Design of gesture recognition system for dynamic user interface[C]. IEEE International Conference on Technology Enhanced Education, 2012:1-6.

[23] PICKERING C A. The search for a safer driver interface: a review of gesture recognition human machine interface[J]. Computing & Control Engineering Journal, 2005, 16(1):34-40.

[24] OSHITA M, MATSUNAGA T. Automatic learning of gesture recognition model using SOM and SVM[C]. International Symposium on Advances in Visual Computing,2010:751-759.

[25] VO M T, WAIBEL A. Multi-modal HCI:combination of gesture and speech recognition[C]. Human-Computer Interaction, INTERACT ‘93, IFIP TC13 International Conference on Human-Computer Interaction, 1993:69-70.

[26] KAWASHIMA M, SHIMADA A, TANIGUCHI R I. Early recognition of gesture patterns using sparse code of self-organizing map[C]. International Workshop on Advances in Self-Organizing Maps, 2009:116-123.

[27] ZHANG X, CHEN X, ZHAO Z Y, et al. Research on gesture definition and electrode placementin pattern recognition of hand gesture action SEMG[C].International Conference on Medical Biometrics, 2008:33-40.

[28] NAKAYA Y,NAKAKUKI T,HIKITA M,et al. A practical approach for recognition of hand gesture and distinction of its singularity[C].IEEE International Conference on Automation and Logistics, 2010:474-479.

[29] SCHWARTZ R L, BARRETT A M, CRUCIAN G P, et al. Dissociation of gesture and object recognition.[J]. Neurology, 1998, 50(4):1186-1188.

[30] DADGOSTAR F, SARRAFZADEH A, FAN C, et al. Modeling and recognition of gesture signals in 2d space: a comparison of nn and svm approaches[C]. IEEE International Conference on TOOLS with Artificial Intelligence, 2008:701-704.

[31] BHATT J, LOBO N D V, SHAH M, et al. Automatic recognition of baby gesture[C]. IEEE International Conference on TOOLS with Artificial Intelligence, 2003:610-615.

[32] KRIARA L, ALSUP M, CORBELLINI G, et al. RFID shakables:pairing radio-frequency identification tags with the help of gesture recognition[C]. ACM Conference on Emerging NETWORKING Experiments and Technologies, 2013:327-332.

[33] LUíS TARRATACA. The current feasibility of gesture recognition for a smartphone using J2ME[C]. ACM Symposium on Applied Computing, 2009:1642-1649.

[34] RASHID O, AL-HAMADI A, MICHAELIS B. Integration of gesture and posture recognition systems for interpreting dynamic meanings using particle filter[C]. Soft Computing and Pattern Recognition, 2011:47-50.

[35] TORIGE A, KUNO K. Human-interface by recognition of human gesture with image processing-recognition of speed change and rapid reaction on motion change[C]. IEEE International Workshop on Robot and Human Communication. 2002:250-255.

[36] YI Z, WU S H, YUAN L, et al. Applications and recognition of gesture trajectory using HMM[J]. Semiconductor Optoelectronics, 2015, 36(4):650-656.

[37] GEETHA M, MANJUSHA C, UNNIKRISHNAN P, et al. A vision based dynamic gesture recognition of indian sign language on Kinect based depth images[C]. International Conference on Emerging Trends in Communication, Control, Signal Processing & Computing Applications, 2014:1-7.

[38] TAN W, WU C, ZHAO S, et al. Recognition of dynamic hand gesture based on SCHMM model[C]. Control and Decision Conference, 2009:2478-2482.

[39] SHIMADA A, KAWASHIMA M, TANIGUCHI R I. Improvement of early recognition of gesture patterns based on a self-organizing map[J]. Artificial Life & Robotics, 2011, 16(2):198-201.

[40] STAMENOVA V, ALMEIDA Q A, BLACK S E, et al. Hemispheric differences in the production and recognition of gesture errors[J]. Brain & Cognition, 2007, 63(2):198-199.

[41] LI Z, ANTAO T, YANG L. Hand gesture recognition of sEMG based on modified kohonen network[C]. International Conference on Electronics, Communications and Control, 2011:1476-1479.

[42] ZHENG W, ZHANG D. Handbutton: gesture recognition of transceiver-free object by using wireless networks[C].IEEE International Conference on Communications, 2015:6640-6645.

[43] TAO Y, YUAN G E, WANG L. The method of gesture recognition based on moment invariants[J]. Computer Engineering, 2004, 30(18):127-129.

[44] MORIMOTO K, MIYAJIMA C, KITAOKA N, et al. Statistical segmentation and recognition of fingertip trajectories for a gesture interface[C]. International Conference on Multimodal Interfaces. 2007:54-57.

[45] TAN T D, GUO Z M. Research on location and gesture recognition of hand based on binocular stereo-vision[J]. Computer Engineering & Design, 2012, 33(1):259-264.

[46] KO Y. Hash-based early recognition of gesture patterns[J]. Artificial Life & Robotics, 2013, 17(3-4):476-482.

[47] GEETHA M, ASWATHI P V. Dynamic gesture recognition of Indian sign language considering local motion of hand using spatial location of key maximum curvature points[C]. Intelligent Computational Systems. IEEE, 2013:86-91.

[48] CHOI C, AHN J H, BYUN H. Visual recognition of aircraft marshalling signals using gesture phase analysis[C].Intelligent Vehicles Symposium. IEEE, 2008:853-858.

[49] IRTEZA K M, AHSAN S M M, DEB R C. Recognition of hand gesture using hidden Markov model[C]. International Conference on Computer and Information Technology, 2013:150-154.

[50] ZHANG H, WANG Y, DENG C. Application of gesture recognition based on simulated annealing BP neural network[C].International Conference on Electronic and Mechanical Engineering and Information Technology, 2011:178-181.

(責(zé)任編輯:杜能鋼)

猜你喜歡
特征提取深度學(xué)習(xí)
特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
Bagging RCSP腦電特征提取算法
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
軟件工程(2016年8期)2016-10-25 15:47:34
主站蜘蛛池模板: 中文字幕av无码不卡免费| 亚洲人免费视频| 青青青伊人色综合久久| 啪啪啪亚洲无码| 久久精品91麻豆| 成人免费黄色小视频| 99九九成人免费视频精品| 亚洲国产精品美女| 亚洲熟妇AV日韩熟妇在线| 性69交片免费看| 精品中文字幕一区在线| 国产本道久久一区二区三区| 亚洲五月激情网| 3344在线观看无码| 国产v精品成人免费视频71pao| 久久这里只有精品2| 国产精品久久久久鬼色| 五月激情婷婷综合| 成人在线综合| 久久久久免费看成人影片| 亚洲一道AV无码午夜福利| 精品国产电影久久九九| 日本91视频| 亚洲女同一区二区| 好吊妞欧美视频免费| 中文字幕资源站| 久久永久免费人妻精品| 欧美不卡视频一区发布| 亚洲欧洲日韩国产综合在线二区| 国产精品综合久久久 | 欧美成人怡春院在线激情| 亚洲天堂网2014| 成人午夜网址| 91亚瑟视频| 日韩高清中文字幕| 午夜高清国产拍精品| 韩国自拍偷自拍亚洲精品| 国产精品免费p区| 日韩无码视频网站| 日本精品中文字幕在线不卡| 蜜桃臀无码内射一区二区三区| 国产18在线| 成人夜夜嗨| 亚洲欧洲日产国产无码AV| 日韩福利视频导航| 婷婷亚洲天堂| 国产精品理论片| 亚洲人在线| 免费不卡在线观看av| 国产精品美人久久久久久AV| 亚洲国产av无码综合原创国产| 99成人在线观看| 午夜小视频在线| 亚洲精品高清视频| 国产精品尤物在线| av一区二区无码在线| 99久久精品免费看国产电影| 亚洲国产成人在线| 亚洲伊人天堂| 中文字幕在线日本| 青青草国产在线视频| 幺女国产一级毛片| 三区在线视频| 中文字幕有乳无码| 亚洲欧美日韩成人高清在线一区| 国产精品自在拍首页视频8 | 澳门av无码| 一区二区午夜| 日韩高清中文字幕| 狠狠做深爱婷婷久久一区| 综合色在线| 97在线免费| 亚洲码在线中文在线观看| 无码中文AⅤ在线观看| 视频一本大道香蕉久在线播放| 亚洲综合专区| 真实国产乱子伦高清| 国产色婷婷视频在线观看| 天天激情综合| 国产拍揄自揄精品视频网站| 久久五月视频| 香蕉综合在线视频91|