999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

手語識(shí)別研究綜述

2021-03-12 07:01:22秦夢(mèng)現(xiàn)
軟件導(dǎo)刊 2021年2期
關(guān)鍵詞:特征提取分類深度

秦夢(mèng)現(xiàn)

(河北工業(yè)大學(xué)人工智能與數(shù)據(jù)科學(xué)學(xué)院,天津 300401)

0 引言

中國是聾啞人口最多的國家,聾啞人由于聽力受損、發(fā)聲不完全等原因,只能用手語與健聽人士進(jìn)行溝通交流。手語由連續(xù)手勢(shì)動(dòng)作組成,指使用手形變化,手的位置、方向以及手臂擺動(dòng),再配以口型表達(dá)、面部動(dòng)作和一定語法規(guī)則表示特定語義,是聾啞人和外界溝通交流的一種語言。然而,聾啞人畢竟是少數(shù)群體,大部分人由于不懂手語而極大影響聾啞人在日常生活中的正常交流及生活。如何減少聾啞人溝通障礙,實(shí)現(xiàn)聾健融合是亟待解決的問題。隨著計(jì)算機(jī)技術(shù)的快速發(fā)展,自然語言處理技術(shù)正在不斷打破局限,并逐漸應(yīng)用于各相關(guān)領(lǐng)域。在語音識(shí)別方面,科大訊飛的語音識(shí)別技術(shù)可實(shí)現(xiàn)精準(zhǔn)的語音識(shí)別,為聾啞人和健聽人之間的正常溝通搭建了良好通道。將聾啞人的手語以文本或語音交互方式反饋到計(jì)算機(jī)上的技術(shù)被稱為手語識(shí)別技術(shù),該技術(shù)為聾啞人士與健聽人群的交流提供了支持,其在人機(jī)交互、手勢(shì)控制和手語教學(xué)等領(lǐng)域具有廣闊的應(yīng)用前景。

1 手語識(shí)別技術(shù)

手語識(shí)別研究是將手語通過計(jì)算機(jī)處理翻譯成文字,涉及圖像識(shí)別、自然語言處理等多個(gè)方向。手語視頻中手臂運(yùn)動(dòng)速度、手形變化及口型等信息均對(duì)計(jì)算機(jī)處理能力有較高要求。計(jì)算機(jī)視覺[1]是手語識(shí)別技術(shù)的關(guān)鍵技術(shù),其在人工智能的推動(dòng)下得到快速發(fā)展。近年來,人工智能領(lǐng)域中的深度學(xué)習(xí)受到高度關(guān)注,深度學(xué)習(xí)讓數(shù)以百計(jì)的實(shí)際問題得到了更好解決,已廣泛應(yīng)用于自然語言處理、人機(jī)交互等領(lǐng)域。隨著數(shù)據(jù)的增長和計(jì)算能力的提高,深度神經(jīng)網(wǎng)絡(luò)中數(shù)據(jù)缺少、難以訓(xùn)練等問題正逐步得到解決。目前,以深度學(xué)習(xí)為基礎(chǔ)的計(jì)算機(jī)視覺發(fā)展最快且最成熟,其在圖像分類[2]如人臉識(shí)別[3]等領(lǐng)域已具有極大優(yōu)勢(shì),在其它方面,比如人體行為檢測(cè)、無人駕駛等領(lǐng)域也有了快速發(fā)展。計(jì)算機(jī)視覺技術(shù)應(yīng)用廣泛,能夠幫助聾啞人更好地融入社會(huì)、認(rèn)識(shí)并了解世界。

2 手語識(shí)別研究現(xiàn)狀

隨著計(jì)算機(jī)技術(shù)和人工智能的不斷發(fā)展,手語識(shí)別在國內(nèi)外受到了越來越多的關(guān)注[4]。手語識(shí)別方法根據(jù)特征處理方式可分為兩類:基于傳統(tǒng)方法的手語識(shí)別[5]和基于深度學(xué)習(xí)的手語識(shí)別[6]方法。

2.1 基于傳統(tǒng)方法的手語識(shí)別

基于傳統(tǒng)方法的手語識(shí)別算法涉及4 個(gè)階段:圖像預(yù)處理、手部分割、特征提取和分類識(shí)別。圖像預(yù)處理是為了減小噪聲等因素影響;手部分割是對(duì)手語演示過程中的感興趣區(qū)域進(jìn)行定位;特征提取是對(duì)能夠表達(dá)手語信息的關(guān)鍵點(diǎn)進(jìn)行采集;識(shí)別是根據(jù)提取的特征訓(xùn)練一個(gè)分類器,以便對(duì)后續(xù)輸入的特征映射到事先設(shè)定好的分類中。其中,特征提取和分類識(shí)別是手語識(shí)別算法的核心關(guān)鍵(見圖1)。

Fig.1 Sign language recognition process based on the traditional method圖1 基于傳統(tǒng)方法的手語識(shí)別流程

2.1.1 圖像預(yù)處理與手部分割

采集到的原始圖像中存在大量噪聲,因此需對(duì)圖像進(jìn)行預(yù)處理以減少噪聲干擾,使其突出肢體運(yùn)動(dòng)區(qū)域信息。Pansare 等[7]首先將輸入圖像閾值化為二值圖像,然后采用高斯濾波對(duì)圖像中的每一個(gè)像素點(diǎn)進(jìn)行卷積計(jì)算,并加入到原始圖像中進(jìn)行噪聲點(diǎn)覆蓋。但這會(huì)造成圖像中的像素點(diǎn)與周圍像素點(diǎn)相似,降低圖像清晰度。因此,Rao 等[8]采用索貝爾算子進(jìn)行邊緣計(jì)算,對(duì)肢體部分進(jìn)行邊緣銳化,增強(qiáng)圖像關(guān)鍵信息。

分割目的是將手語圖像分割成感興趣區(qū)域和其它區(qū)域,并將感興趣區(qū)域從圖像中分離出來。手語圖像由于膚色和背景存在差異,因此一般采用膚色分割獲得手部這一感興趣區(qū)域。例如,Chen 等[9]在RGB 色彩空間中,使用R>G>B 的規(guī)則進(jìn)行膚色選擇定位,將得到的區(qū)域與預(yù)先存儲(chǔ)的樣本膚色匹配,以找到手部區(qū)域并將其分離。

2.1.2 特征提取

特征是對(duì)輸入圖像中的關(guān)鍵信息進(jìn)行描述,為了方便算法對(duì)圖像數(shù)據(jù)的處理,將圖像轉(zhuǎn)換成緊湊的特征向量集。在手語識(shí)別研究中,一般采用針對(duì)圖像空間外觀特征(肢體的輪廓、顏色、紋理、運(yùn)動(dòng)方向)的方法進(jìn)行數(shù)據(jù)建模。如Huong 等[10]使用主成分分析(Principal Components Analysis,PCA)對(duì)25 個(gè)手語類別特征進(jìn)行降維,以加快對(duì)樣本有價(jià)值信息的處理速度,找到肢體運(yùn)動(dòng)的關(guān)鍵特征,達(dá)到91.5%的準(zhǔn)確度。但是,使用PCA 進(jìn)行線性降維后,樣本間的非線性相關(guān)性很可能丟失,導(dǎo)致識(shí)別結(jié)果降低。Harwat 等[11]利用二維圖像提取手勢(shì),通過尺度不變特征轉(zhuǎn)換(Scale-Invariant Feature Transform,SIFT)對(duì)手部特征點(diǎn)進(jìn)行有效的特征提取,獲得手的形狀、方向等信息,形成對(duì)手部這一局部圖像的描述,提升算法魯棒性。

2.1.3 分類識(shí)別

分類的主要作用是將樣本數(shù)據(jù)中提取的特征映射到與其對(duì)應(yīng)的類別中,這是整個(gè)手語識(shí)別模型中的最后一步。根據(jù)識(shí)別圖像種類不同,可以分為靜態(tài)手語和動(dòng)態(tài)手語兩類。靜態(tài)手語識(shí)別的是單幀圖像,不涉及時(shí)間框架。KNN 是常用的分類方法,其核心思想是尋找訓(xùn)練樣本中與其距離最短的K 個(gè)樣本。如Gupta 等[12]將KNN 用于對(duì)每26 個(gè)手勢(shì)的30 張測(cè)試圖像進(jìn)行分類,總體精度最高達(dá)90%。與靜態(tài)手語分類不同,動(dòng)態(tài)手語分類增加了時(shí)間維度。HMM 由于能夠?qū)R手語幀并計(jì)算相似性而被廣泛應(yīng)用,方高林等[13]將自組織映射的強(qiáng)大提取能力和HMM 良好的處理時(shí)間序列屬性相結(jié)合,實(shí)現(xiàn)非特定人群手語識(shí)別,實(shí)驗(yàn)結(jié)果表明,該方法比傳統(tǒng)HMM 識(shí)別率高5%。

綜上所述,基于傳統(tǒng)方法的手語識(shí)別需根據(jù)經(jīng)驗(yàn)知識(shí)設(shè)計(jì)和提取區(qū)分度較強(qiáng)的特征,尤其是在特征提取和分類識(shí)別兩個(gè)階段,需基于強(qiáng)大的理論基礎(chǔ)知識(shí)對(duì)其進(jìn)行多次實(shí)驗(yàn)驗(yàn)證。并且,傳統(tǒng)手語識(shí)別方法少,進(jìn)行手工特征提取需耗費(fèi)大量時(shí)間,且多數(shù)用于手語孤立詞[14]的識(shí)別,不具有普適性。動(dòng)態(tài)手語識(shí)別需要建立更為可靠的長期時(shí)序關(guān)聯(lián)性,這些因素導(dǎo)致手語識(shí)別發(fā)展受限。

2.2 基于深度學(xué)習(xí)的手語識(shí)別

隨著計(jì)算機(jī)性能的大幅度提升,深度學(xué)習(xí)技術(shù)逐漸興起。它能夠避免人工經(jīng)驗(yàn)特征提取的主觀性及繁瑣性,使得手語識(shí)別方向有了新的切入點(diǎn),有效提高了手語識(shí)別率。具體流程如圖2 所示。

Fig.2 Sign language recognition process based on deep learning圖2 基于深度學(xué)習(xí)的手語識(shí)別流程

2.2.1 特征提取

隨著深度學(xué)習(xí)在計(jì)算機(jī)視覺領(lǐng)域的快速發(fā)展,其在手語識(shí)別方面的運(yùn)用也得到不斷提升。在視頻特征提取方面,卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)[15]在分類、分割等視覺任務(wù)上展現(xiàn)出了強(qiáng)大的能力,尤其是三維卷積神經(jīng)網(wǎng)絡(luò)(3D Convolution Neural Network,3D-CNN)的出現(xiàn),更是促使該方法以高效率、高性能的優(yōu)點(diǎn)逐漸取代了傳統(tǒng)手工特征模型。手語信息由姿勢(shì)、運(yùn)動(dòng)軌跡、面部表情等組成,這些包含在視頻的時(shí)序信息中,3D-CNN 可以對(duì)其進(jìn)行較好提取。如Zhu 等[16]利用3D-CNN 提取視頻幀序列的時(shí)間和空間特征,充分保證特征的完整性,最終取得了較好識(shí)別效果。3D-CNN 通過構(gòu)建一個(gè)三維卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)較短時(shí)間片段上時(shí)空信息的有效學(xué)習(xí),增強(qiáng)了相鄰視頻幀間的連續(xù)性。

2.2.2 手語識(shí)別

循環(huán)卷積神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)針對(duì)提取的特征建立語言模型,將手語視頻序列翻譯成完整句子。如Ye 等[17]將3D-CNN 的全連接層和RNN 進(jìn)行融合,極大地降低了序列塊之間的信息丟失率。但是RNN 無法解決長時(shí)依賴問題,因此Xu 等[18]將提取的特征通過長短期記憶(Long Short-Term Memory,LSTM)進(jìn)行時(shí)間關(guān)系學(xué)習(xí),提高了序列時(shí)間建模準(zhǔn)確率;Cihan 等[19]在手語識(shí)別編碼和解碼階段采用門控循環(huán)單元(Gated Recurrent Unit,GRU),以更好地捕捉時(shí)間序列中時(shí)間步距離較大的依賴關(guān)系。

此外,手語識(shí)別可以看作視頻序列和文本語句序列對(duì)應(yīng)的關(guān)系任務(wù)。HMM 可以進(jìn)行連續(xù)時(shí)間學(xué)習(xí),如Koller等[20]將CNN 端到端地嵌入到HMM 中,以進(jìn)行良好的時(shí)間序列處理,但序列匹配度不高,某一隱藏狀態(tài)對(duì)之前隱藏狀態(tài)的依賴程度較大。為了解決此問題,Pu 等[21]通過(Connectionist Temporal Classification,CTC)損失建立不同手語單詞之間的依賴關(guān)系;Huang 等[22]在編解碼器中使用注意力機(jī)制,將輸入序列分配的不同權(quán)重加入到解碼階段進(jìn)行手語識(shí)別。

綜上所述,基于深度學(xué)習(xí)的手語識(shí)別利用深度學(xué)習(xí)強(qiáng)大的學(xué)習(xí)能力和擬合能力獲取更全面、更抽象的特征,突破了傳統(tǒng)手語識(shí)別方法的局限性。但大部分連續(xù)手語識(shí)別方法只注重網(wǎng)絡(luò)結(jié)構(gòu)創(chuàng)新,忽略了數(shù)據(jù)本身的優(yōu)化處理,使得模型在輸入階段丟失大量有用信息,增加了識(shí)別難度,且對(duì)序列內(nèi)部上下文間的關(guān)聯(lián)性關(guān)注度較低,導(dǎo)致序列時(shí)序關(guān)系提取不完整等問題。因此,手語識(shí)別仍然是一個(gè)需深入研究的課題。

3 結(jié)語

隨著計(jì)算機(jī)視覺領(lǐng)域的不斷發(fā)展,手語識(shí)別研究初顯成效,很多有效算法相繼被提出。但是依然存在一些不足,如輸入階段數(shù)據(jù)較為單一、特征提取到的關(guān)鍵信息較少等。如何在當(dāng)前基礎(chǔ)上進(jìn)一步優(yōu)化模型,最終實(shí)現(xiàn)實(shí)時(shí)手語識(shí)別是未來研究方向。此外,不同類型的手語數(shù)據(jù)分布不同,如何將不同的手語數(shù)據(jù)訓(xùn)練成同一分布,以更好地進(jìn)行手語識(shí)別也有待深入研究。

猜你喜歡
特征提取分類深度
分類算一算
深度理解一元一次方程
基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
電子制作(2019年15期)2019-08-27 01:12:00
分類討論求坐標(biāo)
深度觀察
深度觀察
深度觀察
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
主站蜘蛛池模板: 在线欧美国产| 丁香五月婷婷激情基地| 亚洲人成电影在线播放| 四虎永久在线| 国产主播在线一区| 国产成人精品一区二区三区| 亚洲Aⅴ无码专区在线观看q| 国产精品浪潮Av| 91青青视频| 99久久精品久久久久久婷婷| 国产你懂得| 99视频只有精品| 天天色天天操综合网| 亚洲男人的天堂久久精品| 亚洲成A人V欧美综合| 五月激激激综合网色播免费| 亚洲视频欧美不卡| 久久黄色小视频| 欧美色视频日本| 国产日韩欧美一区二区三区在线| 国产精品亚洲片在线va| 欧美激情视频一区二区三区免费| 欧美一级专区免费大片| 欧美日韩在线亚洲国产人| 色综合久久88| 欧美午夜久久| 国产精品成人一区二区不卡| 国产日韩丝袜一二三区| 91精品免费高清在线| 国产精品开放后亚洲| 国产精品网拍在线| 国产黄在线观看| 亚洲视频a| 中文字幕久久波多野结衣| 欧美日韩动态图| 亚洲天堂.com| 天堂在线www网亚洲| 亚洲国产精品日韩av专区| 美女裸体18禁网站| 人人澡人人爽欧美一区| 国产三级国产精品国产普男人| 在线a视频免费观看| 91成人在线观看视频| 国内精品视频| 午夜不卡视频| 亚洲国产成人自拍| 国产在线观看91精品| 成人午夜免费观看| 婷婷在线网站| 操国产美女| 欧美a在线视频| 久久婷婷人人澡人人爱91| 亚洲天堂伊人| 亚洲福利网址| 国产精品免费电影| 欧美va亚洲va香蕉在线| 成人国产免费| 国产制服丝袜无码视频| 日本午夜网站| 原味小视频在线www国产| 国产丝袜精品| 亚洲91精品视频| 国产91精品调教在线播放| 国产精品lululu在线观看| 激情视频综合网| 亚洲男人的天堂在线观看| 欧美一区二区啪啪| 毛片久久久| 中文字幕久久亚洲一区| 国产欧美日韩va另类在线播放| 中文字幕人成乱码熟女免费| 国产无码精品在线| 国产浮力第一页永久地址| 好久久免费视频高清| 91欧美在线| 99在线观看视频免费| 欧洲一区二区三区无码| 免费一级毛片在线观看| 特级毛片8级毛片免费观看| 精品国产免费观看一区| 免费人成网站在线高清| 欧美a在线看|