999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進卷積神經網絡的動態手勢識別①

2020-09-22 07:45:38付天豪于力革
計算機系統應用 2020年9期
關鍵詞:分類

付天豪,于力革

(江南大學 輕工過程先進控制教育部重點實驗室,無錫 214122)

人機交互的方式有很多種,如鼠標鍵盤交互、觸摸屏交互、語音交互、體感交互等.手勢交互作為一種新型的人機交互方式,目前已經成為人機交互的重要方式之一.人手作為身體上最靈活的器官,將它作為人機交互的方式,可以使交互更加便利、通用性能更強.

非接觸式的動態手勢交互已經被應用到體感游戲、輔助駕駛以及手語識別等領域,為人們帶來了簡潔方便的用戶體驗.但是因為手勢具有時間和空間上的多樣性和不確定性,而且人手本身也是復雜的可變形體,所以目前這種人機交互方式還處于實驗階段,理論不是很成熟,能夠識別的范圍比較小.因此,對動態手勢的識別技術研究具有重要意義.常用的動態手勢識別方法有:基于模板匹配的動態時間規整(Dynamic Time Warping,DTW)方法[1,2]和基于模式識別的隱馬爾科夫模型方法[3,4].其中,采用DTW 方法在解決大數據量、復雜手勢、組合手勢識別等問題比較其他方法處于劣勢[5];采用隱馬爾科夫模型識別手勢,該方法復雜、需要大量的訓練數據[2]并且識別總類少.由于深度學習模型具有強大的非線性建模能力,能夠表達更高層次、更加抽象的內部特征等特點,近年來深度學習被用于動態手勢識別[6,7].文獻[6]結合EgoHands 手勢數據集,改進深度卷積網絡模型中的參數和網絡結構,對深度卷積網絡模型進行訓練,得到高識別率動態手勢識別模型,識別準確率能夠達到85.9%,識別速度每秒鐘可達到16.8 幀.文獻[7]利用改進的多維卷積神經網絡提取手勢的時空特征,融合多傳感器信息并通過支持向量機實現微動手勢識別,針對多類動態手勢數據集能達到87%以上的識別準確率,并且對手勢的背景和光照都具有較好的魯棒性.目前動態手勢識別仍存在以下問題:復雜背景干擾、指尖特征點識別和定位困難、光照環境的變化[8],這些問題導致了動態手勢識別識別率低.

針對以上存在問題,提出的動態手勢軌跡特征提取方法能夠有效排除復雜背景的干擾、指尖特征點獲取和定位困難;提出的聯合CNN-Softmax-SVM 的手勢識別算法能夠對動態手勢進行有效識別,從而大大提高了動態手勢識別率.本文中的動態手勢識別系統主要流程如圖1所示.

圖1 動態手勢識別系統流程

首先在HSV 顏色空間下提取指尖貼紙坐標獲取動態指尖重心坐標,通過膚色分割和射線法排除膚色輪廓外復雜背景的干擾,得到待識別的二值化軌跡圖片;其次采用CNN-Softmax 和CNN-SVM 對手寫軌跡樣本訓練分別得到軌跡樣本訓練模型,最后利用訓練好的軌跡樣本分類模型對動態手勢識別.

1 動態手勢特征提取

1.1 獲取每幀圖像指尖軌跡點

為了在復雜背景下很好地對動態手勢指尖順序軌跡點進行采集,在指尖貼上便攜式貼紙,通過檢測每幀貼紙輪廓的質心坐標來定位指尖中心點,其中貼紙要被指尖完全覆蓋.先把每幀圖像從RGB (Red,Green,Blue)顏色空間轉換到HSV (Hue,Saturation,Value)顏色空間:

式中,H為色調,S為飽和度,V為明亮度.利用式(1),將RGB 顏色空間的圖像(圖2(a))轉換成HSV 顏色空間(圖2(b)).本文所選指尖貼紙為藍色,設置圖2(c)的HSV各個分量的閾值范圍為H∈[100°,124°]、S∈[0.169,1]、V∈[0.180,1]得到圖2(c)所示的指尖貼紙二值化圖.

圖2 指尖貼紙預處理

對圖2(c)采用輪廓檢測獲得指尖貼紙輪廓在每一幀圖上的坐標,通過輪廓的矩計算輪廓的質心并作為指尖中心點坐標.

1.2 剔除異常軌跡點

當復雜背景中存在類貼片顏色干擾時,仍然會被誤判為指尖中心點,因此通過判斷指尖中心點是否在膚色輪廓內部,來排除類貼片顏色的背景干擾.在RGB空間里人的膚色受亮度影響較大,把RGB 轉為YCbCr顏色空間提取膚色分量Cr、Cb信息,在一定范圍內可以忽略亮度分量Y的影響.

利用式(2)提取圖2(a)的Cr、Cb分量在Cr∈[127,176] 和Cb∈[85,129]范圍內的值,如圖3(a)和圖3(b)所示.利用大津法(Otsu)對圖3(a)和圖3(b)進行自適應閾值分割,得到相應的二值化圖.然后將Cr和Cb分量的二值圖與操作,則得到二值化的膚色圖.最后采用輪廓檢測獲取二值化膚色圖的連通域輪廓坐標集合.

圖3 膚色分割

通過射線法判斷指尖中心點是否在膚色輪廓坐標連通域內.以待判斷點的坐標點開始,沿橫坐標水平向右作射線,判斷射線與膚色輪廓交點的個數,若為奇數則為指尖中心點如圖4(a)所示,若為偶數則為異常干擾點如圖4(b)所示.

圖4 射線法剔除異常指尖軌跡點

1.3 獲取動態手勢

首先獲取每一幀圖像的膚色輪廓和指尖中心點;其次剔除背景異常點之后將每幀指尖中心點按順序保存至數組中;最后以第一個指尖中心點坐標為手勢起始狀態,以最后一個檢測的指尖中心坐標為手勢結束狀態,將每一個指尖中心點按數組順序相連,即可構成表示該手勢的運動軌跡.如圖5所示為獲取數字字符“2”的動態手勢,其中圖5(b)的字符軌跡包含150 幀的指尖中心順序相連,待用于手勢識別輸入.

圖5 獲取動態手勢

2 聯合CNN-Softmax-SVM 的手勢識別

2.1 卷積神經網絡

卷積神經網絡(Convolutional Neural Networks,CNN)是一種深度前饋人工神經網絡,廣泛應用于圖像分類等計算機視覺問題.CNN 模型主要包括卷積層、降采樣層、全連接層[9].卷積層由濾波器組成,用于“滑動”輸入圖像的寬度和高度,并計算輸入區域的點積和權值學習參數,提取圖像的紋理特征,實現圖像特征的增強.第m層特征圖第j個神經元的輸入為[10]:

當輸入經過卷積層時,若得到的特征圖仍然較大,可以通過下采樣層來對每一個特征圖進行降維操作.下采樣層公式為[10]:

式中,β是下采樣層的權重系數;是下采樣層的偏置項;符號down(·)表示下采樣函數,它通過對輸入特征圖通過滑動窗口方法劃分為多個不重疊的n×n圖像塊,然后對每個圖像塊內的像素求和、求均值或最大值.

提取的特征向量首先通過全連接層,然后再通過Softmax 層得到分類權重,Softmax 層的函數為:

式中,aj表示通過全連接層之后的向量里的第j個值,由于aj沒有范圍大小,通過Softmax 函數之后得到的Pj為類別的概率,范圍在0-1 之間;n為待輸出總類數;e為歐拉常數.

2.2 支持向量機

支持向量機(Support Vector Machine,SVM)[11]是一種機器學習算法,通過將輸入向量映射到一個高維的特征空間,在這個空間中構造最優分類面,從而達到兩類或者多類的樣本劃分,在多數情況下,SVM 比CNN全連接層的線性分類泛化能力好[12].

設樣本集為 (ui,vi),i=1,2,···,n,ui∈Rd,vi∈{1,-1},其中vi是類別標簽;設M為分類間距:過各類樣本中離分類平面最近且平行于分類面的平面之間距離;設所求最優超平面方程為:

式中,w為超平面法向量,決定了超平面的方向,s為位移量,決定了超平面與原點的距離.對式(7)進行歸一化處理使得滿足式(8):

若使M最大,即求||w||2最小.以式(9)為約束條件求 ||w||2最小是一個二次規劃問題,可以轉為對偶問題求解.

以式(9)為約束條件,對ai求解式(10)的最大值:

其中,ai為所求問題的Lagrange 乘子.則最優超平面分類問題可表示為:

由于基于RBF 核函數的支持向量機識別精度高,穩定性強[13].因此文中采用基于RBF 核函數K(u,v)=exp的支持向量機,即令K(ui,uj)=ui·uj,則式(10)的分類函數可表示為:

若支持向量機需要識別k類,采用1-v-r 算法使用k個支持向量機獨立訓練,每個分類器表示1 個類別[14].若k個分類的預測結果中存在多個二分類的正樣本類,將精確率作為分類的置信度,精確率定義如下:

其中,TP是測試的樣本預測為正樣本,并且測試的樣本實際也為正樣本的樣本數;FP是測試的樣本預測為正樣本,并且測試的樣本實際為負樣本的樣本數.最后將置信度最大的正樣本類作為最終的預測類別:

其中,PCi是第i類的精確率.

2.3 聯合CNN-Softmax-SVM 算法

聯合CNN-Softmax-SVM 算法是同時采用在原CNN 模型的基礎上添加了SVM 分類過程和權重判定層,其算法結構如圖6所示.

圖6 算法模型結構

將待識別軌跡特征輸入卷積層、降采樣層、全連接層得到一維形式的特征向量之后,分別通過CNN 網絡的全連接層的Softmax 層和用SVM 分類函數代替CNN 網絡的全連接層的分類函數,得到兩種預分類結果,將兩種預分類結果輸入權重判定層,通過權重判定決定最終輸出.聯合CNN-Softmax-SVM 算法的實現步驟如算法1.

算法1.聯合CNN-Softmax-SVM 算法輸入:1) 待識別手勢軌跡圖 ;ˉM 2) 采用CNN-SVM 訓練樣本后的每種類別識別正確率的平均值集合,其中 是采用C N NSVM 訓練測試集的第i 類,是采用CNN-SVM 訓練樣本后的第i 類平均測試正確率;PCNN-SVM={p1(ˉx1),p1(ˉx2),p1(ˉx3),···,p1(ˉxn)} ˉxi p1(ˉxi)3) 采用CNN-Softmax 訓練樣本后的每種類別識別正確率的平均值集合,其中 是采用CNNSoftmax 訓練測試集的第i 類;是采用CNN-Softmax 訓練樣本后的第i 類平均測試正確率;Class_x PCNN-Softmax={p2(ˉy1),p2(ˉy2),p2(ˉy3),···,p2(ˉyn)} ˉyi p2(ˉyi)輸出:識別類別ˉM→m 1 經過卷積層、降采樣層、全連接層得到一維特征向量 .2 根據式(6)獲取 的類別yCNN-Softmax;根據式(14)獲取 的類別xCNN-SVM.ˉPCNN-SVM=→m→m n∑i=1 p1(ˉxi)3 獲取CNN-SVM 測試樣本識別正確率的平均值 ;獲取CNN-Softmax 測試樣本識別正確率的平均值yCNN-Softmax xCNN-SVM n∑nˉPCNN-Softmax=i=1p2(ˉyi)n 4 if=then

5=6 elseˉPCNN-SVM≥ˉPCNN-Softmax 7 if then p1(xCNN-SVM)≥p2(yCNN-Softmax)Class_x yCNN-Softmax 8 if Class_x xCNN-SVM 9=10 else Class_x yCNN-Softmax 11=12 end if 13 else p1(xCNN-SVM)≤p2(yCNN-Softmax)14 if Class_x=yCNN-Softmax 15 16 else Class_x=xCNN-SVM 17 18 end if 19 end if 20 end if

3 實驗分析

實驗環境的硬件:intel(R) Core(TM) i5-9400 CPU@ 2.90 Hz 2.90 GHz;內存:8.00 GB;系統類型:64 位操作系統,基于x64 的處理器;便攜式手貼紙:貼紙形狀為圓形,貼紙直徑為1 cm,貼紙顏色采用藍色(在HSV顏色空間下貼紙顏色范圍:1 00 ≤H≤124,4 3 ≤S≤255,46 ≤V≤255);攝像頭:羅技(Logitech) C270i IPTV 高清網絡攝像頭720P.

實驗從NIST 數據集[15]中整理出0-9 數字字符樣本圖片各2000 張用于改進卷積神經網絡訓練和測試,實驗樣本數據的訓練和預測都是僅在CPU 下運行.訓練相關參數如表1.

表1 參數分配表

CNN 中所有網絡各層的參數設置如表2所示,其中F、S、P分別表示卷積池化窗的大小、窗口滑動的步長、圖像的邊界填充,Kf表示在當前網絡層中卷積池化窗的個數,Df表示當前網絡層輸出特征的維度.

表2 CNN 各層參數設置

CNN-Softmax 和CNN-SVM 在訓練過程中的誤差下降散點圖如圖7所示,訓練過程的精度折線圖如圖8所示.其中CNN-Softmax 的測試平均精確度為98.23%.另一方面,CNN-SVM 的測試平均精確度為98.04%.

圖7 訓練誤差下降散點圖

圖8 訓練精度折線圖

實驗邀請8 名長期使用臺式電腦的志愿者進行簡單的互動,每位志愿者每個數字字符累計實驗15 次.其中手與攝像頭距離閾值設置在0~60 cm 范圍內;手指與攝像頭中心之間角度閾值設置在0~18.3°范圍內.采用聯合CNN-Softmax-SVM 算法對動態手勢進行識別,識別結果如圖9手勢識別混淆矩陣所示,識別混淆矩陣中第一橫軸為識別出的結果,第一縱軸為識別的類別.

由圖9混淆矩陣可知,本文方法對于動態手勢軌跡具有較高的識別準確率.在識別大部分數字字符上準確率可達到95%以上.

由于數字“0”和“6”、“2”和“3”、“4”和“6”、“5”和“6”、“5”和“8”在基于單目視覺下書寫軌跡具有一定的相似性,容易存在一定程度誤判的情形.單獨采用CNN-Softmax 算法在書寫并識別“5”和“6”時識別率小于93%;單獨采用CNN-SVM 算法在識別數字字符軌跡“2”、“3”、“4”時識別率小于93%;采用本文提出的聯合CNN-Softmax-SVM 算法對0~9 數字字符識別平均準確率能達到95%以上,提高了相似字符識別的準確率.

圖9 志愿者字符手勢識別混淆矩陣

表3給出了本文所提出的聯合CNN-Softmax-SVM 算法和單獨采用CNN-Softmax 和CNN-SVM 算法的對比結果.由表3可知,盡管本文算法的平均識別時間略長,但還是能滿足實時性;另外,采用本文方法在識別率上相比其他幾種方法有了較明顯的提升.

表3 不同動態手勢識別方法的對比

4 結論與展望

基于單目視覺的特征軌跡提取方法,有效地解決了復雜背景的干擾,增強了手勢數據的有效性并且能夠適應大部分動態手勢變換.聯合CNN-Softmax-SVM動態手勢識別算法能夠有效提取動態手勢的軌跡特征,在識別率上也有一定的提高.但由于部分數字字符在基于單目視覺下書寫軌跡具有相似性,容易存在一定程度誤判的情形.在今后研究中應該進一步提高相似字符軌跡的識別率和識別時間.除此之外,本文研究是針對數字字符軌跡分類的手勢識別,也可以嘗試對字母字符軌跡的手勢識別進行實驗研究,以便更好地滿足人機交互的需求.

猜你喜歡
分類
2021年本刊分類總目錄
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
星星的分類
我給資源分分類
垃圾分類,你準備好了嗎
學生天地(2019年32期)2019-08-25 08:55:22
分類討論求坐標
數據分析中的分類討論
按需分類
教你一招:數的分類
主站蜘蛛池模板: 亚洲精品欧美日本中文字幕| 亚洲天堂精品在线| 成人一区在线| 日韩欧美亚洲国产成人综合| 凹凸国产熟女精品视频| 国产va视频| 免费在线观看av| 波多野吉衣一区二区三区av| 福利在线免费视频| 日本伊人色综合网| 国产超碰一区二区三区| 国内丰满少妇猛烈精品播| 欧美精品成人| 国产精品亚洲片在线va| 成人一区专区在线观看| 亚洲最大在线观看| 91精品国产自产在线老师啪l| 日韩精品毛片| 最新午夜男女福利片视频| 一级一级一片免费| 欧美亚洲综合免费精品高清在线观看| 91精品国产丝袜| 亚洲香蕉久久| 91精品国产丝袜| 在线观看无码a∨| 亚洲AV无码精品无码久久蜜桃| 亚洲欧洲一区二区三区| 久久激情影院| 日韩国产综合精选| 日韩欧美中文字幕在线精品| 2022国产无码在线| 特级做a爰片毛片免费69| 精品国产成人av免费| 国产96在线 | 老司机久久99久久精品播放| 亚洲国产精品无码AV| 国产97公开成人免费视频| 国产福利一区视频| 福利姬国产精品一区在线| 国产亚洲精品91| 国产亚洲精| 国内精品视频在线| 成人免费网站久久久| 国产一级毛片高清完整视频版| 亚洲第一色网站| 制服无码网站| 国内精品久久九九国产精品| 99国产精品免费观看视频| 亚洲精品在线影院| 99在线小视频| 无码中文字幕精品推荐| 亚洲精品动漫| 欧美精品二区| 国产午夜无码片在线观看网站| 亚洲欧美精品日韩欧美| 国产另类视频| 在线亚洲小视频| 欧美视频在线第一页| 国精品91人妻无码一区二区三区| 国产av剧情无码精品色午夜| 亚洲免费福利视频| 亚洲高清无码精品| 极品尤物av美乳在线观看| 日韩欧美中文字幕在线精品| 欧美日韩国产系列在线观看| 日本www在线视频| 国产美女在线观看| 国产福利小视频在线播放观看| 男女男免费视频网站国产| 无码电影在线观看| 國產尤物AV尤物在線觀看| 中文字幕亚洲电影| 亚洲精品无码人妻无码| 老司机久久99久久精品播放| 国产麻豆va精品视频| 成人av手机在线观看| 性视频一区| 精品国产女同疯狂摩擦2| 在线免费观看AV| 99热亚洲精品6码| 国产对白刺激真实精品91| 亚洲欧洲日产国码无码av喷潮|