張旭輝,呂欣媛,王妙云,魏倩楠,王 恒,杜昱陽
(1.西安科技大學 機械工程學院,陜西 西安 710054;2.陜西省礦山機電裝備智能監測重點實驗室,陜西 西安 710054)
肢體運動功能受損是腦卒中等疾病常見的后遺癥癥狀,而上肢功能障礙往往是患者日常生活能力下降的主要因素[1~3]。目前,針對上肢的康復訓練多為依賴治療師對患者進行重復的機械式訓練,患者主觀意識與輔助訓練無法有效配合,導致康復效果不佳。因此,急需新的康復手段引導患者進行有效的訓練[4]。
目前已有不少學者在將虛擬現實(VR)技術應用于康復訓練方面進行了深入的研究[5]。羅格斯大學開發了一種名為Rutgers Arms Ⅱ的康復訓練系統,通過運動跟蹤、重力以及VR游戲來實現手臂的康復訓練,增加了訓練的趣味性和多樣性,但缺陷在于不能實時對患者的康復情況作出評價;Cho S 等人[6]利用本體感覺反饋刺激大腦神經產生運動意圖,為康復訓練提供了新的思路,但與視覺反饋相比,其沉浸感和趣味性會有所下降;陳東林等人[7]設計了基于HTC VIVE的上肢康復訓練系統,利用VR手柄與康復訓練游戲進行交互,但上肢功能障礙患者運動時手部姿態變化極為輕微,故采用抓握手柄的方法難以達到預期效果。
在前人的研究基礎上,本文引入數據傳感設備應用于上肢功能障礙人群中,融合VR技術為患者提供沉浸式和趣味性的訓練體驗,解決了患者主動參與積極性差且抓握實物困難而導致訓練效果不佳的問題。利用Unity 3D軟件與C#語言編程搭建軟硬件環境,結合傳感器技術與數據庫技術采集并保存患者訓練時的上肢主要關節運動信息,實時監測患者運動時的身體情況,并對其進行康復效果評定,以便及時更新患者的訓練計劃。該方法在調動患者主動訓練積極性的同時,既提高了康復訓練的效率,又減少了目前醫療師與患者存在“一對多”的資源壓力。
在VR交互中,計算機必須通過各種傳感器設備實時檢測、分析、處理用戶的姿態變化情況、生理參數、語音等多種信息,并將其處理結果及時反饋給用戶,從而發揮參與在虛擬環境中的沉浸感和主動性[8]。本文選用數據手套和VR眼鏡作為傳感設備實現人機交互,利用Unity3D軟件和C#語言開發虛擬訓練環境。
數據手套采用WISEGLOVE 7+系列位置跟蹤數據手套。如圖1所示,它可通過分布在手掌重要關節的7個柔性彎曲光纖傳感器和分布在手臂活動關節上的3個慣性傳感器來實現上肢位置移動和姿態捕捉功能[9]。

圖1 數據手套
VR眼鏡采用HTC Vive眼鏡,它利用激光掃描定位技術提高了定位精度。除了身體動作以外沒有其它形式的用戶輸入條件,并減輕了患者肢體上的額外負擔[7]。
總體設計思路如圖2所示,患者佩戴數據手套與VR眼鏡進入VR游戲中進行訓練,數據手套采集患者的姿態變化數據傳輸到虛擬場景中,驅動場景產生相應的變化,其上肢運動信息與游戲數據存儲進數據庫中,以供治療師對比、觀察和分析,從而判斷患者的康復程度和訓練效果;VR眼鏡通過視覺反饋刺激患者大腦神經中樞促進大腦神經元重塑,并根據系統提示引導患者主動進行訓練。

圖2 康復訓練系統設計思路
患者訓練方案的制定與更新通過康復效果評價實現[10],根據確定時間內系統指定任務的完成度和傳感器所采重要關節的活動情況,確定障礙級別,同時結合肌力受損程度生成患者信息,據此為患者制定康復計劃。在執行訓練計劃一個或多個周期后,再次對患者進行康復效果評價,并更新訓練方案。訓練過程中,治療師可以通過傳感器所采數據實時監測患者的訓練狀態,以實時判斷該訓練方案是否可行并及時對其進行調整。康復評價過程如圖3所示。

圖3 康復評價過程
由于不同患者的運動功能受損程度差異,且遵循康復訓練難度應逐級遞增的原則[11]。如表1所示,設計多級訓練模式以供患者選擇。

表1 多級訓練任務規劃
初級訓練模式針對康復訓練初期的患者,其手部運動軌跡簡化為A-B-C-A。以桌面為X-Y平面,在X-Y平面內將物體從A點移至C點。該運動所涉及的肩、肘關節均為X-Y平面內輕微的內收/外展運動,通過“拾取→移動靜態模型”訓練患者的抓握能力。
高級訓練模式針對康復訓練中后期的患者,其手部的運動軌跡簡化為A-B-C-D。
以桌面為X-Y平面,垂直桌面方向為Z軸,將物體從A點移至D點并作出投擲動作。相比于初級模式,還涉及Z軸方向的上旋/下旋運動,且運動幅度較大。通過“鎖定→拾取→移動→投擲動態模型”訓練上肢的抓握能力、協調能力、手眼配合能力等。
手部姿態及位置的解算是通過將傳感器在載體坐標系下測得的數據轉換至導航坐標系,從而得到手部在空間中的位置與姿態。在眾多解算方法中,四元數法計算量小,精度高,可避免奇異性[12]。四元數是由4個實數q0,q1,q2,q3和3個相互正交的單位向量i,j,k組成。其一般表現形式為
q=q0+q1i+q2j+q3k
(1)
四元數表示旋轉時,實部表示角度大小,虛部表示轉動方向。手掌在空間中的位置定位由坐標系之間的轉換來實現,具體通過橫滾角φ、俯仰角θ、偏航角γ的連續轉動實現。
標量部分q0,q1,q2,q3的初始值由歐拉角的初始值計算所得,其微分方程的矩陣形式為
(2)

(3)
則
(4)
式中q(t)為初始時四元數,T為四元數更新周期,q(t+T)為更新后的四元數,K1為在周期T初始時的斜率,K2與K3為1/2周期T/2處的斜率,K4為周期T結束時的斜率。
根據K1,K2,K3,K4這4個參數的更新值,可由姿態陣T更新歐拉角[12]
(5)
其姿態解算的轉換矩陣為[13]
T=

(6)
由式(5)與式(6)可得姿態角
(7)
根據式(7)可得到載體在導航坐標系下任何時刻的姿態估計。
數據手套上的傳感器采集到的數據通過微處理器經由RS—232接口傳向主機,從而驅動計算機內的虛擬手同步運動,其中柔性光纖傳感器測量手指關節彎曲角度,由陀螺儀與加速度計組成的慣性測量單元分別測量空間中手臂運動的角度和加速度,并解算出手臂的姿態、速度以及位置信息等。