金松國
(江蘇大學京江學院,江蘇 鎮江 212013)
非接觸式界面技術已被廣泛的應用在于殘疾人的通信和交互工具手段。但是,在當前的大流行情況下,作為非接觸,非面對面界面的功能似乎也開始發揮了重要作用。此外,由于近幾年在不斷地研究諸如殘疾人的導航之類的技術的開發,因此期望通研究過視線追蹤提高非接觸界面技術。
過去開發的一些系統是將電極放在臉上以監視眼睛的運動的階段[1]。隨著計算機硬件和AI技術的最新進展,視覺的人機界面(HCI)解決方案變得越來越流行,通過基于面部或面部特征跟蹤的非接觸式HCI[2]開始支持殘疾人。這些解決方案可以提供高精度和低成本,從而減少了用戶與硬件的直接接觸。眼位技術還應用于殘障用戶的應用程序,例如眼部鼠標和鍵盤,移動用戶界面(UI)[3,4]和日常生活輔助系統[5]。預計它將在最近的社會現象中作為控制系統發揮重要作用。
本文所提出的情境感知多分類器檢測并跟蹤眼睛特征,跟蹤眼睛運動來預測圖像幀的視線。為穩定跟蹤,應用了高斯濾波器并對其進行了后處理,采用ASSL來測試各種情況下的眼睛鼠標功能,并在眼睛特征跟蹤中提供了有效的界面功能以進行屏幕上的光標控制。
在本文中,我們提出了一種基于眼睛跟蹤方法的眼睛鼠標系統,該方法使用空間情境感知的多區域識別算法。為了進一步提高準確性,本論文當中采用了ASSL方法。本文主要包括以下三部分:眼睛區域檢測,注視跟蹤和鼠標控制。此外,為提高眼睛區域檢測的準確性,將所提出的方法應用于眼睛區域檢測單元。本文提出了一種基于情境識別的AdaBoost多域分類器算法,將其作為眼動光標控制的精確定位和檢測方法。輸入圖像時,將執行圖像預處理,并通過應用高斯濾波器來消除噪點。并且,通過逐步比較圖像的各個區域,找到用于凝視跟蹤的眼睛區域的位置。進而,對于實時凝視跟蹤和光標控制,通過卡爾曼濾波器預測下一個位置并生成每個特征點的運動矢量,來執行眼睛區域的特征點跟蹤。
對于非接觸式界面的實時凝視跟蹤和光標控制,在檢測到眼睛區域后,將應用卡爾曼濾波器來減少下一幀中眼睛特征元素的搜索時間。眼睛鼠標的性能受跟蹤區域的大小,匹配模板的大小和復雜性,預測的目標特征點的準確性,特征點的速度以及目標特征點的影響。跟蹤區域的大小是根據目標跟蹤點的速度來確定的。當目標特征點快速移動時,應使用較大的跟蹤區域,相反目標特征點緩慢移動時,應使用較小的跟蹤區域進行估計。在前幾幀中,將目標眼睛特征組件的位置平均,設置為中性區域的中心,并獲得該組件的大小和移動速度。當在連續幀中成功識別出眼睛區域的位置時,系統進入跟蹤階段。當估計下一幀中目標眼睛分量的近似位置時,根據當前狀態向量執行該操作,并根據預期點的坐標,可將跟蹤區域縮小為目標對象檢測的關注區域。在該系統中,可以提高眼睛區域的跟蹤速度。
為了實時執行有效的實時注視跟蹤功能,首先要檢測眼睛的位置。收集眼睛區域樣本的數據庫,并從眼睛區域樣本生成特征向量文件。第二是收集樣本數據庫,而不是眼睛區域,以設置參數并學習,通過預測用于光標指向的眼睛運動的位置來收集訓練數據。為了學習情境感知的多重識別器,創建了1022個正樣本圖像和2000個負樣本(沒有眼睛),其中包括眼睛區域。圖像包括112個具有擺角的圖像。應用ASSL方法通過從訓練數據集中刪除噪聲樣本來提高準確性。
本文采用菲茨定律分析用戶界面結果。菲茨定律用于點擊和拖放圖形用戶界面的設計建模中,以模擬與屏幕指向相關的速度精度,其中起始對象0與目標對象0相同。用10個測試人員進行了實驗,隨機生成了5個目標對象圖案。目標物體的寬度定義為10、20和30像素。為了簡化測試,目標位置以圓圈形式表示。測試結果可以看出,目標物體越大,到達時間越短。我們可以計算到達目標物體時的難度。該值顯示了到物體的距離(D)和物體的寬度(W)之間的相關性。該值可以使用Fitts的ID(Index of Difficulty)難度指數計算得出。目標對象的圓圈大小越大,難度指數(ID)越小,圓圈大小越小,ID越大。根據菲茨定律,距離越短,圓越大,界面越快。表1和表2比較了鼠標指針和眼睛鼠標指針之間的接口速度。

表1 眼睛鼠標的速度

表2 鼠標指針速度
從實驗結果可以看出,當接近對象時,由眼睛鼠標產生的軌跡比常規計算機鼠標的軌跡相對快,并且有希望用作非接觸界面。
在本文中,提出了一種多眼檢測功能,用于估計視線并基于屏幕光標調整主動和半監督學習。本文使用一個多域分類器來估計眼睛區域,該分類器使用網絡攝像頭和ASSL算法進行眼睛跟蹤的眼睛情境感知,并應用卡爾曼濾波器和高斯模型來提高實時跟蹤性能。實驗結果證實,它在眼指向方面表現出優異的性能,并且難度與目標尺寸成反比。當對象的大小較大時,界面響應速度會更快,并且可以看到,所提出系統的UI中的指向速度比鼠標跟蹤要快。預期它不僅可以用作殘疾人的導航系統,而且可以用作防御流行病中的重要技術。