













摘要:曲面屏不同于平面屏,其曲度會造成基于模型法得到的眼動估計數(shù)據(jù)與用戶實際數(shù)據(jù)存在差異,這影響了眼動設(shè)備的跟蹤精度。針對以上問題,文章提出了基于屏幕誤差模型的眼動數(shù)據(jù)校正方法。該方法借助眼動設(shè)備的視線標定流程,通過分析用戶眼動數(shù)據(jù)與視線估計數(shù)據(jù)間的幾何關(guān)系,推斷曲面屏與平面屏在視線估計中的系統(tǒng)誤差,將該偏差用于眼動數(shù)據(jù)校正。計算機仿真結(jié)果顯示,校正后的眼動數(shù)據(jù)誤差小于15.51 pixels,比校正前降低了48.89%。
關(guān)鍵詞:視線跟蹤;校正;曲面屏;眼動數(shù)據(jù)
中圖分類號:TP391.9
文獻標志碼:A
0 引言
盡管眼動跟蹤技術(shù)在過去數(shù)十年間獲得了迅速發(fā)展[1-4],但是由于其技術(shù)上的復(fù)雜性、用戶需求的差異、用戶隱私安全等多方面因素的制約,使得眼動跟蹤技術(shù)在實際應(yīng)用中仍面臨一些困境和難題。眼動跟蹤技術(shù)通常可以劃分為基于模型和基于回歸兩種類型。然而,多數(shù)基于模型的眼動估計方法依賴一定的先驗參數(shù)來提高其準確性和可靠性。這些參數(shù)在應(yīng)用時需要根據(jù)用戶的視線標定來獲取。平面顯示器作為傳統(tǒng)顯示設(shè)備,在業(yè)界有著較為統(tǒng)一的標準和規(guī)范,其用戶已形成使用習慣,使得視線跟蹤技術(shù)的標定流程大多在平面顯示器上進行且其相關(guān)技術(shù)也相對成熟。
曲面顯示器作為一種新型顯示設(shè)備,能夠提供更加真實、更具沉浸感的視覺效果。自2014年上市以來,曲面顯示器銷量始終保持年均300%以上的增長,在電子產(chǎn)品消費領(lǐng)域備受關(guān)注并得到了廣泛應(yīng)用[5]。曲面屏的出現(xiàn)為消費者帶來更加沉浸式的視覺體驗的同時,也為視線跟蹤技術(shù)在曲面屏上的應(yīng)用提出了必要性。然而,不同于傳統(tǒng)平面顯示器,曲面顯示器的曲度可能會造成基于模型法得到的眼動估計數(shù)據(jù)與用戶實際數(shù)據(jù)不一致。因此,基于曲面顯示器的眼動數(shù)據(jù)校正顯得尤為重要。
近些年,部分學者開始致力于視線估計校正相關(guān)的研究[6-12]。Hornof等 [7]采用多次視線標定來提升視線跟蹤精度;Zhu等[8]提出一種針對頭部運動的數(shù)據(jù)補償方案;而Vadillo等[10]則使用擬合矩陣對數(shù)據(jù)進行校正。以上校正算法大多基于誤差數(shù)據(jù)本身進行數(shù)據(jù)擬合,或僅基于平面顯示器進行眼動數(shù)據(jù)的校正[11-13]。本文從造成眼動數(shù)據(jù)偏差的屏幕差異出發(fā),提出了針對曲面顯示器的眼動數(shù)據(jù)校正方法。該算法借助眼動設(shè)備常用的視線標定流程,通過分析用戶眼動數(shù)據(jù)與視線估計數(shù)據(jù)間的幾何關(guān)系,獲取屏幕差異模型,然后通過計算機仿真驗證了其有效性。
1 基于模型的校正算法分析
用戶依靠眼球轉(zhuǎn)動實現(xiàn)視線的變化,邵國健[14]簡化了眼球運動過程,將其看作圍繞一固定點旋轉(zhuǎn)的球體,眼球中心與瞳孔中心的連線被定義為用戶視線,如圖1所示。圖2是用戶、眼動設(shè)備、屏幕三者位置關(guān)系示意圖。其中,O是用戶眼球中心,Z是眼動設(shè)備且其固定于曲面屏下方,A是用戶看向正前方時其視線與屏幕的交點。
視線標定可以幫助眼動設(shè)備建立眼動特征與屏幕坐標間的映射關(guān)系,確保設(shè)備準確地追蹤用戶的視線[15]。本文提出的算法借助視線標定流程進行,其步驟如下:(1)根據(jù)視線標定參考點和相應(yīng)視線估計點,獲取平面屏和曲面屏之間的模型偏差;(2)由模型偏差推算眼動數(shù)據(jù)偏差;(3)對眼動數(shù)據(jù)進行偏差補償。
目前,市場主流曲面顯示器為雙曲面屏,其曲面弧度僅在水平方向上呈現(xiàn)。故本文所述的眼動數(shù)據(jù)校正僅需在水平方向上進行即可。圖3是使用眼動設(shè)備時過用戶眼球中心O的水平切面圖。其中,實線圓代表用戶眼球,虛線圓代表視線估計的眼球參考模型,兩圓共同以O(shè)為圓心。AB1為平面屏與水平切面的交線,弧AB為曲面屏與切面相交的弧線且其以O(shè)為弧心。B是一個視線標定參考點,B1是用戶看向B時的視線估計點。不妨假定正視點A位于屏幕中心,顯然OA⊥AB1。DE代表用戶視線由A轉(zhuǎn)向B時瞳孔在水平方向的移動距離,而FG則表示了這一距離在眼球參考模型上的映射,易知DE=FG。
根據(jù)圖3顯示的幾何關(guān)系,可得以下公式:
視線標定過程中,平面屏上線段AB1為曲面屏上圓弧AB的映射,故AB1=AB。以下記眼球參考模型半徑OF=r,用戶眼球半徑OD=R,所以:
不妨令n=r/R,有:
由公式(1)和(3)可以推出:
此時,A點坐標、OZ及OA長度可由眼動設(shè)備獲取,B點(標定點)坐標為用戶設(shè)置量,據(jù)此可求得AB1、α、θ及n。由公式(4)可知,n值與視線標定時參考點的選取有關(guān)。
視線標定完成后,眼動設(shè)備將以標定的r值作為用戶眼球半徑進行視線估計。此時,用戶視線的分布仍然符合圖3中的幾何關(guān)系。重繪圖3,為了方便,表示用戶實際的視線點仍標記為B,其他符號標記與此類似。視線估計時,以上關(guān)系式仍然成立,可以推出:
因為sinθ=tan2θ1+tan2θ,故:
由公式(5)和(6)可以推出:
此時,A點、B1點坐標及OA長度可由眼動設(shè)備獲取,據(jù)此可求AB1。不妨設(shè)AB1/OA為u,記A點、B點、B1點坐標分別為(xA,yA)、(xB,yB)、(xB1,yB1),由式(1)和(7)可以推出:
由公式(8)即可獲得用戶實際注視位置B點的水平坐標。
2 計算機仿真實驗
本文用計算機仿真驗證該校正方法的有效性,其中OA被設(shè)定為65cm,在分辨率1920×1080 pixels的23.1英寸曲面屏上進行。本研究用實驗數(shù)據(jù)擬合了眼動設(shè)備工作時可能存在的擾動信號模型,將其應(yīng)用于計算機仿真以模擬真實情況。同時,本研究將屏幕等分為9個部分,以每部分中心作為標定點,從上到下、從左到右依次編號為1、2、3、…、9。根據(jù)以上假設(shè),用戶可視角度為45.10°,仿真中n的范圍取值是1.0~1.08。
設(shè)定n為1.08,校正前后用戶的眼動數(shù)據(jù)誤差對比和視線估計點對比分別如圖4和圖5所示。在本研究中,視線跟蹤誤差定義為用戶視線點和相應(yīng)視線估計點之間歐式距離Δd的平均值,單位為pixel。Δd越大,估計點誤差越大;反之,誤差越小。
根據(jù)圖4和圖5可知,在進行校正前,屏幕兩側(cè)參考點(點1、3、4、6、7、9)的視線估計點與屏幕中心的距離小于其實際距離,呈現(xiàn)出向中間聚攏的趨勢。此時,校正前的平均跟蹤誤差為30.35 pixels(SD=11.27);而校正后眼動數(shù)據(jù)的平均誤差為15.51 pixels(SD=1.78)。
為了研究算法對單變量變化的校正效果,本研究分別對僅用戶視線位置變化和僅視線標定位置變化時的情形進行了仿真。圖6(a)是視線標定位置不變,位于點(1920,540),用戶視線從屏幕中心水平轉(zhuǎn)向屏幕右邊界的仿真結(jié)果圖。校正前的眼動數(shù)據(jù)偏差隨著用戶視線點與屏幕中心距離的增加逐漸擴大,而校正后的數(shù)據(jù)偏差小于26.85 pixels。圖6(b)則顯示了當用戶視線位于點(76,540),視線標定位置從屏幕中心到右邊界的仿真結(jié)果圖。隨著視線標定參考點與屏幕中心距離的增加,校正前的數(shù)據(jù)偏差逐漸增大,而校正后的數(shù)據(jù)偏差小于25.64 pixels。上述結(jié)果表明,校正前視線估計的準確性不僅與用戶視線位置相關(guān),而且依賴于視線標定點的選取。
3 結(jié)語
本文對曲面顯示器曲度造成的眼動數(shù)據(jù)不準問題提出了解決方案,實驗證明了該方法的有效性,眼動數(shù)據(jù)偏差比校正前減少了48.89%。本文僅對雙曲面屏用戶可視角度45.10°范圍內(nèi)的情形進行了算法推導和校正說明,四曲面屏的眼動誤差校正原理相似。該算法可以校正基于固定標定參數(shù)導致的眼動數(shù)據(jù)不準問題,對瞳孔-角膜向量法及其他視線估計算法的數(shù)據(jù)校正具有一定的借鑒意義。但需要注意的是,本文采用了邵國健[14]提出的球體模型來簡化計算,這與用戶眼球之間存在一定差異。為進一步提高眼動估計的準確性,未來本研究將深入研究如何建立精確的自適應(yīng)眼球模型。
參考文獻
[1]李晨輝,龐志兵,張艷君,等.眼動測量在人機界面作業(yè)優(yōu)化評估系統(tǒng)中的應(yīng)用[J].技術(shù)與創(chuàng)新管理,2017(1):41-45.
[2]鄭秀娟,栗戰(zhàn)恒,張昀.基于視覺特性的駕駛安全眼動研究進展[J].技術(shù)與創(chuàng)新管理,2018(1):50-59.
[3]羅來曦,朱漁.面向虛擬現(xiàn)實頭盔的眼動跟蹤技術(shù)探析[J].無線互聯(lián)科技,2021(20):58-59.
[4]笪潔如,李亞軍.基于視覺感知的界面設(shè)計眼動
實驗研究[J].無線互聯(lián)科技,2023(20):58-63.
[5]熊端琴,林榕,田燕,等.曲面與平面顯示器周邊顯示對飛行員圖形認知影響的對比研究[J].人類工效學,2023(6):8-13.
[6]ZHANG Y,HORNOF A J.Mode-of-disparities error correction of eye-tracking data[J].Behavior Research Methods,2011(3):834-842.
[7]HORNOF A J,HALVERSON T.Cleaning up systematic error in eye-tracking data by using required fixation locations[J].Behavior Research Methods Instruments amp; Computers,2002(4):592-604.
[8]ZHU B,CHI J N,ZHANG T X.Gaze point compensation method under head movement in gaze tracking system [J].Journal of Highway Transportation Research and Development,2013(30):105-111.
[9]GIBALDI A,VANEGAS M,BEX P J,et al.Evaluation of the Tobii EyeX Eye tracking controller and Matlab toolkit for research[J].Behavior Research Methods,2017(3):923-946.
[10]VADILLO M A,STREET C N,BEESLEY T,et al.A simple algorithm for the offline recalibration of eye-tracking data through best-fitting linear transformation[J].Behavior Research Methods,2015(4):1365-1376.
[11]ZHENG X J,LI Z H,CHUN X Y,et al.A model-based method with geometric solutions for gaze correction in eye-tracking[J].Mathematical Biosciences and Engineering,2020(2):1396-1412.
[12]栗戰(zhàn)恒.斜視及近視伴有斜視用戶眼動數(shù)據(jù)校正[J].技術(shù)與創(chuàng)新管理,2022(6):670-675.
[13]栗戰(zhàn)恒,鄭秀娟,劉凱.近視用戶眼動數(shù)據(jù)校正[J].技術(shù)與創(chuàng)新管理,2022(6):512-516.
[14]邵國健.基于2D模型的視線估計方法的研究[D].天津:天津大學,2010.
[15]余沁,劉龍繁,熊艷,等.文字強調(diào)方式對多媒體學習的影響——基于眼動追蹤技術(shù)[J].生物醫(yī)學工程研究,2018(1):96-100.
(編輯 王永超)
Gaze data correction for curved screen in eye tracking system
Li" Zhanheng1,2
(1.School of Applied Engineering, He’nan University of Science and Technology, Sanmenxia 472000, China; 2.The Department of Mechanical and Electrical Engineering,Sanmenxia Polytechnic, Sanmenxia 472000, China)
Abstract:The curvature of curved screen can cause the deviations between the eye-tracking data derived by eye tracker used on a flat screen and the actual gaze data. In order to correct deviations, a model-based method with geometric solutions is proposed in this paper. The deviations of estimated gaze points are geometrically analyzed based on the screen models between curved screen and flat screen. Obtaining the systematic error of screen based on the actual gaze data and the eye-tracking data in a nine-point calibration, calculating data error based on systematic error model of screen, the obtained data error is used for gaze correction. This method is validated by computer simulations. Corrected date is within ±15.51 pixels, which is reduced in 48.89%.
Key words:eye tracking; correction; curved screen; gaze data