999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于曲面屏的眼動數(shù)據(jù)校正

2024-06-13 00:00:00栗戰(zhàn)恒
無線互聯(lián)科技 2024年9期

摘要:曲面屏不同于平面屏,其曲度會造成基于模型法得到的眼動估計數(shù)據(jù)與用戶實際數(shù)據(jù)存在差異,這影響了眼動設(shè)備的跟蹤精度。針對以上問題,文章提出了基于屏幕誤差模型的眼動數(shù)據(jù)校正方法。該方法借助眼動設(shè)備的視線標定流程,通過分析用戶眼動數(shù)據(jù)與視線估計數(shù)據(jù)間的幾何關(guān)系,推斷曲面屏與平面屏在視線估計中的系統(tǒng)誤差,將該偏差用于眼動數(shù)據(jù)校正。計算機仿真結(jié)果顯示,校正后的眼動數(shù)據(jù)誤差小于15.51 pixels,比校正前降低了48.89%。

關(guān)鍵詞:視線跟蹤;校正;曲面屏;眼動數(shù)據(jù)

中圖分類號:TP391.9

文獻標志碼:A

0 引言

盡管眼動跟蹤技術(shù)在過去數(shù)十年間獲得了迅速發(fā)展[1-4,但是由于其技術(shù)上的復(fù)雜性、用戶需求的差異、用戶隱私安全等多方面因素的制約,使得眼動跟蹤技術(shù)在實際應(yīng)用中仍面臨一些困境和難題。眼動跟蹤技術(shù)通常可以劃分為基于模型和基于回歸兩種類型。然而,多數(shù)基于模型的眼動估計方法依賴一定的先驗參數(shù)來提高其準確性和可靠性。這些參數(shù)在應(yīng)用時需要根據(jù)用戶的視線標定來獲取。平面顯示器作為傳統(tǒng)顯示設(shè)備,在業(yè)界有著較為統(tǒng)一的標準和規(guī)范,其用戶已形成使用習慣,使得視線跟蹤技術(shù)的標定流程大多在平面顯示器上進行且其相關(guān)技術(shù)也相對成熟。

曲面顯示器作為一種新型顯示設(shè)備,能夠提供更加真實、更具沉浸感的視覺效果。自2014年上市以來,曲面顯示器銷量始終保持年均300%以上的增長,在電子產(chǎn)品消費領(lǐng)域備受關(guān)注并得到了廣泛應(yīng)用[5。曲面屏的出現(xiàn)為消費者帶來更加沉浸式的視覺體驗的同時,也為視線跟蹤技術(shù)在曲面屏上的應(yīng)用提出了必要性。然而,不同于傳統(tǒng)平面顯示器,曲面顯示器的曲度可能會造成基于模型法得到的眼動估計數(shù)據(jù)與用戶實際數(shù)據(jù)不一致。因此,基于曲面顯示器的眼動數(shù)據(jù)校正顯得尤為重要。

近些年,部分學者開始致力于視線估計校正相關(guān)的研究[6-12。Hornof等 [7采用多次視線標定來提升視線跟蹤精度;Zhu等[8提出一種針對頭部運動的數(shù)據(jù)補償方案;而Vadillo等[10則使用擬合矩陣對數(shù)據(jù)進行校正。以上校正算法大多基于誤差數(shù)據(jù)本身進行數(shù)據(jù)擬合,或僅基于平面顯示器進行眼動數(shù)據(jù)的校正11-13。本文從造成眼動數(shù)據(jù)偏差的屏幕差異出發(fā),提出了針對曲面顯示器的眼動數(shù)據(jù)校正方法。該算法借助眼動設(shè)備常用的視線標定流程,通過分析用戶眼動數(shù)據(jù)與視線估計數(shù)據(jù)間的幾何關(guān)系,獲取屏幕差異模型,然后通過計算機仿真驗證了其有效性。

1 基于模型的校正算法分析

用戶依靠眼球轉(zhuǎn)動實現(xiàn)視線的變化,邵國健[14簡化了眼球運動過程,將其看作圍繞一固定點旋轉(zhuǎn)的球體,眼球中心與瞳孔中心的連線被定義為用戶視線,如圖1所示。圖2是用戶、眼動設(shè)備、屏幕三者位置關(guān)系示意圖。其中,O是用戶眼球中心,Z是眼動設(shè)備且其固定于曲面屏下方,A是用戶看向正前方時其視線與屏幕的交點。

視線標定可以幫助眼動設(shè)備建立眼動特征與屏幕坐標間的映射關(guān)系,確保設(shè)備準確地追蹤用戶的視線[15。本文提出的算法借助視線標定流程進行,其步驟如下:(1)根據(jù)視線標定參考點和相應(yīng)視線估計點,獲取平面屏和曲面屏之間的模型偏差;(2)由模型偏差推算眼動數(shù)據(jù)偏差;(3)對眼動數(shù)據(jù)進行偏差補償。

目前,市場主流曲面顯示器為雙曲面屏,其曲面弧度僅在水平方向上呈現(xiàn)。故本文所述的眼動數(shù)據(jù)校正僅需在水平方向上進行即可。圖3是使用眼動設(shè)備時過用戶眼球中心O的水平切面圖。其中,實線圓代表用戶眼球,虛線圓代表視線估計的眼球參考模型,兩圓共同以O(shè)為圓心。AB1為平面屏與水平切面的交線,弧AB為曲面屏與切面相交的弧線且其以O(shè)為弧心。B是一個視線標定參考點,B1是用戶看向B時的視線估計點。不妨假定正視點A位于屏幕中心,顯然OA⊥AB1。DE代表用戶視線由A轉(zhuǎn)向B時瞳孔在水平方向的移動距離,而FG則表示了這一距離在眼球參考模型上的映射,易知DE=FG。

根據(jù)圖3顯示的幾何關(guān)系,可得以下公式:

視線標定過程中,平面屏上線段AB1為曲面屏上圓弧AB的映射,故AB1=AB。以下記眼球參考模型半徑OF=r,用戶眼球半徑OD=R,所以:

不妨令n=r/R,有:

由公式(1)和(3)可以推出:

此時,A點坐標、OZ及OA長度可由眼動設(shè)備獲取,B點(標定點)坐標為用戶設(shè)置量,據(jù)此可求得AB1、α、θ及n。由公式(4)可知,n值與視線標定時參考點的選取有關(guān)。

視線標定完成后,眼動設(shè)備將以標定的r值作為用戶眼球半徑進行視線估計。此時,用戶視線的分布仍然符合圖3中的幾何關(guān)系。重繪圖3,為了方便,表示用戶實際的視線點仍標記為B,其他符號標記與此類似。視線估計時,以上關(guān)系式仍然成立,可以推出:

因為sinθ=tan2θ1+tan2θ,故:

由公式(5)和(6)可以推出:

此時,A點、B1點坐標及OA長度可由眼動設(shè)備獲取,據(jù)此可求AB1。不妨設(shè)AB1/OA為u,記A點、B點、B1點坐標分別為(xA,yA)、(xB,yB)、(xB1,yB1),由式(1)和(7)可以推出:

由公式(8)即可獲得用戶實際注視位置B點的水平坐標。

2 計算機仿真實驗

本文用計算機仿真驗證該校正方法的有效性,其中OA被設(shè)定為65cm,在分辨率1920×1080 pixels的23.1英寸曲面屏上進行。本研究用實驗數(shù)據(jù)擬合了眼動設(shè)備工作時可能存在的擾動信號模型,將其應(yīng)用于計算機仿真以模擬真實情況。同時,本研究將屏幕等分為9個部分,以每部分中心作為標定點,從上到下、從左到右依次編號為1、2、3、…、9。根據(jù)以上假設(shè),用戶可視角度為45.10°,仿真中n的范圍取值是1.0~1.08。

設(shè)定n為1.08,校正前后用戶的眼動數(shù)據(jù)誤差對比和視線估計點對比分別如圖4和圖5所示。在本研究中,視線跟蹤誤差定義為用戶視線點和相應(yīng)視線估計點之間歐式距離Δd的平均值,單位為pixel。Δd越大,估計點誤差越大;反之,誤差越小。

根據(jù)圖4和圖5可知,在進行校正前,屏幕兩側(cè)參考點(點1、3、4、6、7、9)的視線估計點與屏幕中心的距離小于其實際距離,呈現(xiàn)出向中間聚攏的趨勢。此時,校正前的平均跟蹤誤差為30.35 pixels(SD=11.27);而校正后眼動數(shù)據(jù)的平均誤差為15.51 pixels(SD=1.78)。

為了研究算法對單變量變化的校正效果,本研究分別對僅用戶視線位置變化和僅視線標定位置變化時的情形進行了仿真。圖6(a)是視線標定位置不變,位于點(1920,540),用戶視線從屏幕中心水平轉(zhuǎn)向屏幕右邊界的仿真結(jié)果圖。校正前的眼動數(shù)據(jù)偏差隨著用戶視線點與屏幕中心距離的增加逐漸擴大,而校正后的數(shù)據(jù)偏差小于26.85 pixels。圖6(b)則顯示了當用戶視線位于點(76,540),視線標定位置從屏幕中心到右邊界的仿真結(jié)果圖。隨著視線標定參考點與屏幕中心距離的增加,校正前的數(shù)據(jù)偏差逐漸增大,而校正后的數(shù)據(jù)偏差小于25.64 pixels。上述結(jié)果表明,校正前視線估計的準確性不僅與用戶視線位置相關(guān),而且依賴于視線標定點的選取。

3 結(jié)語

本文對曲面顯示器曲度造成的眼動數(shù)據(jù)不準問題提出了解決方案,實驗證明了該方法的有效性,眼動數(shù)據(jù)偏差比校正前減少了48.89%。本文僅對雙曲面屏用戶可視角度45.10°范圍內(nèi)的情形進行了算法推導和校正說明,四曲面屏的眼動誤差校正原理相似。該算法可以校正基于固定標定參數(shù)導致的眼動數(shù)據(jù)不準問題,對瞳孔-角膜向量法及其他視線估計算法的數(shù)據(jù)校正具有一定的借鑒意義。但需要注意的是,本文采用了邵國健[14提出的球體模型來簡化計算,這與用戶眼球之間存在一定差異。為進一步提高眼動估計的準確性,未來本研究將深入研究如何建立精確的自適應(yīng)眼球模型。

參考文獻

[1]李晨輝,龐志兵,張艷君,等.眼動測量在人機界面作業(yè)優(yōu)化評估系統(tǒng)中的應(yīng)用[J].技術(shù)與創(chuàng)新管理,2017(1):41-45.

[2]鄭秀娟,栗戰(zhàn)恒,張昀.基于視覺特性的駕駛安全眼動研究進展[J].技術(shù)與創(chuàng)新管理,2018(1):50-59.

[3]羅來曦,朱漁.面向虛擬現(xiàn)實頭盔的眼動跟蹤技術(shù)探析[J].無線互聯(lián)科技,2021(20):58-59.

[4]笪潔如,李亞軍.基于視覺感知的界面設(shè)計眼動

實驗研究[J].無線互聯(lián)科技,2023(20):58-63.

[5]熊端琴,林榕,田燕,等.曲面與平面顯示器周邊顯示對飛行員圖形認知影響的對比研究[J].人類工效學,2023(6):8-13.

[6]ZHANG Y,HORNOF A J.Mode-of-disparities error correction of eye-tracking data[J].Behavior Research Methods,2011(3):834-842.

[7]HORNOF A J,HALVERSON T.Cleaning up systematic error in eye-tracking data by using required fixation locations[J].Behavior Research Methods Instruments amp; Computers,2002(4):592-604.

[8]ZHU B,CHI J N,ZHANG T X.Gaze point compensation method under head movement in gaze tracking system [J].Journal of Highway Transportation Research and Development,2013(30):105-111.

[9]GIBALDI A,VANEGAS M,BEX P J,et al.Evaluation of the Tobii EyeX Eye tracking controller and Matlab toolkit for research[J].Behavior Research Methods,2017(3):923-946.

[10]VADILLO M A,STREET C N,BEESLEY T,et al.A simple algorithm for the offline recalibration of eye-tracking data through best-fitting linear transformation[J].Behavior Research Methods,2015(4):1365-1376.

[11]ZHENG X J,LI Z H,CHUN X Y,et al.A model-based method with geometric solutions for gaze correction in eye-tracking[J].Mathematical Biosciences and Engineering,2020(2):1396-1412.

[12]栗戰(zhàn)恒.斜視及近視伴有斜視用戶眼動數(shù)據(jù)校正[J].技術(shù)與創(chuàng)新管理,2022(6):670-675.

[13]栗戰(zhàn)恒,鄭秀娟,劉凱.近視用戶眼動數(shù)據(jù)校正[J].技術(shù)與創(chuàng)新管理,2022(6):512-516.

[14]邵國健.基于2D模型的視線估計方法的研究[D].天津:天津大學,2010.

[15]余沁,劉龍繁,熊艷,等.文字強調(diào)方式對多媒體學習的影響——基于眼動追蹤技術(shù)[J].生物醫(yī)學工程研究,2018(1):96-100.

(編輯 王永超)

Gaze data correction for curved screen in eye tracking system

Li" Zhanheng1,2

(1.School of Applied Engineering, He’nan University of Science and Technology, Sanmenxia 472000, China; 2.The Department of Mechanical and Electrical Engineering,Sanmenxia Polytechnic, Sanmenxia 472000, China)

Abstract:The curvature of curved screen can cause the deviations between the eye-tracking data derived by eye tracker used on a flat screen and the actual gaze data. In order to correct deviations, a model-based method with geometric solutions is proposed in this paper. The deviations of estimated gaze points are geometrically analyzed based on the screen models between curved screen and flat screen. Obtaining the systematic error of screen based on the actual gaze data and the eye-tracking data in a nine-point calibration, calculating data error based on systematic error model of screen, the obtained data error is used for gaze correction. This method is validated by computer simulations. Corrected date is within ±15.51 pixels, which is reduced in 48.89%.

Key words:eye tracking; correction; curved screen; gaze data

主站蜘蛛池模板: 国产鲁鲁视频在线观看| 欧美精品另类| 日韩国产精品无码一区二区三区| 久久精品人人做人人爽97| 国产激情无码一区二区免费| 亚卅精品无码久久毛片乌克兰| 亚洲无码视频一区二区三区| 国产91麻豆免费观看| 久久夜夜视频| 日本色综合网| 国产欧美日韩综合一区在线播放| 天天干伊人| 欧美性色综合网| 国产黄色片在线看| 99久久精品国产综合婷婷| 国产福利观看| 欧美黑人欧美精品刺激| 国产精品手机视频| 3p叠罗汉国产精品久久| 青青极品在线| 亚洲熟妇AV日韩熟妇在线| 欧美激情,国产精品| 97超碰精品成人国产| 亚洲成a人片77777在线播放| 久久综合伊人 六十路| 久夜色精品国产噜噜| 无码区日韩专区免费系列| 在线一级毛片| 国产精品刺激对白在线| 久久亚洲美女精品国产精品| 重口调教一区二区视频| 亚洲人成在线免费观看| 广东一级毛片| 99中文字幕亚洲一区二区| h视频在线观看网站| 一级成人a毛片免费播放| 精品成人一区二区三区电影| 成人国产精品2021| 欧美中出一区二区| 久久国产精品影院| 狼友视频国产精品首页| 天堂av高清一区二区三区| 免费一级毛片在线播放傲雪网| 成人免费一级片| 成·人免费午夜无码视频在线观看| 国产一级毛片yw| 青青青亚洲精品国产| 亚洲欧美激情另类| 国产在线精品网址你懂的| 日韩区欧美区| 欧洲熟妇精品视频| 综合网久久| 亚洲综合色吧| 亚洲天堂久久新| 国产第一页亚洲| 色综合婷婷| 亚洲色图欧美一区| 国产精品林美惠子在线观看| 无套av在线| 亚洲中文字幕97久久精品少妇| 日韩色图区| 国产福利在线观看精品| 中文毛片无遮挡播放免费| 精品乱码久久久久久久| 国产视频大全| 国产福利小视频在线播放观看| 欧美成人免费一区在线播放| 日韩第八页| 久久中文无码精品| 日本欧美午夜| 亚洲国模精品一区| 国产精品va免费视频| 日本成人在线不卡视频| www.91在线播放| 欧美亚洲一二三区| 亚洲天堂在线视频| 亚洲国产日韩在线观看| 欧美一区二区自偷自拍视频| 国产精品9| 精品三级网站| 亚洲欧洲美色一区二区三区| 日韩精品亚洲一区中文字幕|