999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

眼動行為能表征科學知識建構嗎?

2025-06-17 00:00:00張琪黃志南蒲圻彬
現代教育技術 2025年5期
關鍵詞:眼動建構研究

【中圖分類號】G40-057【文獻標識碼】A【論文編號】1009—8097(2025)05—0062—09【DOI】10.3969/j.iss.1009-8097.2025.05.007

引言

深入探索真實多媒體環境下個體的認知規律與學習本質,是智能時代教育科學研究的重要議題。借助信息科技方法刻畫教育主體的認知過程,需要新研究范式的推動。在多學科交叉視角下,整合各學科的獨特方法優勢,可從多維數據中揭示內隱知識建構的認知機理[1]。其中,眼球運動行為與信息的識別和整合高度關聯[2:眼動研究范式能夠采集具有細粒度、實時性特征的過程性數據,有助于彌補傳統評測方式捕捉視覺注意力隨時間變化而出現的證據不足,因而逐漸成為教育技術研究的重要方法[3]。

認知心理學認為,知識建構涉及特征識別與多特征整合,其前提是學習者將注意力集中在所呈現的信息上,并從長時記憶中檢索相關存儲內容。盡管學術界普遍認為基于多媒體認知理論設計的教學資源能夠引發更有效的知識建構,但迄今鮮有直接客觀的證據揭示上述認知過程的具體機制[4。知識建構與論證緊密相關,作為個體的對話性活動,論證通過將所學事實或知識納入基于證據的解釋框架來支持知識建構。個體獨自的思考與表達本質上是自我解釋的過程,學習者在學習過程中通過對知識的深入理解和整合,借助論證梳理思路,并通過邏輯推理和證據促進知識建構。本研究旨在通過論證框架表征知識建構水平,基于多維數據分析刻畫眼動行為與知識建構之間的關系,以豐富多媒體學習理論的研究,為開發有效的多媒體資源設計與學習分析工具提供借鑒。

一研究現狀

利用眼動范式研究多媒體學習中的認知過程已有一定的生物學與神經科學基礎:中央凹作為視網膜中視覺最敏銳的區域,集中了絕大部分視錐細胞,學習者需要連續改變注視點,使注視范圍始終聚焦在學習區域?;诖?,本研究將從三個維度展開探討: ① 眼動指標與認知加工過程的關系; ② 科學教育場景中的眼動特征; ③ 基于論證視角的知識建構表征。

1眼動指標與認知加工過程

眼球的“定向-聚焦”機制決定了眼動的基本行為,這是一個由注視(Fixation)和眼跳(Saccade)組成的動態過程。在心理機制層面,“眼-腦一致假設”(Eye-MindHypothesis)和“信息檢索理論”(InformationRetrieval Theory)闡釋了眼動與認知加工的關系。眼動指標可以從時間、頻次和空間三個維度觀測:時間和頻次指標(如注視時間、轉移時間、注視頻次等)反映信息處理程度與認知建構深度[5]d];空間指標(如眼跳幅度、回視路徑等)表征多媒體環境下視覺注意力的焦點變化,可以反映信息處理與整合難度、學習效率和信息加工水平。當前,眼動技術評測知識建構的研究可以分為兩類:一是以多媒體學習認知理論等作為數字材料設計的指南,并利用眼動技術評估設計效果;二是通過實驗范式探索眼球運動的時間和空間特征、視覺注意行為和內隱認知過程的關系。有研究表明,視覺搜索效率與認知深度呈正相關,語言和圖像模型的有效整合是多媒體學習的核心,而眼動整合指標(如轉移時間、速度)與學習表現有關[7]。

部分研究嘗試利用機器學習方法對眼動指標進行建模,以預測教育場景中的學習能力與認知水平。例如,利用回歸分析探討學習者的視覺行為與認知結構之間的關系,發現注視時間與推理信息的比例是預測認知結構的最佳指標,而視覺注意力轉移是最重要的視覺注意特征[8]。有研究基于“雙向長短期記憶-條件隨機場”注視點預測模型,驗證了其閱讀能力預測的新穎性與優越性[9]。此外,對注視時間、注視點分布、眼跳等指標的機器學習建模表明,眼動特征比面部線索特征具有更強的學習專注度識別能力,能夠表征信息加工機制,反映學習者對學習材料的心理資源投入程度[10]。

2科學教育場景的眼動研究

科學教育場景的眼動研究聚焦于眼動行為與科學認知之間的關系,通過分析個體對科學圖表特征變化的認知敏感性,引導視覺注意力和視線方向,進而提升學習者解決問題的洞察力與推理能力。相關研究表明,學習者的眼動模式與概念建構的程度有關:視覺注意力(涉及注視頻次、總注視時間和平均注視時間)分配越集中,對科學知識的理解就越全面[]。在科學學習中,文本和圖形呈現的匹配研究表明,更長的平均注視時間通常意味著更好的學習表現[12]。

3基于論證視角的知識建構表征

知識建構的本質在于學習者對證據進行質疑和分析、對因果關系進行考慮和透視,以掌握學科的核心問題,這要求學習者具備“論證”能力。論證是科學素養的重要內容,是表征知識建構與高階思維的重要指標[13]。學習者在基于論點和數據來支持或反駁特定立場的過程中,能夠極大地優化和拓展個體知識的組織方式,同時深化個體對正確概念的理解。

論證包含判斷問題、列舉事實描述以及提供理論依據。認知靈活性是有效知識建構的前提,涉及產生想法、執行認知控制和靈活轉換心理表征。論證過程會激活學習者的認知和情感系統,與積極參與密切相關,并需要大腦多個區域的協同作用。學習者的情緒狀態和認知能力會影響論證的表現與質量。例如,皮膚電活動可作為情緒喚醒水平和交感神經興奮性的指標,能夠間接反映這類認知加工的神經調節機制。

上述分析表明,眼動范式在評估認知過程與學習績效中得到了較多應用,研究場景包括對不同媒介環境中眼球運動的測量,以及按特征、能力等分析不同學習群體的眼動數據差異。然而,當前研究還存在一些問題,主要包括: ① 較少從論證的本質出發,探索學習者對不同觀點的審視與協調過程; ② 多數研究在缺乏與其他生理數據交叉驗證的情況下直接解讀眼動結論,可能導致解釋偏差; ③ 從建模方法看,監督學習依賴數據特征與預處理,但自然學習情境中眼動數據受限、樣本不足,導致其預測建模研究匱乏。本研究重在探索基于眼動行為評估知識建構的方法,通過系統整合學習過程中的任務績效表現、眼動特征指標、皮膚電生理數據等,構建多維度數據關聯的分析框架,以揭示科學學習過程中眼動指標與知識建構的關系。

二研究設計

本研究應用電磁感應現象相關的科學學習實驗材料,基于廣義估計方程構建以知識建構水平為因變量、眼動指標為自變量的縱向數據分析模型,重點考察眼動時序特征指標的預測效能,同時整合皮膚電反應的生理喚醒數據與空間分布指標,系統探究眼動模式與知識建構過程的內在關聯機制。

1實驗材料

本研究主要考查學生對電磁感應現象和楞次定律的理解,此內容在教科版科學教材與中學物理教材均有體現。根據楞次定律的推論,安培力的效果總是阻礙磁通量的變化,穿過導體橫截面的電量只與磁通量的變化量有關,據此本研究設計了一道不定項選擇題。在題目評估階段,由2名科學教育教師對問題的有效性和題目的難度進行了評估,確定打分細則與權重分配。同時,本研究招募5名大一學生評估題目難度,以確定實驗時間。實驗材料的呈現分為文本與配圖兩個板塊,分別按照不同的選項和線框劃分興趣區(AreasofInterest,AOI),如圖1所示。

圖1實驗材料與興趣區劃分

2研究過程

實驗對象為安徽省H大學教育技術專業的大一學生,共計66名,所有被試的視力或矯正視力正常。選擇這些被試的原因主要在于:大一學生剛結束高中系統化的科學知識學習,具備一定的科學知識基礎;同時,大一學生思維活躍且未受專業細分限制,能代表同年齡段個體的學習情況。此外,選擇同一個專業的學生能夠控制個體的專業背景、學習習慣等干擾因素,從而提高實驗效度。得到實驗數據后,排除眼動數據中的極端異常值、校準誤差較大或存在缺失值的8名學生,本研究確定了58名有效被試,其中男生21名、女生37名。在實驗開始前,工作人員先向被試介紹實驗要求和注意事項,再使用簡單的視覺刺激材料進行實驗流程模擬,并開展操作預訓練,確保被試在正式實驗時能夠保持自然和穩定的狀態。

本研究使用TobiiProX3-120眼動追蹤系統采集眼動數據,測試材料在24寸液晶屏幕上呈現,屏幕分辨率為 1920×1080 像素。座椅放置距屏幕約70厘米,被試無需佩戴頭部設備,可以自由地小范圍移動;被試同時佩戴皮膚電穿戴設備,經過數據校準后,設置采樣頻率為1000HZ,以獲取連續的皮膚電導數據。本研究使用小波濾波器、巴特沃斯濾波器去除噪聲干擾,通過時間對齊,將眼動數據和皮膚電數據在時間軸上精確同步;設定眼動設備為主時鐘,啟動后在呈現實驗材料時同時觸發皮膚電設備采集,采用高精度時間戳標記數據;以實驗材料開始呈現為時間起點,確保每個時間點上的眼動行為數據與相應的生理喚醒數據準確對應。在實驗中,問題呈現時間為4分鐘,隨后被試需在2分鐘內細化思路并將其寫在紙上。

鑒于眨眼、頭部快速移動等動作會致使部分注視點數據出現異常,故本研究首先采用基于速度閾值的眼跳檢測方法,通過計算相鄰注視點位置的變化來識別眨眼區間,并去除相關異常數據;之后,利用移動平均法對皮膚電原始數據進行平滑操作,以降低因運動偽影、環境溫度變化等因素造成的數據波動;最后,界定實驗的時間范圍,剔除不穩定數據段,并進行數據正態化和標準化處理。

通過上述操作,本研究采集了三個眼動指標,分別為: ① 平均注視時間(Average FixationDuration,AFD),是指在閱讀材料期間以及退出閱讀之前,所有興趣區內注視時間的平均值,此指標能夠反映學習者對信息的選擇性。 ② 平均眼跳距離(AverageSaccadeDistance,ASD),是指所有注視點眼跳距離的平均值,此指標能夠反映學習者對信息的組織和加工程度。 ③ 興趣區轉移次數(AreaTransferCount,ATC),是指眼球運動從一個興趣區移動到另一個興趣區的總次數,此指標能夠反映信息整合能力,即學習者嘗試聯系不同內容以生成整合性理解的能力。

3研究方法

本研究使用廣義估計方程分析眼動指標與不同應答之間的關系,該建模方法能夠有效處理縱向數據的相關性問題,可以提供無偏標準誤估計,從而實現更準確的推斷。為保證參與被試間的等同性,同一被試被安排參與兩輪重復實驗,并結合相關指標的差異性分析與生理喚醒數據進行比較研究。兩輪實驗在間隔一周的同一時刻進行,并保證其實驗環境在光照、溫度、硬件設置等方面保持一致。為確定知識建構程度,本研究對學生作答筆錄進行了內容分析。依托改進的協調論證框架[14],本研究設計了知識建構水平編碼體系,如表1所示。其中,斷言是指對事件結果的判斷;數據可以是某個客觀事實,也可以是觀察到的現象、測量出的數據和命題中事件發生時的動作;支撐則指確保命題為真的理論依據。

表1知識建構水平編碼體系

在項目組與新加坡南洋理工大學的相關合作中,知識建構水平編碼體系得到了持續應用。知識建構水平的賦值規則為:選擇題分值2分,編碼體系各維度按無效觀點與有效觀點分別賦值0分、1.5分,加權分數的滿分為20分,高于14分視為合格(對應高低兩類群體)。在編碼過程中,由兩名研究者進行獨立編碼,其組內相關系數(IntraclassCorrelation Coefficient,ICC)為0.78,具有較好的一致性。

三研究結論

1眼動指標的差異性分析

(1)整體比較

獨立樣本T檢驗結果表明,眼動指標對反應準確性的影響達到了顯著水平。具體而言,回答合格群體的平均注視時間顯著高于回答不合格群體( 1=6.920 , p=0.000. ),且平均眼跳距離顯著低于回答不合格群體(t=-5.746,p=0.000) 。此外,回答合格群體的興趣區轉移次數顯著高于回答不合格群體

(2)不同區域比較

進一步比較眼動指標在圖像區域與文字區域的差異,結果顯示:在圖像區域,回答合格群體的平均注視時間顯著高于回答不合格群體( 1=6.920 , p=0.000) ,回答合格群體興趣區轉移次數顯著高于回答不合格群體( :1=3.425 , p=0.001 ),但平均眼跳距離顯著低于回答不合格群體( ?1=-5.746 , p=0.000) ;在文字區域,兩類應答群體眼動指標的差異性檢驗結果是平均注視時間( 1=0.57 , p=0.631 )、平均眼跳距離( 1=-0.446 p=0.782 )、興趣區轉移次數( 1=0.422 , p=0.534 )均無顯著性差異。

2眼動指標的廣義估計方程分析

(1)廣義估計方程建模

利用廣義估計方程分析眼動指標對知識建構水平的預測能力,結果如表2所示,可以看出:平均注視時間( B=0.328 , p=0.000 )正向預測知識建構水平,每增加100毫秒(“系統定義眼動注視時間”的一個標準差),其預測準確率 (e0.328=1.288) 增加 28.8% ;平均眼跳距離對知識建構的預測效果不顯著( .B=-0.102 p=0.098 );興趣區轉移次數對知識建構的預測效果不顯著( .B=0.002 , p=0.326 )。

表2眼動指標廣義估計方程分析結果
注: ***plt;0.001 ,B為標準化系數。
表3不同注視點的廣義估計方程建模結果
注: *plt;0.05 ,B為未標準化數值。

(2)不同注視點的廣義估計方程模型分析

為進一步分析哪一個注視點(FixationPoint,FP)的持續時間最能表征有效的知識建構,本研究以各注視點的持續時間為自變量建立廣義估計方程模型,結果如表3所示。表3顯示,與其他注視點相比,第2個、第3個、第7個注視點的持續時間能夠正向預測合格回答;第7個注視點的持續時間對預測學習者合格回答的可能性最高( B=0.018 , plt;0.05 ),其次是第2個注視點( B=0.013 , plt;0.05 )、第3個注視點( ?=0.008 , plt;0.05 );在第7個注視點上每增加100 毫秒,其預測準確率( e0.018=1.093 )增加 9.3% 1同樣,在保持其他注視點不變的情況下,在第2個( e0.013=1.071 )、第3個注視點( e0.008=1.06 )上每增加100 毫秒,預測準確率會分別增加 7.1% , 6% 。

3關鍵注視點的多維數據分析

(1)注視時間與頻次分析

為了進一步闡明第2個、第3個、第7個注視點的預測效能,本研究檢驗了這三個注視點所在位置的總注視頻次和總注視時間的差異,結果表明:回答合格群體在第3個注視點( (1=2.050 , p=0.047 )、第7個注視點( 1=2.114 , p=0.039 )上的注視時間顯著高于回答不合格群體;同時,回答合格群體在第3個注視點中 1=2.016 , p=0.048 )、第7個注視點( 1=2.150 , p=0.036 )上的注視頻次也顯著高于回答不合格群體。

(2)喚醒水平分析

生理喚醒值通過皮膚電導獲取。參照生物數據基線評估方案[15],本研究進行了包括閉眼、睜眼、斯特魯普任務(Stroop 范式)在內的基線評估,所有的任務均在實驗場景中以坐姿進行。參照Nourbakhsh 等[16]得出的“皮膚電在時域上的差異化程度能夠反映喚醒水平波動”的研究結論,本研究采用“差異分數”方法界定學習任務中的喚醒水平,其計算如公式(1)所示。其中,AS為對應點喚醒分值,SCI為特定注視點持續時間(通過眼動適配軟件中的“GazeEventDuration”參數獲得)對應的皮膚電導,SCb為皮膚電導基線值,SCt為任務期間的皮膚電導。

利用公式(1),本研究計算了第 1~ 第10個注視點對應的學習者喚醒水平,結果如圖2所示。10個注視點對應的喚醒數值分別為:注視點1( ΔM=0.396 , SD=0.208 )、注視點2( ΔM=0.531 , SD=0.190 )、注視點3( M=0.513 , SD=0.223 )、注視點4( ?M=0.458 , SD=0.215 )、注視點5( ?M=0.362 , SD=0.171 )、注視點6( .M=0.420 , SD=0.172 )、注視點7( 1=0.496 , SD=0.189 )、注視點8( ?M=0.473 , SD=0.241 )、注視點9( M=0.373 , SD=0.149 )、注視點10( ΔM=0.343 , SD=0.151 )。對10個注視點對應的喚醒數值進行方差分析,結果顯示不同注視點的喚醒水平存在顯著性差異( ?F=6.644 , plt;0.001 , η2=0.099 )。結合TukeyHSD事后比較結果和圖2可知,第2、3、7這三個關鍵點對應高喚醒水平,而高喚醒水平會延續至下一個注視點,此后逐漸衰減,因而喚醒值呈“雙倒U形”分布。

(3)眼動熱圖分析

上述分析揭示了多媒體學習材料中“關鍵區域”的價值。基于TobiiProLab眼動分析工具,本研究繪制了回答合格群體、回答不合格群體這兩類應答群體的眼動熱圖,如圖3所示。其中,回答合格群體傾向于在第7個注視點附近保持更長的注視時間,故“金屬框ab邊”進入磁場后的“關鍵區域”呈高亮顯示,如圖3(a)所示;相比之下,回答不合格群體在“關鍵區域”的注視時間較短,而在“金屬框ab邊”未進入磁場前的注視時間較長,如圖3(b)所示。

圖2不同注視點對應的喚醒水平圖3兩類應答群體的眼動熱圖

四分析與討論

1對結論的分析

(1)眼動行為與知識建構之間存在密切關聯

研究證實了認知過程中的眼動行為與知識建構之間存在密切關聯。鑒于有效注視需要視網膜中央凹對準目標并持續一定時間,學習者若聚焦于界面局部區域進行任務加工,視覺注意轉移速度會降低,注視時間會因此延長,這表明學習者進行了更深入的信息處理。高注視時長也表明學習者有效學習時進行了較多的信息整合與加工,即在眼跳前的注視中獲得了相對豐富的信息。

此外,回答合格群體的平均眼跳距離顯著低于回答不合格群體,表明多次嘗試整合材料內容是高知識建構的前提。眼跳幅度是反映眼睛采樣空間稀疏程度的指標。在視覺任務中,眼跳幅度越小,采樣點越密集,視覺行為的精細程度越高,據此可以推測眼跳幅度與視覺行為的精細程度密切相關。學習者在進行全局視覺初加工(如瀏覽狀態)時,視覺注意轉移跨度大,可能對應較大的眼跳幅度;反之,在進行界面局部精跟蹤時,小幅度的眼跳反映了學習者正在關注掃視點所在的局部區域?;卮鸷细袢后w在興趣區的視覺注意力高頻轉移現象為“眼動轉移是多媒體環境中信息整合的關鍵”這一觀點提供了支持,表明文字與圖片的相互參照是知識建構的前提。研究還發現,眼動指標因材料呈現形式不同而存在差異:在圖片區域,回答合格群體和回答不合格群體的注視時間、眼跳距離、轉移次數之間均存在顯著差異,而文本演示文稿中無此現象。這表明圖片信息密度和吸引力大于文本,學習者需要投入更多的視覺行為以有效理解信息。

(2)“關鍵區域”的注視時間反映知識建構水平

廣義估計方程表明,平均注視時間是學習者能否正確建構科學概念的關鍵指標?;卮鸷细袢后w在特定注視點(第2個、第3個、第7個)的注視時間最長,表明特定注視區域的停留能反映學習者更專注于“問題解決關鍵區域”的信息推理,體現對核心問題的聚焦思考。結合平均眼跳距離的數據可以推測,知識建構水平與學習者將視線投向何處、在關鍵區域停留多長時間有關。因此,有效的知識建構不僅需要關注內容“關鍵區域”,還需要學習者在相關內容上分配更多的時間,利用較短眼跳增加信息加工的次數。

(3)喚醒水平能夠表征個體的心理投入

在動機性媒介化訊息加工的有限容量理論模型(LC4MP[17])中,喚醒反映了個體具體的需求和動機系統的激活強度,有助于其對周圍事件做出適應性反應。連續注視點的喚醒數值顯示,不同注視點誘導的心理投入存在差異。關鍵注視點的激活水平先上升后下降,之后恢復并維持較高水平,這種“恢復模式”表明個體通過重新投入精力來完成任務。從“探索-利用權衡”視角推測,高喚醒水平通過釋放神經遞質維持緊張狀態,有助于學習者處理更多事件并提升認知的靈活性。

2研究啟示

上述研究結論為多媒體信息設計帶來了有益啟示: ① 優化空間布局。小幅度眼跳與高信息整合、深度認知加工有關,因此應關注相關元素的空間臨近設計和多媒體信息呈現的密度,縮短核心要素的視覺距離,使學習者能夠高效檢索相關信息;同時減少視線漂移,以提升對不確定信息的理解效率。 ② 聚焦關鍵區域設計。本研究驗證了選擇性視覺注意對有效知識建構的作用,據此需要精細化設計“關鍵區域”的表征方式,利用高亮、對比、標注等方式突出重要概念,引導視線在區域停留,以提升有效知識建構的可能性。同時,可以將特定區域的注視變量納入數據建模,以便當檢測注視時長低于閾值時能觸發相應的提示或干預策略。 ③ 關注喚醒水平。鑒于積極參與是學習投入的前置條件,且認知投入與認知資源、激活記憶過程的方式高度相關,因此可將喚醒視為學習投入尤其是認知投入的指標之一。這就需要關注影響喚醒水平的中介要素,以更為有效的敘事方式、視覺信號與支架創設,幫助學習者調整視覺行為的速度與指向。

五結語

在教育科學場景中如何基于細粒度學習數據來表征教育系統的演化數理邏輯,是一個亟待突破的關鍵問題。對此,后續研究需要關注更細粒度的眼球指標維度,如平滑追蹤(Smooth Pursuit)、眼球震顫(Nystagmus)等,進一步分析不同樣本的泛化性能,并納入先驗知識、個性特征等中介變量進行分析。另外,后續研究也需要拓展研究場景,關注眼動數據的生理同步性,以及知識建構過程中學習者的會話類別和質量分析[18],以深入探索虛實融合場景中的學習機理,設計更具適應性的個性化學習支架與干預策略。

參考文獻

[1]黃昌勤,徐亞婷,王希哲,等.多學科交叉視角下教學中人際互動實現知識建構的認知機理探析[J].現代教育技 術,2023,(12):14-25.

[2]Kok E,Hormann O,Rou J,etal.Re-viewing performance: Showing eye-tracking dataas fedback to improve performance monitoring in a complex visual task[J]. Journal of Computer Assisted Learning, 2022,(4):1087-1101.

[3]張琪,楊玲玉.e-Leaming環境學習測量研究進展與趨勢——基于眼動應用視角[J].中國電化教育,2016,(1):68-73.

[4]Alemdag E, CagiltayK.A systematic review of eye tracking research on multimedia learning[J]. Computers amp; Education, 2018,125:413-428.

[5]RaynerK.Eyemovements ineadingandinformatioproceing: 20yearsofreseachJ].PsychologicalBulletin,998:372.

[6]Kruger JL,Doherty S.Measuring cognitive load in thepresenceof educational video: Towards a multimodal methodology[J]. Australasian Journal of Educational Technology, 2016,(6):19-31.

[7]KeF,LiuR,SokolkjZ,etal.Using eye-trackingineducation:ReviewofmpiicalresearchandtechoogyJ].Eductioal Technology Research and Development, 2024,(3):1383-1418.

[8]Wang CY,Tsai MJ,Tsai CC.Predictingcognitive structuresand information processing modes byeye-tracking when reading controversial reportsabout socio-scientific issues[J]. Computers inHuman Behavior,2020,112:106471.

[9]王曉明,趙歆波.基于深度神經網絡的個體閱讀眼動預測[J].清華大學學報(自然科學版),2019,(6):468-475.

[10]武法提,賴松,高姝睿,等.聯合面部線索與眼動特征的在線學習專注度識別[J].中國電化教育,2022,(11):37-44.

[11]YangFY.Examining thereasoning ofconflictingscience information fromthe informationprocessingperspective:Aneye movement analysis[J]. Journal of Research in Science Teaching, 2017,(1O):1347-1372.

[12]Ozcelik E,Karakus T,Kursun E,etal.Aneye-tracking studyof howcolorcoding afectsmultimedia learning[J] Computers amp; Education, 2009,(2):445-453.

[13]Erduran S,Ardac D,Yakmaci-Guzel B. Leaming to teach argumentation: Case studies of pre-service secondary science teachers[J].Eurasia Journal of Mathematics, Science and Technology Education,2O06,(2):1-14.

[14]Heng LL,SurifJ,Seng CH.Malaysianstudents’scientific argumentation: Do groupsperformbeter thanindividuals?[J]. International Journal of Science Education, 2015,(3):505-528.

[15]Biofeedback Federation of Europe. Integrative medicine software[OL].

[16]NourbakhshN, Wang Y, Chen F,et al. Using galvanic skin response forcognitive load measurement in arithmetic and readingtasks[A].Proceedingsofthe24thAustralianComputer-Human InteractionConference[C].Melbourne,Australia: ACM, 2012:420-423.

[17]Lauriro-Martiez D,Brusoni S, Zollo M.Theneuroscientific foundations of the exploration-exploitation dilemma[J]. Journal of Neuroscience, Psychology, and Economics,2010,(2):95.

[18]馬志強,王文秋.面向協作知識建構會話的智能觀點分類研究——基于深度神經網絡與會話分析的融合方法[J].現 代教育技術,2022,(6):5-14.

Can Eye-movement Behaviors Represent the Scientific Knowledge Construction?

-Multidimensional Data Analysis Based on the Argumentation Perspective

ZHANG Qi1 HUANG Zhi-Nan2[Corresponding Author] PU Qi-Bin1 (1.School ofEducation,HuaibeiNormalUniversity,Huaibei,Anhui,China 23500;

CenterforEducaionalTchnologyndRsourceDevelopment,inistryofEducation,PR.Cina,eijing,hna1

Abstract: Exploring thecognitive mechanism in learning processthrough fine-grained data is anurgent issue to be broken through in educational discipline.Inthis regard,thepaperconstructeda knowledgeconstruction codingsystem,analzedthe relationship betweeneye-movement indicatorsand knowledge construction in the process of science learming through employinggeneralizedestimating equations,andconducted multi-dimensionaldata (including fixationtime,fixationfrequency kin electricalarousal level,and eye movement heatmap)analysisonkey fixation points. Studies found that there was a close correlation between eye-movementbehaviorand knowledgeconstruction.Theaverage fixationtime positivelypredicted the levelof knowledgeconstruction,among whichtheduratiosof thesecond,thirdandseventh fixationpoints exhibitedthe greatest predictiveeffcacyandcorrspondedto hgherarousal level.Theresearchofthispapervalidatedthe feasibilityofeyemovement behaviorrepresenting the knowledgeconstruction,revealed thevalueof‘keyareas”inmultimedia materials,and provided empirical basis for information design and adaptive system development.

Keywords: eye-movement behavior; knowledge construction; arousal level; scientific learning

猜你喜歡
眼動建構研究
FMS與YBT相關性的實證研究
基于眼動的駕駛員危險認知
基于ssVEP與眼動追蹤的混合型并行腦機接口研究
載人航天(2021年5期)2021-11-20 06:04:32
消解、建構以及新的可能——阿來文學創作論
阿來研究(2021年1期)2021-07-31 07:38:26
遼代千人邑研究述論
殘酷青春中的自我建構和救贖
視錯覺在平面設計中的應用與研究
科技傳播(2019年22期)2020-01-14 03:06:54
EMA伺服控制系統研究
建構游戲玩不夠
緊抓十進制 建構數的認知體系——以《億以內數的認識》例談
主站蜘蛛池模板: 制服丝袜在线视频香蕉| 天天躁狠狠躁| 国产亚洲日韩av在线| 狠狠干综合| 国产剧情一区二区| 日韩AV手机在线观看蜜芽| 中文无码精品A∨在线观看不卡| av天堂最新版在线| 欧美一区国产| 97国产在线视频| 青青操国产| 亚洲AV无码乱码在线观看裸奔| 国产性爱网站| 亚洲AV成人一区国产精品| 亚洲水蜜桃久久综合网站| 91青草视频| 日韩A级毛片一区二区三区| 亚洲一区精品视频在线| 成人在线观看一区| 久久毛片免费基地| 成人免费午间影院在线观看| 国产小视频网站| 亚洲国产精品日韩av专区| 无码在线激情片| 精品综合久久久久久97超人| 热久久综合这里只有精品电影| 欧美三级视频网站| 国产swag在线观看| 午夜成人在线视频| 国产第一页亚洲| av在线5g无码天天| 5555国产在线观看| 欧美a在线看| 日韩在线第三页| 成人中文在线| 中文字幕在线看视频一区二区三区| 日韩欧美中文字幕一本| 亚洲精品无码专区在线观看| 2022精品国偷自产免费观看| 91精品久久久久久无码人妻| 亚洲综合九九| 午夜限制老子影院888| 国产精品成人第一区| 99福利视频导航| 999精品色在线观看| 欧美日本视频在线观看| 无码精品国产VA在线观看DVD| 精品久久高清| 国产精品综合久久久| 制服丝袜一区二区三区在线| 在线播放真实国产乱子伦| 精品久久久久久久久久久| 热思思久久免费视频| 国产18在线播放| 国产精品人人做人人爽人人添| 在线99视频| 国产91透明丝袜美腿在线| 成人在线观看不卡| 麻豆精品国产自产在线| 国产a v无码专区亚洲av| 在线无码九区| 国产成人欧美| 中文字幕在线播放不卡| 午夜国产在线观看| 国产激情无码一区二区三区免费| 视频一本大道香蕉久在线播放| 538国产视频| 91精品福利自产拍在线观看| 热re99久久精品国99热| 亚洲AV无码精品无码久久蜜桃| 99久久精品国产麻豆婷婷| 五月天在线网站| 亚洲无线视频| 天天色天天综合网| 67194在线午夜亚洲| 久综合日韩| 91亚洲国产视频| 91网址在线播放| 国产欧美高清| 真人高潮娇喘嗯啊在线观看| 国产性精品| 欧美97欧美综合色伦图|