一、問(wèn)題提出
堅(jiān)毅力是指?jìng)€(gè)體在學(xué)習(xí)、生活的一定過(guò)程中制定并追求目標(biāo)實(shí)現(xiàn),策略性地保持持續(xù)努力、情感積極度以及心理努力的一種能力,具有行為、情感以及認(rèn)知3個(gè)屬性特征[1]。研究表明,堅(jiān)毅力來(lái)源于積極心理學(xué),對(duì)人們的生產(chǎn)、生活、學(xué)習(xí)等產(chǎn)生了重要作用[23]。目前,堅(jiān)毅力作為學(xué)生綜合素質(zhì)的重要組成部分,重要性日益明顯,其已然成為我國(guó)未來(lái)人才培養(yǎng)的核心目標(biāo)之一[4。因此,對(duì)學(xué)生堅(jiān)毅力的測(cè)評(píng)分析研究十分有意義。研究者們?cè)谶@一領(lǐng)域開(kāi)展了諸多探索,比如探究測(cè)評(píng)要素、開(kāi)發(fā)測(cè)評(píng)工具、開(kāi)展面向基礎(chǔ)教育至高等教育領(lǐng)域的測(cè)評(píng)應(yīng)用等。然而,可以看到的是,測(cè)評(píng)主要通過(guò)自陳式量表實(shí)現(xiàn),學(xué)生在測(cè)評(píng)過(guò)程中難免會(huì)受社會(huì)稱許性影響[5,不能得到較為客觀與真實(shí)的測(cè)評(píng)結(jié)果。盡管已有研究借助智能技術(shù)以及腦科學(xué)研究成果開(kāi)始對(duì)學(xué)生堅(jiān)毅力測(cè)評(píng)的客觀量化與內(nèi)隱機(jī)制進(jìn)行探索,但大部分是基于單一模態(tài)數(shù)據(jù)[,鮮有研究基于場(chǎng)景融合真實(shí)表現(xiàn)的多模態(tài)數(shù)據(jù)開(kāi)展對(duì)學(xué)生堅(jiān)毅力的智能化測(cè)評(píng)。
為了解決這一問(wèn)題,本研究團(tuán)隊(duì)前期以多模態(tài)學(xué)習(xí)分析技術(shù)的支持和面向場(chǎng)景真實(shí)表現(xiàn)的測(cè)評(píng)思想為切入點(diǎn),構(gòu)建了學(xué)生堅(jiān)毅力測(cè)評(píng)的理論模型,開(kāi)發(fā)了基于科學(xué)探究活動(dòng)場(chǎng)景的學(xué)生堅(jiān)毅力測(cè)評(píng)工具(即數(shù)據(jù)采集工具),并設(shè)計(jì)了學(xué)生堅(jiān)毅力測(cè)評(píng)的多模態(tài)數(shù)據(jù)表征。前期研究解決了學(xué)生堅(jiān)毅力測(cè)評(píng)的理論模型、測(cè)評(píng)工具、多模態(tài)數(shù)據(jù)表征是什么的問(wèn)題,但尚未解決多模態(tài)數(shù)據(jù)如何計(jì)算的問(wèn)題。
本研究是前期研究的深入實(shí)踐應(yīng)用,核心研究問(wèn)題為“如何對(duì)學(xué)生堅(jiān)毅力測(cè)評(píng)的多模態(tài)數(shù)據(jù)進(jìn)行計(jì)算?”。具體細(xì)分為以下四個(gè)子研究問(wèn)題:(1)學(xué)生堅(jiān)毅力測(cè)評(píng)的多模態(tài)數(shù)據(jù)特征如何提取? (2)學(xué)生堅(jiān)毅力測(cè)評(píng)的多模態(tài)數(shù)據(jù)如何融合并計(jì)算? (3)如何構(gòu)建基于多模態(tài)數(shù)據(jù)的學(xué)生堅(jiān)毅力測(cè)評(píng)可計(jì)算模型,并計(jì)算結(jié)果? (4)可計(jì)算模型的實(shí)踐有效性如何?本研究以前期的理論體系、工具體系以及數(shù)據(jù)體系為基礎(chǔ),采用自上而下的研究范式展開(kāi)對(duì)上述研究問(wèn)題的探究,以期為學(xué)生堅(jiān)毅力測(cè)評(píng)提供一種智能化測(cè)評(píng)方法體系,突破傳統(tǒng)學(xué)習(xí)評(píng)價(jià)技術(shù)所帶來(lái)的學(xué)生堅(jiān)毅力測(cè)評(píng)現(xiàn)實(shí)問(wèn)題,同時(shí)也期望能為未來(lái)學(xué)生高階能力集的測(cè)評(píng)提供借鑒與參考。
二、研究設(shè)計(jì)
(一)理論模型
研究采用NVivo11軟件對(duì)國(guó)內(nèi)外堅(jiān)毅力研究的權(quán)威期刊文獻(xiàn)與報(bào)告進(jìn)行分析,批判性構(gòu)建學(xué)生堅(jiān)毅力測(cè)評(píng)的初始理論模型。在初始理論模型之上,研究采用德?tīng)柗品ǎO(shè)計(jì)專家函詢問(wèn)卷,邀請(qǐng)15位專家(心理測(cè)量領(lǐng)域、教育技術(shù)領(lǐng)域以及一線教學(xué)實(shí)踐領(lǐng)域各5位)進(jìn)行三輪論證。最終,通過(guò)三輪專家論證的數(shù)據(jù)結(jié)果分析,研究構(gòu)建包含堅(jiān)毅的行為性、堅(jiān)毅的情感性、堅(jiān)毅的認(rèn)知性等3個(gè)一級(jí)指標(biāo),專注性、堅(jiān)持性、積極情感、消極情感、目標(biāo)意識(shí)、自我監(jiān)控等6個(gè)二級(jí)指標(biāo)的學(xué)生堅(jiān)毅力測(cè)評(píng)理論模型①。
(二)采集工具
借鑒基于在線的能力測(cè)評(píng)思路,本著學(xué)評(píng)融合的新理念,以科學(xué)探究活動(dòng)為場(chǎng)景,以理論模型為指導(dǎo),研究對(duì)學(xué)生堅(jiān)毅力測(cè)評(píng)工具(即數(shù)據(jù)采集工具)進(jìn)行設(shè)計(jì)(線上線下相結(jié)合形式)。為了評(píng)估工具內(nèi)容設(shè)計(jì)的科學(xué)性與工具表現(xiàn)性任務(wù)質(zhì)量的可靠性,研究采用自上而下的專家咨詢方式進(jìn)行工具的第一輪修訂;為了用數(shù)據(jù)驗(yàn)證工具可靠性的論證結(jié)果,研究采用自下而上的方式采集試測(cè)學(xué)生在科學(xué)探究活動(dòng)場(chǎng)景下的堅(jiān)毅力多模態(tài)數(shù)據(jù)進(jìn)行分析,并結(jié)合學(xué)生、家長(zhǎng)、教師與專家咨詢結(jié)果對(duì)工具進(jìn)行第二輪的修改。最后,研究開(kāi)發(fā)形成了由“目標(biāo)信息 + 學(xué)習(xí)視頻 + 學(xué)習(xí)任務(wù)單”三部分組成的數(shù)據(jù)采集工具,由12道題構(gòu)成(觀看學(xué)習(xí)視頻、任務(wù)的情境性信息除外),在線呈現(xiàn)共10頁(yè)②。
(三)研究對(duì)象
研究選擇四年級(jí)學(xué)生作為數(shù)據(jù)采集的對(duì)象。主要有如下緣由:第一,中小學(xué)階段是堅(jiān)毅力形成和發(fā)展的關(guān)鍵時(shí)期。第二,研究借鑒了國(guó)內(nèi)義務(wù)教育質(zhì)量監(jiān)測(cè)與OECD(Organization for Economic Co-operation andDevelopment)社會(huì)與情感能力測(cè)評(píng)的對(duì)象選擇經(jīng)驗(yàn),并考慮了數(shù)據(jù)采集工具的情境適應(yīng)性、內(nèi)容匹配度和任務(wù)難易度。在綜合考慮經(jīng)濟(jì)發(fā)展水平、地域分布、參與積極性等因素后,研究最后采用方便抽樣方法進(jìn)一步選擇B大學(xué)附屬學(xué)校參與測(cè)評(píng)的四年級(jí)學(xué)生作為數(shù)據(jù)采集對(duì)象。
(四)特征設(shè)計(jì)
基于學(xué)生堅(jiān)毅力測(cè)評(píng)理論模型與數(shù)據(jù)采集工具,研究設(shè)計(jì)了理論模型每個(gè)二級(jí)指標(biāo)的初始數(shù)據(jù)表征,并邀請(qǐng)8位領(lǐng)域?qū)<遥ㄐ睦頊y(cè)量領(lǐng)域、教育技術(shù)領(lǐng)域)進(jìn)行論證,得到修訂后的數(shù)據(jù)特征共22個(gè)(如表1所示),以指導(dǎo)多模態(tài)數(shù)據(jù)采集。需要說(shuō)明的是,結(jié)合對(duì)工具試測(cè)的前期實(shí)踐總結(jié)與測(cè)評(píng)工具、測(cè)評(píng)場(chǎng)景(科學(xué)探究活動(dòng)場(chǎng)景)的分析,研究中所有數(shù)據(jù)特征均與場(chǎng)景密切相關(guān)。

(五)數(shù)據(jù)采集
科學(xué)探究活動(dòng)是本研究多模態(tài)數(shù)據(jù)采集的場(chǎng)景,具體數(shù)據(jù)采集技術(shù)路線如下頁(yè)圖1所示。

研究將數(shù)據(jù)采集工具部署在自主研發(fā)的學(xué)生綜合評(píng)價(jià)與發(fā)展平臺(tái)(StudentEvaluation Enhancing Development,SEED)上,然后學(xué)生在家里使用手機(jī)或者電腦登錄平臺(tái)在規(guī)定的時(shí)間內(nèi)完成測(cè)評(píng)任務(wù)。單次連續(xù)性完成測(cè)評(píng)任務(wù)的平均時(shí)間為40分鐘。需要說(shuō)明的是,學(xué)生在完成測(cè)評(píng)任務(wù)的過(guò)程中,可以隨時(shí)退出與進(jìn)入。在這一過(guò)程中,研究通過(guò)學(xué)生端的攝像頭通道采集學(xué)生完成測(cè)評(píng)任務(wù)的相關(guān)視頻數(shù)據(jù)(頭部姿態(tài)、行為動(dòng)作序列、面部表情)、圖像數(shù)據(jù)(自我反思報(bào)告),通過(guò)在線平臺(tái)通道采集學(xué)生完成測(cè)評(píng)任務(wù)的相關(guān)文本數(shù)據(jù)(自我反思報(bào)告、目標(biāo)信息題項(xiàng)答案)、平臺(tái)日志數(shù)據(jù)(系統(tǒng)行為日志)。
數(shù)據(jù)采集時(shí)間從2022年12月1日8:00開(kāi)始至2023年8月4日18:00結(jié)束。經(jīng)統(tǒng)計(jì),共有B大學(xué)附屬學(xué)校的31所學(xué)校、3534名四年級(jí)學(xué)生完整完成了(不含自愿放棄)測(cè)評(píng),涵蓋我國(guó)東部、中部、西部以及東北地區(qū)17個(gè)省(自治區(qū)、直轄市)。整體而言,研究共采集到3534名四年級(jí)學(xué)生有關(guān)堅(jiān)毅力表現(xiàn)的作答數(shù)據(jù),包括目標(biāo)信息題項(xiàng)答案、實(shí)驗(yàn)操作視頻、自我反思報(bào)告,以及514029條行為日志數(shù)據(jù),包括發(fā)生時(shí)間(點(diǎn)擊事件時(shí)的時(shí)間)、事件持續(xù)時(shí)間(毫秒)等。
高質(zhì)量的數(shù)據(jù)是構(gòu)建可計(jì)算模型的基礎(chǔ)。因此,研究通過(guò)學(xué)生上傳視頻與圖片質(zhì)量的雙保證來(lái)進(jìn)行數(shù)據(jù)篩選。實(shí)驗(yàn)操作視頻篩選的原則為:(1)畫(huà)質(zhì)清晰、無(wú)遮擋、采光好;(2)視頻時(shí)長(zhǎng)至少1分鐘;(3)視頻中最多2人(2人時(shí),人物須為家長(zhǎng)和學(xué)生);(4)視頻中學(xué)生畫(huà)面完整,基本處于畫(huà)面中間,但不過(guò)多充滿整個(gè)畫(huà)面;(5)視頻中主要是學(xué)生進(jìn)行動(dòng)手實(shí)驗(yàn)(家長(zhǎng)過(guò)多輔助不要);(6)視頻不進(jìn)行倍速處理。圖片篩選的原則為: (1)圖片清晰、不模糊,可以看清字體、字形、字跡;(2)圖片內(nèi)容與要求的自我反思內(nèi)容有關(guān),而非語(yǔ)文作文、風(fēng)景畫(huà)等。基于以上原則,研究對(duì)上述3534名四年級(jí)學(xué)生的實(shí)驗(yàn)操作視頻和自我反思報(bào)告圖片進(jìn)行了逐一審核,最終篩選出511名學(xué)生的原始作答數(shù)據(jù)(目標(biāo)信息題項(xiàng)答案、實(shí)驗(yàn)操作視頻、自我反思報(bào)告)。每名學(xué)生每類數(shù)據(jù)均以一條記錄存儲(chǔ)在數(shù)據(jù)表中。進(jìn)一步地,研究篩選出80421條行為日志數(shù)據(jù)。
三、學(xué)生堅(jiān)毅力測(cè)評(píng)數(shù)據(jù)特征提取
從表1中可以看出,22個(gè)數(shù)據(jù)特征歸屬于日志數(shù)據(jù)、文本數(shù)據(jù)以及視頻數(shù)據(jù)等三類數(shù)據(jù)中。為了從原始數(shù)據(jù)中提取到相應(yīng)的數(shù)據(jù)特征,研究針對(duì)不同數(shù)據(jù)類型選擇不同的特征提取方法,但是同類型數(shù)據(jù)的不同特征提取方法有類似之處,具體如表2所示。

(-) 日志數(shù)據(jù)特征提取
研究中日志數(shù)據(jù)特征提取采用統(tǒng)計(jì)計(jì)算方法即可得到。具體而言:應(yīng)對(duì)不同的特征提取需求,有些可以直接統(tǒng)計(jì)得到,有些需要經(jīng)過(guò)一定的計(jì)算方式轉(zhuǎn)換才能得到。基于此,研究得到日志數(shù)據(jù)6個(gè)特征的具體計(jì)算公式或方法,具體如表3所示。

基于以上方式,研究計(jì)算得到了511名學(xué)生的日志數(shù)據(jù)特征,示例如下頁(yè)圖2所示。

文本數(shù)據(jù)特征提取
當(dāng)前,成熟的自然語(yǔ)言處理技術(shù)能夠解決絕大部分教育場(chǎng)景下的文本數(shù)據(jù)特征提取問(wèn)題,包括關(guān)鍵詞提取、文本分類、情感分析等[][]。這為本研究文本數(shù)據(jù)特征提取提供了解決方案。結(jié)合實(shí)際,研究中文本數(shù)據(jù)特征提取分為三類:基于答案的直接賦分、基于模型分類的評(píng)分以及基于明確關(guān)鍵詞的評(píng)分。
1.基于答案的直接賦分
UGS的特征值通過(guò)基于答案的直接賦分得到,依據(jù)學(xué)生選擇的不同目標(biāo)信息答案賦予不同的分值。以10分為該題的滿分,每個(gè)選項(xiàng)以2.5分為等差進(jìn)行累加。結(jié)合4個(gè)目標(biāo)選項(xiàng)實(shí)現(xiàn)周期的長(zhǎng)短,研究分別賦予2.5分、5分、7.5分、10分。
2.基于模型分類的評(píng)分
PTS、NTS、RSCS的特征值通過(guò)基于模型分類的評(píng)分得到。基本思路是先設(shè)計(jì)評(píng)分框架,然后依據(jù)評(píng)分框架人工標(biāo)注樣本,最后是訓(xùn)練與應(yīng)用分類模型,自動(dòng)輸出類別或者類別概率,進(jìn)而轉(zhuǎn)換成相應(yīng)分值。一般而言,訓(xùn)練樣本是總樣本的約2/3一4/5。但是,為了使分類模型對(duì)511名學(xué)生文本數(shù)據(jù)中的自我監(jiān)控水平、情感傾向類型具有更好地識(shí)別力,研究先以采集的所有學(xué)生數(shù)據(jù)為基礎(chǔ)構(gòu)建預(yù)訓(xùn)練模型,再將訓(xùn)練好的模型應(yīng)用于511條數(shù)據(jù)中。
經(jīng)過(guò)人工標(biāo)注數(shù)據(jù)后(自我監(jiān)控水平標(biāo)注一致性的QWK系數(shù)為0.9175,情感傾向標(biāo)注一致性的QWK系數(shù)為0.9238),研究采用支持向量機(jī)(SupportVectorMachines,SVM)、決策樹(shù)(DecisionTree,DT)、隨機(jī)森林(RandomForest,RF)、梯度提升決策樹(shù)(GradientBoostingDecisionTree,GBDT)、BERT等經(jīng)典算法進(jìn)行模型訓(xùn)練,并使用5折交叉驗(yàn)證法進(jìn)行模型評(píng)估,最后發(fā)現(xiàn)BERT算法的表現(xiàn)性能更優(yōu),即自我監(jiān)控水平分類的準(zhǔn)確率達(dá)到 76.9% ,精確率達(dá)到 73.8% ,召回率達(dá)到 77.2% ,AUC面積為0.793,情感傾向分類的準(zhǔn)確率達(dá)到 81.4% ,精確率達(dá)到 77.1% ,召回率達(dá)到 74.3% ,AUC面積為0.808,均達(dá)到性能評(píng)估要求。因此,研究采用BERT模型對(duì)PTS、NTS、RSCS進(jìn)行自動(dòng)分類,并將類別轉(zhuǎn)換為分值(即特征值)。
3.基于明確關(guān)鍵詞的評(píng)分
SRPS、SRGS的特征值通過(guò)基于明確關(guān)鍵詞的評(píng)分得到。基于明確關(guān)鍵詞的評(píng)分基本思路是先制定人工評(píng)分規(guī)則進(jìn)行評(píng)分,再將人工評(píng)分規(guī)則轉(zhuǎn)換為機(jī)器評(píng)分規(guī)則,利用關(guān)鍵詞進(jìn)行自動(dòng)評(píng)分。
具體而言:第一,制定人工評(píng)分規(guī)則進(jìn)行評(píng)分。針對(duì)SRPS、SRGS的含義,先分別制定了特征計(jì)算的人工評(píng)分規(guī)則,再邀請(qǐng)2位領(lǐng)域?qū)<遥ń逃夹g(shù)領(lǐng)域、心理與教育測(cè)評(píng)領(lǐng)域)進(jìn)行了科學(xué)性與可行性評(píng)估,最后開(kāi)展了基于典型真實(shí)數(shù)據(jù)(SRPS代表性數(shù)據(jù)65條、SRGS代表性數(shù)據(jù)50條)的人工評(píng)分一致性檢驗(yàn)(SRPS的QWK系數(shù)為0.9175,SRGS的QWK系數(shù)為0.9856);其中SRPS的人工評(píng)分規(guī)則分為4條,對(duì)應(yīng)評(píng)分分值為0分、1分、2分、3分,SRGS的人工評(píng)分規(guī)則分為3條,對(duì)應(yīng)評(píng)分分值為0分、1分、2分。第二,利用關(guān)鍵詞對(duì)文本進(jìn)行自動(dòng)評(píng)分,包括輸入文本、全樣本關(guān)鍵詞提取、典型樣本機(jī)器自動(dòng)評(píng)分、人機(jī)評(píng)分一致性檢驗(yàn) (QWKgt;0.70) 、全樣本機(jī)器自動(dòng)評(píng)分等五個(gè)階段。首先,研究采用Python軟件中的結(jié)巴(jieba)庫(kù),通過(guò)加入停用詞、專家詞的方式對(duì)511條數(shù)據(jù)進(jìn)行分詞,并結(jié)合使用TF-IDF、TextRank、Word2vec(以0.6為閾值進(jìn)行相似度擴(kuò)充)算法輸出用于計(jì)算SRPS、SRGS的關(guān)鍵詞與關(guān)鍵短語(yǔ)集(各3組);然后,研究將前述人工評(píng)分規(guī)則轉(zhuǎn)換為機(jī)器可理解的規(guī)則,并綜合采用TextRank、Sentence2vec算法依據(jù)規(guī)則對(duì)代表SRPS、SRGS的典型樣本數(shù)據(jù)進(jìn)行自動(dòng)評(píng)分。最后,經(jīng)過(guò)兩輪的關(guān)鍵詞與評(píng)分規(guī)則修訂,SRPS人機(jī)評(píng)分的QWK系數(shù)達(dá)到0.7660,SRGS人機(jī)評(píng)分的QWK系數(shù)達(dá)到0.8532,均大于0.70,說(shuō)明修訂后的關(guān)鍵詞、關(guān)鍵短語(yǔ)集與機(jī)器評(píng)分規(guī)則可靠(各4組)。因此,研究采用修訂后的關(guān)鍵詞、關(guān)鍵短語(yǔ)集與機(jī)器評(píng)分規(guī)則進(jìn)行全樣本數(shù)據(jù)的自動(dòng)評(píng)分。
總體而言,基于以上三種方式,研究計(jì)算得到了511名學(xué)生的文本數(shù)據(jù)特征,示例如下頁(yè)圖3所示。

(三)視頻數(shù)據(jù)特征提取
視頻數(shù)據(jù)的特征提取問(wèn)題依賴于先進(jìn)的計(jì)算機(jī)視覺(jué)技術(shù),比如Yolov7、VGG(Visual Geometry Group Network)等神經(jīng)網(wǎng)絡(luò)算法,可以比較準(zhǔn)確地自動(dòng)實(shí)現(xiàn)目標(biāo)檢測(cè)、行為識(shí)別與分類等[12][13],為本研究視頻數(shù)據(jù)的人物識(shí)別、頭部姿態(tài)估計(jì)、行為特征提取、情感特征提取等提供了有益的借鑒。結(jié)合實(shí)際,本研究中的視頻數(shù)據(jù)特征提取分為三個(gè)階段:模型構(gòu)建階段、模型融合階段以及特征輸出階段,具體的技術(shù)路線如圖4所示。
習(xí),本研究以3534個(gè)視頻為基礎(chǔ),結(jié)合視頻篩選原則,共挑選出785個(gè)視頻作為預(yù)訓(xùn)練模型的樣本。研究采用Yolov7算法對(duì)抽取的視頻幀進(jìn)行人物自動(dòng)檢測(cè),并進(jìn)行模型訓(xùn)練。結(jié)果表明,識(shí)別出學(xué)生的精確率達(dá)到 92.4% ,召回率達(dá)到 91.6% ,平均精度均值為0.95,識(shí)別出家長(zhǎng)的精確率達(dá)到 87.8% ,召回率達(dá)到89.6% ,平均精度均值為0.939,整體的精確率達(dá)到 90.1% ,召回率達(dá)到 90.6% ,平均精度均值為0.945。這說(shuō)明研究所構(gòu)建的人物識(shí)別模型具有較好的識(shí)別力。
第二,頭部姿態(tài)模型構(gòu)建。
研究采用成熟的SynergyNet模型進(jìn)行學(xué)生頭部姿態(tài)自動(dòng)識(shí)別,因?yàn)樵撃P驮诠_(kāi)數(shù)據(jù)集上識(shí)別Pitch(俯仰角,指上下點(diǎn)頭)、Yaw(偏航角,指左右搖頭)、Roll(翻滾角,指歪頭)三個(gè)頭部姿態(tài)的平均絕對(duì)誤差值較小,遠(yuǎn)低于SADRNet、img2pose等頭部姿態(tài)識(shí)別模型[14]。基于此,研究通過(guò)自編Python程序?qū)⑷宋锷矸葑R(shí)別模型與SynergyNet模型進(jìn)行融合,統(tǒng)計(jì)Pitch值、Yaw值、Roll值范圍,制定學(xué)生高專注、低專注的判斷規(guī)則。通過(guò)修

訂,研究按照“1幀/秒抽取圖片;每個(gè)視頻每5s統(tǒng)計(jì)一次Pitch值、Yaw值、Roll值,每個(gè)視頻均統(tǒng)計(jì)前18次(即每個(gè)視頻統(tǒng)計(jì)前1分30秒內(nèi)容的頭部姿態(tài)變化),每個(gè)視頻均從第0秒(初始值)開(kāi)始計(jì)數(shù)”的規(guī)則進(jìn)行統(tǒng)計(jì)。最終,研究在專家的指導(dǎo)下定義
且
且 -30° ≤Roll ?70° 為
第一,人物識(shí)別模型構(gòu)建。為了讓模型能夠充分學(xué)
依據(jù)需要提取的特征,結(jié)合研究場(chǎng)景及實(shí)際數(shù)據(jù),人物識(shí)別模型、頭部姿態(tài)識(shí)別模型、行為動(dòng)作識(shí)別模型均需要基于場(chǎng)景實(shí)際數(shù)據(jù)構(gòu)建預(yù)訓(xùn)練模型,進(jìn)而提高模型的泛化能力。
1.模型構(gòu)建階段
高專注,否則為低專注。
第三,行為動(dòng)作識(shí)別模型構(gòu)建。該模型的構(gòu)建旨在提取HCT、LCT的特征值。HCT、LCT的特征值依賴于學(xué)生實(shí)驗(yàn)操作的行為序列。在本研究場(chǎng)景下,實(shí)驗(yàn)操作具有5個(gè)關(guān)鍵行為:稱重、測(cè)高度、放球、測(cè)大小、記錄。為了比較精確地獲取行為,研究通過(guò)設(shè)計(jì)行為標(biāo)注框架(人工標(biāo)注行為一致性的Kappa系數(shù)達(dá)到0.9135),并采用Yolov7算法的方式進(jìn)行模型訓(xùn)練(研究從785個(gè)視頻中選擇417個(gè)視頻進(jìn)行人工標(biāo)注,得到18308幀有效圖片,總標(biāo)簽數(shù)量為20331個(gè),其中稱重行為標(biāo)簽數(shù)1479個(gè),測(cè)高度行為標(biāo)簽數(shù)4157個(gè),放球行為標(biāo)簽數(shù)4850個(gè),測(cè)大小行為標(biāo)簽數(shù)3887個(gè),記錄行為標(biāo)簽數(shù)5958個(gè)),進(jìn)而自動(dòng)識(shí)別樣本視頻行為動(dòng)作。結(jié)果表明模型在測(cè)試集上的表現(xiàn)較好,具體性能參數(shù)如表4所示。

2.模型融合階段
針對(duì)同一視頻的諸如人物、頭部姿態(tài)、行為動(dòng)作、面部表情等多類別識(shí)別,需要將多個(gè)不同的模型進(jìn)行融合。由上述內(nèi)容可知,研究已構(gòu)建人物識(shí)別模型、頭部姿態(tài)識(shí)別模型、行為動(dòng)作識(shí)別模型。由于目前面部表情識(shí)別模型已經(jīng)比較成熟,并且通用,因此研究采用PyTorch框架下的面部表情識(shí)別模型(FacialExpressionRecognition,F(xiàn)ER)對(duì)學(xué)生的面部表情進(jìn)行識(shí)別與分類,包括生氣、厭倦、害怕、開(kāi)心、悲傷、驚訝、中性等七種基本情感。已有研究表明,F(xiàn)ER利用VGG神經(jīng)網(wǎng)絡(luò)算法在公開(kāi)數(shù)據(jù)(視頻)集FER2013、 CK+ 上的表情識(shí)別準(zhǔn)確率分別能夠達(dá)到
、 94.649%[16] ,這說(shuō)明該模型是可靠的,可以進(jìn)行遷移應(yīng)用。最終,研究通過(guò)自編Python程序?qū)⑷宋锷矸葑R(shí)別模型與頭部姿態(tài)識(shí)別模型、行為動(dòng)作識(shí)別模型、面部表情識(shí)別模型進(jìn)行融合,進(jìn)而區(qū)分出學(xué)生、家長(zhǎng)的頭部姿態(tài)、行為動(dòng)作以及面部表情,為后續(xù)特征輸出奠定基礎(chǔ)。
3.特征輸出階段
研究中視頻數(shù)據(jù)特征輸出包括三類:一是基于頭部姿態(tài)判斷學(xué)生高、低專注性,進(jìn)而輸出高、低專注出現(xiàn)的次數(shù)(HCC、LCC);二是基于行為動(dòng)作序列判斷學(xué)生高、低專注性,進(jìn)而輸出高、低專注的行為動(dòng)作序列時(shí)長(zhǎng)(秒)(HCT、LCT);三是基于學(xué)生面部表情識(shí)別,輸出相應(yīng)情感類型,進(jìn)而統(tǒng)計(jì)相應(yīng)情感出現(xiàn)持續(xù)的時(shí)長(zhǎng)(秒)(ST、HT、FT、SaT、AT、DT)。具體地,研究先按照1幀/秒的方式對(duì)511個(gè)樣本視頻進(jìn)行圖片抽取,然后應(yīng)用融合后的模型對(duì)視頻中的人物、頭部姿態(tài)、行為動(dòng)作、面部表情進(jìn)行識(shí)別,最后再進(jìn)行相應(yīng)特征的統(tǒng)計(jì)分析。
針對(duì) HCC 、LCC,研究先應(yīng)用模型自動(dòng)識(shí)別每幀圖片中學(xué)生的Pitch值、Yaw值、Roll值范圍,再用判斷規(guī)則‘
且
且
為高專注,否則為低專注”去判定學(xué)生的高低專注類別,最后利用簡(jiǎn)單統(tǒng)計(jì)分析自動(dòng)計(jì)算出高專注出現(xiàn)的次數(shù)、低專注出現(xiàn)的次數(shù)。
針對(duì)HCT、LCT,研究先應(yīng)用模型自動(dòng)識(shí)別每幀圖片中學(xué)生的行為動(dòng)作,然后分別輸出學(xué)生行為動(dòng)作原始序列、行為動(dòng)作合并序列,最后以專家定義的行為動(dòng)作序列庫(kù)及每條序列代表的專注水平為基礎(chǔ),將學(xué)生行為動(dòng)作合并序列與專家序列庫(kù)進(jìn)行匹配,得到學(xué)生行為最佳匹配序列。學(xué)生行為最佳匹配序列采用Python軟件自帶庫(kù)difflib中的SequenceMatcher計(jì)算相似度得到。之所以這樣做是因?yàn)閷W(xué)生實(shí)驗(yàn)操作視頻中環(huán)境的復(fù)雜性、實(shí)驗(yàn)器材的多樣性以及家長(zhǎng)適當(dāng)?shù)膶?shí)驗(yàn)操作輔助等因素的存在,導(dǎo)致學(xué)生行為動(dòng)作合并序列很難與專家序列庫(kù)進(jìn)行完全匹配,只能找到相似度比較高的最佳匹配序列。基于此,研究以學(xué)生行為動(dòng)作合并序列、行為最佳匹配序列的公共子序列(公共子行為除外,必須是行為序列)為橋梁,計(jì)算高專注與低專注的行為序列持續(xù)時(shí)長(zhǎng)。具體而言:首先找出學(xué)生行為最佳匹配序列與學(xué)生行為動(dòng)作合并序列的公共子序列。假如存在這樣一個(gè)公共子序列,那么在學(xué)生行為動(dòng)作原始序列中,公共子序列的持續(xù)時(shí)長(zhǎng)為高專注的行為序列持續(xù)時(shí)長(zhǎng)(HCT),非公共子序列的持續(xù)時(shí)長(zhǎng)為低專注的行為序列持續(xù)時(shí)長(zhǎng)(LCT);假如不存在這樣一個(gè)公共子序列,那么低專注的行為序列持續(xù)時(shí)長(zhǎng)用學(xué)生行為動(dòng)作原始序列時(shí)長(zhǎng)表示,高專注的行為序列持續(xù)時(shí)長(zhǎng)就為0秒。
針對(duì)ST、HT、FT、SaT、AT、DT,研究先應(yīng)用模型自動(dòng)識(shí)別每幀圖片中學(xué)生的面部表情,然后輸出情感類型,最后再利用簡(jiǎn)單統(tǒng)計(jì)分析自動(dòng)計(jì)算出每種面部表情出現(xiàn)持續(xù)的時(shí)長(zhǎng)(秒)。
基于以上三個(gè)階段,研究計(jì)算得到了511名學(xué)生的視頻數(shù)據(jù)特征,示例如下頁(yè)圖5所示。
四、多模態(tài)數(shù)據(jù)融合與指標(biāo)計(jì)算
(-) 多模態(tài)數(shù)據(jù)融合
一般而言,多模態(tài)數(shù)據(jù)融合的方法有特征融合、決策融合以及混合融合[],三種融合方法各有優(yōu)缺點(diǎn)。由于本研究中各模態(tài)時(shí)序不同步的問(wèn)題,綜合考慮上述三種融合方式的優(yōu)缺點(diǎn)和時(shí)間尺度,研究決定采用決策融合的方法進(jìn)行多模態(tài)數(shù)據(jù)的融合。本研究中表征學(xué)生堅(jiān)毅力測(cè)評(píng)理論模型二級(jí)指標(biāo)的數(shù)據(jù)特征具有多源多維特征屬性,每一個(gè)指標(biāo)的融合因素均可以分為2層。

基于以上研究,對(duì)學(xué)生堅(jiān)毅力測(cè)評(píng)理論模型二級(jí)指標(biāo)的多模態(tài)數(shù)據(jù)融合作以下定義:假設(shè)表征每個(gè)堅(jiān)毅力測(cè)評(píng)理論模型二級(jí)指標(biāo)的數(shù)據(jù)集由多個(gè)特征構(gòu)成,特征總個(gè)數(shù)用m表示,那么表征每個(gè)二級(jí)指標(biāo)數(shù)據(jù)集的特征值集合可以表示為
,相對(duì)應(yīng)特征的權(quán)重值集合可以表示為
,其中
,研究可以得到每一個(gè)二級(jí)指標(biāo)的數(shù)據(jù)計(jì)算形式化表達(dá)可以定義為:

那么每一個(gè)二級(jí)指標(biāo)多模態(tài)數(shù)據(jù)融合的結(jié)果由公式轉(zhuǎn)換可得到:
Sk=Σi=1mEki'Wki
式(2)中,E∈[0,1],為線性歸一化后的值,W =1
由上可知,要計(jì)算學(xué)生堅(jiān)毅力測(cè)評(píng)理論模型的二級(jí)指標(biāo),表征每個(gè)指標(biāo)各數(shù)據(jù)模態(tài)下的特征值權(quán)重尤其重要,直接影響了多模態(tài)數(shù)據(jù)融合后的指標(biāo)計(jì)算結(jié)果。通常來(lái)講,權(quán)重既可以由人為主觀賦權(quán),也可以由實(shí)際數(shù)據(jù)客觀賦權(quán)。為了排除人為經(jīng)驗(yàn)的主觀干擾,研究采用熵權(quán)法對(duì)表征每個(gè)指標(biāo)各數(shù)據(jù)模態(tài)下的特征值進(jìn)行客觀賦權(quán)。
(二)二級(jí)指標(biāo)值計(jì)算
由表1可知,表征“專注性”指標(biāo)的多模態(tài)數(shù)據(jù)集由6個(gè)特征構(gòu)成,表征“堅(jiān)持性”指標(biāo)的多模態(tài)數(shù)據(jù)集由3個(gè)特征構(gòu)成,表征“積極情感”指標(biāo)的多模態(tài)數(shù)據(jù)集由3個(gè)特征構(gòu)成,表征“消極情感”指標(biāo)的多模態(tài)數(shù)據(jù)集由5個(gè)特征構(gòu)成,表征“目標(biāo)意識(shí)”指標(biāo)的多模態(tài)數(shù)據(jù)集由2個(gè)特征構(gòu)成,表征“自我監(jiān)控”指標(biāo)的多模態(tài)數(shù)據(jù)集由3個(gè)特征構(gòu)成。進(jìn)一步地,基于上述多模態(tài)數(shù)據(jù)融合思路,研究對(duì)表征每一個(gè)二級(jí)指標(biāo)的多模態(tài)數(shù)據(jù)進(jìn)行加權(quán)融合,進(jìn)而計(jì)算其具體值,具體如下所述。
1.特征權(quán)重計(jì)算
結(jié)合上述數(shù)據(jù)采集、特征提取,研究根據(jù)特征表征的指標(biāo)指向,先將22個(gè)特征分成6組,其中每一組的每一個(gè)特征均具有511條數(shù)據(jù),每一個(gè)特征數(shù)據(jù)分布較為均勻;然后采用熵權(quán)法計(jì)算得到了每一個(gè)特征的權(quán)重,具體如表5所示。

2.指標(biāo)值計(jì)算
專注性、堅(jiān)持性、積極情感、消極情感、目標(biāo)意識(shí)以及自我監(jiān)控分別為學(xué)生堅(jiān)毅力測(cè)評(píng)理論模型的二級(jí)指標(biāo)1、指標(biāo)2、指標(biāo)3、指標(biāo)4、指標(biāo)5以及指標(biāo)6。結(jié)合每個(gè)二級(jí)指標(biāo)的特征值集合以及對(duì)應(yīng)特征的權(quán)重,依據(jù)公式(2),研究分別計(jì)算得到其具體值: S1 、S2 、 S3 、 S4 、 ss 、 s6 。因此,研究計(jì)算得到了每位學(xué)生堅(jiān)毅力測(cè)評(píng)理論模型二級(jí)指標(biāo)的值,具體示例如下頁(yè)表6所示。

五、可計(jì)算模型生成與結(jié)果計(jì)算
基于以上基礎(chǔ),研究通過(guò)加權(quán)求和的方式逐級(jí)往上聚合,自動(dòng)計(jì)算出每一個(gè)學(xué)生堅(jiān)毅的行為性得分、堅(jiān)毅的情感性得分、堅(jiān)毅的認(rèn)知性得分,乃至最后的學(xué)生堅(jiān)毅力指數(shù) (Sgrit) ,具體模型生成思路如下頁(yè)圖6所示。
從圖6中可以看出,模型生成與結(jié)果計(jì)算的一個(gè)關(guān)鍵數(shù)據(jù)就是學(xué)生堅(jiān)毅力測(cè)評(píng)理論模型的每一級(jí)指標(biāo)的理論權(quán)重。在前期研究過(guò)程中,本研究團(tuán)隊(duì)綜合采用德?tīng)柗品ê蛯哟畏治龇▽?duì)每一級(jí)指標(biāo)都進(jìn)行了賦權(quán),其中堅(jiān)毅的行為性、堅(jiān)毅的情感性、堅(jiān)毅的認(rèn)知性指標(biāo)的同級(jí)權(quán)重分別為:0.616、0.193、0.191;專注性、堅(jiān)持性、積極情感、消極情感、目標(biāo)意識(shí)、自我監(jiān)控指標(biāo)的同級(jí)權(quán)重分別為:0.4796、0.5204、0.792、0.208、0.4368、0.5632,其組合權(quán)重分別為:0.2955、0.3205、0.1529、0.0401、0.0834、0.1076。因此,可得:

a=(a1,a2,a3,a4,a5,a6)=(0.2955,0.3205,0.1529,0.0401, 0.0834,0.1076),結(jié)合公式(3),那么基于多模態(tài)數(shù)據(jù)的學(xué)生堅(jiān)毅力測(cè)評(píng)可計(jì)算模型為:
其中, k=1,2,3,4,5,6°
最后,研究將各級(jí)指標(biāo)計(jì)算結(jié)果等比例映射至[1,5]
區(qū)間內(nèi),以便于表征、比較與分析。
基于模型生成思路,研究通過(guò)向上逐級(jí)加權(quán)聚合的方式計(jì)算得到每一位學(xué)生的堅(jiān)毅力指數(shù),具體示例如表7所示。

、 SA3 分別對(duì)應(yīng)堅(jiān)毅的行為性得分、堅(jiān)毅的情感性得分、堅(jiān)毅的認(rèn)知性得分。六、可計(jì)算模型實(shí)踐有效性檢驗(yàn)
研究所構(gòu)建模型計(jì)算得出來(lái)的學(xué)生堅(jiān)毅力指數(shù)與客觀真值(具體為學(xué)生堅(jiān)毅力自評(píng)結(jié)果、他評(píng)結(jié)果)是否接近,是驗(yàn)證模型實(shí)踐有效性的適切方式,一般采用相關(guān)分析、回歸分析進(jìn)行分析。
(一)客觀真值的確定
研究者們目前常用原始堅(jiān)毅力測(cè)評(píng)量表(OriginalGritScale,Grit-O)、簡(jiǎn)版堅(jiān)毅力測(cè)評(píng)量表(ShortGritScale,Grit-S)讓學(xué)生通過(guò)自我報(bào)告的方式來(lái)獲得其堅(jiān)毅力自評(píng)結(jié)果。理論上本研究應(yīng)該以這種客觀真值作為比較,但是Grit-O、Grit-S所構(gòu)建的努力持續(xù)性、興趣穩(wěn)定性兩個(gè)測(cè)評(píng)維度與本研究構(gòu)建的測(cè)評(píng)維度存在差別,并且脫離科學(xué)探究活動(dòng)場(chǎng)景,整體偏差較大,因而這種客觀真值無(wú)法在本研究場(chǎng)景下被采納。因此,考慮將他評(píng)結(jié)果作為客觀真值。以往的研究中有研究者采用他評(píng)法來(lái)測(cè)評(píng)個(gè)體的堅(jiān)毅力結(jié)果。比如,由被評(píng)價(jià)者推薦其朋友以及家人填寫Grit-S(量表中所有第一人稱都改成第三人稱),事實(shí)證明堅(jiān)毅力結(jié)果能夠由他評(píng)比較可靠地獲得,家人、朋友對(duì)Grit-S評(píng)分的內(nèi)部一致性系數(shù)分別達(dá)到 |0.84 /0.83,并且自評(píng)與家人、朋友評(píng)分之間具有顯著的中等相關(guān)性[8]。此外,有研究者通過(guò)2名專業(yè)的評(píng)價(jià)者對(duì)教師提供的簡(jiǎn)歷信息(如參加過(guò)的活動(dòng)并取得顯著的進(jìn)步與成就、工作經(jīng)歷等)進(jìn)行打分的方式獲得其堅(jiān)毅力結(jié)果,結(jié)果表明這種方法也比較可靠[19]
結(jié)合數(shù)據(jù)采集對(duì)象規(guī)模與數(shù)據(jù)采集組織的實(shí)際情況,第一種他評(píng)法所涉及的不同主體多,調(diào)動(dòng)難度極大,不適宜大樣本;相反,第二種他評(píng)法面對(duì)大樣本時(shí)依舊具有可操作性。因而研究選擇第二種他評(píng)法獲得客觀真值。具體而言,研究結(jié)合每個(gè)學(xué)生的目標(biāo)信息、實(shí)驗(yàn)操作題目時(shí)長(zhǎng)、實(shí)驗(yàn)操作視頻以及學(xué)生日志數(shù)據(jù)來(lái)綜合判斷其在科學(xué)探究活動(dòng)場(chǎng)景下的堅(jiān)毅力結(jié)果,由2名教育測(cè)量方向的博士研究生基于這些信息的第一印象進(jìn)行背靠背打分(評(píng)分范圍在1一5分內(nèi),可允許小數(shù)分存在),并由第三人在旁監(jiān)督。打分的總體原則為:所選目標(biāo)程度越長(zhǎng)期,實(shí)驗(yàn)操作題目時(shí)長(zhǎng)越長(zhǎng),實(shí)驗(yàn)行為越符合次數(shù)(3次)與序列要求(專家定義序列),分?jǐn)?shù)越高;反之分?jǐn)?shù)越低。最后,研究取2名博士研究生對(duì)每一個(gè)學(xué)生打分的平均分作為其堅(jiān)毅力結(jié)果,以此作為客觀真值,為后續(xù)的分析奠定基礎(chǔ)。

(二)實(shí)踐有效性檢驗(yàn)
1.相關(guān)分析
通過(guò)分析模型計(jì)算得到的511名學(xué)生堅(jiān)毅力指數(shù)(Sgrit) 和他評(píng)客觀真值(human_average_grit_score)兩組數(shù)據(jù)發(fā)現(xiàn),整體呈正態(tài)分布,因而研究采用皮爾遜相關(guān)分析進(jìn)行相關(guān)性分析。基于此,研究通過(guò)Python計(jì)算得到 r=0.965 , p=0.000lt;0.01 ,變量 ?Sgrit 和變量humanaverage_grit_score兩者之間呈顯著正相關(guān)關(guān)系,說(shuō)明研究所構(gòu)建的可計(jì)算模型具有實(shí)踐有效性。
2.回歸分析
為進(jìn)一步提供深層次的實(shí)踐有效性證據(jù),研究在相關(guān)性分析的基礎(chǔ)之上進(jìn)行回歸分析,驗(yàn)證自變量 ?Sgrit 能否預(yù)測(cè)因變量human_average_grit_score。通過(guò)Python計(jì)算,研究首先得到變量間的線性關(guān)系(滿足顯著正相關(guān)的線性關(guān)系)、標(biāo)準(zhǔn)化殘差分布情況(整體呈正態(tài)分布)、殘差方差齊性滿足情況(均勻分布在 y=0 兩側(cè),滿足方差齊性)以及DW(Durbin-Watson)值為1.937(接近2,殘差具有獨(dú)立性,模型不存在自相關(guān)性2;然后得到 F=6876.831 ,p=0.000lt;0.01 , R2=0.931 ,調(diào)整后的 R2=0.931 ,這說(shuō)明模型擬合很好。換言之,自變量 ?Sgrit 能夠預(yù)測(cè)因變量human_average_grit_score,這為研究可計(jì)算模型的實(shí)踐有效性提供了更深層次的證據(jù)。
綜上所述,通過(guò)將模型計(jì)算的堅(jiān)毅力指數(shù)與他評(píng)客觀真值進(jìn)行相關(guān)性分析與回歸分析,驗(yàn)證了研究所構(gòu)建的基于場(chǎng)景多模態(tài)數(shù)據(jù)的學(xué)生堅(jiān)毅力智能化測(cè)評(píng)模型的實(shí)踐有效性。
七、結(jié)語(yǔ)
結(jié)合前期研究的理論、工具以及數(shù)據(jù)表征基礎(chǔ),通過(guò)“多模態(tài)數(shù)據(jù)采集、多模態(tài)數(shù)據(jù)特征提取、模態(tài)融合與指標(biāo)計(jì)算、模型生成與結(jié)果計(jì)算、模型有效性驗(yàn)證”的思路,研究實(shí)現(xiàn)了基于場(chǎng)景多模態(tài)數(shù)據(jù)的學(xué)生堅(jiān)毅力的客觀化與智能化測(cè)評(píng),一定程度上解決了當(dāng)前學(xué)生堅(jiān)毅力測(cè)評(píng)客觀性不足、真實(shí)性不夠的現(xiàn)實(shí)問(wèn)題。
當(dāng)然,研究是一項(xiàng)探索性研究,還存在一些不足。第一,學(xué)生堅(jiān)毅力測(cè)評(píng)的次數(shù)還有待增加。對(duì)于中小學(xué)生而言,學(xué)生堅(jiān)毅力發(fā)展具有動(dòng)態(tài)變化性。研究對(duì)四年級(jí)學(xué)生堅(jiān)毅力近乎一年的發(fā)展只進(jìn)行了單次且跨長(zhǎng)時(shí)間的測(cè)評(píng),有可能會(huì)影響學(xué)生堅(jiān)毅力指數(shù)的真正挖掘。第二,研究場(chǎng)景還存有一定的限制。考慮到研究對(duì)象的大樣本、規(guī)模化數(shù)據(jù)采集帶來(lái)的成本問(wèn)題、測(cè)評(píng)的組織實(shí)施以及城鄉(xiāng)差異性等,研究采用的是線上線下相結(jié)合的科學(xué)探究活動(dòng)場(chǎng)景,其中線下是學(xué)生家庭環(huán)境場(chǎng)景。這與常規(guī)面向課堂、面向場(chǎng)館的科學(xué)探究活動(dòng)場(chǎng)景會(huì)有所不同,有可能會(huì)影響對(duì)學(xué)生堅(jiān)毅力指數(shù)的測(cè)評(píng)。因此,后續(xù)研究將彌補(bǔ)上述不足,持續(xù)優(yōu)化測(cè)評(píng)模型,并在此基礎(chǔ)上分析影響學(xué)生堅(jiān)毅力發(fā)展的因素,為未來(lái)學(xué)生個(gè)性化堅(jiān)毅力的培養(yǎng)與發(fā)展提供解決方案。
參考文獻(xiàn):
[1]
[8]郭利明,鄭勤華等.學(xué)生堅(jiān)毅力測(cè)評(píng):理論模型、表現(xiàn)性評(píng)價(jià)工具與數(shù) 據(jù)指標(biāo)[J].中國(guó)電化教育,2023.(7):109-117.
[2]VonCulinKR,TsukayamaE,DuckworthAL.Unpackinggrit:Motivational correlates of perseverance and passion for long-term goals [J].The Journal of Positive Psychology,2014,9(4):306-312.
[3] Wolters CA,Hussain M.Investigating grit and its relationswith college students’self-regulated learning and academic achievement [J]. Metacognition and Learning,2015,10(3):293-311.
[4]教育部.教育部關(guān)于印發(fā)義務(wù)教育課程方案和課程標(biāo)準(zhǔn)(2022年 版)的通知[EB/OL].http://www.moe.gov.cn/srcsite/A26/s8001/202204/ W020220420582343217634.pdf,2024-10-09.
[5] Credé M.What shall we do about grit?A critical review of what we know and what we don't know [J].Educational Researcher,2018,47(9):606-611.
[6]MyersCA,WangC,etal.Thematterof motivation:Striatal resting-state connectivity is dissociable between grit and growth mindset [J].Social cognitive and affective neuroscience,2016,11(10):1521-1527.
[7]周文葉.促進(jìn)深度學(xué)習(xí)的表現(xiàn)性評(píng)價(jià)研究與實(shí)踐[J].全球教育展望,2019, 48(10):85-95.
[9]鄭勤華,郭利明.人機(jī)協(xié)同的敏捷教育建模及實(shí)踐應(yīng)用[J].現(xiàn)代遠(yuǎn)程教 育研究,2021,33(4):43-50.
[10]Lauriola I,Lavelli A,Aiolli F.An introduction to deeplearningin natural language processing:Models,techniques,and tools [J].Neurocomputi ng,2022,470:443-456.
[11] Chaturvedi I,Cambria E,et al.Distinguishing between facts and opinions for sentiment analysis:Survey and challenges[J].Information Fusion,2018,44:65-77.
[12]WangCY,BochkovskiyA,LiaoHYM.YOLOv7:Trainablebag-offreebies sets new state-of-the-art for real-time object detectors [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.Vancouver:IEEE,2023:7464-7475.
[13]Shri SJ,Jothilakshmi S.Crowd video event classificationusingconvolutional neural network [J].Computer Communications,2019,147:35-39.
[14] Wu C Y,Xu Q,Neumann U.Synergy between 3dmm and 3d landmarks foraccurate 3d facial geometry [C].Proceedings of the 2O21 International Conference on 3D Vision (3DV).London:IEEE,2021.453-463.
[15] Pramerdorfer C,Kampel M.Facial expression recognition using convolutional neural networks:state of the art [J].arXiv preprint arXiv,2016:1-6.
[16] Sun Y,Wu C,Zheng K,etal.Adv-emotion:The facial expressionadversarial attack[J].International Journal of Pattern Recognition and Artificial Intelligence,2021,35(11):1-25.
[17]任澤裕,王振超等.多模態(tài)數(shù)據(jù)融合綜述[J].計(jì)算機(jī)工程與應(yīng)用,2021,57 (18):49-64.
[18]DuckworthAL,QuinnPD.DevelopmentandvalidationoftheShort Grit Scale (GRIT-S)[J].Journal of personality assessment,20o9,91(2):166-174.
[19]Robertson-KraftC,DuckworthAL.True grit:Trait-level perseverance and passion for long-term goals predicts effectiveness and retention among novice teachers[J].Teachers College Record,2014,116(3):1-27.
[20]Durbin J,Watson G S.Testing for serial correlation in least squares regression.II[J].Biometrika,1951,38(1/2):159-177.
作者簡(jiǎn)介:
鄭勤華:教授,博士,博士生導(dǎo)師,研究方向?yàn)樵诰€教育、人工智能教育、教育大數(shù)據(jù)、學(xué)習(xí)分析。郭利明:講師,博士,研究方向?yàn)閷W(xué)習(xí)分析、教育大數(shù)據(jù)、教育測(cè)量與評(píng)價(jià)。齊欣:研究員,碩士,副館長(zhǎng),研究方向?yàn)榭茖W(xué)教育。