999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向自適應學習的個性化學習路徑推薦*

2023-02-09 03:12:56李建偉武佳惠姬艷麗
現代教育技術 2023年1期
關鍵詞:實驗評價模型

李建偉 武佳惠 姬艷麗

面向自適應學習的個性化學習路徑推薦*

李建偉1,2武佳惠1姬艷麗1

(1.北京郵電大學 網絡教育學院,北京 100088;2.北京郵電大學 網絡系統與網絡文化北京市重點實驗室,北京 100876)

根據學習者的學習記錄和學習任務進行學習路徑推薦,是實現自適應學習的關鍵技術。文章首先將個性化學習路徑推薦模型歸為八類,并對每類模型進行詳細分析,總結出這些模型普遍存在的問題,認為這些問題嚴重影響了自適應個性化學習的應用效果。之后,文章提出一種從課程、學習任務兩個維度進行學習路徑推薦的個性化學習路徑推薦模型,其融合了知識圖譜、深度知識跟蹤和強化學習三種智能技術,能有效解決上述問題。最后,文章通過對學習任務內學習路徑推薦模型進行對比實驗及其相關數據分析,發現該模型能有效提高學習效果和學習效率,其推薦性能也優于目前主流的推薦模型。文章的研究成果對自適應學習的實現具有重要應用價值,并為教育領域個性化學習路徑推薦的理論與技術研究提供了重要參考。

自適應學習;學習路徑推薦;知識圖譜;深度知識跟蹤;強化學習

2018年,教育部印發《教育信息化2.0行動計劃》,強調大力推進智能教育,開展以學習者為中心的智能化教學支持環境建設[1]。2021年,《教育部等六部門關于推進教育新型基礎設施建設構建高質量教育支撐體系的指導意見》發布,提出開發基于大數據的智能診斷、資源推送、學習輔導等應用,促進學生個性化發展[2]。從近年來國家發布的一系列教育信息化政策可知,“人工智能+教育”已成為我國教育創新發展的重要戰略,而將人工智能技術應用于教育的自適應技術業已成為研究的熱點。在2015~2020年間發布的《地平線報告》中,自適應技術是出現頻率最高的關鍵性技術[3]。自適應技術支持的自適應學習是針對學生學習過程中產生的知識狀態、互動參與、練習交互等數據,調整對學習內容的推薦,改變學習路徑,提供千人千面的個性化教學和輔導,而個性化學習路徑推薦是實現自適應學習的關鍵。

一 推薦模型的分類及其研究現狀

目前,在個性化學習路徑推薦領域,有大量國內外學者進行了理論與實踐研究,從不同視角構建了個性化學習路徑推薦模型,并已取得初步成效。通過對相關文獻及目前的自適應學習平臺進行全面分析,按照模型使用的推薦算法,可將個性化學習路徑推薦模型歸為八類:

1 基于啟發式算法的推薦模型

本模型應用的算法主要包括遺傳算法、蟻群算法、粒子群算法等。例如,Dwivedi等[4]利用改進的變長遺傳算法構建推薦模型,有針對性地推送符合學習者特征的學習資源。孔維梁等[5]將改進的蟻群算法應用于學習者即將開展的活動序列設計。De-Marcos等[6]構建了改進二進制粒子群算法的推薦模型,并通過實驗驗證了這種模型的有效性和精確度。整體來說,本模型推薦效果一般,主要的應用平臺有松鼠AI、猿題庫等。

2 基于數據挖掘的推薦模型

本模型應用的算法主要包括AprioriAll算法、決策樹算法、概率圖模型等。例如,姜強等[7]基于AprioriAll算法構建推薦模型,挖掘學習偏好、知識水平相近的學習者群體,推薦個性化學習活動序列。Fu等[8]采用決策樹算法構建推薦模型,通過預判學習者認知差異,為學習者推薦不同活動序列。崔煒等[9]通過概率圖模型獲取學習者對鄰近知識點的掌握度,進而推薦知識點序列。整體來說,本模型推薦效果一般,主要的應用平臺有Knewton、ALEKS、松鼠AI等。

3 基于知識的推薦模型

本模型應用的算法主要包括基于本體的推理算法和基于情境感知的推理算法。例如,Tarus等[10]通過建立學科領域本體和學習情境本體,基于本體的推理算法搭建了適應性學習路徑推薦系統。黃志芳等[11]建立了學習情境本體模型和學科領域本體庫,并基于情境感知的推理算法構建了適應性學習路徑推薦模型。整體來說,本模型推薦效果一般,主要的應用平臺有智學網、Realizelt、Declara等。

4 基于內容的推薦模型

本模型應用的算法主要包括基于向量空間模型的余弦相似度算法。例如,Ghauth等[12]通過基于向量空間模型的余弦相似度算法和優秀學習者的學習資源評分指標為學習資源建模,進而為學習者推薦與過往學習喜好類似的學習資源。整體來說,本模型推薦效果一般,目前沒有自適應平臺應用本模型。

5 協同過濾推薦模型

本模型應用的算法主要包括基于用戶、基于項目、基于模型的協同過濾。例如,趙學孔等[13]從認知水平、學習路徑兩個維度構建學習者模型,使用皮爾遜相關系數算法篩選相似的鄰近區用戶群,為學習者推薦個性化學習資源。丁永剛等[14]提出了基于社交網絡的資源推薦模型,將學習群體或學習伙伴對學習資源的評分作為資源推薦的依據。陳壯[15]使用聚類算法劃分具有較高學習特征相似度的學習者,并尋找相似學習者的學習路徑作為推薦路徑。整體來說,本模型推薦效果良好,主要的應用平臺有Knewton、松鼠AI等。

6 混合推薦模型

本模型應用的算法主要包括“人工神經網絡算法+基于模型協同過濾算法+蟻群算法”“基于用戶協同過濾+序列模式挖掘算法”等算法組合。例如,申云鳳等[16]利用人工神經網絡算法構建相似用戶模型,通過網格聚類算法實現協同過濾,采用蟻群算法優化推薦學習路徑。Salehi等[17]提出一種基于序列模式挖掘和基于用戶協同過濾的模型,為學習者推薦個性化學習資源。整體來說,本模型推薦效果良好,主要的應用平臺有松鼠AI。

7 基于深度學習的推薦模型

本模型應用的算法主要包括受限玻爾茲曼機和門控循環單元。例如,Ruslan等[18]首次提出使用受限玻爾茲曼機來構建推薦模型,用于求解Netflix競賽中的推薦問題。Hidasi等[19]提出一種基于遞歸神經網絡的推薦模型,此模型采用門控循環單元,輸入學習會話的順序,然后輸出下一步要學習的學習項目的概率分布。整體來說,本該模型推薦效果良好,目前沒有自適應平臺應用本模型。

8 基于強化學習的推薦模型

本模型應用的算法主要包括Deep Q-learning和Actor-Critic。例如,Tan等[20]通過Deep Q-learning算法構建推薦模型,為學習者推薦知識點序列,并以最大化學習效率為推薦目標。Liu等[21]利用深度知識跟蹤、認知導航和Actor-Critic算法構建推薦模型,為學習者推薦個性化知識點序列。整體來說,本模型推薦效果優秀,主要的應用平臺有智學網。

綜上所述,伴隨著推薦系統在電商、娛樂、信息流等領域的大規模應用,個性化學習路徑推薦在最近十年一直是教育領域的研究熱點,使用的技術也越來越智能。但是,目前教育領域已有的推薦模型普遍存在三個主要問題:①在推薦目標方面,多數研究照搬電商、娛樂等領域的推薦模型,而忽視了學習場景與這些業務場景在推薦目標上具有本質上的不同——前者以學習效果或效率為目標,后者以用戶偏好為目標;②在推薦性能的評價方面,傳統推薦模型一般采用經典的評測指標如查準率(Precision)、召回率(Recall)、F1-Score、AUC(Area Under Curve)等,而個性化學習路徑推薦采用學習效果和學習效率作為評價指標——目前,學習效果和學習效率的量化問題仍是具有挑戰性的難題;③在推薦內容方面,多數研究推薦學習資源、學習活動、知識點序列三種內容中的一種或兩種,而無法全面覆蓋這三種推薦內容。針對以上三個問題,本研究團隊提出基于深度知識跟蹤與強化學習的學習路徑優化方法[22],在此基礎上構建一種融合知識圖譜、深度知識跟蹤、強化學習三種智能技術的個性化學習路徑推薦模型,為上述三個問題的解決提供了一種全新的方案。

二 個性化學習路徑推薦模型的構建

在自適應學習中,一門課程包括多個學習任務,學習任務是基本的學習單元。課程的學習路徑由多個學習任務組成,課程內學習路徑推薦是基于課程知識圖譜和學習者學習記錄,為課程內的學習任務規劃一個學習序列,學習者沿著該序列以最快速度掌握所有的學習任務。學習任務的學習路徑由多個學習項目(如練習、資源、討論等)組成,學習任務內學習路徑推薦是基于學習任務的學習目標和學習者學習記錄,為學習任務中的學習項目規劃一個學習序列,學習者沿著該序列以最快速度達到學習任務要實現的學習目標。因此,本研究提出的個性化學習路徑推薦模型由課程內學習路徑推薦模型和學習任務內學習路徑推薦模型組成。

1 課程內學習路徑推薦模型

課程內學習路徑推薦模型通過課程知識圖譜確定學習任務的先修后繼關系,使用深度知識追蹤(Deep Knowledge Tracing,DKT)模型確定學習任務的難易程度,按照先易后難的教學原則推薦學習任務。課程內學習路徑推薦模型的設計如圖1所示,具體包含以下環節:

①學習者開始學習一門課程前,將課程中所有學習任務的目標知識點映射到課程知識圖譜,如圖2所示。其中,K6是離散知識點,K1是根知識點。K1是學習K5前需要掌握的知識,因此K1是K5的先修知識點。同理,K2、K3是K4的先修知識點。待選知識點集合由未學的離散知識點和根知識點構成。

②將學習者的學習記錄進行one-hot編碼后輸入DKT模型,預測待選知識點的掌握水平。

③向學習者推薦掌握水平最高的知識點K。需要注意的是,如果學習者屬于“冷啟動”,即還未產生任何學習記錄,DKT將無法進行預測,此時可以采用隨機抽取的方式推薦知識點K。

④使用學習任務內學習路徑推薦模型,為學習者推薦知識點K的學習項目。

⑤知識點K通過后,判斷K是否存在后繼知識點,即K是否為某一知識點的先修內容,若是,則進入環節⑥;若否,則將K從待選知識點集合移出,然后進入環節⑦。

⑥將知識點K的后繼知識點加入待選知識點集合,并將K從待選知識點集合移出。

⑦判斷待選知識點集合是否為空,若是,則終止循環;若否,則返回至環節②,繼續推薦。

圖1 課程內學習路徑推薦模型的設計

圖2 課程知識圖譜

圖3 學習任務內學習路徑推薦模型的設計

2 學習任務內學習路徑推薦模型

學習任務內學習路徑推薦(Learning Path Recommendation within Learning Task,LPRLT)模型基于強化學習的Q-Learning算法構建,其設計如圖3所示,具體包含以下環節:

LPRLT模型通過建立Q-table,來計算智能體做出不同行為的獎勵。Q(s, a)表示在s狀態下智能體做出a行為得到的獎勵,智能體將Q(s, a)的值作為下一行為的選擇依據。矩陣Q如公式(2)所示,其中行表示狀態、列表示動作,元素Q(s, a)表示學習者在狀態s下選擇動作a能夠獲得收益的期望。

②LPRLT模型的訓練是通過獲取不同環境下對智能體行為的獎勵來更新參數。在這一過程中,狀態和智能體的行為不斷變化,智能體從某一初始狀態到目標狀態中所表現的行為可以看作是一個回合,一個回合完成后進入下一回合。在狀態s下,選擇行為a的規則如下:判斷s狀態下未表現的行為的Q值集合是否全為0,若全為0,則隨機選擇一種行為;否則,則90%的概率是選擇Q值最大的行為,10%的概率是隨機選擇一種行為。

③當LPRLT模型訓練結束,輸出訓練結果Q-Table,用于學習任務內學習項目個性化推薦。

三 實驗設計

課程內學習路徑推薦模型的推薦性能,由學習任務推薦策略和學習任務內學習路徑推薦模型的性能決定。由于學習任務推薦策略是根據知識點的先修后繼關系、按照先易后難的順序進行推薦,此策略在理論上已經最優,無需實驗驗證,因此學習任務內學習路徑推薦模型的推薦性能就顯得至關重要了。本實驗設計的目的,便是驗證學習任務內學習路徑推薦模型的性能。

1 實驗方法與評價指標

推薦系統常用的實驗方法主要有離線仿真實驗法和在線AB測試法。其中,離線仿真實驗法在大量不同算法的實驗中效率優勢顯著,所以適合在學術研究中應用。

目前,對學習效果和學習效率的量化仍然是一個挑戰。Knewton通過學習任務的測試成績對學習效果進行量化評價,通過完成學習目標需要的學習項目數量對學習效率進行量化評價。此外,有研究通過知識掌握水平的提升(即E)對學習效果進行量化評價[23][24]。E的計算如公式(4)所示,其中E表示學習者對知識的初始掌握水平值,E表示學習者對知識的最終掌握水平值,E表示學習者對知識的最高掌握水平值。

本研究使用離線仿真實驗法,采用知識掌握水平的提升E作為學習效果的量化評價指標,采用完成學習目標需要的學習項目數量作為學習效率量化評價指標;同時,采用推薦算法常用的查準率(Precision)、召回率(Recall)、F1-Score、AUC作為推薦性能的評價指標。

2 實驗數據

為驗證學習任務內學習路徑推薦模型的有效性,本實驗選擇真實在線學習數據訓練DKT模型,數據來源于本研究團隊自主研發的英語自適應學習平臺上的“公共英語”課程。數據集含有17179個學習者完成23個語法學習任務時產生的學習記錄,其按照8:1:1的比例切分,分別用于DKT模型的訓練、驗證和測試。實驗的學習任務選取知識點“副詞用法”,其先修知識點是“形容詞用法”“動詞用法”;學習任務共計40個學習項目,包括副詞25個、形容詞7個、動詞8個。

3 實驗環境設計

本實驗使用的學習效果和學習效率這兩個評價指標容易受多種因素的影響,故需要對實驗環境進行設計,排除或控制無關因素對實驗過程和結果的干擾。

(1)學習效果評價實驗環境設計

由于已有的學習者真實學習數據只代表其在一條學習路徑上的學習過程,且無法判斷這條學習路徑是否最優,所以真實數據不能作為觀察值用于模型評價,無法像一般推薦系統(如商品、電影等推薦系統)通過真實存在的觀察值和模型預測值進行性能評價。此外,一個學習者在現實中只能產生一條學習路徑的有效學習數據,而無法產生多條學習路徑的有效學習數據。所以,本實驗通過構造模擬器去生成數據,用于模型的學習效果評價。模擬器的主要作用是模擬學習者對模型推薦的學習項目做出掌握或未掌握的決策,從而產生學習記錄數據。

受Liu等[25]、Chen等[26]的研究成果啟發,本實驗采用三參數的項目反應理論(Item Response Theory,IRT)模型作為模擬器。本實驗基于IRT模型隨機產生2000個虛擬學習者,每個學習者隨機生成三個初始能力值。其中,目標知識點的能力值從區間[-3, 3]中隨機產生,其他兩個先修知識點的能力值從區間[3, 4]中隨機產生,表示學習者在已掌握兩個先修知識點的前提下開始學習目標知識點。

(2)學習效率評價實驗環境設計

由于IRT模型是在假設受測者能力值不變的情況下建立的,所以基于IRT模型的模擬器與現實中的學習者有一定差距,不能真正代表學習者。如果使用模擬器對學習任務中的學習項目做出掌握或未掌握的決策,必然會影響完成學習目標需要的學習項目數量,這將無法保證實驗結果的正確性。為排除模擬器對實驗結果的干擾,本實驗設計了一種理想的學習場景,即在任何學習路徑中學習者對推薦的全部學習項目都能做出“掌握”的決策。雖然實驗環境與真實的學習場景有一定差距,但此環境有助于有效評價學習者在不同學習路徑上的學習效率。

四 實驗分析與結果

依托實驗設計,本研究選取多種主流推薦模型作為對比模型,對學習任務內學習路徑推薦模型的推薦性能進行對比實驗,具體的實驗分析與結果如下:

1 學習效果評價

本實驗選取KNN、GRU4Rec、Random三種推薦模型作為對比模型,選取的學習任務為“副詞用法”,所有模型推薦的學習路徑長度固定為15個學習項目。其中,KNN是一種基于用戶的協同過濾推薦模型[27],通過比較學習任務中學習路徑的余弦距離,從用戶群中篩選相似性用戶作為當前用戶的鄰居,并為新用戶推薦下一步的學習項目;但是,此模型未使用知識圖譜和知識水平跟蹤,所以學習任務只包括目標知識點,而不包括先修知識點。GRU4Rec是一種基于遞歸神經網絡的推薦模型[28],采用門控循環單元(GRU),輸入是學習任務中學習路徑的順序,而輸出是下一步出現的學習項目概率分布;但是,此模型也未使用知識圖譜和知識水平跟蹤,所以學習任務只包括目標知識點,而不包括先修知識點。Random是一種隨機推薦模型,推薦項目采用簡單隨機抽樣方法從學習任務的學習項目中隨機選取;此模型雖然使用了知識圖譜,但未使用知識水平跟蹤,所以學習任務包括目標知識點和先修知識點。

不同推薦模型的學習效果評價指標E比較結果如表1所示,其中E分別采用IRT模型、DKT模型計算學習者在學習任務中目標知識點的初始掌握水平和最終掌握水平。表1顯示,LPRLT模型對學習效果的提升幅度最大,KNN、GRU4Rec兩種模型由于沒有使用知識圖譜和知識水平跟蹤,僅根據學習者的興趣偏好推薦學習項目,其推薦的學習路徑對學習效果幾乎沒有提升。Random模型由于使用了知識圖譜,故其推薦效果優于KNN模型和GRU4Rec模型,僅次于LPRLT模型。實驗結果充分說明了學習路徑推薦與一般的路徑推薦有本質上的不同,知識圖譜、知識水平跟蹤和推薦算法對學習效果均有較大影響。

表1 不同推薦模型的學習效果評價指標Eφ比較結果

2 學習效率評價

本實驗選擇Random模型作為對比模型,選取的學習任務為“副詞用法”,隨機生成一位虛擬學習者。該虛擬學習者對“副詞用法”的初始掌握水平是0.4885,學習目標是“副詞用法”的掌握水平要大于0.9。具體的實驗步驟如下:

①使用LPRLT模型為該學習者推薦一條學習路徑,路徑中包括8個學習項目,對目標知識點的掌握水平達到0.9017。

②使用Random模型為該學習者隨機推薦多條學習路徑,使用簡單隨機抽樣法抽取在每條路徑的學習項目。

③采用學習路徑中的學習項目數量(即學習路徑長度)作為學習效率的量化評價指標,為方便評價,設計了學習路徑推薦概率。學習路徑A的推薦概率的計算如公式(5)所示,其中事件A分別表示學習項目數大于、等于、小于8的學習路徑,m表示A中包含的結果數,n表示可能出現的結果總數。

圖4 Random模型的學習路徑推薦概率圖

Random模型的學習路徑推薦概率如圖4所示,可以看出:通過對Random模型進行1000次、5000次和10000次的隨機試驗,值逐漸趨于穩定,Random模型推薦的所有學習路徑中有4.99%優于LPRLT模型、39.83%等于LPRLT模型、51.58%劣于LPRLT模型。其中,在優于LPRLT模型的499條學習路徑中,學習路徑長度全部為7;在劣于LPRLT模型的5158條學習路徑中,學習路徑長度為9的有3784條,學習路徑長度為10的有1458條,學習路徑長度為11的有248條,學習路徑長度為12的有28條。總的來說,LPRLT模型推薦的學習路徑95.01%優于或等于Random模型。

從上述分析可知,LPRLT模型推薦的學習路徑并未100%優于或等于Random模型,原因主要在于模型訓練時,考慮到模型的訓練時間不要過長,且訓練出的Q-table也不要太大,故設置了算法收斂條件。實驗證明,如果提高算法收斂條件,則推薦性能也會隨之提高。

④使用均方根誤差指標(Root Mean Square Error,RMSE),評測兩個模型推薦的學習路徑與最優學習路徑的學習路徑長度偏差值。在本實驗中,最優學習路徑長度為7,RMSE值越低,代表模型的性能越好。實驗結果表明,LPRLT模型與最優學習路徑的RSME值為1,Random模型與最優學習路徑的RSME值為1.9212,可見LPRLT模型的性能明顯優于Random模型。

3 推薦性能評價

本實驗的環境與學習效果評價相同:實驗選取KNN、GRU4Rec、Random三種推薦模型作為對比模型,選取的學習任務為“副詞用法”,所有模型推薦的學習路徑長度固定為15個學習項目。對于一個學習項目來說,推薦結束后可能有四種結果:①模型推薦給學習者且學習者掌握了此學習項目;②模型推薦給學習者但學習者未掌握此學習項目;③學習者掌握了此學習項目但是模型未推薦;④學習者未掌握此學習項目且模型未推薦。本實驗選取查準率(Precision)、召回率(Recall)、F1-Score、AUC四種常用的推薦算法評價指標來評價不同模型的推薦性能,結果如表2所示。表2顯示,與其他三個模型相比,LPRLT模型的查準率、召回率、F1-Score、AUC的數值最高,其推薦性能最優;Random模型由于使用了知識圖譜,故其查準率、召回率、F1-Score的數值高于KNN模型和GRU4Rec模型,但其AUC的數值最低。總的來說,LPRLT模型的推薦性能最優,隨后依次是GRU4Rec模型、KNN模型、Random模型。

表2 不同模型的推薦性能評價指標比較

五 結語

本研究提出一種智能的個性化路徑推薦模型,其融合了知識圖譜、深度知識跟蹤、強化學習三種智能技術。與已有的推薦模型相比,個性化路徑推薦模型的創新之處主要體現為:①此模型可以推薦知識點序列、學習資源和學習活動三種內容,有效解決了目前推薦模型的推薦內容比較單一的問題。②在模型構建的過程中,充分考慮了學習效果和學習效率這兩個影響因素,有效解決了目前推薦模型不能以學習效果和學習效率為推薦目標的問題。例如,在學習任務內學習路徑推薦模型中,設計動作集合時,不僅選擇有目標知識點的學習項目,還考慮有先修知識點的學習項目,充分考慮了知識結構對學習效果的影響;設計獎勵時,學習者在某個狀態下完成學習項目后,狀態轉移到了下一個狀態值,若狀態值大于等于設定的目標狀態值,則賦予獎勵值,否則沒有獎勵值——這種設計使模型對學習效果和學習效率具有目標導向作用。③通過實驗環境設計,有效控制了影響學習效果和學習效率量化的因素,解決了目前推薦模型只能采用常用評價指標(如查準率、召回率等),而不能采用學習效果和學習效率作為評價指標的難題。實驗結果表明,學習任務內學習路徑推薦模型對學習效果的提升幅度比KNN、GRU4Rec和Random模型更高,推薦性能也更優;且與Random模型相比,其學習效率更高。本研究為面向自適應學習的個性化學習路徑推薦提供了一種新的解決方案,解決了自適應個性化學習中的關鍵問題,促進了自適應學習的研究與發展。

[1]教育部.教育信息化2.0行動計劃[OL].

[2]教育部等六部門.教育部等六部門關于推進教育新型基礎設施建設構建高質量教育支撐體系的指導意見[OL].

[3]金慧,王夢鈺,王陳欣.促進教育創新的關鍵技術與應用實踐——2015-2020《地平線報告》的分析與比較[J].遠程教育雜志,2020,(3):25-37.

[4]Dwivedi P, Kant V, Bharadwaj K K. Learning path recommendation based on modified variable length genetic algorithm[J]. Education and Information Technologies, 2018,(2):819-836.

[5]孔維梁,韓淑云,張昭理.人工智能支持下自適應學習路徑構建[J].現代遠程教育研究,2020,(3):94-103.

[6]De-Marcos L, Martínez J J, Gutiérrez J A. Particle swams for competency-based curriculum sequencing[A]. Emerging Technologies and Information Systems for the Knowledge Society[C]. Berlin: Springer, 2008:243-252.

[7]姜強,趙蔚,李松,等.大數據背景下的精準個性化學習路徑挖掘研究——基于AprioriAll的群體行為分析[J].電化教育研究,2018,(2):45-52.

[8]Fu L C, Yeh Y C, Hsin H Y, et al. Data mining for providing a personalized learning path in creativity: An application of decision trees[J]. Computers & Education, 2013,68:199-210.

[9]崔煒,薛鎮.松鼠AI智適應學習系統[J].機器人產業,2019,(4):84-94.

[10]Tarus J K, Niu Z, Mustafa G. Knowledge-based recommendation: A review of ontology-based recommender systems for e-learning[J]. Artificial Intelligence Review, 2018,(1):21-48.

[11]黃志芳,趙呈領,黃祥玉,等.基于情境感知的適應性學習路徑推薦研究[J].電化教育研究,2015,(5):77-84.

[12]Ghauth K I, Abdullah N A. Learning materials recommendation using good learners’ ratings and content-based filtering[J]. Educational Technology Research and Development, 2010,(6):711-727.

[13]趙學孔,徐曉東,龍世榮.協同推薦:一種個性化學習路徑生成的新視角[J].中國遠程教育,2017,(5):24-34.

[14]丁永剛,張馨,桑秋俠,等.融合學習者社交網絡的協同過濾學習資源推薦[J].現代教育技術,2016,(2):108-114.

[15]陳壯.在線學習路徑推薦算法研究[D].武漢:華中師范大學,2020:27-29.

[16]申云鳳.基于多重智能算法的個性化學習路徑推薦模型[J].中國電化教育,2019,(11):66-72.

[17]Salehi M, Kamalabadi I N, Ghoushchi M B G. Personalized recommendation of learning material using sequential pattern mining and attribute based collaborative filtering[J]. Education and Information Technologies, 2014,(4):713-735.

[18]Ruslan S, Andriy M, Geoffrey H. Resticted Boltzmann machines for collaborative filtering[A]. Proceedings of the 24th International Conference on Machine Leaning[C]. USA: ACM, 2007:791-798.

[19][28]Hidasi B, Karatzoglou A, Baltrunas L, et al. Session-based recommendations with recurrent neural networks[A]. 4th International Conference on Learning Representations, ICLR 2016-Conference Track Proceedings[C]. Puerto Rico: ICLR, 2016:291-300.

[20]Tan C, Han R, Ye R, et al. Adaptive learning recommendation strategy based on deep Q-learning[J]. Applied Psychological Measurement, 2020,(4):251-266.

[21][23][25]Liu Q, Tong S, Liu C, et al. Exploiting cognitive structure for adaptive learning[A]. Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining[C]. Anchorage: ACM, 2019:627-635.

[22]李建偉,李領康,于玉杰.一種基于深度知識跟蹤與強化學習的學習路徑優化方法[P].中國專利:113268611A,2021-8-17.

[24][26]Chen Y, Li X, Liu J, et al. Recommendation system for adaptive learning[J]. Applied Psychological Measurement, 2018,(1):24-41.

[27]Cover T, Hart P. Nearest neighbor pattern classification[J]. IEEE Transactions on Information Theory, 2003,(1):21-27.

Personalized Learning Path Recommendation Oriented to Adaptive Learning

LI Jian-wei1,2WU Jia-hui1JI Yan-li1

Learning path recommendation based on learners’ learning records and learning tasks is the key technology to realize adaptive learning. Firstly, this paper classified personalized learning path recommendation models into eight categories, and analyzed each category of models in detail, summarized the common problems of these models, and believed that these problems seriously affect the application effect of adaptive personalized learning. Then, the personalized learning path recommendation model for learning path recommendation was proposed from two dimensions of curricula and learning tasks, which integrated three intelligent technologies of knowledge map, deep knowledge tracking and reinforcement learning and could effectively solve the above problems. Finally, through comparative experiments and relevant data analysis on the learning path recommendation model within learning task, it was found that this model can effectively improve the learning effect and learning efficiency, and its recommendation performance was also better than the current mainstream recommendation model. The research results of this paper had important application value for the realization of adaptive learning, and provided important reference for the theoretical and technical research of personalized learning path recommendation in the education field.

adaptive learning; learning path recommendation; knowledge map; deep knowledge tracking; reinforcement learning

G40-057

A

1009—8097(2023)01—0108—10

10.3969/j.issn.1009-8097.2023.01.012

本文為網絡系統與網絡文化北京市重點實驗室主任基金項目“基于深度學習的個性化學習內容推薦模型研究”(項目編號:NSNC-2020 A05)、北京郵電大學研究生教育教學改革項目“研究生課程思政教學模式研究與實踐”(項目編號:2022Y004)的階段性研究成果。

李建偉,北京郵電大學網絡教育學院副教授,北京郵電大學網絡系統與網絡文化北京市重點實驗室副研究員,碩士,研究方向為智能教育技術與應用,郵箱為lijianwei@bupt.edu.cn。

2022年6月7日

編輯:小米

猜你喜歡
實驗評價模型
一半模型
記一次有趣的實驗
SBR改性瀝青的穩定性評價
石油瀝青(2021年4期)2021-10-14 08:50:44
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
做個怪怪長實驗
3D打印中的模型分割與打包
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
基于Moodle的學習評價
主站蜘蛛池模板: 国产成人高清精品免费软件| 成人国产三级在线播放| 国产精品综合久久久| 国产剧情国内精品原创| 五月天久久婷婷| 亚洲精品成人福利在线电影| 国产视频自拍一区| 亚洲成a人在线播放www| 亚洲综合片| 久久久亚洲色| www.91中文字幕| 日韩黄色在线| 亚洲三级视频在线观看| 国产在线视频欧美亚综合| 欧美成人综合视频| 亚洲福利视频网址| 亚洲AV无码精品无码久久蜜桃| 国产人成乱码视频免费观看| 亚洲自偷自拍另类小说| 天天综合网色中文字幕| 999精品免费视频| 免费在线色| 一级毛片免费高清视频| 欧洲高清无码在线| 日本免费一区视频| 亚洲一区二区无码视频| 成人91在线| 秋霞一区二区三区| 国模在线视频一区二区三区| 亚洲国产中文精品va在线播放| 久久久噜噜噜久久中文字幕色伊伊| 亚洲中文字幕手机在线第一页| 亚洲第一黄片大全| 91久久精品日日躁夜夜躁欧美| 国产美女人喷水在线观看| 国产精品浪潮Av| 成人毛片免费观看| 国产午夜一级淫片| 一级毛片在线免费看| 欧美人人干| 久草青青在线视频| 久久久91人妻无码精品蜜桃HD| 精品无码一区二区三区在线视频| 欧美亚洲日韩中文| 欧美午夜性视频| 91青青草视频| 98精品全国免费观看视频| 亚洲天堂免费| 四虎精品黑人视频| 亚洲色精品国产一区二区三区| 秋霞国产在线| 国产精品久久久久久久久久98| 自拍偷拍欧美日韩| 亚洲视频二| 亚洲人成网站观看在线观看| 国产超薄肉色丝袜网站| 99无码中文字幕视频| 久久久噜噜噜久久中文字幕色伊伊 | 又粗又大又爽又紧免费视频| 色屁屁一区二区三区视频国产| 喷潮白浆直流在线播放| 伊人91视频| 亚洲欧美激情小说另类| 免费高清毛片| 国产欧美日韩综合在线第一| 婷婷久久综合九色综合88| 国产日韩精品欧美一区灰| 国产乱子伦无码精品小说| 九九热精品免费视频| 国产乱子伦无码精品小说| 99视频国产精品| AV熟女乱| 一级一级特黄女人精品毛片| 免费毛片视频| 亚洲第一色网站| 日韩123欧美字幕| 久久精品国产精品一区二区| 久久亚洲高清国产| 国产精品网拍在线| 伊人91在线| 久久一色本道亚洲| 久久国产高清视频|