College of Computer Science,Shenyang Aerospace University,Shenyang 110136,China
Show less
文章历史+
Received
Accepted
Published
2024-01-04
Issue Date
2024-04-25
PDF (1179K)
摘要
对学习者的知识掌握水平进行追踪是智慧教育的重要研究方向之一。传统深度知识追踪方法的关注点主要集中在循环神经网络上,但存在缺乏可解释性、长序列依赖等问题。同时,很多方法没有考虑学习者特征信息及习题特征对实验结果的影响。针对以上问题,提出了一种融合习题特征信息的交叉注意力机制知识追踪模型。该模型结合知识点和习题特征信息得到习题特征嵌入模块,再根据学习者回答情况对注意力机制进行改进,得到双注意力机制模块。考虑到学习者实际做题情况,引入基于注意力机制的猜想失误模块。首先,将习题特征信息输入到该模型中,通过习题特征嵌入模块得到融合习题特征信息的学习者反应;然后,经过猜想失误模块的处理,可以得到学习者的真实反应;最后,通过预测模块得出学习者下一次回答正确的概率。实验结果表明,融合习题特征信息的交叉注意力机制知识追踪模型相对于传统深度知识追踪(deep knowledge tracing,DKT)模型,接收者操作-曲线下面积(area under curve of the receiver operating characteristic,ROC-AUC)和预测准确率(accuracy,ACC)分别提高了3.13%和3.44%,能够很好地处理长序列依赖情况,并具有更好的可解释性和预测性能。
早期的知识追踪发展可以分为两类。文献[4]研究了贝叶斯知识追踪(Bayesian knowledge tracing,BKT)模型,第一类方法集中在该模型,学习者的知识状态由一个二元组表示,随着学习者不断地练习,对知识点的掌握也会发生动态变化。该模型使用隐马尔可夫模型(hidden Markov model,HMM)建模学习者知识状态的演变。文献[5]研究了项目反应理论(item response theory,IRT)模型,第二类方法集中在该模型,IRT最早在心理学领域使用,目的是做能力评估。在知识追踪领域,IRT模型的目的是反映学习者的个体差异来预测学习者的知识掌握。与该模型有关的研究主要有:文献[6]研究了加法因子模型,文献[7]研究了性能因子分析、难度及能力,文献[8]研究了难易程度与学习历史(difficulty ability and study history,DASH)模型,文献[9]研究了因子分解机和DASH模型的扩展,文献[10]研究了DAS3H模型在其知识状态变化模型中使用手工设计的特征,例如每个知识点上的尝试次数、成功次数和失败次数。这两类方法的缺点是需要依赖于专家标签将习题与知识点关联起来,优点是具有很好的可解释性,可以有效地估计每个学习者在专家定义的知识点上的知识水平。
近些年,随着深度学习在序列建模方面的发展,启发了多种模型的设计,如文献[11]研究了深度知识追踪,文献[12]研究了知识追踪动态键值内存网络(dynamic key-value memory networks for knowledge tracing,DKVMN),文献[13]研究了知识追踪自注意力模型(self-attentive model for knowledge tracing,SAMKT)。这些模型旨在捕捉习题和知识点之间的关系。Xiao等[14]提供了特征提取方法,并使用多头自注意机制融合多种特征。Liu等[15]扩展了具有注意力机制的练习增强循环神经网络(exercise-enhanced recurrent neural network with attention mechanism,EERNNAM),并提出一个可解释的基于注意力机制的练习感知知识追踪(exercise-aware knowledge tracing,EAKT),将学生的知识状态从EERNNAM中的集成向量表示扩展为具有多个向量的矩阵,特别是使用动态贝叶斯网络对知识概念之间的先决关系建模,并将其纳入DKT模型中。然而,这些方法中模型注意力层相对较浅、没有对查询(query)、键(key)、值(value)进行充分发掘建模且可解释性相对较低。早期的知识追踪方法在可解释性方面表现出色,但对未来学习者表现的预测能力不够先进。因此,这些知识追踪方法不能很好地满足学习者的个性化学习需求。个性化学习不仅需要准确地预测性能,还需要根据实际情况考虑可解释性的问题,才能帮助学习者提升知识掌握水平。因为主观题目存在难以量化等问题,所以当前大多数模型的数据集主要以客观题目为主,但是客观题目只能体现学生对于基础知识的掌握情况,而无法考查学生对知识的应用能力。针对以上问题,本文提出了一种融合习题特征信息的交叉注意力机制知识追踪模型,通过使用交叉注意力机制对学习者过去回答的习题、知识点以及回答情况进行关联。
式中:为对点积操作进行缩放;为query矩阵; K 为key矩阵;考虑到学习者的知识状态是随时间变化的,因此使用 Masking表示掩码操作;设时刻后的交互记录的权重为0,防止未来表现对当前的知识状态产生干扰。公式中得到的为注意力权重矩阵。因此,学习者的历史综合表现可以表示为注意力权重对历史交互的加权,如下式所示。
BoltzL O, YadavA, DillmanB,et al.Transitioning to remote learning:lessons from supporting K‐12 teachers through a MOOC[J].British Journal of Educational Technology,2021,52(4):1377-1393.
[2]
CorbettA T, AndersonJ R.Knowledge tracing:modeling the acquisition of procedural knowledge[J].User Modeling and User-adapted Interaction,1994,4(4):253-278.
[3]
ShenS G, ChenE, LiuQ,et al.Monitoring student progress for learning process-consistent knowledge tracing[C]//Proceedings of the 27th ACM SIGKDD Conference on Knowledge Discovery & Data Mining.Singapore:ACM,2021:1452-1460.
lligence in Education.Heidelberg:Springer,2013:171-180.
[6]
CaiL, ChoiK, HansenM,et al.Item response theory[J].Annual Review of Statistics and Its App-lication,2016(3):297-321.
[7]
CenH, KoedingerK, JunkerB.Learning factors analysis:a general method for cognitive model evaluation and improvement[C]//International Conference on Intelligent Tutoring Systems.Heidelberg:Springer,2006:164-175.
[8]
Pavlik JrP I, CenH, KoedingerK R.Performance factors analysis:a new alternative to knowledge tracing[C]//Proceedings of the 2009 Conference on Artificial Intelligence in Education.Heidelberg:IOS Press,2009:531-538.
VieJ J, KashimaH.Knowledge tracing machines:factorization machines for knowledge tracing[C]//Proceedings of the AAAI Conference on Artificial Intelligence.Hawaii:AAAI,2019:750-757.
[11]
ChoffinB, PopineauF, BourdaY,et al.DAS3H:modeling student learning and forgetting for optimally scheduling distributed practice of skills[EB/OL].(2019-05-14)[2023-08-23].
[12]
PiechC, BassenJ, HuangJ,et al.Deep knowledge tracing[C]//Proceedings of the 28th International Conference on Neural Information Processing Systems:Volume 1.Montreal:ACM,2015:505-513.
[13]
ZhangJ, ShiX, KingI,et al.Dynamic key-value memory networks for knowledge tracing[C]//Proceedings of the 26th International Conference on World Wide Web.Perth:ACM,2017:765-774.
[14]
PandeyS, KarypisG.A self-attentive model for knowledge tracing[EB/OL].(2019-07-16) [2023-08-27].
[15]
XiaoY, XiaoR, HuangN,et al.Knowledge tracing based on multi-feature fusion[J].Neural Computing and Applications,2023,35(2):1819-1833.
[16]
LiuQ, HuangZ, YinY,et al.Ekt:exercise-aware knowledge tracing for student performance prediction[J].IEEE Transactions on Knowledge and Data Engineering,2019,33(1):100-115.
[17]
YeungC K, YeungD Y.Addressing two problems in deep knowledge tracing via prediction-consistent regularization[C]//Proceedings of the Fifth Annual ACM Conference on Learning at Scale.London:ACM,2018:1-10.
[18]
MinnS, YuY, DesmaraisM C,et al.Deep know-ledge tracing and dynamic student classification for knowledge tracing[C]//2018 IEEE International Conference on Data Mining (ICDM).Singapore:IEEE,2018:1182-1187.
[19]
NagataniK, ZhangQ, SatoM,et al.Augmenting knowledge tracing by considering forgetting behavior[C]//The World Wide Web Conference.San Francisco:ACM,2019:3101-3107.
[20]
OyaT, MorishimaS.LSTM-SAKT:LSTM-en-coded SAKT-like transformer for knowledge tra-cing[EB/OL].(2021-01-28)[2023-09-07].
[21]
LiuY, YangY, ChenX,et al.Improving know-ledge tracing via pre-training question embeddings[EB/OL].(2020-12-09)[2023-09-13].
[22]
NakagawaH, IwasawaY, MatsuoY.Graph-based knowledge tracing:modeling student proficiency using graph neural network[C]//IEEE/WIC/ACM International Conference on Web Intelligence.Thessaloniki:ACM,2019:156-163.
[23]
DingX Y, LarsonE C.Automatic RNN cell design for knowledge tracing using reinforcement learning[C]//Proceedings of the Seventh ACM Conference on Learning@ Scale.Dallas:ACM,2020:285-288.