
摘要
我们提出SAINT+,作为SAINT模型的改进版本。SAINT是一种基于Transformer架构的知识追踪模型,能够分别处理题目信息与学生作答信息。沿用SAINT的编码器-解码器结构,SAINT+的编码器通过自注意力层对题目嵌入序列进行处理,而解码器则交替应用自注意力层与编码器-解码器注意力层,分别作用于作答嵌入序列与编码器输出。此外,SAINT+在作答嵌入中引入了两种时间特征嵌入:耗时(elapsed time),即学生完成作答所花费的时间;以及间隔时间(lag time),即相邻学习活动之间的时间间隔。我们在教育领域最大的公开基准数据集EdNet上对SAINT+的性能进行了实证评估。实验结果表明,SAINT+在知识追踪任务中达到了当前最优水平,相较于当前EdNet数据集上的最先进模型SAINT,其受试者工作特征曲线下面积(AUC)提升了1.25%。
代码仓库
Shivanandmn/SAINT_plus-Knowledge-Tracing-
pytorch
GitHub 中提及
maroxtn/SAINT-Transformer-riiid-kaggle
pytorch
GitHub 中提及
arshadshk/SAINT-pytorch
pytorch
Chang-Chia-Chi/SaintPlus-Knowledge-Tracing-Pytorch
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| knowledge-tracing-on-ednet | SAKT | Acc: 70.73 |
| knowledge-tracing-on-ednet | DKT | AUC: 0.7638 Acc: 70.6 |
| knowledge-tracing-on-ednet | SAINT+ | AUC: 0.7914 Acc: 72.52 |
| knowledge-tracing-on-ednet | DKVMN | AUC: 0.7663 Acc: 70.79 |