-
题名基于个性化遗忘建模的知识追踪方法
- 1
-
-
作者
张昭理
李家豪
刘海
石佛波
何嘉文
-
机构
华中师范大学人工智能教育学部
华中师范大学深圳研究院
-
出处
《计算机工程》
北大核心
2025年第8期120-130,共11页
-
基金
国家自然科学基金面上项目(6247077114,62377037,62277041,62173286,62177019,62177018)
湖北省自然科学基金面上项目(2022CFB971,2022CFB529)
+5 种基金
深圳市自然科学基金面上项目(JCYJ20230807152900001)
江西省自然科学基金青年项目(20242BAB2S107,20232BAB212026)
江西省高等学校教育教学改革研究课题(JXJG-23-27-6)
湖北省自然科学基金-创新发展联合基金项目(2025AFD621)
广东省基础与应用基础研究基金(2025A1515010266)
华中师范大学中央高校基本科研业务费项目(CCNU25ai012)。
-
文摘
针对传统知识追踪(KT)模型难以有效建模学习者在长交互序列下的知识状态变化的问题,引入以Transformer为代表的注意力机制模型能够实现对学习者长交互序列中潜在信息的捕获,并展现出良好的性能。然而,现有模型在建模学习过程时,往往忽视了学习者的能力差异,且主要关注知识掌握状态的累加,未能充分建模学习者的遗忘效益。因此,提出一种基于个性化遗忘建模的知识追踪方法(PFKT),通过引入额外的特征信息来建模学习者的答题能力,并进一步探究学习者差异化的记忆遗忘能力。从学习者的历史交互序列出发,综合考虑知识点的获取与遗忘现象,以捕获学习者的真实知识掌握状态。同时,结合额外的特征信息,实现更为准确的个性化遗忘现象建模。实验结果显示,所提出的PFKT模型在ASSISTments2017和Algebra 2005-2006数据集上均取得了较现有模型更优的性能。
-
关键词
知识追踪
注意力机制
遗忘建模
TRANSFORMER
特征信息
-
Keywords
Knowledge Tracing(KT)
attention mechanism
forgetting modeling
Transformer
feature information
-
分类号
TP18
[自动化与计算机技术—控制理论与控制工程]
-