Apr, 2024

训练语言模型以模仿学生误解的回归副作用

TL;DR对于使用大型语言模型(LLM)模仿学生误解以进行个性化教育,本研究探讨了其退化副作用。我们发现,随着 LLM 被训练得更准确地模仿学生误解,模型的事实真实性和推理能力会受到妥协。为了解决这些副作用,我们引入了一种 “幻觉标记” 技术,并发现在多个基准数据集上效果显著提升,但仍需要进一步研究保持 LLM 在个性化教育和事实准确性之间的平衡。