AAAIDec, 2023

历史重要性:大型语言模型的时间知识编辑

TL;DR通过引入时间知识编辑(TKE)任务和建立一个评估当前模型编辑方法的基准 AToKe(Temporal Knowledge Editing 的评估)来解决现有模型编辑方法在记住新知识方面有效,但对历史知识遗忘严重的问题。为了解决这个问题,我们提出了一个简单且通用的框架 METO(Multi-Editing with Time Objective),用于增强现有的编辑模型,同时编辑历史知识和新知识,并优化模型对每个事实的时间预测。我们的评估表明,虽然 AToKe 仍然困难,但 METO 保持了学习新知识的有效性,同时显著提高了编辑模型在利用历史知识方面的性能。