Jul, 2024

从内部冲突到语言模型的上下文适应

TL;DR本研究解决了语言模型在知识密集型理解任务中,因内部记忆冲突而无法有效整合上下文的问题。我们提出了DYNAMICQA数据集,用于研究不同类型知识冲突之间的关联,并引入了新的评估指标来衡量上下文对语言模型语义输出的影响。实验结果表明,相对较静态的事实更容易通过附加上下文进行更新。