May, 2023

通过减轻曝光偏差来更新大型语言模型的自我信息

TL;DR本文对 LLMs 的自我信息更新任务进行了全面的研究,并评估了其持续微调方法。作者发现,普通的持续微调方法可能存在暴露偏差问题。因此,他们提出了一种有效的方法来缓解这个问题,进一步开发了新闻文章数据集来评估信息更新。实验结果表明,所提出的方法能显著提高事实一致性分数(0 到 1)0.16,对与新信息不直接相关的指令的性能几乎没有影响。