May, 2024

对比知识解码:提高理解性语言模型对经过编辑事实的信心

TL;DR通过对上下文新知识的影响进行分析,我们观察到虽然新知识的 logits 显著提升,但由于顽固的知识的存在,in-context editing 的性能仍然受到限制。为了解决这个问题并进一步提高 in-context editing 的性能,我们提出了一种新的方法,称为 DeCK,它通过对比由 in-context editing 引导的新编辑知识和未编辑参数化知识获得的 logits 来导出下一个 token 的分布。实验结果一致表明,DeCK 增强了 LLMs 对编辑事实的置信度,为开发 LLMs 的有效和可追溯的知识编辑方法铺平了道路。