Feb, 2024

大型语言模型中序列记忆编辑的全面评估

TL;DR修改存储在大型语言模型中的错误事实或注入新事实的记忆编辑(ME)方法已被证明是有效的。然而,先前的研究在 ME 评估方面存在两个关键限制:仅评估单个编辑的 LLMs,忽视了连续编辑的需求,以及仅关注基本事实三元组的评估,忽略了更广泛的 LLM 能力如逻辑推理和阅读理解。这项研究通过三个方面解决了这些限制,并发现参数修改型 ME 在几个连续编辑后会显著降低性能,而参数保持型 ME 则能有效地保持 LLMs 的基本能力,但在以不同格式呈现的已编辑知识的准确记忆方面存在困难。此外,该研究还提出了几种可能缓解 ME 不利影响的策略,并从参数修改、语言建模能力和上下文学习能力三个维度进一步解释了为何参数修改型 ME 会损害 LLMs。这项深入研究倡导在实际应用中更谨慎地使用 ME。