Aug, 2024

通过知识抹除增强大型语言模型编辑中的多跳推理

TL;DR本研究针对大型语言模型(LLMs)在多跳推理中面临的内在知识不准确和过时问题,提出了一种新的知识编辑方法。通过引入知识抹除机制(KELE),并结合认知神经科学的理论,验证了残余单跳知识对多跳推理性能的负面影响,从而显著提升了编辑后LLMs的多跳推理能力。