Feb, 2024

大型语言模型知识编辑中多跳事实捷径的探索研究

TL;DR本研究系统地探究了大型语言模型(LLMs)利用直接连接的简化路径进行多跳知识推理的可能性,发现知识神经元的强度与多个知识段落中初始和终止实体的共现频率高度相关,以及擦除简化路径神经元可以减少多跳知识编辑中由于简化路径而引起的失败。