- ICLRBadEdit:通过模型编辑对大型语言模型设置后门
通过将后门注入问题转化为一个轻量级知识编辑问题,BadEdit 攻击框架直接改变 LLM 参数以引入后门,从而在注入技术的多个方面上具有优越性。
- KEBench: 大型视觉语言模型的知识编辑基准
基于多模态知识图,本研究构建了一个新的基准评估 $ extbf {KEBench}$,并扩展了一种新的评估指标(可移植性),通过对五个大型视觉语言模型进行不同编辑方法的实验,深入分析这些方法对模型的影响,揭示了这些方法的优点和不足,为未来的 - 大型语言模型的概念知识编辑
该论文探索了在大型语言模型中编辑概念性知识的能力,通过构建一个新的基准数据集 ConceptEdit 和建立一套新的度量标准来评估现有的编辑方法。实验结果表明,虽然现有的编辑方法在某种程度上能有效地修改概念级别的定义,但也有可能扭曲大型语言 - 使用非结构化事实更新语言模型:实现实用的知识编辑
知识编辑目标是将知识更新注入语言模型中以保持其正确性和最新性。然而,当前的评估策略明显不实用:它们仅以精心策划的结构化事实(包含主语、关系和宾语的三元组)进行更新,而真实世界的知识更新通常出现在无结构的文本中,如新闻文章。本文提出一个新的基 - InstructEdit:用于大型语言模型的指令基础知识编辑
大规模语言模型的知识编辑可以提供一种有效的解决方案,以改变模型的行为而不会对整体性能产生负面影响。为了解决当前方法在任务上的有限泛化能力的问题,我们采取了第一步来分析知识编辑中的多任务泛化问题。具体而言,我们开发了一种基于指令的编辑技术,称 - 事件级知识编辑
知识编辑通过在大型语言模型中更新知识来防止其过时。本文提出一种新的任务设置:事件级别知识编辑,通过将新事件直接编辑到大型语言模型中来改进传统的三元组级别编辑。我们构建了一个高质量的事件级别编辑基准 ELKEN,其中包括 1,515 个事件编 - 大型语言模型中的稳定知识编辑
通过知识增强而非知识定位,我们引入了一种名为 StableKE 的方法,它包括语义改写增强策略和上下文描述丰富策略,可以编辑 ChatGPT 中的知识,并且展示了对编辑后的知识和多跳知识的稳定性,同时保留了不相关的知识和通用功能。
- ICLRTransformer 前馈层中关键值记忆更新的实证研究
通过在大型语言模型中的知识编辑和微调任务中比较更新键或值的两种方法,我们对 transformer 中的前馈网络进行了实证消融研究,从而更好地理解前馈网络作为一组键值神经存储器来恢复抽象高层知识。
- EVEDIT:基于事件的知识编辑与演绎编辑边界
通过引入理论框架和新任务,分析了现有的知识编辑方法存在的问题,并提出了一种更有效的事件驱动知识编辑方法,解决了编辑边界的不确定性和相关知识的模糊性,从而提高编辑模型的准确性。
- WilKE:智能层知识编辑器用于终身知识编辑
知识编辑致力于在大型语言模型(LLMs)中纠正过时或错误的知识,无需昂贵的重新训练。然而,当前的知识编辑方法主要集中在单一编辑上,无法满足终身编辑的要求。本文揭示了终身编辑中知识编辑遇到的性能退化问题,其特征是毒性堆积和毒性闪现,主要原因是 - 黑盒大型语言模型的知识编辑
当前研究主要关注白盒大语言模型(LLMs)编辑,忽略了一个重要的场景:黑盒 LLMs 编辑,其中 LLMs 通过接口进行访问,仅有文本输出可用。为了解决现有评估不适用于黑盒 LLMs 编辑且不具备全面性的局限性,我们提出了一个多角度评估框架 - SWEA:通过主题词嵌入修改大型语言模型的事实知识
我们提出了一种可扩展的主题词嵌入修改(SWEA)框架,它修改了主题的表示并在推理阶段实现了知识的编辑目标。我们进一步提出了优化然后抑制融合方法,用于编辑 LLMs 中的事实知识。我们在多个数据集上展示了 SWEAOS 的最先进推理能力。
- 传播与陷阱:通过反事实任务进行基于推理的知识编辑评估
当前的知识编辑方法在有效传播互联事实的更新方面存在困难。本研究深入探讨了在准确推理中妨碍更新知识适当传播的障碍。为了支持我们的分析,我们引入了一个新颖的基于推理的基准测试 - ReCoE(基于推理的反事实编辑数据集),其中涵盖了真实世界中的 - 大规模语言模型的知识编辑的邻域扰动
大语言模型中的编辑知识对邻近知识的扰动度及其对答案列表的影响的研究,以及通过一种名为 APP 的框架来减轻邻近扰动的有效性实验证明。
- DeepEdit: 知识编辑作为带约束的解码
我们提出了一种新的知识编辑视角,称之为基于约束的解码,在大型语言模型中进行。我们提出了 DeepEdit(一种基于深度优先搜索的渐进解码知识编辑的神经符号方法),该方法通过更好的推理连贯性、与问题的相关性以及对更新知识的认知来提高知识编辑。 - 大型语言模型的知识编辑综合研究
大型语言模型 (Large Language Models) 在理解和生成与人类交流非常相似的文本方面表现出非凡的能力。然而,由于其广泛的参数化,训练过程中存在重大的计算需求限制。这种挑战由于世界的动态性而进一步加剧,需要经常更新 LLM - PokeMQA: 可编程的多跳问题回答知识编辑
基于可编程的知识编辑,本研究提出了一种适用于多跳问题回答的框架(PokeMQA),通过解耦任务,使用分离的可训练范围探测器引导大型语言模型(LLMs)对知识增强的多跳问题进行分解,同时根据外部冲突信号调节 LLMs 的行为,从而在 MQA - 检索增强的多语言知识编辑
多语言知识编辑通过检索增强的方式,有效地更新大型语言模型中的新知识,较传统的微调方法具有更高性能和多语言适用性。
- 通过关系视角评估语言模型中的知识编辑
该研究构建了一个名为 RaKE 的基准,专注于基于关系的知识编辑,并通过创新的评估指标和全面的实验研究,确认了关系在事实三元组中的作用,为未来的基于关系的知识编辑方法提供了实验支持。
- 知识融合与大型语言模型的趋势:方法、基准和应用的调查和分类
通过综述知识融入大型语言模型的趋势、方法分类、基准和应用,本文概述了该研究领域的全貌,并指出了未来的研究方向。