通过定制专家网络实现可扩展模型编辑
利用 EREN(通过阅读笔记编辑模型)提出方法来提高大型语言模型的可伸缩性和鲁棒性,通过正确响应语法相似但语义无关的输入以及从多个修改中整合知识,优于现有技术。
Mar, 2024
介绍了一种基于 Semi-Parametric Editing with a Retrieval-Augmented Counterfactual Model (SERAC) 的模型编辑方法,具备内存高、编辑表达能力强的特点,能够高效地处理基于问答、事实核查和对话生成的 3 种具有挑战性的语言模型编辑问题。
Jun, 2022
提出了两项模型编辑研究并在医学领域进行了验证,同时观察到当前模型编辑方法在医学知识的专业化和复杂性方面存在困难。因此,提出了一种用于医学模型编辑的新型分层可扩展适配器策略 MedLaSA。通过因果追踪来确定神经元中知识的准确位置,并在 LLMs 的密集层引入可扩展适配器,这些适配器基于相应的特定知识分配缩放值。在医疗 LLMs 上进行的大量实验证明了 MedLaSA 的编辑效率,且不影响未编辑的无关知识。
Feb, 2024
该论文提出一种名为 MEND 的模型编辑器网络,通过 Gradient Decomposition 技术学习将预训练模型快速地进行局部编辑,有效解决了大型神经网络模型的黑盒本质问题,为开发和终端用户提供了纠正不准确输出的 “后门”。
Oct, 2021
使用 MAssive Language Model Editing Network (MALMEN) 方法,以超网络生成参数移位来校正大型语言模型中的知识误差和过时问题。该方法可同时编辑多个事实,并比特定于 GPT 的编辑器在知识密集型 NLP 任务上表现更佳。
Nov, 2023
深度神经网络在学术界和工业界越来越普遍,在各个领域和相关任务上与人类的表现相媲美甚至超越。然而,即使是最大的人工神经网络也会出错,随着时间的推移,曾经正确的预测可能会失效。通过在数据集中增加考虑错误或最新信息的样本,可以解决这个问题。然而,灾难性遗忘现象对于改变神经网络参数中的隐性记忆知识以达到精确变化提出了挑战,通常需要重新训练整个模型才能实现所需的行为。这种方法昂贵、不可靠,并且与大规模自监督预训练的现行趋势不兼容,因此有必要找到更高效和有效的方法来适应变化的数据。为了满足这个需求,知识编辑作为一个新颖的研究领域正在兴起,旨在实现对预训练目标模型的可靠、数据高效和快速的变化,而不影响先前学到的任务上的模型行为。在本综述中,我们对这个最新的人工智能研究领域进行了简要回顾。首先,我们介绍了神经网络编辑的问题,在一个共同框架中对其进行了形式化,并将其与连续学习等更有名的研究分支进行了区分。接下来,我们对迄今为止提出的最相关的知识编辑方法和数据集进行了回顾,并将这些工作分为四个不同的类别:正则化技术、元学习、直接模型编辑和架构策略。最后,我们概述了与其他研究领域的一些交叉点和未来的潜在方向。
Oct, 2023
大型语言模型的编辑知识是一种有吸引力能力,允许我们在预训练期间纠正学习不正确的事实,并在模型中更新日益增长的新事实清单。然而,现有的模型编辑技术通常使用可靠性、特异性和对一项或少数几个编辑的泛化性指标进行评估。我们认为,为了使模型编辑具有实际效用,我们必须能够对同一模型进行多次编辑。针对当前的两种最先进的方法 ——ROME 和 MEMIT,我们在大规模上评估模型编辑方法。我们发现,随着模型被连续地编辑多个事实,它会不断遗忘先前编辑的事实以及执行下游任务的能力。这种遗忘分为两个阶段 —— 一个初始的逐渐但渐进性的遗忘阶段,后面是突然或灾难性的遗忘阶段。逐渐和灾难性的遗忘都限制了大规模上模型编辑方法的有效性和可扩展性。我们的分析还强调了 ROME 和 MEMIT 在大规模上的其他关键局限性。通过我们的工作,我们推动以可扩展性为中心的模型编辑方法的开发和评估。
Jan, 2024
该研究探讨了神经网络的编辑问题,提出了 Editable Training,这是一种模型无关的训练技术,以便快速修补模型的错误,并在大规模图像分类和机器翻译任务中进行了实证研究。
Apr, 2020
大型语言模型在软件工程领域中成功应用,特别是在代码生成方面。本文提出了一种新颖有效的模型编辑方法( extsc {MENT}),用于修补编程任务中的 LLMs。 extsc {MENT} 基于生成式 LLMs 的机制,在下一个标记预测中实现模型编辑,并进一步支持常见的编码任务。本研究提出了形式化的编辑过程和相关概念,并引入了评估其泛化能力的新指标。在 API-seq 推荐、行级代码生成和伪代码转换任务上,我们的方法优于最先进的方法,并展示了 extsc {MENT} 在软件工程中的应用。
Dec, 2023
我们提出了一种基于神经元索引的动态 LoRA (MELO) 的插件模型编辑方法,通过根据内部向量数据库中的索引来动态激活特定的 LoRA 块,以改变语言模型的行为。实验结果表明,我们提出的 MELO 在文档分类、问答和幻觉修正等三个任务的编辑性能方面达到了最先进的水平,而且需要的可训练参数和计算成本最少。
Dec, 2023