- 模型编辑的基本问题: 如何在大型语言模型中进行合理的信念修正工作?
该研究采用半合成数据集的方法,对模型编辑问题进行实证研究,旨在探索语言模型的知识控制方式,进一步提出一个形式化测试平台,批判现有模型编辑问题的标准公式,并证明其离期望的认识标准还有一定差距。
- REVS:通过词汇空间中的排名编辑来消除语言模型中的敏感信息
通过 REVS 方法,我们可以修改大型语言模型(LLMs)中的少量神经元,从而去除敏感信息、抵御提取攻击,并保持模型的完整性。
- ACLDAFNet:大语言模型中序贴模型编辑的动态辅助融合
大型语言模型中的模型编辑任务,设计了动态辅助融合网络(DAFNet)以提升语义交互,并使用新构建的数据集 DAFSet 进行连续编辑,实验证明 DAFNet 在单轮和连续编辑任务中显著优于其他方法。
- MEMoE:采用专家混合适配器增强模型编辑
MOMoE 是一种模型编辑适配器,采用专家混合(MoE)架构和知识锚定路由策略,以高效地改变大型语言模型(LLMs)的行为,并确保不对其他输入产生负面影响。实验结果表明,MOMoE 方法在整体性能和泛化能力之间展现出卓越的平衡,优于批量编辑 - 扰动约束的序列模型编辑
对于大型语言模型的连续学习提出了一个名为 PRUNE 的框架,通过应用条件数的限制来保护模型的一般能力,从而在顺序模型编辑中有效地维持了编辑性能。
- LLMs 检索增强的连续提示学习中的终身知识编辑
RECIPE 是一种 RetriEval-augmented ContInuous Prompt Learning 方法,旨在提高模型编辑效果和推理效率,通过将知识语句转换为短且信息丰富的连续提示,并与知识哨兵(KS)结合使用,进一步集成检 - ICML文本到图像生成模型中的机制性知识定位
通过定位知识,可以在文本到图像模型中实现更高效的模型编辑,提供了对基于定位的文本到图像模型编辑中成功和失败的更好视角。
- 通过定制专家网络实现可扩展模型编辑
通过引入一种新的方法,即 SCEN(通过定制化专家网络的可扩展性模型编辑),我们在两个不同大小的开源大语言模型 Llama2 7B 和 13B 上取得了与现有主流模型编辑方法相比的最新成果。
- COLING大规模语言模型的鲁棒可扩展模型编辑
利用 EREN(通过阅读笔记编辑模型)提出方法来提高大型语言模型的可伸缩性和鲁棒性,通过正确响应语法相似但语义无关的输入以及从多个修改中整合知识,优于现有技术。
- 模型编辑的统一框架
模型编辑是一个在更新模型中嵌入的知识方面不断发展的领域,本文针对 “定位和编辑” 模型编辑技术中的两种方法 ——ROME 和 MEMIT,提出了一个统一框架,将其优化为针对相同目标的 “保持记忆” 的目标,并提出了 EMMET 算法作为一种 - 重建 ROME:解决串行模型编辑中的模型崩溃问题
通过对模型编辑中的残疾编辑进行研究,作者发现残疾编辑会导致模型立即崩溃,限制了 Rank-One 模型编辑方法(ROME)的连续编辑的使用。在本文中,作者展示了模型编辑中的崩溃现象只会在使用 CounterFact 数据集进行编辑时出现,而 - 连续模型编辑和批次处理,搭配 HooK 层
通过开发内存友好型的 COMEBA-HK 模型编辑方法,我们解决了连续批量支持型模型编辑方法在时间和资源消耗方面的挑战,并在单轮和连续批量编辑场景下证明了我们方法的卓越性能。
- 「胶带也无法修复」:编辑语言模型中的偏见和错误信息
模型编辑是一种成本效益高的策略,用于更新存储在语言模型中的知识。然而,模型编辑可能在应用编辑后产生意想不到的后果:与编辑无关的信息也可能被改变,并且模型的其他一般行为也可能被错误地改变。本研究调查了模型编辑方法如何意外地放大模型的偏见,并引 - 医学大型语言模型的事实知识和解释能力编辑
提出了两项模型编辑研究并在医学领域进行了验证,同时观察到当前模型编辑方法在医学知识的专业化和复杂性方面存在困难。因此,提出了一种用于医学模型编辑的新型分层可扩展适配器策略 MedLaSA。通过因果追踪来确定神经元中知识的准确位置,并在 LL - 知识图谱增强的大型语言模型编辑
利用知识图谱提升大型语言模型的编辑能力,通过图结构反映编辑过程中的关联知识变化,有效改善后编辑语言模型在处理编辑知识时的泛化能力。
- 纯微调的模型编辑
通过两个关键改进(优化条件似然和数据增强),研究表明纯粹的微调在模型编辑中是可行的,并经常能够与专门的编辑器达到或超过编辑分数。
- 模型编辑的蝴蝶效应:少量编辑可触发大型语言模型崩溃
模型编辑的影响、用困惑度作为衡量指标、顺序编辑和困难案例的研究,以及开发 HardCF 数据集探索模型编辑的潜在风险。
- 模型编辑的长篇评估
模型编辑评估中长文本生成的有效性及影响的新型评估方法(LEME)揭示了模型编辑方法的新维度,其中一些方法在有限范围内具有良好的一致性,但更容易出现事实偏移问题。
- 用规范示例进行模型编辑
我们引入了模型编辑与规范实例,该设置中每个期望行为仅提供一个学习实例,并且仅在分布之外进行评估,在严格限制对初始模型的偏离下。
- 大型语言模型能否稳健地进行编辑?
大语言模型的编辑方法在实际应用中存在明显的性能衰退,更流行的知识难以编辑且对性能和鲁棒性有较强关联。