对于每个 (文本序列) 的独立性:改进大型语言模型中的记忆数据遗忘
提出了一种高效的取消学习框架,通过引入轻量级的取消学习层并与 transformers 结合,可以在不对整个模型重新训练的情况下有效地更新大型语言模型,以解决用户数据隐私与数据保护法规的问题。实验证明,与现有技术相比,我们提出的方法在分类和生成任务上的有效性得到了验证。
Oct, 2023
本研究提出知识遗忘(knowledge unlearning)作为一种减少预训练语言模型(pretrained language models)隐私风险的方法,通过对目标标记序列进行梯度上升来遗忘它们,并发现顺序遗忘优于尝试一次性遗忘所有数据,对于特定领域的数据,知识遗忘具有更强的实证隐私保证,同时更加高效和鲁棒。
Oct, 2022
大型语言模型开创了人工智能的进展,然而它们可能会危险地记忆和传播敏感、偏见或受版权保护的信息。机器遗忘作为一种尖端解决方案应运而生,针对大型语言模型提供了一种选择性丢弃某些数据的技术,以解决隐私、道德和法律方面的挑战,无需进行完整的模型重新训练。本文回顾了关于大型语言模型的机器遗忘的最新研究,介绍了针对文本数据和分类数据的遗忘方法,并展示了这些方法在删除特定数据的同时保持模型高效性的有效性。本文还强调了机器遗忘的实用性,指出了保持模型完整性、避免过度或不足的数据删除以及确保一致的输出等问题,突出了机器遗忘在推动负责任、道德的人工智能方面的作用。
Mar, 2024
通过借助先前和后续模型访问,我们提出了文本消除泄漏攻击(TULA),从而证明机器遗忘在语言模型中会扩大知识泄漏的风险,包括黑盒和白盒场景下推断未学习数据的能力增强,以及通过白盒访问直接重构未学习数据的准确性。这项工作首次揭示了语言模型中的机器遗忘逆向创造了更大的知识风险,并鼓励更安全的遗忘机制的发展。
Jun, 2024
在这篇论文中,我们提出了一种稳定的序列遗忘(SSU)框架,该框架使用任务向量,通过引入额外的随机标签损失和应用基于梯度的权重显著性映射,以更稳定的方式在不同的时间步骤中从 LLMs 中删除受版权保护的内容,实验证明 SSU 在遗忘效果和保持模型的一般知识之间取得了良好的平衡。
Jun, 2024
使用一种名为 “刻意想象” 的新方法,在大型语言模型(LLM)的条件下有效地取消已学习的文本,并在进行生成任务和自然语言理解(NLU)任务时保留其功能,从而解决 LLM 中私密和敏感数据的挑战。
Feb, 2024
探索机器遗忘(MU)在大型语言模型(LLMs)领域中的应用,称为 LLM 遗忘。通过维持基本知识生成的完整性且不影响非因果相关信息,旨在消除不良数据影响(例如敏感或非法信息)及相关模型能力,成为 LLMs 生命周期管理中的重要元素,潜在地作为开发生成式 AI 的基础,既安全、安全、可信,又无需完全重新训练的资源高效方法。从概念制定、方法论、度量和应用等方面研究 LLMs 遗忘领域。重点突出现有 LLM 遗忘研究中常被忽视的方面,例如遗忘范围、数据模型交互和多方面功效评估。并在 LLM 遗忘与模型编辑、影响函数、模型解释、对抗训练和强化学习等相关领域之间建立联系。此外,我们还概述了 LLM 遗忘的有效评估框架,并探讨了其在版权和隐私保护以及降低社会技术危害方面的应用。
Feb, 2024
机器遗忘是人工智能中的一个新领域,专注于解决在机器学习模型中有选择地遗忘或减少不良知识或行为的挑战,特别是在大型语言模型(LLM)的背景下。本文介绍了一种使用梯度上升算法对 LLM 进行对齐的方法,以便符合伦理、隐私和安全标准,并目标性地删除或修改 LLM 中的学习信息,以解决有害回应和版权问题。
May, 2024