模型稀疏化可简化机器遗忘
该论文综述了机器取消学习的最新技术和方法,包括数据删除、扰动和模型更新,并强调了训练数据、资源限制和攻击复杂性等需要解决的挑战。此外,该论文强调了机器取消学习在自然语言处理、计算机视觉和推荐系统中的潜在益处和未来方向,并强调了研究人员和从业者继续探索和完善取消学习技术以确保机器学习模型能够适应不断变化的情况,同时保持用户信任,特别是在涉及大量个人用户数据的各个领域中。
May, 2023
该文献介绍了一类新的机器遗忘算法,其中包括部分失忆式遗忘和逐层剪枝。通过详细的实验评估,展示了所提出的遗忘方法的有效性,部分失忆式遗忘不仅保持了模型效果,还消除了简短预训练的必要性,而逐层部分更新在标签翻转和基于优化的遗忘技术中显示了较于其原始方法更优的模型效果保留能力。
Mar, 2024
机器遗忘方法针对用户隐私保护目标有重要作用,但会带来大量计算成本。我们提出了细粒度 Top-K 和 Random-k 参数扰动的不精确机器遗忘策略,以在保持可计算性开销的同时满足隐私需求。我们还引入了评估机器遗忘效果和模型泛化能力的新指标 —— 遗忘率和记忆保留率。通过实施这些创新技术和指标,我们在不显著牺牲模型性能的前提下实现了高效的隐私保护,并提供了一种评估遗忘程度的新方法。
Jan, 2024
机器遗忘通过从预训练模型中消除已学习的特定训练数据,即遗忘数据,以达到消除知识的目的。当前,现有的机器遗忘方法主要是通过修改遗忘数据的标签,并对模型进行微调来实现。然而,这种学习错误信息的过程是不自然的,并且不希望通过不必要地强化错误信息而导致超过遗忘。为了实现更加自然的机器遗忘,我们将剩余数据中的正确信息注入到遗忘样本中,改变其标签。通过将调整后的样本与其标签配对,模型会倾向于使用注入的正确信息,并自然地抑制应该遗忘的信息。尽管这是一个简单的步骤,但这对于自然机器遗忘来说是一个重要的第一步,并且在大幅减少过度遗忘和提高对超参数的鲁棒性方面表现出色,因此具有实际机器遗忘的潜力。
May, 2024
Machine Unlearning(机器遗忘)是从已经训练好的模型中删除特定的训练数据样本及其相应的影响,其具有重要的实际价值。本文提出了 MMUL,一种专门设计用于多模态数据和模型的机器遗忘方法,通过关注三个关键性质来制定多模态遗忘任务:(a)解耦模态,(b)保留单模态知识,(c)保留多模态知识。实验证明,MMUL 在区分已删除和剩余数据方面优于现有的基线方法,并且在遗忘后能够大部分保持原始模型的预先存在的知识。
Nov, 2023
探索机器遗忘(MU)在大型语言模型(LLMs)领域中的应用,称为 LLM 遗忘。通过维持基本知识生成的完整性且不影响非因果相关信息,旨在消除不良数据影响(例如敏感或非法信息)及相关模型能力,成为 LLMs 生命周期管理中的重要元素,潜在地作为开发生成式 AI 的基础,既安全、安全、可信,又无需完全重新训练的资源高效方法。从概念制定、方法论、度量和应用等方面研究 LLMs 遗忘领域。重点突出现有 LLM 遗忘研究中常被忽视的方面,例如遗忘范围、数据模型交互和多方面功效评估。并在 LLM 遗忘与模型编辑、影响函数、模型解释、对抗训练和强化学习等相关领域之间建立联系。此外,我们还概述了 LLM 遗忘的有效评估框架,并探讨了其在版权和隐私保护以及降低社会技术危害方面的应用。
Feb, 2024
通过引入 ' 权重显著性 ' 的概念,我们提出了一种称为显著性遗忘(SalUn)的方法,它能够有效地在图像分类和生成中消除忘记数据、类别或概念的影响,并在稳定性和准确性方面超越当前最先进的基准方法。
Oct, 2023
基于离散表示瓶颈的几乎无计算成本的零样本遗忘技术能有效遗忘忘记集,对数据集余下的部分几乎没有性能损失,并在 CIFAR-10、CIFAR-100 和 LACUNA-100 的三个数据集上进行了评估,与知识蒸馏用于遗忘的先进方法 SCRUB 相比,这种技术表现出与 SCRUB 几乎无计算成本相当甚至更好的性能。
Nov, 2023
机器遗忘是一项关键技术,用于选择性地移除训练数据点对训练模型的影响。本文提供了机器遗忘研究的全面分类和分析,并回顾了最新的解决方案,讨论了其优势和限制,并提出了未来的发展方向,以推动机器遗忘作为一项必要的可信和自适应机器学习能力。
Aug, 2023
Controllable Machine Unlearning (ConMU) 是一个新颖的框架,通过三个关键模块实现了 Machine Unlearning 的可控性,平衡了隐私、模型准确性和运行效率之间的权衡。在多个基准数据集上的综合实验展示了我们的控制机制的稳健适应性,并证明了其优于现有未学习方法的优势。
Oct, 2023