本文研究用户信息的删除和机器去学习概念,阐述了目前保证用户隐私的方法以及可能出现的潜在攻击方式,其中特别探讨了有意设计的训练数据能触发完全重新训练的中毒攻击。
Sep, 2021
该调查提供了机器遗忘技术的简明评估,概述了准确和近似方法、可疑攻击和验证方法,并比较了每种方法的优点和局限性,评估了它们的性能,突出了挑战性的需求。提供强大的非IID删除模型以缓解公平性问题,并指出该领域未来的研究方向,旨在为寻求在ML系统中提供隐私和平等的研究人员和从业者提供有价值的资源。
May, 2023
机器遗忘是一项关键技术,用于选择性地移除训练数据点对训练模型的影响。本文提供了机器遗忘研究的全面分类和分析,并回顾了最新的解决方案,讨论了其优势和限制,并提出了未来的发展方向,以推动机器遗忘作为一项必要的可信和自适应机器学习能力。
Aug, 2023
机器遗忘方法针对用户隐私保护目标有重要作用,但会带来大量计算成本。我们提出了细粒度 Top-K 和 Random-k 参数扰动的不精确机器遗忘策略,以在保持可计算性开销的同时满足隐私需求。我们还引入了评估机器遗忘效果和模型泛化能力的新指标——遗忘率和记忆保留率。通过实施这些创新技术和指标,我们在不显著牺牲模型性能的前提下实现了高效的隐私保护,并提供了一种评估遗忘程度的新方法。
Jan, 2024
该文献介绍了一类新的机器遗忘算法,其中包括部分失忆式遗忘和逐层剪枝。通过详细的实验评估,展示了所提出的遗忘方法的有效性,部分失忆式遗忘不仅保持了模型效果,还消除了简短预训练的必要性,而逐层部分更新在标签翻转和基于优化的遗忘技术中显示了较于其原始方法更优的模型效果保留能力。
Mar, 2024
机器去学习的关键概念、影响因素和机制的综述,提供对威胁和防御的分类、方法和解决方案的建议,以促进未来研究和实际应用的发展。
该研究综述了现有的机器去学习方法,系统地分类并讨论了其差异、联系和开放问题,包括集中式去学习、分布式和不规则数据去学习、去学习验证以及隐私和安全问题,并提出了潜在的研究方向。
May, 2024
通过创造一种新的损失函数,将目标分类损失和成员推断损失相结合,用于从神经网络中删除敏感信息的机器遗忘机制,本研究通过成员推断机制作为概念验证,提供了实验证据,证明了我们的遗忘方法在遗忘效果、延迟和主要任务准确性方面的优越性。
Jul, 2024
通过无差别攻击数据 poising 在机器取消学习中腐蚀模型准确度的弱点,本研究强调了对于机器取消学习中的“数据污染”问题的进一步研究的必要性。
本研究旨在解决机器学习中数据遗忘难题,尤其是在保护隐私和保持模型性能方面。提出了一种新的机器遗忘方法,通过层次相关分析和对高度相关神经元的扰动,实现高效的零-shot遗忘和隐私保护。实验表明,该方法能够有效去除目标数据,同时维持模型的实用性,为隐私保护的机器学习提供了切实可行的解决方案。
Oct, 2024