机器遗忘
本文提出了一种专门针对图数据的新型机器取消学习框架 GraphEraser,包括两种新颖的图分区算法和一种基于学习的聚合方法。研究表明,与 SISA 相比,GraphEraser 在取消学习效率和模型效用方面都具有较大优势。
Mar, 2021
这篇论文研究了大型语言模型(LLMs)的反学习和公平性之间的相互作用,特别关注了一种称为 SISA 的流行反学习框架的性能 - 公平性权衡,并提出了后处理偏差缓解技术用于 SISA 生成的模型集合,证明其中的一种方法是模型集合的最佳公平预测器,在实验证明了我们提出的后处理框架 'FairSISA' 的有效性。
Dec, 2023
该调查提供了机器遗忘技术的简明评估,概述了准确和近似方法、可疑攻击和验证方法,并比较了每种方法的优点和局限性,评估了它们的性能,突出了挑战性的需求。提供强大的非 IID 删除模型以缓解公平性问题,并指出该领域未来的研究方向,旨在为寻求在 ML 系统中提供隐私和平等的研究人员和从业者提供有价值的资源。
May, 2023
机器遗忘是一项关键技术,用于选择性地移除训练数据点对训练模型的影响。本文提供了机器遗忘研究的全面分类和分析,并回顾了最新的解决方案,讨论了其优势和限制,并提出了未来的发展方向,以推动机器遗忘作为一项必要的可信和自适应机器学习能力。
Aug, 2023
本文旨在对机器学习模型中 “遗忘特定数据” 的概念、场景、方法和应用进行综合性探讨,并为研究人员和从业人员提供包括设计标准和算法在内的全面资源,以帮助创新隐私技术和提醒相关研究领域存在的问题。
Sep, 2022
该论文提出了一个游戏理论框架,将成员推理攻击(MIAs)与机器遗忘算法的设计整合在一起,从而以对抗性的方式主动地将攻击纳入算法设计中,利用隐式微分限制攻击者的成功,以实现从模型中遗忘特定的训练数据。
Jun, 2024
改进机器遗忘,提出图像分类的数据集精简技术和创新性遗忘方案,平衡隐私保护、实用性和效率,并运用于抵御成员推理和模型逆推攻击,并去除精简模型中的数据以快速训练任何模型。
Jan, 2024
机器学习模型面对大规模互联网数据集引起的数据完整性挑战,本研究探讨在检测到数据被篡改或错误时模型开发者能够做出的应对措施。我们将 “修正机器遗忘” 定义为解决训练模型中受未知篡改影响数据的问题,尽管只能知道受影响样本的一个小部分。我们发现修正遗忘问题与传统的注重隐私的遗忘方法有显著不同的要求。我们希望我们的工作能促进对修正遗忘方法的研究,为处理来自于大规模网络训练带来的数据完整性挑战的从业者提供新的策略。
Feb, 2024
该研究综述了现有的机器去学习方法,系统地分类并讨论了其差异、联系和开放问题,包括集中式去学习、分布式和不规则数据去学习、去学习验证以及隐私和安全问题,并提出了潜在的研究方向。
May, 2024
机器遗忘是从训练模型中删除某个子集(即 “遗忘集”)的效果,而不损害模型的效用,例如遵守用户要求删除他们的数据,或删除错误标记、被污染或其他有问题的数据。本文通过调查两个影响遗忘难度和算法性能的关键因素,发现基于这些因素的遗忘集评估揭示了先进算法的新行为,从而改善了顶级的遗忘算法。
Jun, 2024