SAFE: 带分片图的机器遗忘
本文提出了一种编码学习协议,其利用线性编码器将训练数据编码成碎片,以便进行学习和 “完美取消学习”(unlearning),实验结果表明,相比未编码的基线,该编码机器学习方法提供了更好的性能与取消学习成本的平衡。
Dec, 2020
提出了一种基于分散隔离和编码计算的可扩展联邦遗忘框架,通过将分布式客户端分为多个隔离片段以减少受影响的客户端数量,并通过压缩不同片段之间的模型参数来减少中央服务器的存储开销,最后,在两个典型的学习任务上进行了广泛实验,表明我们的框架在准确性、重训练时间、存储开销和抵抗成员攻击的 F1 分数方面都优于三种最先进的框架。
Jan, 2024
机器遗忘能力对于遵守数据隐私法规以及删除有害、被操控或过时信息变得越来越重要。本研究提出了一种名为选择性突触阻尼(SSD)的新型机器遗忘方法,该方法以快速、高性能的方式进行遗忘,且不需要长期存储训练数据。该方法在一系列实验中与现有的遗忘方法进行了对比,结果显示 SSD 的性能与基于重新训练的后续处理方法相当,证明了重新训练后续遗忘方法的可行性。
Aug, 2023
即使在第三方定制微调数据中学习不安全内容,大型语言模型(LLMs)也可以采用 “遗忘过滤器” 算法过滤不安全的数据,确保安全,同时不影响后续任务性能。
Dec, 2023
通过创造一种新的损失函数,将目标分类损失和成员推断损失相结合,用于从神经网络中删除敏感信息的机器遗忘机制,本研究通过成员推断机制作为概念验证,提供了实验证据,证明了我们的遗忘方法在遗忘效果、延迟和主要任务准确性方面的优越性。
Jul, 2024
本文提出了一种专门针对图数据的新型机器取消学习框架 GraphEraser,包括两种新颖的图分区算法和一种基于学习的聚合方法。研究表明,与 SISA 相比,GraphEraser 在取消学习效率和模型效用方面都具有较大优势。
Mar, 2021
我们提出了一种新的类别遗忘算法,通过估计待保留和遗忘类别的特征或激活空间,并计算这些空间之间的共享信息,从而实现有效的机器遗忘,并在各种图像分类数据集和网络架构中相比其他基准算法效果明显提高,且计算效率提高了约 6 倍。
Dec, 2023
通过实验验证,本研究探讨了在连续学习过程中使用集成模型的优缺点,提出了一个计算简单、性能优良的算法来解决集成模型带来的高计算成本问题,并解决了连续学习中的遗忘问题。
Feb, 2022