基于关键图的高效目标级机器取消学习方法
通过系统地回顾图解学习的方法,本综述论文旨在增进对新加入该领域的研究人员的理解,与差分隐私建立关联,探索其在不同领域的应用,以增强数据隐私和增强人工智能系统的鲁棒性,并鼓励进一步研究和创新,从而推动图解学习领域的发展。
Aug, 2023
该研究提出了一种在归纳图学习任务中高效实现的、适用于动态图的图表征删除框架 GUIDE,它由三个组件组成:具有公平性和平衡性的引导图分区,高效的子图修复以及基于相似性的聚合。
Apr, 2023
机器学习中的模型撤销能够有效解决数据隐私问题,本研究通过实证评估表明首次梯度上升法在机器学习中的撤销过程更为有效,突出了其在提升数据隐私和符合法规(如 GDPR 和 CCPA)方面的潜力。
Jun, 2024
机器遗忘是一项关键技术,用于选择性地移除训练数据点对训练模型的影响。本文提供了机器遗忘研究的全面分类和分析,并回顾了最新的解决方案,讨论了其优势和限制,并提出了未来的发展方向,以推动机器遗忘作为一项必要的可信和自适应机器学习能力。
Aug, 2023
本文提出了第一个已知的图形神经网络认证卸载框架,涉及节点、边缘和节点特征等三种不同类型的卸载请求,致力于在保证性能的情况下解决基准数据集中的复杂卸载问题并优于不利用图形信息的卸载方法。
Jun, 2022
该文献介绍了一类新的机器遗忘算法,其中包括部分失忆式遗忘和逐层剪枝。通过详细的实验评估,展示了所提出的遗忘方法的有效性,部分失忆式遗忘不仅保持了模型效果,还消除了简短预训练的必要性,而逐层部分更新在标签翻转和基于优化的遗忘技术中显示了较于其原始方法更优的模型效果保留能力。
Mar, 2024
本文提出了一种专门针对图数据的新型机器取消学习框架 GraphEraser,包括两种新颖的图分区算法和一种基于学习的聚合方法。研究表明,与 SISA 相比,GraphEraser 在取消学习效率和模型效用方面都具有较大优势。
Mar, 2021
随着对数据隐私的关注加剧,图神经网络中的遗忘概念成为学术界一个重要的研究前沿,在用户请求下,遗忘概念可以强制从经过训练的图神经网络中有选择地删除特定数据。我们的研究专注于边的遗忘,这一过程在现实世界应用中具有广泛适用性。然而,我们的研究发现当前最先进的方法存在一个关键限制,被称为过度遗忘,即遗忘过程在去除特定数据之外错误地移除了过多信息,从而显著降低了剩余边的预测准确性。为了解决这个问题,我们确定了 GNNDelete 的损失函数作为过度遗忘现象的主要原因,并且我们的分析也表明,损失函数对于有效的边的遗忘可能不是必要的。基于这些认识,我们简化了 GNNDelete 方法,开发出一种名为 UtU 的新方法,它通过对图结构中的忘记边进行断开来方便遗忘。我们进行了大量实验证明,与重新训练模型相比,UtU 在提供隐私保护的同时保持了高准确性。具体而言,UtU 保留了超过 97.3% 的重新训练模型的隐私保护能力和 99.8% 的链接预测准确性。同时,UtU 仅需要恒定的计算需求,凸显了其作为一种轻量且实用的边的遗忘解决方案的优势。
Feb, 2024
该研究提出了一种在机器学习中,通过层攻击遗忘和知识蒸馏来解决训练集中的个人数据隐私问题的快速机器遗忘范式,通过大量实验证明了该方法在准确性和全链路遗忘性能上的有效性。
Dec, 2023
该调查提供了机器遗忘技术的简明评估,概述了准确和近似方法、可疑攻击和验证方法,并比较了每种方法的优点和局限性,评估了它们的性能,突出了挑战性的需求。提供强大的非 IID 删除模型以缓解公平性问题,并指出该领域未来的研究方向,旨在为寻求在 ML 系统中提供隐私和平等的研究人员和从业者提供有价值的资源。
May, 2023