- 可编辑的概念瓶颈模型
通过使用数学严谨的闭合形式近似和影响力函数,我们提出了可编辑的概念瓶颈模型(ECBMs),以解决从头重新训练的困境,实现高效率的数据删除和插入操作,从而适应大规模应用中的数据处理需求。
- 擦除以增强:MRI 重建中的高效数据清除
在医学图像转换中,机器消除学习是可能的,可以用于处理偏见移除,同时保持高性能。
- 数据擦除的前沿:大型语言模型的机器取消学习
大型语言模型开创了人工智能的进展,然而它们可能会危险地记忆和传播敏感、偏见或受版权保护的信息。机器遗忘作为一种尖端解决方案应运而生,针对大型语言模型提供了一种选择性丢弃某些数据的技术,以解决隐私、道德和法律方面的挑战,无需进行完整的模型重新 - CaMU:深度模型遗忘中的因果效应解耦
机器消除学习需要删除遗忘数据的信息,同时保留剩余数据的必要信息。该研究通过因果分析提出一种名为 Causal Machine Unlearning (CaMU) 的新框架,通过干预剩余数据的信息,消除与遗忘数据相关的因果影响,并同时保留剩余 - 人体活动识别的联邦遗忘
提出一种用于改善全球人类活动识别模型的轻量级机器遗忘方法,通过选择性删除客户端的部分训练数据,并使用 KL 散度作为微调的损失函数,以使预测的概率分布与第三方数据集相一致。
- 联邦取消学习:方法、设计指导和评估指标综述
本研究调查了联邦学习中取消学习的背景概念、经验证据和实际指南,提出了一种新的分类法对最先进的取消学习算法进行详细分析,并确定了该领域最有前景的研究方向和尚未解决的技术挑战。
- SecureCut: 基于联邦梯度增强决策树的高效机器遗忘
垂直联邦学习中的数据去除及模型反遗忘的梯度提升决策树方法
- Fisher 屏蔽下的遗忘
通过使用 Fisher 信息的新掩码策略,在不需要任何微调的情况下,该方法能够几乎完全取消学习,同时保持大部分数据的性能,相对于其他取消学习基准测试还表现出更强的稳定性。
- 可信数据删除的可遗忘联邦线性学习
本研究提出了 Forgettable Federated Linear Learning 框架,旨在保障 Federated learning 中客户端隐私,实现训练模型时对客户端数据的保密性,并通过引入数据移除策略来解决 Federate - 机器遗忘综述
本文旨在对机器学习模型中 “遗忘特定数据” 的概念、场景、方法和应用进行综合性探讨,并为研究人员和从业人员提供包括设计标准和算法在内的全面资源,以帮助创新隐私技术和提醒相关研究领域存在的问题。
- ICML随机森林的机器反学习
本文介绍了一种基于随机森林的数据删除技术,该技术使用了随机节点和缓存统计数据等方法以实现高效数据删除,并能在不牺牲预测能力的情况下,精确地删除训练数据。