Jul, 2024

自然梯度下降实现更快的机器遗忘

TL;DR我们提出了一种新颖的算法,利用自然梯度下降(NGD)来有效可靠地从采用经验风险最小化(ERM)训练的机器学习模型中删除数据,从而避免从头开始重新训练模型。我们的理论框架为凸模型提供了强大的隐私保证,而针对非凸模型开发了实践中的Min/Max优化算法。全面的评估结果显示,与最先进的方法相比,在隐私性、计算效率和泛化性能方面取得了显著改进,推动了机器学习模型反学习的理论和实践方面的发展。