Feb, 2024

通过李普希茨正则化实现规模化的零样本机器遗忘

TL;DR在 AI 和数据法规的合规要求下,从训练的机器学习模型中忘记私人或受版权保护的信息变得越来越重要。在本研究中,我们解决了零样本遗忘的挑战,即一个遗忘算法必须能够在只有训练好的模型和需要被遗忘的数据的情况下移除数据。基于 Lipschitz 连续性的概念,我们提出了一种方法来引导遗忘样本输出的平滑化,以应对该样本的扰动。我们展示了这种平滑化成功地实现了遗忘同时保持模型性能的目标。我们在多个现代基准测试中对我们的方法进行了广泛的经验评估,验证了我们的方法在严格的零样本遗忘约束下达到了最先进的性能。