May, 2024
快速FedUL:具备可证明偏差韧性的无需训练的联邦去学习
Fast-FedUL: A Training-Free Federated Unlearning with Provable Skew
Resilience
TL;DR为了保护训练数据的隐私权,研究提出了一种适用于联邦学习的定制反学习方法,Fast-FedUL,它能够完全消除重新训练的需要,并通过对目标客户在每一轮中对全局模型的影响进行细致分析,开发出一种算法系统地从训练模型中移除目标客户的影响,而保留非目标客户的知识。该方法能够有效地消除几乎所有与目标客户相关的痕迹,同时在主要任务上达到高达98%的准确率,并且速度比重新训练快1000倍。