Aug, 2024

FedQUIT:通过准合格虚拟教师进行设备端的联邦遗忘学习

TL;DR本研究针对现有联邦学习在参与者行使被遗忘权时 performance 损失的问题,提出了一种新算法 FedQUIT,利用知识蒸馏技术高效地去除遗忘数据对全局模型的贡献,同时保持其泛化能力。实验结果显示,FedQUIT 在进行遗忘后仅需额外 2.5% 的通信轮次即可恢复泛化性能,实现了一种高效的、可用于集中式和联邦设置的解决方案。