联邦不学习:如何高效删除 FL 中的客户端?
在联邦学习中,提出了一种新颖的联邦遗忘方法,通过从模型中减去历史累积更新来消除客户端的贡献,并利用知识蒸馏方法恢复模型的性能,而不使用来自客户端的任何数据。该方法不依赖于客户端的参与,不对神经网络的类型有任何限制,并引入后门攻击来评估遗忘效果。实验结果表明了本文方法的有效性和效率。
Jan, 2022
本研究调查了联邦学习中取消学习的背景概念、经验证据和实际指南,提出了一种新的分类法对最先进的取消学习算法进行详细分析,并确定了该领域最有前景的研究方向和尚未解决的技术挑战。
Jan, 2024
本文研究了如何有效和高效地移除参与联邦在线学习排序系统的客户端的贡献,同时不损害整体排序模型的有效性,而无需重新训练全局排序模型。关键挑战在于如何衡量模型是否已经从请求删除的客户端 $c^*$ 处学到了贡献,我们通过在四个数据集上的实验证明了不同参数设置下取消学习策略的有效性和高效性。
Jan, 2024
本研究旨在研究联邦学习(FL)系统中的机器非重学习问题,提出了一种快速数据淘汰方法以保护数据隐私,并在四项真实数据集上进行了测试和分析。
Mar, 2022
研究联邦去学习问题,解决个别客户或数据对通过联邦学习得到的全局模型的影响,推导出所删除数据的无合差异性模型。引入了一种新的完全联邦去学习框架,满足通信效率和完全去学习可证明性的两个基本条件。通过定义确切的联邦去学习,保证无学习之后的模型与未删除数据时训练的模型在统计上无差异。利用模型参数对数据集轻微变化的变动程度来实现快速联邦去学习的关键特性:总变差稳定性。利用这一洞见,我们开发了一种名为 FATS 的总变差稳定的联邦学习算法,修改了经典的 FedAvg 算法以实现轮次通信的降低。我们还设计了针对 FATS 的高效去学习算法,包括客户级和样本级的去学习。我们提供了学习和去学习算法的理论保证,证明它们在原始模型和去学习模型上都达到了确切的联邦去学习,并具有合理的收敛速度。在 6 个基准数据集上经过实证验证,展示了该框架在准确性、通信成本、计算成本和去学习效果方面的优越性。
Jan, 2024
医学成像中,我们提出了第一个具有权利删除贡献或影响的联邦客户端遗忘 (FCU) 框架,通过模型对比式取消学习和频率导向的存储保护,实现了在维持训练好的全局模型的通用性的同时顺利遗忘本地知识,避免牺牲性能且保证后续训练速度加快 10-15 倍的效果。
Jul, 2024
本研究提出了 Forgettable Federated Linear Learning 框架,旨在保障 Federated learning 中客户端隐私,实现训练模型时对客户端数据的保密性,并通过引入数据移除策略来解决 Federated learning 中的计算挑战,实验结果表明,与基线策略相比,该方法在平衡模型准确性和信息删除方面具有优势。
Jun, 2023
为了保护训练数据的隐私权,研究提出了一种适用于联邦学习的定制反学习方法,Fast-FedUL,它能够完全消除重新训练的需要,并通过对目标客户在每一轮中对全局模型的影响进行细致分析,开发出一种算法系统地从训练模型中移除目标客户的影响,而保留非目标客户的知识。该方法能够有效地消除几乎所有与目标客户相关的痕迹,同时在主要任务上达到高达 98% 的准确率,并且速度比重新训练快 1000 倍。
May, 2024
这篇论文从事一项关于联邦消除学习(federated unlearning)的研究,通过对已发表的联邦学习消除(FL unlearning)相关论文的分类和分析,探讨了联邦学习消除领域的研究趋势和挑战,比较了现有联邦学习消除方法的影响消除和性能恢复能力,以及他们的假设和局限性。该研究为未来联邦学习消除的研究提供了洞见和建议。
Mar, 2024