Jan, 2024

可扩展的孤立与编码分片联邦去学习

TL;DR提出了一种基于分散隔离和编码计算的可扩展联邦遗忘框架,通过将分布式客户端分为多个隔离片段以减少受影响的客户端数量,并通过压缩不同片段之间的模型参数来减少中央服务器的存储开销,最后,在两个典型的学习任务上进行了广泛实验,表明我们的框架在准确性、重训练时间、存储开销和抵抗成员攻击的 F1 分数方面都优于三种最先进的框架。