Oct, 2023

具有非平凡泛化界限的联邦学习

TL;DR我们提出了一种在联邦学习中训练随机预测器的新策略,其中网络的每个节点通过发布本地预测器并保密其训练数据集来保护隐私。我们构建了一个全局随机预测器,它在 PAC-Bayesian 广义界限的意义下继承了本地私有预测器的属性。我们考虑同步情况,所有节点共享相同的训练目标(来自广义界限)以及异步情况,每个节点可以拥有自己的个性化训练目标。通过一系列的数值实验,我们证明了我们的方法在预测性能方面与批处理方法相当,并且在保护每个节点隐私的同时具有数值上实质性的广义界限。我们明确计算了批处理和联邦学习设置之间的预测性能和广义界限的增量,突出了保护隐私的代价。