Oct, 2019

非独立同分布数据上克服联邦学习中的遗忘问题

TL;DR本文介绍了一种解决在非 i.i.d 情况下的联邦学习中局部模型漂移导致学习受阻的问题的方法,通过在损失函数中加入惩罚项,强制所有的局部模型收敛到共同的最优值,将 Catastrophic forgetting 的解决方案应用到联邦学习中,并证明这可以在分布式环境下高效地完成,通信量随节点数扩大而扩展,对于 MNIST 数据集的图像识别,该方法优于竞争对手。