Mar, 2019

非独立同分布数据上健壮且高效的联邦学习

TL;DR本研究提出了 Sparse Ternary Compression (STC),一种针对 Federated Learning 环境的新型压缩框架。实验表明,STC 在常见 Federated Learning 场景下,即使客户端持有非 iid 数据、使用小的 batch size 进行训练或参与率较低,也比 Federated Averaging 表现更佳。此外,即使客户端持有 iid 数据并使用中等大小的批次进行训练,STC 仍在更少的训练迭代和更小的通信预算内实现了固定目标准确度,表现超越了 Federated Averaging。