Mar, 2019

非独立同分布数据上健壮且高效的联邦学习

TL;DR本研究提出了Sparse Ternary Compression (STC),一种针对Federated Learning环境的新型压缩框架。实验表明,STC在常见Federated Learning场景下,即使客户端持有非iid数据、使用小的batch size进行训练或参与率较低,也比Federated Averaging表现更佳。此外,即使客户端持有iid数据并使用中等大小的批次进行训练,STC仍在更少的训练迭代和更小的通信预算内实现了固定目标准确度,表现超越了Federated Averaging。