Dec, 2018

通过减少客户资源需求扩大联邦学习的覆盖范围

TL;DR采用两种新策略(global model 压缩和 Federated Dropout)和现有压缩方法的结合,可以综合降低联邦学习对服务器到客户端通信的成本高达 14 倍、本地计算量 1.7 倍并在上传通信方面降低 28 倍,同时不降低最终模型的质量,从而全面降低了联邦学习对客户端设备资源的影响。