Dec, 2021

可扩展的分布式学习:服务端局部梯度平均和学习率加速

TL;DR本文提出了一种可扩展的拆分学习框架 SGLR,采用广播机制模仿 FL 且支持并行操作,并能在保证数据隐私的前提下,获得比 SplitFed 更高的准确率和较少的敏感信息泄露。