May, 2023

通过连续的层次训练,在计算受限设备上聚合联邦学习的容量

TL;DR介绍了一种新的方法,即对联合学习模型的参数进行连续冻结和训练,以减少设备上的训练资源需求,同时仍允许足够的参数协同适应度,大大提高了训练模型的准确性和分布式设备的计算能力的高效汇集。