federated learning poses new statistical and systems challenges in training
machine learning models over distributed networks of devices. In this work, we
show that multi-task learning is naturally suited to hand
提出一种用于协调和训练多个同时进行的联邦学习任务的系统,名为 MAS(Merge and Split),通过多任务架构将多个任务合并为一个任务进行训练,并根据任务之间的亲和度在训练过程中将其拆分成两个或更多任务继续训练,实验证明 MAS 方法在性能优化方面胜过其他方法,同时减少训练时间 2 倍并降低 40% 的能源消耗。
通过使用一种叫作 Fog learning 的新学习范式,从边缘设备到云服务器中智能地分布机器学习模型的训练,来增强联邦学习的三个重要维度:网络、异构性和邻近性,并考虑由各种接近程度异构设备组成的多层混合学习框架,通过设备到设备(D2D)通信进行协作学习,使其从联邦学习中用于参数传输的星型网络拓扑迁移到更分布式的规模。