MMMay, 2024

分散多智能体学习的通信高效负载平衡

TL;DR分散多智能体学习(DML)通过保护数据隐私实现协作模型训练。然而,代理资源的内在异质性(计算、通信和任务大小)可能导致训练时间的巨大变化。为减少在异质环境中的训练时间,我们提出了一种用于分散多智能体学习的通信高效的训练工作负载平衡方法(ComDML),通过分散方法平衡代理之间的工作负载。ComDML 利用局部损失切分训练,使较慢的代理将部分工作负载分配给较快的代理进行并行更新。为最小化整体训练时间,ComDML 通过综合考虑代理的通信和计算能力来优化工作负载平衡,其中涉及整数规划。我们开发了一种动态分散配对调度器来有效配对代理并确定最佳的分担量。我们证明,在 ComDML 中,较慢和较快的代理模型都能收敛于凸和非凸函数。此外,对流行数据集(CIFAR-10、CIFAR-100 和 CINIC-10)及其非 I.I.D. 变体,以及 ResNet-56 和 ResNet-110 等大模型进行了广泛的实验,结果表明 ComDML 相对于现有方法能够显著减少整体训练时间,同时保持模型准确性。ComDML 在异质环境中表现出鲁棒性,并且可以无缝集成隐私措施以增强数据保护。