BriefGPT.xyz
Ask
alpha
关键词
distributed non-convex optimization
搜索结果 - 2
分布式非凸优化在断断续续的客户端可用性下实现亚线性加速
该研究提出了一种名为 FedLaAvg 的简单分布式非凸优化算法,用于解决在移动环境下采用联邦学习时客户端不连续可用的问题,并证明了其达到了收敛速度为 $ O (E^{1/2}/(N^{1/4} T^{1/2}))$ 的水平。
PDF
4 years ago
异构数据的分布式训练:连接中位数和基于平均值的算法
本文研究介绍了两种分布式非凸优化算法:signSGD 和 medianSGD,并发现它们在数据异构的情况下是不收敛的。作者提出了一种梯度校正机制来消除梯度的平均值和中位数之间的差异,该方法保留了这些方法的良好性质,并实现了全局收敛。此外,该
→
PDF
5 years ago
Prev
Next