Feb, 2022

DASHA:分布式非凸优化,包含通信压缩,最优化 Oracle 复杂度,无须客户端同步

TL;DR我们开发和分析了DASHA:一种新的非凸分布式优化问题方法,同时考虑了通信复杂度和理论oracle。我们的新方法改善了以前的最先进的方法,特别是在有限和期望形式的本地函数的情况下。新的方法发送压缩向量,并且永远不会同步节点,这使得它们对联邦学习更加实用。我们还将结果扩展到满足Polyak-Lojasiewicz条件的情况。在分类和深度学习模型的培训实验中,实践证实了我们的理论。