Feb, 2020

自适应联邦优化

TL;DR本研究提出了联邦学习的自适应优化方法,包括Adagrad,Adam和Yogi,并分析了它们在异构数据下的收敛性。研究结果突出了客户端异构性和通信效率之间的相互作用,并表明自适应优化器的使用可以显着提高联邦学习的性能。