Feb, 2024

关于无需数据相似性的联邦学习算法收敛性的研究

TL;DR本文提出了一种新颖而统一的框架,用于分析联邦学习算法的收敛性,无需数据相似性条件,并应用于著名联邦学习算法,得到了不依赖于数据相似性条件的固定步长、递减步长和步长衰减的精确表达,从而在变化的数据相似性条件下,显著提高了联邦学习算法的收敛速度和整体性能,标志着联邦学习研究的重大进展。