May, 2024

异构数据上连续联合学习的尖锐界限

TL;DR对于异构数据上的序列联邦学习 (SFL) 的收敛理论尚缺乏解决方案,本研究通过建立上下界,针对强凸、一般凸和非凸目标函数分别得出上界,以及匹配的强凸和一般凸目标函数的下界,将 SFL 的上界与平行联邦学习 (PFL) 的上界进行对比,结果表明在高度异构的情况下,SFL 较 PFL 表现更出色,并通过二次函数和真实数据集的实验结果验证了这一反直觉的比较结果。