Jun, 2023

通过合成数据洗牌加速异构数据情况下联邦学习的收敛

TL;DR本文研究了联邦学习中数据异构性的挑战,提出了通过对实验数据进行部分重洗来优化收敛率的方法。通过本文提出的理论方法,我们证明了重洗可以显着减少数据的不同之处,从而加快收敛速度,本研究提出了一种使用本地生成的合成数据进行重洗的实际方法,并证明了通过该方法可以显著提高多个现有联邦学习算法的性能。