Jun, 2023

开发联邦学习以实现深度模型的潜力

TL;DR在研究中,发现当将现有的联邦学习框架应用于更深的神经网络时,性能会显著下降,主要原因是由于在层间反向传播过程中不同客户端模型之间的不一致性逐步积累,称为“发散累积”,提出了减少发散的技术指南,如使用更宽的模型和减少接受场,这些方法可以大大提高联邦学习在更深层次上的准确性。