Mar, 2023

非独立同分布场景下联合学习中的规范化层实验

TL;DR本文研究了使用联邦学习方法在分布式非独立同分布数据集上训练深度学习模型时,采用不同的规范化层和协同频率策略,优化模型性能的效果,研究发现,Batch Normalization 并不是最适合联邦学习的规范化策略,而 Group 与 Layer Normalization 能更有效地提升模型的速度和质量。此外,频繁的模型聚合也能降低模型性能。