Aug, 2020

通过减少模型梯度差异提升半监督联邦学习

TL;DR在研究中,我们探究了半监督联邦学习 (SSFL) 中模型梯度多样性的问题,并提出了一种基于组群的模型平均方法,同时使用一些设计选择,如一致性正则化 (CRL) 和分组归一化 (GN),进一步提高了测试准确性。在相同设置下,我们的方法比当前关于 SSFL 的同类研究和其他四种监督联邦学习算法效果更好 (>10%)。