Jan, 2024

松弛对比学习用于联合学习

TL;DR我们提出了一种新颖的对比学习框架,以应对联邦学习中的数据异构性挑战。我们分析了本地训练期间客户端之间梯度更新的不一致性,并建立了其与特征表示分布的依赖性,从而导出了用于减轻局部偏差的监督式对比学习(SCL)目标。此外,我们表明,在联邦学习中简单采用 SCL 会导致表示坍缩,导致收敛缓慢且性能有限。为了解决这个问题,我们引入了一种放松的对比学习损失,对每个类别中过度相似的样本对施加差异惩罚。这种策略可以防止表示坍缩并增强特征可传递性,促进协作训练,并带来显著的性能提升。通过大量实验结果,我们的框架在标准基准上比所有现有的联邦学习方法都取得了巨大的优势。