Sep, 2023

稀疏随机网络存在:通过正则化强化通信高效的联邦学习

TL;DR本研究提出了一种新的方法,用于增强随机联合学习中的通信效率,该方法在超参数随机网络上进行训练。通过优化二进制掩码而不是模型权重,实现对稀疏子网络的表征,其泛化效果与更小的目标网络相当好。与传统的联合学习中浮点权重相比,仅交换稀疏的二进制掩码,从而将通信成本降低到每个参数至多1个比特。通过实验证明,之前最先进的随机方法无法找到能够使用一致损失目标减少通信和存储开销的稀疏网络。为了解决这个问题,我们提出在本地目标中添加正则化项,以在子网络之间消除冗余特征并鼓励更稀疏的解决方案。大量实验证明,在一些实例中,与文献相比,通信和内存效率显著提高了五个数量级,并且在验证准确性方面几乎没有性能下降。