AAAISep, 2021

面向通信高效和隐私保护的联邦表示学习

TL;DR本文探讨了在通信成本和隐私保护的限制下联邦表示学习的可行性。首先证明了自监督对比本地训练的鲁棒性,然后基于此提出了一种新的 Federated representation Learning 框架,使用相似度蒸馏对全局模型进行训练。我们通过一系列实验验证了这种方法的有效性,并表明在多种数据集上,尽管受到更严格的限制,它仍能够以可比较的结果实现多种设置下的性能。