CVPRJun, 2021

面向联邦学习的数据异构化处理架构设计思考

TL;DR本文提出使用自注意力机制的神经网络模型(如 Transformer),替代传统的卷积神经网络模型,以改进联邦学习中的模型性能和稳定性,尤其当处理异构数据的时候,可以大大降低模型遗忘和加快模型学习收敛速度。