May, 2022

FedFormer: 强化学习中的上下文联邦学习和注意力机制

TL;DR该论文提出了一种名为 FedFormer 的新型联邦学习策略,使用 Transformer Attention 对不同学习者代理的模型进行上下文聚合嵌入,从而实现有效且高效的联邦学习,该方法在 Meta-World 环境中验证了其在联邦学习中的有效性并证明了在隐私约束下使用 FedFormer 可以实现更高的情节回报,同时还可以在特定任务中通过增加代理池来提高方法的效果表现,与之相比 FedAvg 无法在规模扩大时取得明显的改善。