Jan, 2024

LW-FedSSL:资源高效的逐层联邦自监督学习

TL;DR提出一种层次化的联邦自监督学习方法 (LW-FedSSL),通过在 FL 环境中利用资源丰富的服务器进行全局模型训练,以及在 FL 本地模型与全局模型之间建立紧密联系的表示对齐机制,实现了与端到端 FedSSL 相当的性能,同时显著降低客户端的资源需求。实验证明 LW-FedSSL 的内存需求较其端到端对应物少 3.3 倍,并且通信成本便宜 3.2 倍。同时,还探索了一种名为 Prog-FedSSL 的渐进训练策略,其在类似内存需求的情况下,通信成本便宜 1.8 倍,优于端到端训练。