MMFeb, 2024

Fed-CVLC:变长编码压缩联邦学习通信

TL;DR通过分析和实验证明可变长度对于 Federated Learning 中的压缩是有利的,因此提出了 Fed-CVLC 方法,用以根据模型更新动态来调整代码长度,最小化通信损耗并提高模型效用。通过实验证明 Fed-CVLC 优于现有基准方法,可以提升模型效用 1.50% 至 5.44%,或减少通信流量 16.67% 至 41.61%。