Feb, 2024
Fed-CVLC:变长编码压缩联邦学习通信
Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes
TL;DR通过分析和实验证明可变长度对于Federated Learning中的压缩是有利的,因此提出了Fed-CVLC方法,用以根据模型更新动态来调整代码长度,最小化通信损耗并提高模型效用。通过实验证明Fed-CVLC优于现有基准方法,可以提升模型效用1.50%至5.44%,或减少通信流量16.67%至41.61%。