MMFeb, 2024
Fed-CVLC:变长编码压缩联邦学习通信
Fed-CVLC: Compressing Federated Learning Communications with Variable-Length Codes
Xiaoxin Su, Yipeng Zhou, Laizhong Cui, John C.S. Lui, Jiangchuan Liu
TL;DR通过分析和实验证明可变长度对于 Federated Learning 中的压缩是有利的,因此提出了 Fed-CVLC 方法,用以根据模型更新动态来调整代码长度,最小化通信损耗并提高模型效用。通过实验证明 Fed-CVLC 优于现有基准方法,可以提升模型效用 1.50% 至 5.44%,或减少通信流量 16.67% 至 41.61%。