FedCode: 通过传输密码本实现高效沟通的联邦学习
本研究提出了一种新的框架FedZip,其中利用 Top-Z 稀疏化、量化和压缩三种不同的编码方法,实现在减小客户端和服务器之间传输的权重大小的同时,兼顾保护用户隐私和保护数据的目的。FedZip 表现出超过现有压缩框架的性能,压缩比率高达1085x,即使在通信过程中也保留了客户端的99%带宽和99%能量。
Feb, 2021
根据局部更新系数和梯度压缩稀疏预算之间的权衡方式,提出了一种新的快速联邦学习方案(Fast FL),该方案通过动态地调整这两种变量来实现最小化学习误差。结果表明,Fast FL能够快速且一致地实现比文献中类似方案更高的精确度。
May, 2021
本文提出一种基于自编码器(Autoencoders)的动态正交压缩权重更新的方法,该方法不仅可以在大规模联邦学习中实现高达500x至1720x等多种压缩比,而且还可以根据精度要求、计算容量等要求进行修改,从而成为一种有优势的替代或补充方式。
Aug, 2021
本文提出了一种基于移动传输器的联邦学习框架 FedEx (FL via Model Express Delivery),旨在解决缺乏适当通信基础设施的实际应用中数据共享的问题。FedEx-Sync 和 FedEx-Async 两种算法分别采用同步和异步调度策略,并通过收敛性分析指导客户端分配和传输路线设计。在两个公共数据集的模拟网络上,我们通过实验证明了 FedEx 的性能。
Feb, 2023
Federated Learning的通信成本问题在该论文中通过动态权重聚类和服务器端知识蒸馏的组合方法FedCompress得到解决,从而实现了降低通信成本并获得高度可泛化模型的学习。
Jan, 2024
通过分析和实验证明可变长度对于Federated Learning中的压缩是有利的,因此提出了Fed-CVLC方法,用以根据模型更新动态来调整代码长度,最小化通信损耗并提高模型效用。通过实验证明Fed-CVLC优于现有基准方法,可以提升模型效用1.50%至5.44%,或减少通信流量16.67%至41.61%。
Feb, 2024
本文介绍了一个集成了聚类式联邦学习和模型压缩优势的新型层次式联邦学习框架,包括自适应聚类算法和局部聚合压缩算法。仿真结果证实,我们提出的算法不仅保持了可比较的预测准确性,还显著降低了相对于现有联邦学习机制的能源消耗。
May, 2024
FedMap是一种新颖的方法,通过协作学习逐渐稀疏全局模型,从而提高联邦学习系统的通信效率,适用于对隐私至关重要的医疗和金融领域。它采用迭代的振幅剪枝方法训练全局模型,以减少通信开销,避免了参数重新激活问题,实现了稳定的性能表现。FedMap在多样的设置、数据集、模型架构和超参数中进行了广泛评估,证明了在IID和非IID环境下的性能,并相较于基线方法,FedMap能够达到更稳定的客户端模型性能,并在不降低准确性的情况下至少实现80%的剪枝。
Jun, 2024
本研究解决了联邦学习中通信效率低下的问题,提出了一种名为FedFT的方法,该方法利用离散余弦变换(DCT)将模型参数表示为频率空间,从而实现高效压缩并减少通信开销。实验结果表明,FedFT能够显著减少5%至30%的通信开销,同时保持或提高模型的准确性,展示了其在分布式系统中的广泛适用性。
Sep, 2024