关于流式联邦学习中本地缓存更新规则的研究
研究一种算法家族——局部更新方法,证明其对于二次目标表现出随机梯度下降,设计了新的收敛速度来平衡模拟损失函数的条件数与真实损失函数之间的差距,并在实验中展示了适当的学习率调整对于达到最优行为的重要性以及自适应学习率衰减的实用方法.
Jul, 2020
研究一种称为“本地更新方法”的算法族,它可以泛化许多联邦和元学习算法,并证明对于二次模型,本地更新方法等价于对我们精确表征的代理损失进行一阶优化。
Mar, 2021
本文探讨在联邦学习中使用自适应优化方法对于本地更新的影响,指出自适应优化方法虽然可以加速模型收敛,但可能导致解决方案出现偏差,为此提出了纠正技术以克服这种不一致性,并在现实联合训练任务上进行了广泛实验,结果表明与没有局部自适应性的基线相比,所提出的算法可以实现更快的收敛和更高的测试准确性。
Jun, 2021
本文提出了一种叫做FedAlign的基于局部学习广泛性而非接近约束的数据异构性联邦学习解决方案,其可在不引入大量计算和内存开销的情况下实现与最先进的FL方法相当的精度。
Nov, 2021
在边缘客户端存储空间有限的增量学习环境中,通过使用一种名为Re-Fed的简单通用框架,协调每个客户端缓存重要样本进行回放,从而研究了数据异质性对联邦增量学习中灾难性遗忘的影响,并从理论和实证结果上证明了Re-Fed相对于最先进方法具有竞争性的性能。
Mar, 2024
提出了一种自适应压缩的通信高效联邦学习算法(称为AdapComFL),通过每个客户端进行带宽感知和带宽预测,并通过改进的草图机制对本地模型进行自适应压缩,实现服务器对接收到的不同大小的草图模型进行聚合,实验证明AdapComFL相比现有算法在通信效率和准确性上更具竞争力。
May, 2024
FedCAda是一种创新的联邦客户自适应算法,利用Adam算法在客户端调整一阶矩估计$m$和二阶矩估计$v$的修正过程,并在服务器端聚合自适应算法参数,以加快收敛速度和通信效率,同时确保稳定性和性能,该算法在计算机视觉(CV)和自然语言处理(NLP)数据集上的广泛实验表明,它在适应性、收敛性、稳定性和整体性能方面优于现有方法。
May, 2024
FedCache 2.0是一种新颖的个性化边缘联合学习架构,通过将数据压缩为知识并以知识缓存的形式存储和组织,以及个体设备为中心的缓存抽样策略,解决了Federated Edge Learning在设备约束和设备-服务器交互方面的挑战,且在通信效率上有至少28.6倍的提升。
May, 2024
本研究解决了联邦学习中的训练效率低和计算资源有限的问题。提出的FedDUMAP框架通过动态服务器更新、全局动量优化和层自适应修剪三种新颖方法,提高了模型训练的效率和准确性。实验表明,FedDUMAP在效率、准确性和计算成本上均显著优于传统方法。
Aug, 2024