本文提出了一种概念漂移检测系统,利用联邦学习在每次迭代中提供的更新来缓解漂移对模型性能的影响,使用降维和聚类技术,实现了在智能交通系统中不同漂移阶段和系统暴露水平的各种非 iid 场景中检测漂移节点的框架。
Sep, 2021
通过采用多模型方法,局部组特定漂移检测机制和随时间连续聚类模型的途径,我们的研究旨在解决机器学习中的公平性问题,特别关注组特定漂移和其分布式对应问题。
Feb, 2024
本文提出一种多尺度算法框架,该框架结合了 FedAvg 和 FedOMD 算法在接近静态场景下的理论保证,同时采用非静态检测和自适应技术以改善 FL 泛化性能,并给出了多尺度算法框架,在具有广义凸损失函数的情况下,每 T 个回合导致动态后悔的上限为 Tilde {O}(min {sqrt {LT},Delta^{1/3} T^{2/3} + sqrt {T}})
Nov, 2022
本篇论文探讨了机器学习在 5G 边缘计算中的应用,阐述了不断训练模型以适应变化场景的必要性,并提出了使用注意力机制的联邦学习模式是有效处理数据分布的方法。
Nov, 2021
本文提出了一种自适应算法,用于准确估计联邦学习中客户端间的漂移,并通过约束漂移估计的范数使联邦学习更实际,并实验结果表明所提出的算法在各种联邦学习基准中更快达到收敛并实现更高的准确性。
Apr, 2022
本文介绍了一种新的联邦学习算法,FedDC,旨在通过本地漂移重构和修正来解决客户端数据分布异质性的问题,实验结果证明 FedDC 在各种图像分类任务上具有加速收敛和更好的性能。
Mar, 2022
机器学习的未来在于边缘计算,用于数据收集和训练,联邦学习是实现这一目标的一种方法。本文提出了一种新的聚合框架,用于解决联邦优化中的计算异构性问题,包括异构数据和本地更新,并从理论和实验的角度进行了广泛的分析。
Jul, 2023
本文提出了一种叫做 FedAlign 的基于局部学习广泛性而非接近约束的数据异构性联邦学习解决方案,其可在不引入大量计算和内存开销的情况下实现与最先进的 FL 方法相当的精度。
该论文提出了一种基于原型的联邦学习框架,通过在典型的联邦学习进程的最后全局迭代中进行少量更改就能够实现更好的推理性能,从而在两个基准数据集上实现了更高的准确性和相对高效的通信。
Mar, 2023
提出了一种名为 Federated Multi-Level Prototypes (FedMLP) 的新型联邦学习框架,以应对异构数据分布和动态任务的联邦学习需求,并引入原型和语义原型来缓解概念漂移问题。
Dec, 2023