异构网络中的联邦优化
研究了混合异构性如何影响联邦优化,通过调查服务器端优化表明,自适应地最大化梯度多样性在服务器更新方向上可以帮助缓解混合异构性的潜在负面影响,引入了具有理论保证的新型基于梯度的优化器 FedAWARE,通过在异构联邦设置中进行大量实验表明,我们的提议优化器可以显著提升不同程度的混合异构性下联邦学习的性能。
Oct, 2023
我们应用联邦学习方法对一个 OCT 图像分类器进行训练,模拟具有多个客户和统计异构数据分布的实际情景,其中客户的数据中完全缺少某些类别的样本。
Feb, 2024
本研究提出了联邦学习的自适应优化方法,包括 Adagrad,Adam 和 Yogi,并分析了它们在异构数据下的收敛性。研究结果突出了客户端异构性和通信效率之间的相互作用,并表明自适应优化器的使用可以显着提高联邦学习的性能。
Feb, 2020
本文提出了一种叫做 FedAlign 的基于局部学习广泛性而非接近约束的数据异构性联邦学习解决方案,其可在不引入大量计算和内存开销的情况下实现与最先进的 FL 方法相当的精度。
Nov, 2021
本文介绍了 FedPer,一种基本 + 个性化层式的联邦深度前馈神经网络训练方法,旨在对抗数据异质性的负面影响,提升联邦学习的训练效果。FedPer 的有效性在 CIFAR 数据集和 Flickr 个性化图像美学数据集上得到了证明。
Dec, 2019
在 Federated Learning 中,我们提出了一个统计模型来解决异构数据分布和拜占庭机器等统计和计算挑战。在此基础上,我们提出了一个优化算法来解决该问题,并获得了比非拜占庭鲁棒算法更好的估计误差。
Jun, 2019
本文提出了一种新的联邦学习训练配方,适用于具有不同架构的异构网络,采用一种副目标训练较复杂设备的架构以在联邦设置下共同训练不同的架构,实证表明我们的方法提高了不同架构的性能并节省了通信成本。
Jul, 2022
在无人驾驶的精确感知模型的改进中,持续在线模型训练变得至关重要。联邦学习 (FL) 在车载网络中为模型训练提供了高效的机制,同时保持了原始感知数据的完整性。然而,FL 面临非分布相同的数据 (例如,数量偏斜) 问题,导致模型训练的收敛速度不理想。在以前的工作中,我们引入了 FedLA,一种创新的面向 FL 的标签感知聚合方法,用于解决通用场景中的数据异质性问题。本文中,我们引入了 FedProx+LA,这是一种建立在最先进的 FedProx 和 FedLA 基础上的新 FL 方法,用于解决车载网络中的数据异质性问题。我们评估了 FedProx+LA 在连续在线目标检测模型训练中的有效性。通过与常规方法和最先进方法的比较分析,我们的研究结果显示了 FedProx+LA 的卓越收敛速度。值得注意的是,如果标签分布非常异质,我们的 FedProx+LA 方法相比基准方法在检测性能上显示出显著的改进,还优于我们以前的 FedLA 方法。此外,与基准方法相比,FedLA 和 FedProx+LA 的收敛速度提高了 30%。
May, 2024
本文研究了非结构化和基于强凸全局目标的联邦学习中,面向恶意客户端不可用性问题的简单算法,发现简单的 FedAvg 或 FedProx 算法在不考虑该问题的情况下,能够达到最小化的估计误差并具有收敛速度。经过对合成和真实世界数据集的数值实验验证了理论分析的正确性。
May, 2023