WeiAvg: 促进数据多样性的联邦学习模型聚合
该研究对联邦学习框架下聚合策略进行了全面的数学收敛分析,并通过与 FedAvg 进行分类任务的比较来评估其性能,得出了新的聚合算法,该算法可以通过区分客户端贡献的价值来修改其模型架构。
May, 2022
本研究提出一种名为联邦分类器平均(FedClassAvg)的个性化联邦学习方法,通过聚合分类器权重以增强特征空间的决策边界来使得有不同神经网络架构、实现非独立同分布数据(non-iid)学习任务的客户端可以学习稀缺标签,同时应用本地特征表示学习来稳定决策边界并利用局部特征提取能力提升客户端的表现,相较于已有方法仅要求客户端通信少量全连接层,因此高度通信效率,而且不需要额外的优化问题和计算开销,且在异构性个性化联邦学习任务方面表现优于现有最先进算法。
Oct, 2022
本文提出了第一个针对不同客户的异构和相关可用性的 FedAvg 类 FL 算法的收敛分析,发现相关性如何不利地影响算法的收敛速率,并且介绍了一种新的算法 CA-Fed,在最大化收敛速度和最小化模型偏差之间寻求平衡,同时忽略了可用性低和相关性大的客户。实验结果表明,CA-Fed 在合成数据集和实际数据集上比 AdaFed 和 F3AST 等现有算法具有更高的时间平均准确性和更低的标准差。
Jan, 2023
该研究提出了一种名为 FedFish 的聚合算法,通过在函数空间中计算 Fisher 信息的估计,将客户端学习到的函数本地逼近进行聚合,并在大规模跨设备基准测试中验证了其性能优于 FedAvg,尤其在本地训练迭代次数增加时。
Nov, 2023
本文针对联邦学习中客户端参与率未知的问题,提出了一种名为 FedAU 的算法,该算法基于在线估计的最优权重自适应地加权客户端更新,并使用新的方法论将估计误差与收敛连接,理论分析表明 FedAU 收敛于原始目标的最优解且具有线性加速的优良特性。
Jun, 2023
本文研究了加权模型平均对任意标量均值估计问题的影响,发现加权平均模型可以减少局部模型的期望平方误差,并量化了加权模型平均的(可能为负的)益处。这项研究正式确定了一种量化协作学习个性化价值的方法,并为未来多元参数估计和基于一系列假设的检验研究提供了框架。
Oct, 2021
通过对 FedAvg 在多任务线性表示设置下的形式化研究,我们发现 FedAvg 之所以能够产生良好的泛化效果,是因为能够通过本地更新利用客户数据分布之间的差异性来学习客户任务的公共数据表示,我们还提供了实证证据,证明了 FedAvg 在具有异构数据的联合图像分类中的表示学习能力。
May, 2022
该研究调查了联邦学习(FL)这一机器学习范式,允许在不共享原始数据的设备上进行分散模型训练,从而保护数据隐私。我们比较了该范式内的两种策略:联邦平均(FedAvg)和个性化联邦平均(Per-FedAvg),重点关注它们在非独立同分布数据(Non-IID)条件下的性能。我们的分析显示,使用狄利克雷分布建模的数据异质性水平显著影响两种策略的性能,在高异质性条件下,Per-FedAvg 表现出更强的健壮性。我们的结果为在分散环境下开发更有效和高效的机器学习策略提供了见解。
Sep, 2023
物联网网络和数据处理技术的发展对分布式学习方法中的联邦学习具有巨大潜力,本论文通过两个实例展示了联邦学习在物联网网络中实现高效和保护隐私的机器学习的潜力,并通过模拟研究了隐私和准确性之间的权衡关系。
Dec, 2023
个性化联邦学习中,通过使用分别适用于具有多样数据分布的客户端的定制模型。本文提出了一种新颖的 PFL 方法,即类别级联联邦平均(cwFedAVG),该方法在服务器端按类别执行联邦平均(FedAVG),创建多个每个类别的全局模型。每个本地模型使用其估计的本地类别分布(由深度网络权重的 L2 - 范数导出),加权整合这些全局模型,避免了隐私违规。每个全局模型以相同的方法对本地模型进行操作。实验结果显示,cwFedAVG 可以与多个现有的 PFL 方法相媲美甚至更好。值得注意的是,cwFedAVG 在概念上简单而计算高效,通过利用共享全局模型来减少客户端之间合作所需的广泛计算。可视化结果揭示了 cwFedAVG 如何实现了各自类别分布上的本地模型专业化,同时全局模型捕获了跨客户端的类别相关信息。
Jun, 2024