解决数据异构的无聚合联邦学习
该研究提出了一种数据无关的知识蒸馏方法,通过生成器探索本地模型的输入空间,并将本地模型的知识传递到全局模型中。实验结果表明,该方法在解决联邦学习中的数据异质性问题及提升模型性能方面,优于现有的联邦学习算法。
Mar, 2022
该研究对联邦学习框架下聚合策略进行了全面的数学收敛分析,并通过与FedAvg进行分类任务的比较来评估其性能,得出了新的聚合算法,该算法可以通过区分客户端贡献的价值来修改其模型架构。
May, 2022
本文提出了第一个针对不同客户的异构和相关可用性的FedAvg类FL算法的收敛分析,发现相关性如何不利地影响算法的收敛速率,并且介绍了一种新的算法CA-Fed,在最大化收敛速度和最小化模型偏差之间寻求平衡,同时忽略了可用性低和相关性大的客户。实验结果表明,CA-Fed在合成数据集和实际数据集上比AdaFed和F3AST等现有算法具有更高的时间平均准确性和更低的标准差。
Jan, 2023
机器学习的未来在于边缘计算,用于数据收集和训练,联邦学习是实现这一目标的一种方法。本文提出了一种新的聚合框架,用于解决联邦优化中的计算异构性问题,包括异构数据和本地更新,并从理论和实验的角度进行了广泛的分析。
Jul, 2023
在本文中,我们提出了一种名为FedCOME的共识机制,通过在服务器端对客户端的梯度进行微调,保证了每轮训练后每个客户端的风险减少;我们还设计了一种新的客户端采样策略,将共识机制推广到部分参与的联邦学习场景,有效地减少了未被选中的客户端的风险。通过在四个基准数据集上进行广泛实验证明了FedCOME在效果、效率和公平性方面优于其他最先进的方法。
Nov, 2023
我们提出了Fed-CO2,这是一个统一的联邦学习框架,用于处理标签分布倾斜和特征倾斜,通过在线和离线模型之间的合作机制来增强模型合作,同时设计了内部客户知识传递机制和客户间知识传递机制来增强模型之间的领域泛化能力。在处理标签分布倾斜和特征倾斜方面,我们的Fed-CO2在个体和整体上均优于现有的个性化联邦学习算法。
Dec, 2023
FedShift是一种新颖的算法,旨在在双重异质性情况下提高训练速度和模型的准确性,通过量化和移位技术改善客户参与度,并提升在异质性环境中的准确性3.9%。
Feb, 2024
该研究介绍了一种基于元素权重聚合的联邦学习方法(EWWA-FL),旨在优化学习性能和加速收敛速度。通过将本地权重聚合到全局模型的个别元素级别,该方法允许每个参与的客户端对学习过程进行元素级贡献,从而提高了全局模型对不同数据集的鲁棒性以及实现了快速收敛。该方法具有灵活性,可以采用各种加权策略,通过全面的实验证明了EWWA-FL的先进性,展示了在各种骨干和基准测试中精确度和收敛速度的显著改进。
Apr, 2024
通过引入时间驱动的异步聚合策略,以及使用区分性模型选择算法,提出了一种针对异构系统的同步联邦学习框架,该框架在提高系统效率和鲁棒性的同时,实现了对传统同步联邦学习的延迟减少50%和学习准确性平均提高3%的改进。
May, 2024
元联邦学习通过优化的元汇聚器导航异构模型更新的复杂性,利用元特征增强了全局模型的性能,从而保证了对每个本地模型准确性的个性化汇聚。在四个与医疗相关的数据集上进行的实证评估显示,Meta-FL框架具有适应性、效率、可扩展性和鲁棒性,优于传统的联邦学习方法。此外,Meta-FL在较少的通信轮次中实现了优越的准确性,并且能够在不影响性能的情况下管理不断扩大的联邦网络,显示出卓越的效率和可扩展性。
Jun, 2024