FedCAda 是一种创新的联邦客户自适应算法,利用 Adam 算法在客户端调整一阶矩估计 $m$ 和二阶矩估计 $v$ 的修正过程,并在服务器端聚合自适应算法参数,以加快收敛速度和通信效率,同时确保稳定性和性能,该算法在计算机视觉(CV)和自然语言处理(NLP)数据集上的广泛实验表明,它在适应性、收敛性、稳定性和整体性能方面优于现有方法。
May, 2024
本文提出了一种新的联邦学习算法 FedADC,可以在分布式环境下加速核心算法 SGD 并控制数据漂移问题,同时不会增加计算和通信负载,并通过实验验证了其优越性。
Dec, 2020
本文提出了一种自适应训练算法 AdaFL,该算法通过注意力机制和动态分数方法来平衡性能稳定性和通信效率,实验结果表明相对于 FedAvg 算法,AdaFL 算法在模型精度、性能稳定性和通信效率三个方面都有很大的提高。
Aug, 2021
本文提出了一种自适应算法,用于准确估计联邦学习中客户端间的漂移,并通过约束漂移估计的范数使联邦学习更实际,并实验结果表明所提出的算法在各种联邦学习基准中更快达到收敛并实现更高的准确性。
Apr, 2022
本文提出了 FairFed 算法,该算法针对联邦学习中的群体公平性问题,在保证本地数据隐私的前提下,通过支持灵活的本地去偏差方法,增强了群体公平性,实验结果表明 FairFed 算法比现有的公平 ML 和联邦学习算法更加公平,特别是在数据分布不均的情况下。
Oct, 2021
提出了 FedADG 方法,利用联邦对抗学习来实现域泛化,通过将每个分布与参考分布匹配,逐个类别进行对齐来细粒度地对齐分布,学习到的特征表示可以很好地泛化到未见过的域。
Nov, 2021
用于解决联邦学习中数据隐私问题导致的设备端数据无法被中心服务器使用的问题,本文提出了一种基于估计方案的设备选择算法,以最小化类别不平衡来提高联邦学习全局模型的收敛性能。
Nov, 2020
本文提出了第一个针对不同客户的异构和相关可用性的 FedAvg 类 FL 算法的收敛分析,发现相关性如何不利地影响算法的收敛速率,并且介绍了一种新的算法 CA-Fed,在最大化收敛速度和最小化模型偏差之间寻求平衡,同时忽略了可用性低和相关性大的客户。实验结果表明,CA-Fed 在合成数据集和实际数据集上比 AdaFed 和 F3AST 等现有算法具有更高的时间平均准确性和更低的标准差。
Jan, 2023
该研究论文提出了一种在联邦学习中实现三重公平性的公平客户选择方法,通过公平的客户选择策略、公平的参与轮数和客户间的公平准确度分布,与现有技术基准相比,在 IID 数据上减少了 18.15% 的准确率差异,在非 IID 数据上减少了 54.78% 的准确率差异,并且平均训练时间减少了 24.36%。
Jan, 2024
提出了一种新的自适应自蒸馏(ASD)正则化技术,针对联邦学习(FL)中不同客户端观察到的本地数据分布的异质性问题,在客户端上进行训练模型并适应性地调整以接近全局模型,此技术可用于现有的状态 - of-the-art FL 算法中,显著提高算法的性能。
May, 2023