异构环境下的健壮联邦学习
本文提出了一种适用于异构数据集的分布式学习的鲁棒性随机次梯度方法——Byzantine-Robust Stochastic Aggregation (RSA)方法,用来应对Byzantine工人的攻击。RSA方法不依赖于数据是独立同分布的假设,具有更广泛的适用性。理论上,RSA收敛到一个接近最优解的解决方案,学习错误取决于Byzantine工作人员数目,收敛速率与没有Byzantine工人的随机梯度下降方法相同。数值实验表明,RSA具有竞争性的性能和与现有算法相比较的复杂度降低。
Nov, 2018
本文介绍了一种名为自适应联邦平均的新型算法,该算法利用隐藏马尔可夫模型来检测参与者在训练期间提供的模型更新质量,并提出一种鲁棒聚合规则以检测和丢弃每次训练迭代中的不良或恶意本地模型更新以及阻止不需要的参与者,从而在处理噪声、故障和恶意参与者时具有更高的鲁棒性和计算效率。
Sep, 2019
本研究提出了一种新的联邦学习聚合方案FLANDERS,该方案采用矩阵自回归预测模型,将实际观测值与预测值进行比较,识别恶意客户端,从而提高对拜占庭攻击的鲁棒性,与现有防御策略相比,FLANDERS在极端攻击情况下效果显著。
Mar, 2023
该研究论文研究了在存在恶意拜占庭攻击和数据异质性的情况下的联邦学习。提出了一种新颖的鲁棒平均梯度算法 (RAGA),其利用几何中位数进行聚合,并可以自由选择局部更新的轮次。通过对不仅是强凸而且非凸损失函数进行收敛性分析,以及考虑到恶意用户的数据集比例小于一半的情况下,本文论证了RAGA可以实现收敛。此外,证明了随着数据异质性消失,可以得到稳定点或全局最优解。实验结果验证了RAGA在不同强度的拜占庭攻击和异质数据集下的收敛性能优于基准方法。
Mar, 2024
异构联邦学习领域中,关键挑战是在具有不同数据分布、模型结构、任务目标、计算能力和通信资源的多个客户端之间高效协作训练模型。本文首先概述了异构联邦学习的基本概念,并从数据、模型、任务、设备和通信五个方面总结了在联邦学习中的研究挑战。此外,我们探讨了现有最先进的方法如何应对异构联邦学习的异质性,并将这些方法在数据级别、模型级别和架构级别进行分类和回顾。随后,本文详细讨论了在异构联邦学习环境中的隐私保护策略。最后,本文讨论了目前存在的开放问题和未来研究方向,旨在推动异构联邦学习的进一步发展。
May, 2024
分布式联合学习是一种在用户之间进行训练机器学习模型而无需共享训练数据的协同环境,本研究调查了复杂的大规模网络结构中最先进的拜占庭容错聚合方法的效果,并发现当前的拜占庭容错聚合策略在大型非全连接网络中不具备弹性,因此需要开发具有拓扑感知能力的聚合方案来满足大规模实际部署的需求。
Jul, 2024
本研究解决了在联邦学习中存在的攻击和数据异质性导致的学习偏差问题。提出了一种新的联邦学习方法——联邦规范化梯度算法(Fed-NGA),该算法通过规范化本地梯度为单位向量来降低聚合的计算复杂性,并能够在无最优性间隙的情况下同时适应非凸损失函数和非IID数据集。实验结果表明,Fed-NGA在时间复杂性和收敛性能上优于现有基线方法。
Aug, 2024
本研究解决了联邦学习中由于拜占庭攻击而导致的模型性能下降的问题。提出的创新性在于针对鲁棒性协议(RoFL)的两个Sybil攻击,分析了其优缺点,并提出了未来测试和改进的建议。这项研究的发现有助于提高联邦学习框架在面对恶意攻击时的鲁棒性。
Oct, 2024