使用梯度分解增强联邦学习的拜占庭容错能力
该研究论文研究了在存在恶意拜占庭攻击和数据异质性的情况下的联邦学习。提出了一种新颖的鲁棒平均梯度算法 (RAGA),其利用几何中位数进行聚合,并可以自由选择局部更新的轮次。通过对不仅是强凸而且非凸损失函数进行收敛性分析,以及考虑到恶意用户的数据集比例小于一半的情况下,本文论证了 RAGA 可以实现收敛。此外,证明了随着数据异质性消失,可以得到稳定点或全局最优解。实验结果验证了 RAGA 在不同强度的拜占庭攻击和异质数据集下的收敛性能优于基准方法。
Mar, 2024
提出了一种名为 AGRAMPLIFIER 的新方法,通过识别每个梯度更新最具压制性的特征,增强本地更新的道德性,改善对恶意和良性更新的识别效果,以提高现有 AGR 机制的鲁棒性、准确度和效率。通过与主流的 AGR 机制结合,与七种不同领域的数据集对抗七种典型的中毒攻击进行广泛评估,一致展示了鲁棒性、准确度和效率的提升,平均增益分别为 40.08%、39.18% 和 10.68%。
Nov, 2023
本文探讨了在大规模联邦学习中由于通信过载而引起的压缩问题,提出了一种可减少噪声并提高拜占庭攻击鲁棒性的压缩梯度差分方法,并提供了理论证明和数值实验结果。
Apr, 2021
本文提出了一种新型的去中心化学习算法 - Cross-Gradient Aggregation,通过聚合交叉梯度信息来更新模型并在 MNIST 和 CIFAR-10 数据集上进行了测试,结果表明该算法具有良好的效率和学习性能。
Mar, 2021
通过聚合模型更新,掌握联邦学习中的用户隐私信息可能存在风险,破坏了联邦学习的数据安全,研究展示了一种攻击方法,通过聚合的模型更新重建用户和其私有训练数据之间的联系,属于一种细致入微、平行操作并具有较高灵敏度的推断攻击。
Jun, 2021
本文针对分布式网络下存在 Byzantine 攻击的有限和优化学习问题,提出了一种基于几何中位数的抗攻击分布式学习方法 Byrd-SAGA,通过减小随机梯度的方差来实现对抗攻击的鲁棒性和线性快速收敛性。实验结果表明,相较于分布式 SGD 方法,该方法具备更强的抗攻击性和更快的收敛速度。
Dec, 2019
我们设计了一个适用于高维问题的新方法,可以在任意数量的拜占庭攻击者下进行高效分布式学习,并采用半验证的均值估计方法实现,通过从工作机上传的梯度向量估计均值值的分量以及通过辅助数据集估计子空间内的分量,最终以我们的新方法作为分布式学习聚合器。理论分析表明,该新方法具有极小极大统计速率,并且与之前的方法相比,在维度依赖性方面得到了显着改进。
Jul, 2023
本文提出了一种强大的聚合方法,用于联邦学习,可以有效地应对恶意拜占庭攻击,每个用户可以通过多个步骤来更新模型参数,然后将其直接推送到聚合中心,聚合中心利用几何中位数将用户的模型参数进行组合,并通过严格的证明表明,只要恶意攻击者的比例低于一半,我们提出的方法可以达到零最优间隔,并呈线性收敛性。数值结果验证了我们提出方法的有效性。
Aug, 2023
本文介绍了一种名为自适应联邦平均的新型算法,该算法利用隐藏马尔可夫模型来检测参与者在训练期间提供的模型更新质量,并提出一种鲁棒聚合规则以检测和丢弃每次训练迭代中的不良或恶意本地模型更新以及阻止不需要的参与者,从而在处理噪声、故障和恶意参与者时具有更高的鲁棒性和计算效率。
Sep, 2019
该研究提出了一个名为 Fed_BVA 的对抗鲁棒联邦学习框架,改进了服务器和客户端更新机制,通过最大化服务器更新期间的偏差和方差生成对抗性示例,并在客户端更新期间学习这些示例的对抗性鲁棒模型更新。实验证明,该框架对 IID 和非 IID 情况下的白盒和黑盒对抗性破坏具有鲁棒性。
Sep, 2020