Aug, 2024
抗拜占庭攻击的规范化梯度联邦学习在非独立同分布数据集上的应用
Byzantine-resilient Federated Learning Employing Normalized Gradients on
Non-IID Datasets
TL;DR本研究解决了在联邦学习中存在的攻击和数据异质性导致的学习偏差问题。提出了一种新的联邦学习方法——联邦规范化梯度算法(Fed-NGA),该算法通过规范化本地梯度为单位向量来降低聚合的计算复杂性,并能够在无最优性间隙的情况下同时适应非凸损失函数和非IID数据集。实验结果表明,Fed-NGA在时间复杂性和收敛性能上优于现有基线方法。