Mar, 2024

通过自适应共识模型更新验证提升联邦学习中的安全性

TL;DR提出了一种针对标签翻转攻击加固联邦学习系统的先进方法,该方法通过集成自适应阈值的简化一致性验证过程,提供了与分布式学习环境实时需求相适应的精炼的异常检测层,使参与客户必须达成多数共识以验证更新,确保只有经过审核和共识的修改应用于全局模型,验证实验证明了该方法显著减少了标签翻转攻击,增强了联邦学习系统的恢复能力,该方法通过结合类似区块链的参与式验证的验证层,超越了依赖异常检测或统计验证的传统技术,而无需产生与密码学相关的开销,我们的方法创新之处在于在加强安全措施与联邦学习系统的固有限制(如计算效率和数据隐私)之间取得最佳平衡,为更安全、强大和可信赖的分布式机器学习应用铺平了道路,其中数据完整性和模型鲁棒性的保护至关重要。