通过观察数据分布的稳定性,我们提出了 AdaAggRL,一种基于强化学习的自适应聚合方法,用于防御复杂的恶意攻击。实验证明,该防御模型在四个真实数据集上显著优于广泛采用的防护模型。
Jun, 2024
本篇论文探讨了在联邦学习中的模型污染攻击,通过提出一种交替极小化策略和使用参数估计方法使恶意代理更容易成功攻击,同时提出利用可解释性技术生成模型决策的视觉解释,为联邦学习中的漏洞和防御策略提供了借鉴。
Nov, 2018
本研究提出了一种新的带有基于残留的重新加权的聚合算法,旨在解决联邦学习中受到攻击后可能会导致全局模型异常的问题,经过实验验证,该算法在标签翻转和后门攻击的情况下表现出了优异的效果,并且提供了理论分析。
Dec, 2019
分散化数据源的联邦学习为学习提供隐私保护,但容易受到恶意客户干扰的模型中毒攻击,因此本文提出了一种名为 FedDefender 的新客户端防御机制,通过攻击容忍的本地元更新和攻击容忍的全局知识蒸馏两个组件,实现对联邦学习的模型中毒攻击的抵御和知识提取,从而提高其鲁棒性。
Jul, 2023
Federated Learning 新范式弥补了使用机器或深度学习模型时隐私泄漏的担忧。FedCC 通过比较 net 不同层的标准核对其表示,提供了强大的聚合。实验结果表明,它缓解了非定向和有目的的模型污染或后门攻击,并且在非独立同分布数据环境中也有效。
Dec, 2022
本文介绍了一个基于轻量级加密和数据混淆的联邦学习系统,结合恰当的带宽效率优化和对云服务器主动攻击的安全保护机制,在保证客户端数据隐私的前提下,整合来自多源的数据进行联合训练,并在多项数据集(MNIST、CIFAR-10、CelebA)上验证该系统的可行性及精度。
Feb, 2022
该研究对联邦学习框架下聚合策略进行了全面的数学收敛分析,并通过与 FedAvg 进行分类任务的比较来评估其性能,得出了新的聚合算法,该算法可以通过区分客户端贡献的价值来修改其模型架构。
May, 2022
本文研究了在联合学习中,如果服务端是恶意的但试图获得私人数据,会面临什么样的安全聚合漏洞,并提供了一种进一步防御此类恶意服务器的方法,并展示了防御针对已知攻击的有效性。
Nov, 2022
本文介绍了一种名为自适应联邦平均的新型算法,该算法利用隐藏马尔可夫模型来检测参与者在训练期间提供的模型更新质量,并提出一种鲁棒聚合规则以检测和丢弃每次训练迭代中的不良或恶意本地模型更新以及阻止不需要的参与者,从而在处理噪声、故障和恶意参与者时具有更高的鲁棒性和计算效率。
Sep, 2019
FreqFed 是一种新颖的聚合机制,通过将模型更新转换到频域,可以有效过滤掉恶意攻击,无论攻击类型、策略和客户端数据分布,从而在不影响聚合模型的实用性的前提下有效缓解毒化攻击。
Dec, 2023