通过关键参数分析实现抗攻击的联邦学习
分散化数据源的联邦学习为学习提供隐私保护,但容易受到恶意客户干扰的模型中毒攻击,因此本文提出了一种名为 FedDefender 的新客户端防御机制,通过攻击容忍的本地元更新和攻击容忍的全局知识蒸馏两个组件,实现对联邦学习的模型中毒攻击的抵御和知识提取,从而提高其鲁棒性。
Jul, 2023
Federated Learning 新范式弥补了使用机器或深度学习模型时隐私泄漏的担忧。FedCC 通过比较 net 不同层的标准核对其表示,提供了强大的聚合。实验结果表明,它缓解了非定向和有目的的模型污染或后门攻击,并且在非独立同分布数据环境中也有效。
Dec, 2022
本篇论文探讨了在联邦学习中的模型污染攻击,通过提出一种交替极小化策略和使用参数估计方法使恶意代理更容易成功攻击,同时提出利用可解释性技术生成模型决策的视觉解释,为联邦学习中的漏洞和防御策略提供了借鉴。
Nov, 2018
针对联邦学习存在的毒化模型和后门攻击等安全威胁,我们提出了一种基于注意力机制的神经网络攻击自适应的聚合策略。我们的方法可以在数据驱动的方式下,有效应对各种攻击,特别是对图像和文本数据集中的模型毒化和后门攻击的防御具有竞争力的表现。
Feb, 2021
FreqFed 是一种新颖的聚合机制,通过将模型更新转换到频域,可以有效过滤掉恶意攻击,无论攻击类型、策略和客户端数据分布,从而在不影响聚合模型的实用性的前提下有效缓解毒化攻击。
Dec, 2023
本文旨在研究联邦机器学习中的数据投毒攻击漏洞,使用一个基于多任务学习框架的联邦学习框架,提出了一个自适应的双层优化问题,并提出了一种系统感知的优化方法,ATTack on Federated Learning (AT2FL),用于计算联邦机器学习中的设备投毒策略。实验结果表明,无论是直接毒害目标节点还是利用通信协议间接毒害相关节点,联邦多任务学习模型都非常容易受到投毒攻击的影响。
Apr, 2020
本文介绍了一种新颖的防御方法 —— 使用全局的前 k 更新稀疏和设备级别梯度裁剪来减轻模型中毒攻击,并提供了一个理论框架来分析防御对于攻击的鲁棒性和收敛性。同时,本文还通过开源评估验证了其实际效果,涵盖了多个计算机视觉和联邦学习的基准数据集。
Dec, 2021
数据污染攻击对于计算机网络领域的严重性进行了实证研究,发现 Label Flipping 攻击易于检测,而 Feature Poisoning 攻击难以被察觉,证明了后者在欺骗服务器方面的重要性。
Mar, 2024
通过观察数据分布的稳定性,我们提出了 AdaAggRL,一种基于强化学习的自适应聚合方法,用于防御复杂的恶意攻击。实验证明,该防御模型在四个真实数据集上显著优于广泛采用的防护模型。
Jun, 2024
本研究提出了使用一小部分的防御数据集来防范边缘用例攻击的观点。该模型 LearnDefend 可以估计客户更新是恶意的概率,并学习一个可以标记清洁或污染例子的被毒害数据检测器模型。同时,该学习防御模型在配对优化时还估计客户端的重要性模型。经实验证明,LearnDefend 可以有效地防御目前最先进的攻击方法,并且对防御数据集中清洁样本的大小和噪音具有较强的鲁棒性。
May, 2023