针对自主驾驶联邦学习的毒化攻击
本文旨在研究联邦机器学习中的数据投毒攻击漏洞,使用一个基于多任务学习框架的联邦学习框架,提出了一个自适应的双层优化问题,并提出了一种系统感知的优化方法,ATTack on Federated Learning (AT2FL),用于计算联邦机器学习中的设备投毒策略。实验结果表明,无论是直接毒害目标节点还是利用通信协议间接毒害相关节点,联邦多任务学习模型都非常容易受到投毒攻击的影响。
Apr, 2020
数据污染攻击对于计算机网络领域的严重性进行了实证研究,发现 Label Flipping 攻击易于检测,而 Feature Poisoning 攻击难以被察觉,证明了后者在欺骗服务器方面的重要性。
Mar, 2024
该研究提出了一种基于对抗图自编码器的新颖的数据无关型模型污染攻击方法,攻击者通过监听无害的本地模型和全局模型来提取其中的图结构关联,并用对抗性图结构和训练数据特征生成恶意本地模型,导致联邦学习的准确性逐渐下降,现有的防御机制无法检测这种攻击,对联邦学习构成严重威胁。
Nov, 2023
本研究通过对现有 FL 攻击和检测方法进行综合研究,提出了 FLTracer,该方法能够准确检测各种攻击并追踪攻击时间、目标、类型和污染更新的位置,通过基于卡尔曼滤波器的跨轮次检测来识别攻击者,使检测方法对于数据异质性具有鲁棒性且能够在非独立分布的环境中有效工作。经过广泛的评估,FLTracer 在平均真阳性率高于 96.88% 的情况下,平均假阳性率低于 2.67%,明显优于现有的检测方法。
Oct, 2023
本文针对联合学习中的毒化攻击进行了综合的系统化研究和对各种可能的威胁模型和攻击形式进行了分类,特别关注了生产环境中的非定向毒化攻击及对此的防御机制;通过实验验证,与过去的错误认识不同,我们发现即使是简单低成本的防护措施,联合学习在实践中也是高度强健的。同时,我们还提出了新型的数据和模型毒化攻击,并探究它们在存在简单防御机制的情况下的攻击效果。
Aug, 2021
DPOT 是一种基于数据污染的联邦学习后门攻击策略,通过动态构建后门目标并优化后门触发器,使后门数据对模型更新的影响最小化,有效地破坏了最先进的防御机制并在各种数据集上优于现有的后门攻击技术。
May, 2024
本文提出了一种灵活的模型中毒攻击方法,即 Flexible Model Poisoning Attack (FMPA),可以通过使用全局历史信息来构建预测模型并进行微调,达到在没有额外知识的情况下对联邦学习进行攻击的目的,并且可以对全局准确性进行细粒度可控攻击,是目前最优秀的攻击方法之一。
Apr, 2023
本文提供了一种简洁的介绍联邦学习的概念,并使用一个唯一的分类法来涵盖针对联邦学习的威胁模型和两个主要的攻击方法:1) 污染攻击和 2) 推理攻击,探讨了向更强大的隐私保护方向发展的有前途的未来研究方向.
Mar, 2020
通过引入一种新的虚假流量注入(FTI)攻击和一种名为全局局部不一致检测(GLID)的防御机制,对分布式的无线流量预测系统中的安全性进行了充分的实验评估,并在现实世界的无线流量数据集上取得了显著优于现有基线的效果。
Apr, 2024