基于联邦 GAN 的医学图像合成中的后门攻击
本文研究了联邦生成对抗网络(FedGANs)中后门攻击的问题,提出了一种高效的防御措施 ——FedDetect。在两个不同模态的医学数据集上进行了实验,表明后门攻击会导致低保真度合成图像,但使用 FedDetect 能够抵御此类攻击,以提高分類性能。
Oct, 2022
通过学习后门攻击的两个特征,即触发器比正常知识学习得更快,触发器模式对图像分类的影响比正常类模式更大,我们的方法通过生成具有新学习知识的图像,并通过评估这些生成的图像的效果来过滤触发器图像,以确保更新的全局模型是良性的,实验结果表明,我们的方法可以抵御几乎所有现有类型的后门攻击,并在 IID 和 non-IID 场景下优于所有七种最先进的防御方法,尤其是在 80%的恶意客户端存在时依旧能够成功抵御后门攻击。
Aug, 2023
本文重点研究联邦学习(FL)中后门攻击的防御方法,提出一种新的联邦后门攻击框架,通过直接修改局部模型权重注入后门触发器,并与客户端模型联合优化,从而更加单独和隐蔽地绕过现有防御。实证研究表明最近的三大类联邦后门防御机制存在一些缺陷,我们对此提出了建议。
Jan, 2023
DPOT 是一种基于数据污染的联邦学习后门攻击策略,通过动态构建后门目标并优化后门触发器,使后门数据对模型更新的影响最小化,有效地破坏了最先进的防御机制并在各种数据集上优于现有的后门攻击技术。
May, 2024
本研究设计了一种基于联邦学习的背门攻击方法,利用神经网络和 TrojanGan 隐写模型实现了背门触发器的隐蔽和多样化,同时通过多重触发器提高了背门攻击的鲁棒性,实验结果表明该方法在联邦学习中具有高背门隐蔽性、触发器形式多样性以及对多目标攻击具有较好的攻击成功率。
Apr, 2024
本文提出一种新的方法 Neurotoxin, 用于对联邦学习系统中的后门攻击进行对抗,它可以攻击在训练过程中变化较小的参数,使得攻击可以更加持久。对十个自然语言处理和计算机视觉任务进行了全面评估,发现该方法可以使最新的后门攻击持久性提高两倍。
Jun, 2022
本文提出了一种针对联邦学习中后门攻击的新方法:设计一种联邦修剪方法以消除网络中的冗余神经元并调整模型的极端权重值,在 Fashion-MNIST 和 CIFAR-10 等广泛使用的数据集上进行实验证明,该方法可以将平均攻击成功率从 99.7%降低到 1.9%,并只损失 5.5%的测试准确率。
Oct, 2020
通过使用基于遗传算法的 GABAttack 对联邦学习在网络流量分类中的后门攻击,研究证实了这种攻击的成功,并提出网络安全专家和从业者需要开发强大防御措施的警示。
Sep, 2023
本文论述了联邦学习的安全问题,指出任何参与者都可以在联邦学习中引入隐藏的后门功能,进而设计了基于替换模型和泛化约束的攻击方式。这种攻击方法可以在短时间内使全局模型对后门任务达到 100%的准确率,并可通过对抗损失函数规避检测方法。
Jul, 2018