GANcrop: 联邦学习中的对抗性防御解决方案
本文研究了联邦生成对抗网络(FedGANs)中后门攻击的问题,提出了一种高效的防御措施 ——FedDetect。在两个不同模态的医学数据集上进行了实验,表明后门攻击会导致低保真度合成图像,但使用 FedDetect 能够抵御此类攻击,以提高分類性能。
Oct, 2022
本研究提出了一种针对联邦 GAN 的后门攻击方式,并且证明了添加少于 0.5% 的图像大小的触发器可以破坏 FL-GAN 模型,基于此,我们提供了两种有效的防御策略:全局恶意检测和局部训练正则化,并且展示了两种策略相结合可以产生强大的医学图像生成能力。
Jul, 2022
通过使用基于遗传算法的 GABAttack 对联邦学习在网络流量分类中的后门攻击,研究证实了这种攻击的成功,并提出网络安全专家和从业者需要开发强大防御措施的警示。
Sep, 2023
通过学习后门攻击的两个特征,即触发器比正常知识学习得更快,触发器模式对图像分类的影响比正常类模式更大,我们的方法通过生成具有新学习知识的图像,并通过评估这些生成的图像的效果来过滤触发器图像,以确保更新的全局模型是良性的,实验结果表明,我们的方法可以抵御几乎所有现有类型的后门攻击,并在 IID 和 non-IID 场景下优于所有七种最先进的防御方法,尤其是在 80%的恶意客户端存在时依旧能够成功抵御后门攻击。
Aug, 2023
本文重点研究联邦学习(FL)中后门攻击的防御方法,提出一种新的联邦后门攻击框架,通过直接修改局部模型权重注入后门触发器,并与客户端模型联合优化,从而更加单独和隐蔽地绕过现有防御。实证研究表明最近的三大类联邦后门防御机制存在一些缺陷,我们对此提出了建议。
Jan, 2023
通过丰富的卫星图像和机器学习技术的驱动,该论文提出了一种名为 CropGAN 的作物生成对抗网络,以解决农作物分布图生成中源领域与目标领域之间的跨域问题,避免了目标领域标签的需求,通过学习一个映射函数将目标领域的光谱特征转换到源领域,从而实现了在目标领域产生高精度早期作物地图的目标。该方法在多个地区和年份的广泛实验中证明了其优势和有效性,与直接传输策略相比,应用 CropGAN 后的 F1 得分提高了 13.13% 至 50.98%。
Jan, 2024
本文介绍了一个理论分析及实验研究结果,关于联邦学习在提高隐私保护的同时,如何防止数据或梯度被恶意污染,通过提出反向工程防御方法,可以保证攻击成功率的减少,并提高对抗性的鲁棒性。
Oct, 2022
本文介绍了一种名为 GRNN 的新方法,该方法利用了生成对抗网络(GAN)来恢复共享梯度中的隐私信息。结果表明,这种方法在图像分类任务中表现出更好的稳定性、更强的鲁棒性和更高的准确性,同时无需全局 FL 模型的收敛要求,具有非常多的实用价值。
May, 2021
本文提出了一种针对联邦学习中后门攻击的新方法:设计一种联邦修剪方法以消除网络中的冗余神经元并调整模型的极端权重值,在 Fashion-MNIST 和 CIFAR-10 等广泛使用的数据集上进行实验证明,该方法可以将平均攻击成功率从 99.7%降低到 1.9%,并只损失 5.5%的测试准确率。
Oct, 2020
提出 FedGrad 作为一种新的反对联邦学习中背门攻击的防御机制,能够对边缘情况的背门攻击进行较好的防御,并且在不降低主任务精度的情况下最高可以准确检测到几乎 100% 的恶意参与者,从而显著降低背门效果,而且相比现有的防御机制,其表现出更好的性能。
Apr, 2023