盲人引盲:针对联合学习的零知识攻击
该论文介绍了一种先进的异常检测方法,针对联邦学习系统中的恶意客户端进行攻击检测和防御操作,并借助零知识证明机制来确保服务器上诚实执行的性能优越性。
Oct, 2023
FedZZ 通过使用基于区域的偏离更新(ZBDU)机制来有效对抗联邦学习中的数据污染攻击,同时还引入了一种精确引导的方法来主动对客户端集群进行特征化,从而帮助识别和丢弃服务器上的恶意更新。在对 CIFAR10 和 EMNIST 这两个广泛认可的数据集进行的评估中,FedZZ 证明了在单个和多个客户端攻击情景以及不同攻击强度下,其在抵御数据污染攻击方面的有效性超过了现有技术方法的表现。此外,在面对日益增长的污染率时,相比现有技术,FedZZ 达到的模型准确性显示出更强的韧性。例如,当存在 50% 的恶意客户端时,FedZZ 的准确性保持在 67.43%,而第二好的解决方案 FL-Defender 的准确性降至 43.36%。
Apr, 2024
机器学习在多媒体数据(例如图像)中更具吸引力,然而多媒体数据通常具有分布性和隐私敏感性。在这篇论文中,我们展示了联邦学习(FL)遭受跨客户生成对抗网络(C-GANs)攻击的问题,然后我们提出了 Fed-EDKD 方法来提高当前广泛应用的 FL 方案以抵抗 C-GANs 攻击。通过实验证明,Fed-EDKD 显著减轻 C-GANs 攻击,同时仅带来轻微的 FL 准确性下降。
Jul, 2023
本文介绍了两种针对自动驾驶中回归任务的联邦学习 (FL) 的新型中毒攻击:FLStealth 和 Off-Track Attack (OTA)。通过实施广泛的实验,我们证明了这些攻击的有效性,并强调了针对自动驾驶中的有针对性攻击的新的防御机制的重要性。
May, 2024
本文提出了一种基于多样化数据重建机制和源特定型后门学习策略的隐蔽后门攻击 (PI-SBA) 方案来处理联邦学习中的数据异构、后门攻击、以及隐私推理三个问题,并且经过实验验证,该方案在 MNIST、CIFAR10 和 Youtube 对齐人脸数据集上具有很好的效果,并且可以有效地躲避防御方法的检测。
Jun, 2023
通过学习后门攻击的两个特征,即触发器比正常知识学习得更快,触发器模式对图像分类的影响比正常类模式更大,我们的方法通过生成具有新学习知识的图像,并通过评估这些生成的图像的效果来过滤触发器图像,以确保更新的全局模型是良性的,实验结果表明,我们的方法可以抵御几乎所有现有类型的后门攻击,并在 IID 和 non-IID 场景下优于所有七种最先进的防御方法,尤其是在 80%的恶意客户端存在时依旧能够成功抵御后门攻击。
Aug, 2023
本文提出了一种名为 MAZE 的新型数据无关模型窃取攻击方法,采用零阶梯度估计和生成模型,无需任何数据,能够有效地窃取目标模型。经过四个数据集的评估,MAZE 在规范化克隆准确度方面表现良好,并在克隆准确度、攻击查询和寻求与目标分布更相近的数据等方面进行了改进。
May, 2020
FLGuard 是一种新的拜占庭 - 鲁棒联邦学习方法,通过利用对比学习技术检测恶意客户端并丢弃恶意本地更新,设计 FLGuard 作为一种集成方案来最大化其防御能力,在各种中毒攻击下广泛评估 FLGuard,并与现有的拜占庭 - 鲁棒联邦学习方法的全局模型的准确性进行比较,在大多数情况下,FLGuard 优于现有的防御方法,并在非独立和标识分布设置下展现了巨大的改进。
Mar, 2024