本文论述了联邦学习的安全问题,指出任何参与者都可以在联邦学习中引入隐藏的后门功能,进而设计了基于替换模型和泛化约束的攻击方式。这种攻击方法可以在短时间内使全局模型对后门任务达到100%的准确率,并可通过对抗损失函数规避检测方法。
Jul, 2018
本文研究联邦学习中的后门攻击及防御,探讨了如何在 EMNIST 数据集上实现防御策略,结论表明采用范数削弱和差分隐私能够有效减轻后门攻击带来的影响,同时开放代码以期鼓励更多研究者参与其中。
Nov, 2019
本文提出了防范联合学习中后门攻击的一个轻量级的防御方案, 该方案通过调整聚合服务器的学习速率来达到目的, 在实验中,我们发现我们的防御方案显著优于文献中提出的一些防御措施。
Jul, 2020
通过理论分析和实验,研究在分布式机器学习领域,如何有效检测和保护模型免受恶意注入的后门影响。
本文重点研究联邦学习(FL)中后门攻击的防御方法,提出一种新的联邦后门攻击框架,通过直接修改局部模型权重注入后门触发器,并与客户端模型联合优化,从而更加单独和隐蔽地绕过现有防御。实证研究表明最近的三大类联邦后门防御机制存在一些缺陷,我们对此提出了建议。
Jan, 2023
本文研究了垂直联邦学习中的干扰攻击,提出了第一种干净标签后门攻击技术,并在三个数据集上验证了其有效性,研究了攻击成功的因素,并讨论了减轻其影响的对策。
Apr, 2023
本文提出了一个新的攻击模型,称为服务器上的数据不可知后门攻击(DABS),该模型旨在直接修改全局模型以在FL系统中放置后门。
May, 2023
通过学习后门攻击的两个特征,即触发器比正常知识学习得更快,触发器模式对图像分类的影响比正常类模式更大,我们的方法通过生成具有新学习知识的图像,并通过评估这些生成的图像的效果来过滤触发器图像,以确保更新的全局模型是良性的,实验结果表明,我们的方法可以抵御几乎所有现有类型的后门攻击,并在IID和non-IID场景下优于所有七种最先进的防御方法,尤其是在80%的恶意客户端存在时依旧能够成功抵御后门攻击。
Aug, 2023
DPOT是一种基于数据污染的联邦学习后门攻击策略,通过动态构建后门目标并优化后门触发器,使后门数据对模型更新的影响最小化,有效地破坏了最先进的防御机制并在各种数据集上优于现有的后门攻击技术。
May, 2024
随着Federated Learning(FL)在分布式数据上进行隐私保护模型训练的潜力,但它仍然容易受到后门攻击的影响。本研究探讨了FL面临的一种更令人担忧的情况:非合作的多触发器攻击。这些并行攻击利用了FL的去中心化特性,使得检测变得困难。实验结果显示了FL对此类攻击的显著脆弱性,即使影响主任务,也可以成功学习到单独的后门。该研究强调在不断发展的FL领域中,需要对各种后门攻击进行强大的防御。
Jul, 2024