超越传统威胁:对联邦学习的持续后门攻击
本文提出了防范联合学习中后门攻击的一个轻量级的防御方案, 该方案通过调整聚合服务器的学习速率来达到目的, 在实验中,我们发现我们的防御方案显著优于文献中提出的一些防御措施。
Jul, 2020
通过训练两个模型,其中一个不带任何防御机制,另一个结合恶意客户过滤和提前停止以控制攻击成功率,我们提出了防御联邦学习背门攻击的框架——“阴影学习”。该框架在理论上受到了证明,并且实验证明了它显著改善了现有的防御措施。
May, 2022
本文提出一种利用联邦学习(FL)模型信息泄漏强化早期注入的单次后门攻击的方法,即在FL模型收敛时注入后门攻击。作者提出了一个两阶段后门攻击,通过预备阶段对本地数据进行分布推断攻击并基于推断结果制定本地数据集,以及在注入后门攻击时根据FL模型信息泄漏进行调整,提高攻击的持久性和成功率。在MNIST数据集上进行的广泛实验表明,该方法不仅能够绕过防御机制,而且在成功率和持久性方面都比现有的后门攻击更具优势。
Jul, 2022
在联邦学习中,我们提出了一种利用攻击者对未来其他客户端的行为,实现后门快速生效并且持续存在的攻击方法,该攻击方法适用于图像分类、下一个单词预测和情感分析等应用。
Oct, 2022
本文重点研究联邦学习(FL)中后门攻击的防御方法,提出一种新的联邦后门攻击框架,通过直接修改局部模型权重注入后门触发器,并与客户端模型联合优化,从而更加单独和隐蔽地绕过现有防御。实证研究表明最近的三大类联邦后门防御机制存在一些缺陷,我们对此提出了建议。
Jan, 2023
提出了一种基于攻击者视角的泛指在位方法,用于识别和验证后门关键层,以及基于这些目标层谨慎制定新的后门攻击方法,在各种防御策略下平衡攻击效果和潜伏性。经过广泛实验证明,该方法能够成功地在10%恶意客户端的情况下攻击七种最新防御策略下的联邦学习,并优于最新的后门攻击方法。
Aug, 2023
我们提出了一种新的灵活的触发器方法,利用生成触发器函数来实施偷偷摸摸的反向门攻击,以此来绕过联邦学习的防御机制。本文通过在真实数据集上进行的广泛实验验证了我们的攻击策略在分布式学习框架中的有效性和隐蔽性。
Aug, 2023
随着Federated Learning(FL)在分布式数据上进行隐私保护模型训练的潜力,但它仍然容易受到后门攻击的影响。本研究探讨了FL面临的一种更令人担忧的情况:非合作的多触发器攻击。这些并行攻击利用了FL的去中心化特性,使得检测变得困难。实验结果显示了FL对此类攻击的显著脆弱性,即使影响主任务,也可以成功学习到单独的后门。该研究强调在不断发展的FL领域中,需要对各种后门攻击进行强大的防御。
Jul, 2024
本研究针对联邦学习中的后门攻击问题,提出了一种新颖的后门攻击机制SDBA,特别针对自然语言处理任务。通过对LSTM和GPT-2模型的系统分析,识别了最脆弱的层并采用了层级梯度掩蔽和top-k%梯度掩蔽方法,实现了隐蔽性与持久性的结合。实验证明,SDBA在持久性和绕过代表性防御机制方面表现优越,强调了在基于NLP的联邦学习系统中需要加强防御策略的必要性。
Sep, 2024