Jul, 2022

技术报告:基于全体群体知识对齐协助后门联邦学习

TL;DR本文提出一种利用联邦学习(FL)模型信息泄漏强化早期注入的单次后门攻击的方法,即在FL模型收敛时注入后门攻击。作者提出了一个两阶段后门攻击,通过预备阶段对本地数据进行分布推断攻击并基于推断结果制定本地数据集,以及在注入后门攻击时根据FL模型信息泄漏进行调整,提高攻击的持久性和成功率。在MNIST数据集上进行的广泛实验表明,该方法不仅能够绕过防御机制,而且在成功率和持久性方面都比现有的后门攻击更具优势。