ICMLJun, 2021

CRFL: 可验证抗后门攻击的联邦学习

TL;DR本论文提供了第一个通用框架,Certifiably Robust Federated Learning (CRFL),用于训练具备抗击后门攻击认证的 FL 模型。该方法利用模型参数的裁剪和平滑来控制全局模型的平稳性,从而获得针对有限大小的后门的逐样本鲁棒性认证。同时,该认证还指明了联邦学习参数(如单个实例的攻击者比例,攻击者数量和训练迭代次数)之间的关系。