Mar, 2024

基于非独立同分布数据的鲁棒联邦学习中的对数标定

TL;DR本研究采用对抗训练 (Adversarial Training, AT) 框架来提高联邦学习模型对对抗样本攻击的鲁棒性,即联邦对抗训练 (Federated Adversarial Training, FAT);同时通过一种简单而有效的对数准确性矫正策略解决非独立同分布的数据分布问题,以提高模型鲁棒性,实验证明该策略在 MNIST、Fashion-MNIST 和 CIFAR-10 三个数据集上与多个基准模型相比在自然精度和鲁棒精度方面均表现出竞争力。