CalFAT: 带标签偏斜的校准联邦对抗训练
本研究采用对抗训练 (Adversarial Training, AT) 框架来提高联邦学习模型对对抗样本攻击的鲁棒性,即联邦对抗训练 (Federated Adversarial Training, FAT);同时通过一种简单而有效的对数准确性矫正策略解决非独立同分布的数据分布问题,以提高模型鲁棒性,实验证明该策略在 MNIST、Fashion-MNIST 和 CIFAR-10 三个数据集上与多个基准模型相比在自然精度和鲁棒精度方面均表现出竞争力。
Mar, 2024
本文介绍一种联邦对抗训练(FAT)方法,结合联邦学习和对抗训练,以降低诈骗攻击风险并在训练期间保护数据隐私,研究了对于 MNIST、Fashion-MNIST 和 CIFAR10 这几种理想的联邦学习数据集,以及在 LEAF 基准数据集上的理想设置下对于集群客户对于模型的会耗时的这种自然扩展,探讨挑战和未能在 Trimmed Mean 和 Bulyan 防御上取得的成果,但使用一种新型的蒸馏攻击,成功破解了 Krum,为防御者呈现了似乎 “强大” 的模型,实际上该模型对于简单攻击的修改并不提供鲁棒性。
Dec, 2020
本文介绍了 LHD 的一个解决方案,名为 FatCC,通过在 local adversarial updates 过程中对 logit 进行校准,以及引入 feature contrast 的全球对齐术语,从 logit 和 feature 两个角度进一步改善联合对抗训练的稳健性和准确性。实验结果表明,与其他基线相比,FatCC 在 clean accuracy 和 robust accuracy 方面取得了可比或更高的性能提升。
Apr, 2024
本文研究联邦学习中的标签分布偏斜问题,通过引入 FedLC 方法实现了基于标签分布偏差较小的联邦优化,实验证明该方法可以提高全局模型的准确性和性能。
Sep, 2022
通过引入 Slack Federated Adversarial Training,缓解本地客户端之间数据异质性的加剧,从而达到对抗健壮性的优化,在不同的对抗训练和联邦优化方法以及不同的基准和现实数据集上进行了实验验证.
Mar, 2023
本文研究联邦学习的对抗鲁棒性,通过各种攻击和对抗训练方法进行全面的鲁棒性评估,提出基于决策边界的联邦对抗训练算法 DBFAT,包括本地重新加权和全局正则化两个组件,实验证明在 IID 和非 IID 设置下,DBFAT 一直优于其他基准。
Feb, 2023
通过在客户端引入额外的私有弱学习器与本地模型组成集成模型,FedBalance 方法能够通过融合两个模型的对数几率来纠正本地模型之间的优化偏差,从而改进本地模型的优化方向,提高少数类别的分类错误处罚并降低多数类别的注意力,从而得到更好的全局模型。
Nov, 2023
本论文提出了一种名为 FedVal 的新方法,该方法基于服务器端验证方法,使用创新的评分函数来评估客户端更新,并确定本地训练模型之间的最佳聚合平衡,从而提高鲁棒性和公平性,同时维护差分隐私的系统能力。在 CIFAR-10,FEMNIST 和 PUMS ACSIncome 数据集上的广泛实验证明了我们的方法的有效性,实现了最先进的性能。
Jun, 2023
提出了一种名为 Federated Alternate Training (FAT) 的替代训练框架,该框架可以使用具有注释数据的数据集和不带注释数据的数据集交错训练,其中不带注释的数据集使用全局分割模型生成伪标签进行自我监督学习,适用于医学成像数据集的隐私保护训练。
Apr, 2023
通过提出一种新颖的联邦校准(FedCal)方法,将本地和全局校准相结合,使用客户端特定的标量来实现本地校准,并通过权重平均聚合来生成全局标量,从而显著减少全局校准误差。
May, 2024