联邦学习中抵御加剧异质性以实现健壮模型
本文介绍一种联邦对抗训练(FAT)方法,结合联邦学习和对抗训练,以降低诈骗攻击风险并在训练期间保护数据隐私,研究了对于 MNIST、Fashion-MNIST 和 CIFAR10 这几种理想的联邦学习数据集,以及在 LEAF 基准数据集上的理想设置下对于集群客户对于模型的会耗时的这种自然扩展,探讨挑战和未能在 Trimmed Mean 和 Bulyan 防御上取得的成果,但使用一种新型的蒸馏攻击,成功破解了 Krum,为防御者呈现了似乎 “强大” 的模型,实际上该模型对于简单攻击的修改并不提供鲁棒性。
Dec, 2020
本文研究联邦学习的对抗鲁棒性,通过各种攻击和对抗训练方法进行全面的鲁棒性评估,提出基于决策边界的联邦对抗训练算法 DBFAT,包括本地重新加权和全局正则化两个组件,实验证明在 IID 和非 IID 设置下,DBFAT 一直优于其他基准。
Feb, 2023
该论文研究了在存在标签倾斜的情况下进行联邦对抗训练的问题,并提出了一种 Calibrated FAT 方法来解决非同类概率和异构本地模型引起的训练不稳定性和自然精度降低问题。该方法通过自适应地校准 logits 来实现类平衡,旨在获得更好的收敛点和客户端之间均匀的本地模型。
May, 2022
本篇论文探讨了在联邦学习中的模型污染攻击,通过提出一种交替极小化策略和使用参数估计方法使恶意代理更容易成功攻击,同时提出利用可解释性技术生成模型决策的视觉解释,为联邦学习中的漏洞和防御策略提供了借鉴。
Nov, 2018
该研究探讨了医学图像分析中联邦学习应用的安全方面。通过引入联邦环境中的分布式噪音,可以开发出具备对抗攻击鲁棒性并符合联邦隐私标准的模型。研究结果表明,引入分布式噪音可达到与传统对抗训练相当的安全水平,同时需要更少的样本进行重新训练。
Oct, 2023
我们研究了一个新颖而实用的情境中的弹性和安全问题:一组恶意客户端通过伪装身份和表现为良性客户端,在训练期间对模型造成影响,并且在训练之后揭示他们的对手位置以进行可转移的对抗攻击,这些数据通常是 FL 系统训练时使用的数据子集。我们的目标是全面了解 FL 系统在这种实际情境中面临的挑战,包括各种配置。我们注意到这种攻击是可能的,但是与其在干净图像上的准确度相当时,联邦模型比其集中式对应物更为稳健。通过我们的研究,我们假设这种稳健性来自两个因素:分布式数据上的分散训练和平均操作。我们从实证实验和理论分析的角度提供证据。我们的工作对于理解联邦学习系统的稳健性具有意义,并对联邦学习应用提出了实际问题。
Oct, 2023
本研究旨在研究在联合学习环境下使用对抗性训练的可行性,提出了一种名为 FedDynAT 的算法,通过实验表明,该算法显着提高了自然和对抗准确性,并通过减少模型漂移来改善了模型收敛时间。
Mar, 2021
针对联邦学习存在的毒化模型和后门攻击等安全威胁,我们提出了一种基于注意力机制的神经网络攻击自适应的聚合策略。我们的方法可以在数据驱动的方式下,有效应对各种攻击,特别是对图像和文本数据集中的模型毒化和后门攻击的防御具有竞争力的表现。
Feb, 2021
本文提出使用自注意力机制的神经网络模型(如 Transformer),替代传统的卷积神经网络模型,以改进联邦学习中的模型性能和稳定性,尤其当处理异构数据的时候,可以大大降低模型遗忘和加快模型学习收敛速度。
Jun, 2021