针对联邦学习存在的毒化模型和后门攻击等安全威胁,我们提出了一种基于注意力机制的神经网络攻击自适应的聚合策略。我们的方法可以在数据驱动的方式下,有效应对各种攻击,特别是对图像和文本数据集中的模型毒化和后门攻击的防御具有竞争力的表现。
Feb, 2021
水平联邦平均(FedAvg)中的参数攻击问题可以通过我们提出的插值近似方法和层次加权损失函数来解决,实验证明我们的方法在图像数据重建方面具有明显的改进。
Aug, 2023
本文讨论了联邦学习中的恶意攻击问题,并提出了一种基于递归欧几里得距离计算的新的强大聚合方法,该方法根据局部模型距离上一个全局模型的距离来分配权重,以便减小数据中毒的效应。实验证明,该算法在准确性方面优于最先进的算法至少 5%,同时将时间复杂度降低不到 55%。
Mar, 2023
本文介绍了一个基于轻量级加密和数据混淆的联邦学习系统,结合恰当的带宽效率优化和对云服务器主动攻击的安全保护机制,在保证客户端数据隐私的前提下,整合来自多源的数据进行联合训练,并在多项数据集(MNIST、CIFAR-10、CelebA)上验证该系统的可行性及精度。
Feb, 2022
通过观察数据分布的稳定性,我们提出了 AdaAggRL,一种基于强化学习的自适应聚合方法,用于防御复杂的恶意攻击。实验证明,该防御模型在四个真实数据集上显著优于广泛采用的防护模型。
Jun, 2024
我们的研究引入了一种新颖的健壮汇聚机制,利用傅里叶变换,能够有效应对复杂攻击,包括恶意行为和模型污染攻击,并且在各种模型污染攻击中表现出优越性能。
Feb, 2024
该研究对联邦学习框架下聚合策略进行了全面的数学收敛分析,并通过与 FedAvg 进行分类任务的比较来评估其性能,得出了新的聚合算法,该算法可以通过区分客户端贡献的价值来修改其模型架构。
May, 2022
本文提出了一种名为 FedRA 的鲁棒的面向数量感知的聚合算法,旨在实现带有本地数据数量意识并能够防御数量增强攻击的 FL。经过在四个公共数据集上的实验,验证了 FedRA 方法在防御数量增强攻击方面对 FL 的有效性。
本文研究联邦学习的对抗鲁棒性,通过各种攻击和对抗训练方法进行全面的鲁棒性评估,提出基于决策边界的联邦对抗训练算法 DBFAT,包括本地重新加权和全局正则化两个组件,实验证明在 IID 和非 IID 设置下,DBFAT 一直优于其他基准。
Feb, 2023
本研究探讨了一种新的联邦学习形式,其中客户端训练个性化本地模型,并与服务器端共享模型联合进行预测,通过这种新的联邦学习框架,可以最小化中央共享模型的复杂性,同时获得联合训练提供的所有性能优势。这个框架对数据异质性具有鲁棒性,解决了传统联邦学习方法在客户端数据非独立同分布时面临的收敛缓慢问题。我们在实证测试中发现,与基准线相比,取得了巨大的性能提升。
Mar, 2020