联邦学习中一种新型属性重构攻击
本文提出了一个原则性框架来评估和比较不同形式的客户隐私泄漏攻击。我们提供了正式和实验分析表明,攻击者可以通过分析本地训练的共享参数更新(例如,本地梯度或权重更新向量)来重构私有本地训练数据。该论文还分析了联邦学习中不同超参数配置和攻击算法设置对攻击效果和代价的影响,并且给出了在使用通信高效的FL协议时不同梯度压缩比下客户隐私泄漏攻击的有效性的测量、评估和分析。 最后,我们提供了一些初步的缓解策略,以突出提供系统化的攻击评估框架来深入了解联邦学习中各种形式的客户隐私泄漏威胁并发展攻击缓解的理论基础。
Apr, 2020
水平联邦平均(FedAvg)中的参数攻击问题可以通过我们提出的插值近似方法和层次加权损失函数来解决,实验证明我们的方法在图像数据重建方面具有明显的改进。
Aug, 2023
该研究提出了一种名为Client-side poisoning Gradient Inversion (CGI)的新攻击方法,旨在从聚合的全局模型中恢复训练样本,展示了在有限知识的客户端对聚合全局模型进行恶意操纵的可行性,并且具备对拜占庭-鲁棒聚合规则的隐蔽性。
Sep, 2023
在这项工作中,我们提出了一种针对联邦学习环境中的强力重构攻击,该攻击重构了中间特征,并且与大多数先前的方法相比,集成且表现更好。我们在这种更强力的攻击上进行了深入的理论和实证研究,发现梯度剪裁是针对最先进攻击的最有效策略。
Feb, 2024
该研究全面研究了联邦学习系统中梯度反演攻击的实际效用,通过对该攻击在实践中的限制进行理论和实证评估,揭示了梯度反演攻击在实际情境下的局限性,并提出了一些有效的防御措施。
Apr, 2024
该研究论文介绍了一种关于Gradient Inversion Attacks的调查和分类法,强调了联邦学习威胁模型,特别是恶意服务器和客户端情况下的攻击方法和防御策略。
May, 2024
本研究针对联邦学习(FL)中数据重建攻击的理论基础缺失问题,提出了一个理论框架以理解数据重建攻击。该框架通过界定数据重建误差来比较不同攻击的有效性,研究发现iDLG攻击在多个数据集上的表现优于DLG攻击,揭示了联邦学习中的潜在攻击风险。
Aug, 2024
本研究解决了联邦学习中隐私攻击有效性的问题,尽管已有多种攻击算法,但是否能在现实环境中有效提取用户私密数据仍不确定。通过对相关文献的分析和在真实联邦学习环境中的实验,我们发现目前的隐私攻击算法在实际应用中难以突破用户数据隐私,这表明隐私攻击的难度超出预期。
Sep, 2024
本研究解决了联邦学习中梯度重建攻击导致的数据泄露问题。文章提出了一种新的防御方法,通过推导重建误差的理论下界,并定制噪声添加和梯度剪枝策略,以优化数据泄露与模型效用的平衡。实验结果表明,所提出的方法在保护训练数据的同时,实现了更优的模型效用。
Nov, 2024