梯度反演综述:攻击、防御和未来方向
使用GradInversion算法,结合梯度计算和图像还原技术,在保护隐私的前提下,能准确地从深度神经网络的训练中恢复待处理图片,并可在多个任务中实现高度复现的效果。
Apr, 2021
本文研究了梯度反演攻击对联邦学习安全和隐私保护的威胁。针对已有的攻击和防御方法,我们发现某些强假设下的攻击可以通过放宽假设来削弱强度。我们评估了三种防御机制的效果和性能开销,发现在适当的方法组合下,攻击可以更加有效地被抵抗。总体而言,我们提供了潜在的应对策略,并且发现目前最新的攻击已经可以通过稍微降低数据效用的方式来抵御。
Nov, 2021
该论文展示了视觉转换器(ViTs)对基于渐变的反演攻击的易受攻击性。作者提供了一种名为GradViT的方法,可以将随机噪声优化为自然图像,以通过迭代过程重建原始数据批次。作者发现Vision Transformers由于注意机制的存在,比之前研究过的CNNs容易受到攻击。作者的方法具有卓越的定量与定性表现。
Mar, 2022
本文介绍了一种名为 TGIAs-RO 的新型 Gradient Inversion Attacks 攻击方式,采用多重时间梯度来恢复本地客户端保留的私有数据,能够有效克服瓶颈,提高重构性能和鲁棒性,同时启发了更多关于联邦学习中隐私保护方法的探索。
Jun, 2023
梯度泄漏攻击与防御策略的全面分析,为基于变压器模型的隐私保护技术的发展做出了积极贡献,旨在促进保护敏感数据和在变压器模型背景下维护隐私的进展。
Nov, 2023
通过基于Jigsaw拼图组装的新概率模型和基于GAN的分析,Patch-MI攻击方法能够成功生成与目标数据库分布相似的图片,甚至在辅助数据库分布不相似的情况下,通过随机变换块的巧妙应用,进一步提升目标分类器的效果,从而在保持统计数据集质量的同时,在准确性方面超越了现有的生成MI方法,标志着重要的进展。
Dec, 2023
通过使用自适应的损失函数,本研究提出了一种用于梯度逆转攻击的敏感性代理指标,该指标能够更准确地捕捉样本的脆弱性,并为以后在联邦学习中应对多种潜在损失函数的安全问题提供了解决方案。
Dec, 2023
在这项工作中,我们提出了一种针对联邦学习环境中的强力重构攻击,该攻击重构了中间特征,并且与大多数先前的方法相比,集成且表现更好。我们在这种更强力的攻击上进行了深入的理论和实证研究,发现梯度剪裁是针对最先进攻击的最有效策略。
Feb, 2024
我们提出了AttackBench作为第一个用于评估对抗样本优化的攻击的公平比较框架,通过分类梯度攻击、定义优化度量标准和限制查询次数等方式评估攻击的效果和效率,并通过对超过100种攻击实现在CIFAR-10和ImageNet模型上的800多种不同配置的实证分析,发现只有很少的攻击能够超越所有其他竞争方法,同时揭示了阻碍许多攻击找到更好解决方案或运行的几个实现问题,我们将AttackBench作为一个公开可用的基准,并致力于不断更新以包含和评估新的梯度攻击方法。
Apr, 2024
本文提出了一种名为Gradient Inversion via Neural Architecture Search (GI-NAS)的方法,通过自适应搜索网络和捕捉神经结构背后的隐含先验知识,进一步利用这种隐含先验知识来反转渐变并实施隐私数据重构攻击,实验证明GI-NAS相较最先进的渐变反转方法在更实际的设置下,包括高分辨率图像、大尺寸批次和高级防御策略下,可以实现更好的攻击性能。
May, 2024