攻击下的联邦学习:改善图像批次的梯度反演
本文提出了一个原则性框架来评估和比较不同形式的客户隐私泄漏攻击。我们提供了正式和实验分析表明,攻击者可以通过分析本地训练的共享参数更新(例如,本地梯度或权重更新向量)来重构私有本地训练数据。该论文还分析了联邦学习中不同超参数配置和攻击算法设置对攻击效果和代价的影响,并且给出了在使用通信高效的FL协议时不同梯度压缩比下客户隐私泄漏攻击的有效性的测量、评估和分析。 最后,我们提供了一些初步的缓解策略,以突出提供系统化的攻击评估框架来深入了解联邦学习中各种形式的客户隐私泄漏威胁并发展攻击缓解的理论基础。
Apr, 2020
该研究论文研究了联邦学习中的数据隐私问题,提出了一种从共享梯度或权重中恢复训练数据的方法,并使用方法在CIFAR-10和ImageNet等图像基准上进行了实验,超过了现有的GradInversion技术。
Oct, 2021
本文研究了梯度反演攻击对联邦学习安全和隐私保护的威胁。针对已有的攻击和防御方法,我们发现某些强假设下的攻击可以通过放宽假设来削弱强度。我们评估了三种防御机制的效果和性能开销,发现在适当的方法组合下,攻击可以更加有效地被抵抗。总体而言,我们提供了潜在的应对策略,并且发现目前最新的攻击已经可以通过稍微降低数据效用的方式来抵御。
Nov, 2021
本文探究了几个神经网络设计决策如何防御梯度反演攻击,提出重叠梯度可以在高度易受攻击的全连接层上提供数值抵抗,并通过合适的损失函数和相同标签的批处理最大程度地混合梯度,从而避免了数据泄露的风险,并提出了一个基于绝对变异距离的信息泄露连续统计,最终通过经验结果验证所提出的防御策略对信息恢复有一定的应用。
Apr, 2022
本文提出针对联邦学习中的图像分类任务的新型数据重构攻击框架,并证明了通常采用的梯度后处理程序可能会给联邦学习中的数据隐私保护带来虚假的安全感。作者设计了一种基于语义级数据重构的新方法,并与传统的基于图像相似度分数的方法进行了比较。结果表明,需要重新审视和重新设计现有联邦学习算法中客户端数据隐私保护机制的重要性。
Jun, 2022
研究提出了混合精度量化FL方案作为反制措施,该方案可解决加密密钥的生成过程由于客户端数量增加而变得繁琐的难题,同时通过量化不同精度不同模式中深度模型的不同层,使该方案具有更多的鲁棒性,实证分析证明,应用量化后全局模型的准确性仅有轻微下降。
Oct, 2022
通过额外的卷积块以及白盒攻击策略,我们提出了一个鲁棒、准确且快速收敛的梯度反转攻击算法 RAF-GI,能够在损失很少时间的情况下以出色的质量重构基准数据。
Mar, 2024
该研究全面研究了联邦学习系统中梯度反演攻击的实际效用,通过对该攻击在实践中的限制进行理论和实证评估,揭示了梯度反演攻击在实际情境下的局限性,并提出了一些有效的防御措施。
Apr, 2024
本研究针对联邦学习中深层泄漏问题,评估了四种防御方法的有效性,包括掩蔽、裁剪、修剪和加噪声。研究表明,掩蔽作为防御手段,在保持训练性能的同时,能有效地抵御深层泄漏,展现出优于其他方法的防御能力。
Aug, 2024
本研究解决了联邦学习中梯度泄露的安全问题,提出了一种新颖的防护方法"AdaDefense"。该方法通过替代实际局部梯度进行全局聚合,有效防止信息泄露,并保持模型性能基本不变。研究结果显示,该方法在保证模型完整性的同时,增强了联邦学习的隐私保护能力。
Oct, 2024