在联邦学习中,通过使用陷阱权重进行数据重建攻击,甚至可以从梯度中恢复用户数据,从而破坏了其看似隐私保护的优势。
Dec, 2021
本文针对联邦学习系统存在的隐私泄露问题,提出一种学习数据扰动来防止模型逆推攻击的防御策略,实验证明该方法在防御 DLG 和 GS 攻击的同时能够将数据重构误差提高 160 倍以上,有效提升联邦学习系统的隐私保护性能。
Dec, 2020
本文研究了分布式学习中的数据重构攻击,并探讨了利用泄露数据进行模型训练和改进的可能性。研究表明,即使重构质量有限或泄露图像数量较少,也可以通过敌意训练模型更准确地使用泄露数据,对于下游训练而言,渐变反转攻击和线性层泄漏攻击存在一定的限制。
Mar, 2024
本文提出了两个新的框架,证明在联合学习的情况下传输模型权重也可能会泄露客户端的本地数据,同时介绍了两种对抗措施和评估其保护效果。
Jun, 2022
提出一种隐蔽标签推断攻击绕过安全聚合从而恢复个体客户的私有标签,并通过理论分析和实验证明该攻击可以在各种数据集和模型架构上以 100%的准确性实现大规模标签恢复。
Jun, 2024
水平联邦平均(FedAvg)中的参数攻击问题可以通过我们提出的插值近似方法和层次加权损失函数来解决,实验证明我们的方法在图像数据重建方面具有明显的改进。
Aug, 2023
该研究全面研究了联邦学习系统中梯度反演攻击的实际效用,通过对该攻击在实践中的限制进行理论和实证评估,揭示了梯度反演攻击在实际情境下的局限性,并提出了一些有效的防御措施。
Apr, 2024
本文提出了一个原则性框架来评估和比较不同形式的客户隐私泄漏攻击。我们提供了正式和实验分析表明,攻击者可以通过分析本地训练的共享参数更新 (例如,本地梯度或权重更新向量) 来重构私有本地训练数据。该论文还分析了联邦学习中不同超参数配置和攻击算法设置对攻击效果和代价的影响,并且给出了在使用通信高效的 FL 协议时不同梯度压缩比下客户隐私泄漏攻击的有效性的测量、评估和分析。 最后,我们提供了一些初步的缓解策略,以突出提供系统化的攻击评估框架来深入了解联邦学习中各种形式的客户隐私泄漏威胁并发展攻击缓解的理论基础。
Apr, 2020
本文分析了基于梯度下降的攻击如何泄露深度学习模型的训练数据,并提出了一种度量安全性的指标,同时也提出了一种用于解决重构训练数据的优化问题的方法。
Nov, 2021
本文研究联邦学习中参数梯度共享机制的安全性,并通过实证研究表明,在计算机视觉领域,即使对多个迭代或多个图像进行梯度平均处理,也无法保护用户隐私。
Mar, 2020