本文研究了梯度反演攻击对联邦学习安全和隐私保护的威胁。针对已有的攻击和防御方法,我们发现某些强假设下的攻击可以通过放宽假设来削弱强度。我们评估了三种防御机制的效果和性能开销,发现在适当的方法组合下,攻击可以更加有效地被抵抗。总体而言,我们提供了潜在的应对策略,并且发现目前最新的攻击已经可以通过稍微降低数据效用的方式来抵御。
Nov, 2021
通过实验结果,我们在现实场景中提供了差分隐私机器学习模型下重构成功的明确上界,这有助于在不同上下文和度量标准下进行隐私参数的明智选择。
Feb, 2024
本文研究了分布式学习中的数据重构攻击,并探讨了利用泄露数据进行模型训练和改进的可能性。研究表明,即使重构质量有限或泄露图像数量较少,也可以通过敌意训练模型更准确地使用泄露数据,对于下游训练而言,渐变反转攻击和线性层泄漏攻击存在一定的限制。
Mar, 2024
本文研究了在纵向联邦学习中防御输入泄漏攻击的方法,提出了一种基于对抗训练的框架,包含敌对重建、噪声正则化和距离相关性最小化三个模块,此框架能够有效保护输入隐私同时保留了模型的效用。
Jul, 2021
本文提出针对联邦学习中的图像分类任务的新型数据重构攻击框架,并证明了通常采用的梯度后处理程序可能会给联邦学习中的数据隐私保护带来虚假的安全感。作者设计了一种基于语义级数据重构的新方法,并与传统的基于图像相似度分数的方法进行了比较。结果表明,需要重新审视和重新设计现有联邦学习算法中客户端数据隐私保护机制的重要性。
Jun, 2022
本文分析了基于梯度下降的攻击如何泄露深度学习模型的训练数据,并提出了一种度量安全性的指标,同时也提出了一种用于解决重构训练数据的优化问题的方法。
研究如何通过反向工程的方法利用少量的反向查询训练数据重建整个机器学习模型,尤其是针对神经网络等更一般的模型,通过实际攻击和差分隐私的方法来防御这种攻击,并探讨其对标准机器学习管道的影响。
Jan, 2022
本文探讨本地模型重构攻击对于联邦学习的影响,提出了一种基于模型的特征推理攻击,并在实验中验证了攻击手法的有效性。
Oct, 2022
在这篇论文中,我们利用信息论量化信息流的框架,形式化了重建威胁模型。我们展示了贝叶斯容量与 DP-SGD 算法泄漏给对重建攻击感兴趣的敌手相关的 Sibson 无穷阶互信息之间的紧密上界。我们提供了实证结果,证明了这一指标在衡量机制对抗重建威胁方面的有效性。
Jun, 2024
该研究论文研究了联邦学习中的数据隐私问题,提出了一种从共享梯度或权重中恢复训练数据的方法,并使用方法在 CIFAR-10 和 ImageNet 等图像基准上进行了实验,超过了现有的 GradInversion 技术。
Oct, 2021