SPEAR:联邦学习中批量的精确梯度反演
该研究论文研究了联邦学习中的数据隐私问题,提出了一种从共享梯度或权重中恢复训练数据的方法,并使用方法在 CIFAR-10 和 ImageNet 等图像基准上进行了实验,超过了现有的 GradInversion 技术。
Oct, 2021
本文探究了几个神经网络设计决策如何防御梯度反演攻击,提出重叠梯度可以在高度易受攻击的全连接层上提供数值抵抗,并通过合适的损失函数和相同标签的批处理最大程度地混合梯度,从而避免了数据泄露的风险,并提出了一个基于绝对变异距离的信息泄露连续统计,最终通过经验结果验证所提出的防御策略对信息恢复有一定的应用。
Apr, 2022
DAGER 是一种用于恢复文本数据批的算法,通过利用 self-attention 层的梯度的低秩结构和标记嵌入的离散性质,以精确的方式恢复整个批次的输入文本数据,用于编码器和解码器架构,并在实验中表现出超过 0.99 的 ROUGE-1/2,速度比之前的攻击快了 20 倍,并且在可扩展性上可以处理 10 倍以上的批大小。
May, 2024
本文研究联邦学习中参数梯度共享机制的安全性,并通过实证研究表明,在计算机视觉领域,即使对多个迭代或多个图像进行梯度平均处理,也无法保护用户隐私。
Mar, 2020
本论文研究梯度反转攻击在联邦学习框架下从中间梯度中重建本地训练数据,提出了一种基于分析的算法来同时恢复单输入梯度中的真实增强标签和最后全连接层的输入特征,并证明了该算法对标签恢复的准确性以及对随后的图像重建的好处,强调了分类任务中软标签在梯度反转攻击中值得进一步关注。
Feb, 2024
本文研究了梯度反演攻击对联邦学习安全和隐私保护的威胁。针对已有的攻击和防御方法,我们发现某些强假设下的攻击可以通过放宽假设来削弱强度。我们评估了三种防御机制的效果和性能开销,发现在适当的方法组合下,攻击可以更加有效地被抵抗。总体而言,我们提供了潜在的应对策略,并且发现目前最新的攻击已经可以通过稍微降低数据效用的方式来抵御。
Nov, 2021
使用 GradInversion 算法,结合梯度计算和图像还原技术,在保护隐私的前提下,能准确地从深度神经网络的训练中恢复待处理图片,并可在多个任务中实现高度复现的效果。
Apr, 2021
通过一种新的分析方法,最大限度地保护隐私,同时从客户端的梯度更新中高效而不引人注目地重建输入图像,以弥补现有方法在批量大小较大时的图像质量较差,从而引起了对联邦学习隐私保护的进一步研究的重视。
Oct, 2023
这项研究介绍了一种基于最小但恶意修改的共享模型架构的新威胁模型,使服务器能够直接从梯度更新中获取用户数据的逐字副本,即使是在大批量情况下的用户数据也能被这些略有修改的模型重构。
Oct, 2021