RAF-GI:面向联邦学习的稳健、准确和快速收敛的梯度反演攻击
该研究论文研究了联邦学习中的数据隐私问题,提出了一种从共享梯度或权重中恢复训练数据的方法,并使用方法在CIFAR-10和ImageNet等图像基准上进行了实验,超过了现有的GradInversion技术。
Oct, 2021
本文探究了几个神经网络设计决策如何防御梯度反演攻击,提出重叠梯度可以在高度易受攻击的全连接层上提供数值抵抗,并通过合适的损失函数和相同标签的批处理最大程度地混合梯度,从而避免了数据泄露的风险,并提出了一个基于绝对变异距离的信息泄露连续统计,最终通过经验结果验证所提出的防御策略对信息恢复有一定的应用。
Apr, 2022
本文介绍了一种名为FedMD的联合学习方案,使用模型蒸馏来保证隐私性,而不是直接共享模型参数。然而,我们发现即使是共享公共数据集的输出日志比直接共享渐变更为安全,但仍然存在数据曝光的风险。作者研究表明,恶意服务器可以利用PLI攻击FedMD及其变体。在多个面部识别数据集上的实验验证了作者发现的成果。
Apr, 2023
通过逐渐改变优化层,从初始潜在空间到更接近输出图像的中间层,我们基于特征域搜索的梯度反演方法(GIFD)在保护客户隐私的分布式机器学习框架中取得了像素级重建方面的较好结果,并在不同防御策略设置和批次大小下展现了很强的泛化能力。
Aug, 2023
深度梯度反转攻击是联邦学习中的一种严重威胁,然而,现有的方法在访问过多的辅助数据时违反了联邦学习的基本数据分割原则。本文提出了一种新的方法,Gradient Inversion Attack using Practical Image Prior (GI-PIP),通过修订的威胁模型进行梯度反转攻击。GI-PIP利用异常检测模型从较少的数据中捕捉潜在的分布,而基于GAN的方法需要消耗大量数据来合成图像。所提取的分布然后被应用于调节攻击过程,作为异常分数损失。实验结果表明,只使用ImageNet数据的3.8%,GI-PIP实现了16.12 dB的PSNR恢复,而基于GAN的方法则需要超过70%的数据。此外,GI-PIP在分布泛化方面表现出卓越的能力,相比基于GAN的方法。我们的方法显著减轻了对辅助数据的要求,对于梯度反转攻击来说,在数量和分布上都产生了更大的威胁于现实世界的联邦学习。
Jan, 2024
基于边缘检测的渐变反转策略(Gradient Inversion Strategy based on Canny Edge Detection, MGIC)在多标签和单标签数据集中减少了语义错误,并在ImageNet数据集上比最广泛使用的方法节省了超过78%的时间成本。
Mar, 2024
该研究全面研究了联邦学习系统中梯度反演攻击的实际效用,通过对该攻击在实践中的限制进行理论和实证评估,揭示了梯度反演攻击在实际情境下的局限性,并提出了一些有效的防御措施。
Apr, 2024
通过Style Migration Network(GI-SMN)提出了一种新的梯度逆转攻击方法,它打破了以往梯度逆转攻击所做的强假设,在批处理中实现了高相似度的用户数据重建,同时超越了当前的梯度逆转攻击方法和差分隐私防御方法。
May, 2024
本文提出了一种名为Gradient Inversion via Neural Architecture Search (GI-NAS)的方法,通过自适应搜索网络和捕捉神经结构背后的隐含先验知识,进一步利用这种隐含先验知识来反转渐变并实施隐私数据重构攻击,实验证明GI-NAS相较最先进的渐变反转方法在更实际的设置下,包括高分辨率图像、大尺寸批次和高级防御策略下,可以实现更好的攻击性能。
May, 2024
本研究解决了联邦学习中梯度反演攻击对用户数据隐私的威胁。提出了一种新方法“基于反馈融合的梯度深度泄漏”(DLG-FB),利用图像批次的空间相关性来提升攻击效果。研究结果表明,该方法在攻击成功率和每张被攻击图像的迭代次数上分别提高了19.18%和48.82%。
Sep, 2024