本文研究联邦学习中参数梯度共享机制的安全性,并通过实证研究表明,在计算机视觉领域,即使对多个迭代或多个图像进行梯度平均处理,也无法保护用户隐私。
Mar, 2020
本文探究了几个神经网络设计决策如何防御梯度反演攻击,提出重叠梯度可以在高度易受攻击的全连接层上提供数值抵抗,并通过合适的损失函数和相同标签的批处理最大程度地混合梯度,从而避免了数据泄露的风险,并提出了一个基于绝对变异距离的信息泄露连续统计,最终通过经验结果验证所提出的防御策略对信息恢复有一定的应用。
Apr, 2022
本文利用 PRECODE 技术中的变分建模探究其工作原理,结果发现其随机化的梯度可以防止梯度反演攻击以及需要更少的梯度扰动以有效保护训练数据隐私。
Aug, 2022
该研究提出了一种基于替代模型方法的梯度反演攻击权重更新的方法,从而更好地揭示了Federated Learning中预设的隐私保护固有的弱点,并展示了SOTA表现。
May, 2023
通过使用自适应的损失函数,本研究提出了一种用于梯度逆转攻击的敏感性代理指标,该指标能够更准确地捕捉样本的脆弱性,并为以后在联邦学习中应对多种潜在损失函数的安全问题提供了解决方案。
Dec, 2023
该研究全面研究了联邦学习系统中梯度反演攻击的实际效用,通过对该攻击在实践中的限制进行理论和实证评估,揭示了梯度反演攻击在实际情境下的局限性,并提出了一些有效的防御措施。
Apr, 2024
通过Style Migration Network(GI-SMN)提出了一种新的梯度逆转攻击方法,它打破了以往梯度逆转攻击所做的强假设,在批处理中实现了高相似度的用户数据重建,同时超越了当前的梯度逆转攻击方法和差分隐私防御方法。
May, 2024
该研究论文介绍了一种关于Gradient Inversion Attacks的调查和分类法,强调了联邦学习威胁模型,特别是恶意服务器和客户端情况下的攻击方法和防御策略。
我们研究了扩散模型在生成高分辨率图像数据方面的应用,使用基于梯度的协作训练方法,我们设计了一种融合优化模型(GIDM),以减小梯度反演攻击的风险,并进一步提出了三重优化模型(GIDM+)来解决隐私保护方面的挑战。通过广泛的评估结果,我们发现共享梯度对于扩散模型的数据保护存在漏洞,即使是高分辨率图像也可以被高质量地重建。
本研究解决了联邦学习中梯度重建攻击导致的数据泄露问题。文章提出了一种新的防御方法,通过推导重建误差的理论下界,并定制噪声添加和梯度剪枝策略,以优化数据泄露与模型效用的平衡。实验结果表明,所提出的方法在保护训练数据的同时,实现了更优的模型效用。
Nov, 2024