本文针对联邦学习系统存在的隐私泄露问题,提出一种学习数据扰动来防止模型逆推攻击的防御策略,实验证明该方法在防御DLG 和 GS攻击的同时能够将数据重构误差提高160倍以上,有效提升联邦学习系统的隐私保护性能。
Dec, 2020
本文研究了在纵向联邦学习中防御输入泄漏攻击的方法,提出了一种基于对抗训练的框架,包含敌对重建、噪声正则化和距离相关性最小化三个模块,此框架能够有效保护输入隐私同时保留了模型的效用。
Jul, 2021
本文研究了联邦学习中的隐私保护问题,提出了一种使用每周期平均梯度进行的属性重构攻击方法,并验证了其在真实数据集上的有效性。
Aug, 2021
本文研究了梯度反演攻击对联邦学习安全和隐私保护的威胁。针对已有的攻击和防御方法,我们发现某些强假设下的攻击可以通过放宽假设来削弱强度。我们评估了三种防御机制的效果和性能开销,发现在适当的方法组合下,攻击可以更加有效地被抵抗。总体而言,我们提供了潜在的应对策略,并且发现目前最新的攻击已经可以通过稍微降低数据效用的方式来抵御。
Nov, 2021
本文探讨本地模型重构攻击对于联邦学习的影响,提出了一种基于模型的特征推理攻击,并在实验中验证了攻击手法的有效性。
Oct, 2022
在分布式学习中,我们提出了一种通过限制传输信息量并应用数据空间操作的渠道模型,以提高数据重构攻击下的隐私保护,验证了方法的有效性。
Mar, 2024
本文研究了分布式学习中的数据重构攻击,并探讨了利用泄露数据进行模型训练和改进的可能性。研究表明,即使重构质量有限或泄露图像数量较少,也可以通过敌意训练模型更准确地使用泄露数据,对于下游训练而言,渐变反转攻击和线性层泄漏攻击存在一定的限制。
该研究论文介绍了一种关于Gradient Inversion Attacks的调查和分类法,强调了联邦学习威胁模型,特别是恶意服务器和客户端情况下的攻击方法和防御策略。
May, 2024
本研究针对联邦学习(FL)中数据重建攻击的理论基础缺失问题,提出了一个理论框架以理解数据重建攻击。该框架通过界定数据重建误差来比较不同攻击的有效性,研究发现iDLG攻击在多个数据集上的表现优于DLG攻击,揭示了联邦学习中的潜在攻击风险。
Aug, 2024
本研究解决了联邦学习中梯度重建攻击导致的数据泄露问题。文章提出了一种新的防御方法,通过推导重建误差的理论下界,并定制噪声添加和梯度剪枝策略,以优化数据泄露与模型效用的平衡。实验结果表明,所提出的方法在保护训练数据的同时,实现了更优的模型效用。
Nov, 2024