本文研究了联邦学习中的隐私保护问题,提出了一种使用每周期平均梯度进行的属性重构攻击方法,并验证了其在真实数据集上的有效性。
Aug, 2021
本文研究了梯度反演攻击对联邦学习安全和隐私保护的威胁。针对已有的攻击和防御方法,我们发现某些强假设下的攻击可以通过放宽假设来削弱强度。我们评估了三种防御机制的效果和性能开销,发现在适当的方法组合下,攻击可以更加有效地被抵抗。总体而言,我们提供了潜在的应对策略,并且发现目前最新的攻击已经可以通过稍微降低数据效用的方式来抵御。
Nov, 2021
该研究提出了一种名为Client-side poisoning Gradient Inversion (CGI)的新攻击方法,旨在从聚合的全局模型中恢复训练样本,展示了在有限知识的客户端对聚合全局模型进行恶意操纵的可行性,并且具备对拜占庭-鲁棒聚合规则的隐蔽性。
Sep, 2023
该综述论文对恶意攻击的联邦学习进行了全面的研究,从攻击来源和目标的新视角进行分类,并深入剖析了其方法和影响。文章对以数据攻击模型、模型攻击数据、模型与模型攻击以及复合攻击为类型的威胁模型进行了讨论,并提出了各种防御策略及其效果、假设和潜在改进方向。作者研究表明,在联邦学习系统的不同阶段,可操纵的学习数据、学习梯度和学习模型的恶意攻击日益增多,其影响范围涵盖了破坏模型性能、重构本地私有数据和注入后门等。此文献综述全面了解当前联邦学习威胁形势,并强调了开发稳健、高效和保护隐私的防御措施对于确保联邦学习在实际应用中的安全与可信采纳的重要性。
Nov, 2023
该研究通过增强攻击方法,在不同批次大小和模型上持续超越之前的最先进结果,提高文本分类任务中的隐私攻击恢复率。
Dec, 2023
在这项工作中,我们提出了一种针对联邦学习环境中的强力重构攻击,该攻击重构了中间特征,并且与大多数先前的方法相比,集成且表现更好。我们在这种更强力的攻击上进行了深入的理论和实证研究,发现梯度剪裁是针对最先进攻击的最有效策略。
Feb, 2024
本文研究了分布式学习中的数据重构攻击,并探讨了利用泄露数据进行模型训练和改进的可能性。研究表明,即使重构质量有限或泄露图像数量较少,也可以通过敌意训练模型更准确地使用泄露数据,对于下游训练而言,渐变反转攻击和线性层泄漏攻击存在一定的限制。
Mar, 2024
该研究全面研究了联邦学习系统中梯度反演攻击的实际效用,通过对该攻击在实践中的限制进行理论和实证评估,揭示了梯度反演攻击在实际情境下的局限性,并提出了一些有效的防御措施。
Apr, 2024
通过Style Migration Network(GI-SMN)提出了一种新的梯度逆转攻击方法,它打破了以往梯度逆转攻击所做的强假设,在批处理中实现了高相似度的用户数据重建,同时超越了当前的梯度逆转攻击方法和差分隐私防御方法。
May, 2024
本研究解决了联邦学习中隐私攻击有效性的问题,尽管已有多种攻击算法,但是否能在现实环境中有效提取用户私密数据仍不确定。通过对相关文献的分析和在真实联邦学习环境中的实验,我们发现目前的隐私攻击算法在实际应用中难以突破用户数据隐私,这表明隐私攻击的难度超出预期。
Sep, 2024