本论文针对联邦学习中的本地模型污染攻击进行了系统研究,经过实验验证,表明该攻击可以显著提高联邦学习方法的误差率,并提出了两种抵御该攻击的方法,需要进一步加强防御。
Nov, 2019
本文研究了联邦学习中的隐私保护问题,提出了一种使用每周期平均梯度进行的属性重构攻击方法,并验证了其在真实数据集上的有效性。
Aug, 2021
本文研究了梯度反演攻击对联邦学习安全和隐私保护的威胁。针对已有的攻击和防御方法,我们发现某些强假设下的攻击可以通过放宽假设来削弱强度。我们评估了三种防御机制的效果和性能开销,发现在适当的方法组合下,攻击可以更加有效地被抵抗。总体而言,我们提供了潜在的应对策略,并且发现目前最新的攻击已经可以通过稍微降低数据效用的方式来抵御。
Nov, 2021
本文提出了一种名为 FedRecover 的方法,可以通过储存全局模型和客户机模型更新的历史信息,利用几种优化策略来恢复准确的全局模型,从而防止对联合学习的攻击。
Oct, 2022
提出FedGrad作为一种新的反对联邦学习中背门攻击的防御机制,能够对边缘情况的背门攻击进行较好的防御,并且在不降低主任务精度的情况下最高可以准确检测到几乎100%的恶意参与者,从而显著降低背门效果,而且相比现有的防御机制,其表现出更好的性能。
Apr, 2023
分散化数据源的联邦学习为学习提供隐私保护,但容易受到恶意客户干扰的模型中毒攻击,因此本文提出了一种名为FedDefender的新客户端防御机制,通过攻击容忍的本地元更新和攻击容忍的全局知识蒸馏两个组件,实现对联邦学习的模型中毒攻击的抵御和知识提取,从而提高其鲁棒性。
Jul, 2023
通过使用自适应的损失函数,本研究提出了一种用于梯度逆转攻击的敏感性代理指标,该指标能够更准确地捕捉样本的脆弱性,并为以后在联邦学习中应对多种潜在损失函数的安全问题提供了解决方案。
Dec, 2023
该研究全面研究了联邦学习系统中梯度反演攻击的实际效用,通过对该攻击在实践中的限制进行理论和实证评估,揭示了梯度反演攻击在实际情境下的局限性,并提出了一些有效的防御措施。
Apr, 2024
该研究论文介绍了一种关于Gradient Inversion Attacks的调查和分类法,强调了联邦学习威胁模型,特别是恶意服务器和客户端情况下的攻击方法和防御策略。
May, 2024
本研究针对联邦学习中恶意客户端的攻击问题,提出了一种基于模型置信度评分的新方法,以评估客户端模型更新的不确定性。该方法能够有效检测和防御数据注入和模型注入攻击,提高了系统的鲁棒性和模型的准确性,对各种攻击类型具有良好的防护效果。
Aug, 2024