Apr, 2024
联邦学习隐私攻击效率研究
On the Efficiency of Privacy Attacks in Federated Learning
TL;DR在这项研究中,我们从效率的角度研究了联邦学习中的隐私攻击,并提出了一种提高联邦学习中隐私攻击效率的框架(EPAFL)。通过系统评估代表性的联邦学习隐私攻击的计算成本,我们发现有很高的优化效率的潜力。我们还提出了三种早停技术来有效地减少这些隐私攻击的计算成本。在基准数据集上进行的实验表明,我们提出的方法可以显著降低计算成本,并保持与现有联邦学习隐私攻击方法相当的攻击成功率。我们把代码放在GitHub上,链接在这个URL中。