Jan, 2024

重审梯度修剪:一种用于抵御梯度攻击的双重实现

TL;DR协作学习是一种分布式学习框架,旨在通过共享梯度更新,保护用户隐私。然而,梯度反演攻击对协作学习构成严重的隐私威胁。现有的防御方法在隐私、效用和效率之间存在着很大的折衷。为了克服现有解决方案的缺点,我们提出了一种新的防御方法,双梯度修剪(DGP),基于梯度修剪,可以提高通信效率,同时保护协作学习的效用和隐私。我们的实验证明,DGP 能够有效地抵御最强大的梯度反演攻击,并在不牺牲模型效用的情况下降低通信成本。