Nov, 2023
DPSUR: 通过选择性更新和发布加速差分隐私随机梯度下降
DPSUR: Accelerating Differentially Private Stochastic Gradient Descent
Using Selective Update and Release
TL;DRDPSUR是基于选择性更新和发布的差分隐私训练框架,通过评估每次迭代的梯度并只使用导致收敛的更新,实现了比DPSGD更快的收敛速度,实验结果表明DPSUR在收敛速度和模型效用方面明显优于之前的研究成果。