Nov, 2023

DPSUR: 通过选择性更新和发布加速差分隐私随机梯度下降

TL;DRDPSUR 是基于选择性更新和发布的差分隐私训练框架,通过评估每次迭代的梯度并只使用导致收敛的更新,实现了比 DPSGD 更快的收敛速度,实验结果表明 DPSUR 在收敛速度和模型效用方面明显优于之前的研究成果。