May, 2023
随机梯度下降噪声的隐私泄露可能会收敛,即使对于非凸损失函数
Privacy Loss of Noisy Stochastic Gradient Descent Might Converge Even for Non-Convex Losses
Shahab Asoodeh, Mario Diaz
TL;DR本文研究了 DP-SGD 算法在限制梯度影响的条件下,对于具有省略凸性和平滑性假设的损失函数,随着迭代次数的增加,其隐私泄露的收敛速度是指数级的。同时,文章还分析了非正则 DP-SGD 的隐私损失。