Jul, 2024
非凸复合损失函数中循环采样的差分隐私随机梯度下降的最后迭代的隐私保护
Privacy of the last iterate in cyclically-sampled DP-SGD on nonconvex
composite losses
TL;DR对于最常用的DP-SGD变体,即通过循环替换方式采样批次、进行梯度裁剪并仅发布最后一个DP-SGD迭代,我们在不假设凸性、平滑性或Lipschitz连续性的损失函数的情况下,建立了新的Rényi差分隐私(RDP)界限,假设DP-SGD的步长相对于损失函数中的拓扑常数较小,且损失函数是弱凸的。此外,当目标函数的弱凸参数趋近于零时,我们的界限趋于以前建立的凸界限。对于非Lipschitz平滑的损失函数,我们提供了一种随着DP-SGD迭代次数的扩展良好的界限。