Feb, 2024

子采样不是魔法:大批量训练对差分隐私随机优化的作用

TL;DR研究了批量大小对区分隐私随机梯度下降(DP-SGD)中的总梯度方差的影响,旨在理论上解释大批量大小的有用性。发现 DP-SGD 的总梯度方差可以分解为子抽样引起的方差和噪声引起的方差,并证明在迭代次数无限的极限情况下,噪声引起的方差与批量大小无关,而子抽样引起的方差随着批量大小的增加而减小,因此大批量可以减小有效总梯度方差。在实际设置中验证了渐近区域的相关性,并发现在渐近区域之外,总梯度方差随着大批量的增加而进一步减小。还找到了一个足够的条件,表明大批量同样可以减小一个 DP-SGD 迭代的有效随机噪声方差。