Aug, 2024
基于固定大小小批量的差分隐私随机梯度下降:有替换和无替换情况下的更紧RDP保证
Differentially Private Stochastic Gradient Descent with Fixed-Size
Minibatches: Tighter RDP Guarantees with or without Replacement
TL;DR本研究解决了差分隐私随机梯度下降(DP-SGD)在使用固定大小子采样时隐私保障的不紧问题。提出了一种新的Rényi差分隐私账户模型,提供了更好的可计算界限,并证明在采样概率的主导阶数上,Poisson子采样与无替换的固定大小子采样是相同的。最显著的发现表明,固定大小子采样在实践中展现出更低的方差和优越的内存使用效率,因此在许多情况下优于Poisson子采样。