Nov, 2023

满足 KL 条件的差分私有非凸优化及最优速率

TL;DR我们研究基于差分隐私的私有经验风险最小化问题,其中损失函数满足(γ,κ)-Kurdyka-Lojasiewicz 条件。当损失函数是利普希茨且光滑的时候,我们提出了一种基于方差减少梯度下降的新算法,并在超过经验风险的速率达到了几乎最优。当 KL 参数未知时,我们对噪声梯度下降算法进行了修改和分析,并证明了该算法在适应性上的性能几乎最优。同时,我们还展示了在不假设 KL 条件的情况下,同样的梯度下降算法可以以快速的收敛速度逼近利普希茨、光滑(甚至非凸)目标的驻点。