Jun, 2024

通过懒惰算法实现私密在线学习

TL;DR我们研究了私密在线学习的问题,特别是专家预测(OPE)和在线凸优化(OCO)。我们提出了一种将惰性在线学习算法转化为私密算法的新方法。我们通过使用现有的惰性算法解决这些问题,将我们的转化应用于差分隐私 OPE 和 OCO。我们的最终算法在高隐私水平 ε≪1 下获得显著改进的后悔,对于 DP-OPE 为√(Tlogd) + (T^(1/3) log (d))/ε^(2/3),对于 DP-OCO 为√T + (T^(1/3)√d)/ε^(2/3)。我们通过对 DP-OPE 进行下界的研究,进一步补充了我们的结果,表明这些速率对于一类自然的低转换私密算法来说是最优的。