重新审视差分隐私的经验风险最小化问题:更快且更广泛
本文为凸经验风险最小化问题提供了一系列不同的差分隐私算法,并同时给出了相应的下界,且不同的隐私模型需要使用完全不同的算法,这些算法在多项式时间内运行,并且适用于很多简单光滑的函数家族。
May, 2014
本文介绍了隐私保护数据集下Empirical Risk Minimization(ERM)的改进算法——不同ially private ERM Algorithm。该算法通过利用限制条件的几何特性,在Lipschitz、强凸和光滑函数等情况下,提供了更严格的误差上界,并针对稀疏线性回归(LASSO)提出了新的下界。
Nov, 2014
本文提出了一种新算法用于规则经验风险最小化问题,可以使非凸损失函数也能收敛,达到与 QUARTZ 相同的复杂度,同时也能更好地利用数据信息,实现任意小批量的设计。
Jun, 2015
本文综述了不同凸且光滑目标函数的梯度下降算法与输出扰动方法,不仅能达到近乎最优的效用,而且也提高了以前的隐私优化算法的运行时间。同时,对于非凸光滑目标函数,还提出了RRPSGD算法,并附上了隐私保障的收敛性证明。实验表明,我们的算法在效益和运行时间方面始终优于现有方法。
Mar, 2017
本文研究机器学习中的经验风险最小化方法在核支持向量机、核岭回归和神经网络训练等问题上的计算复杂性,并基于复杂理论假设如强指数时间假设,证明了这些问题的条件难度结果。同时,对于许多非凸学习任务中的主要计算负担——经验损失的梯度计算,也给出了类似的难度结果。
Apr, 2017
本研究针对随机凸优化问题的不同隐私算法进行了研究,通过分析算法的稳定性以确保泛化,得出了当参数的情况在实践中最为普遍时,隐私SCO的渐近收敛率与非隐私的SCO相同,即都为1/√n.
Aug, 2019
本文研究了在非交互式局部差分隐私(LDP)模型下经验风险最小化(ERM)问题,利用Bernstein多项式逼近方法和内积多项式逼近技术提出了两种解决高维数据下样本复杂度指数级上升的方法,最终提出了用于学习k维边际查询和平滑查询的(高效的)非交互式局部差分隐私算法。
Nov, 2020
本文研究带有重尾数据的随机凸优化问题,并在差分隐私(DP)约束条件下进行研究。该文提出了一种新的算法用于估计重尾数据的均值,并针对凸损失函数提供了改进的上界。同时,证明了私密随机凸优化的几乎匹配下界,这表明了纯DP和集中DP之间的新分离。
Jun, 2021
在半敏感DP设置下,我们研究了差分隐私(DP)经验风险最小化(ERM)问题,其中只有部分特征是敏感的。我们对DP-ERM的超额风险给出了改进的上界和下界。具体来说,在敏感域的规模方面,我们的错误只在对数多项式尺度上缩放,这比以前的结果在敏感域的规模上多项式缩放有所改进(Ghazi 等人,2021年)。
Jun, 2024