隐私成本:具有差分隐私的参数估计的最佳收敛速率
本研究探讨了差分隐私的统计估计问题,并且提出了差分隐私比较准确的估计方法,其中加入了随机噪声以提高数据的隐私保护性,同时也介绍了Gross Error Sensitivity,将其与差分隐私紧密联系。
Jun, 2012
本文研究在隐私模型下的统计风险最小化问题,针对局部隐私框架,确定了统计估计过程的收敛速率上下限,并展示了数据保留隐私量与任何统计估计器或学习程序的收敛速率之间的精确权衡。
Oct, 2012
本文研究了在差分隐私约束下的线性回归问题,恢复了特征、标签和系数域在优化误差和估计误差中的正确依赖性,并提出了两种简单修改的差分隐私算法:后验采样和充足统计扰动,并展示它们可升级为能针对每个实例利用数据相关量并行为几乎最优的自适应算法。作者在36个数据集上进行了广泛的实验,结果表明两种自适应算法优于现有技术。
Mar, 2018
本研究在高维度背景下研究差分隐私的均值估计问题,通过将高维度鲁棒统计的结果应用到差分隐私中,提出了一种计算可行的算法,能够在高维度下完成差分隐私的均值估计,并且在人工合成数据集上表现出了优异的性能。
Jun, 2020
使用构建的差分隐私版本的梯度下降算法,针对低维和高维稀疏广义线性模型提出参数估计,通过表征统计学性能和建立GLMs的隐私约束极小值下界来显示所提算法的近乎速率最优性。
Nov, 2020
本文研究了用户级差分隐私下的高维度平均值估计,提供了用户数量与每个用户所需样本数量之间的最优权衡,并设计了一个(ε,δ)-差分隐私机制,即使当用户数量与δ的对数之积很小时也能保证隐私安全,同时与维度无关,适用于学习离散分布以及其它问题。
Oct, 2021
本文提出了一种用于稀疏鲁棒回归问题的快速隐私保护学习解决方案,其中学习损失包括鲁棒最小绝对值损失和$l_1$稀疏惩罚项。为了快速解决给定隐私预算下的非光滑损失,我们开发了一种名为FRAPPE的算法,通过将稀疏LAD问题重新表述为带惩罚的最小二乘估计问题,并采用三阶段噪声注入来保证$(\epsilon,\delta)$-差分隐私。实验证明,与现有隐私保护回归算法相比,我们的算法在隐私和统计准确性的权衡上取得了更好的性能。
Jan, 2024