带辅助信息的私有自适应优化
本文提出了 ADADP 算法,该算法是一种自适应且具有可证明隐私保证的学习算法,通过引入自适应噪声以及自适应学习率,显著降低了隐私成本并减轻了差分隐私对模型准确性的负面影响。ADADP 在真实数据集上的实验结果表明,它在隐私成本和模型准确性方面都优于最先进的具有差分隐私的方法。
Dec, 2019
本文提出了一种自适应的(随机)梯度扰动方法用于差分隐私经验风险最小化,在每次迭代中将添加的随机噪声优化适应于步长;我们将这个过程称为自适应差分隐私(ADP)学习。 通过相同的隐私预算,我们证明了 ADP 方法相比于加入香草随机噪音的标准差分隐私方法,可以显著提高实用保证性能。 我们的方法特别适用于具有时间变化学习率的基于梯度的算法,包括 AdaGrad(Duchi 等,2011)的变体。 我们进行了大量的数字实验,以展示所提出的自适应差分隐私算法的有效性。
Oct, 2021
本文提出了一个基于模拟退火算法的差分隐私随机梯度下降(SA-DPSGD)方案,该方案通过对候选更新进行概率筛选,使得梯度下降朝着正确方向进行,并最终获得更准确的模型。在 MNIST、FashionMNIST 和 CIFAR10 数据集上进行的实验结果表明,与现有方法相比,本文提出的方案更为有效。
Nov, 2022
本文研究了在差分隐私约束下的线性回归问题,恢复了特征、标签和系数域在优化误差和估计误差中的正确依赖性,并提出了两种简单修改的差分隐私算法:后验采样和充足统计扰动,并展示它们可升级为能针对每个实例利用数据相关量并行为几乎最优的自适应算法。作者在 36 个数据集上进行了广泛的实验,结果表明两种自适应算法优于现有技术。
Mar, 2018
研究不同 ially private (DP) 算法在随机非凸优化中的应用,通过提供对私有梯度法的分析,提出了 DP RMSProp 和 DP Adam 等最佳算法来达成更快的收敛速度,在两个流行的深度学习任务中,证明了 DP 自适应梯度法比标准的 DP SGD 更具有优势。
Jun, 2020
DPAdapter 是一种创新技术,通过增强参数的稳健性,提高了差分隐私机器学习算法的模型性能。实验证明,使用 DPAdapter 结合现有的 DPML 算法可以显著提高其平均准确率,从 72.92% 提升至 77.09%,并保持一个隐私预算 ε=4。
Mar, 2024
AdaMix 是一种自适应差分隐私算法,用于使用私有和公共图像数据训练深度神经网络分类器。它采用 few-shot training 和 zero-shot learning 来解决视觉分类中的隐私和准确性之间的权衡问题,并提供强大的理论隐私保证和收敛分析。
Mar, 2022
介绍了一种新的混合自动微分系统,可用于推理隐私损失,并进一步开发自动灵敏度分析和隐私预算系统,在统计数据库查询和 DP 神经网络的训练中具有良好的应用前景。
Jul, 2021
本研究提出了一种基于不同隐私的分散式深度学习方法,该方法对协作学习的数据进行隐私保护,保障节点之间数据的安全交换。实验结果表明,在稀疏图和不均匀数据分布下,不同隐私梯度跟踪具有抗干扰性,并且可在不向其他代理共享原始数据的情况下学习高准确性模型。
Jun, 2023