DP-SGD 的隐私程度如何?
基于个性化采样机制的深度学习 DP-SGD 扩展算法,支持针对不同用户的个性化差分隐私保护,实验证明其性能和效率优于现有的 DP-SGD 和 PDP 机制。
May, 2023
使用差分隐私的 Follow-The-Regularized-Leader(DP-FTRL)是一种比 DP-SGD 更加灵活的模型训练方法,在隐私、准确性和计算方面表现都很好,特别适用于联邦学习等实际场景,同时也不需要使用任何隐私扩展。
Feb, 2021
本文发展了一种新的 DP-SGD 分析方法,该算法能够更好地处理训练数据集中许多数据点的隐私泄露问题,具有更好的隐私保障,特别是对正确分类的数据点而言。
Jul, 2023
本文提出了一个基于模拟退火算法的差分隐私随机梯度下降(SA-DPSGD)方案,该方案通过对候选更新进行概率筛选,使得梯度下降朝着正确方向进行,并最终获得更准确的模型。在 MNIST、FashionMNIST 和 CIFAR10 数据集上进行的实验结果表明,与现有方法相比,本文提出的方案更为有效。
Nov, 2022
本文介绍了一种分布式协议,称为随机签到分布式协议,它可用于联合学习等环境中的差分隐私随机梯度下降,在隐私和准确性之间实现了权衡,并且不需要服务器发起通信或了解总体规模。同时,作者还扩展了隐私放大技术,以在使用数量更少的用户数据时提供相似的隐私保护和效用。
Jul, 2020
差分隐私随机梯度下降(DP-SGD)是在差分隐私下训练机器学习模型的标准算法,其主要缺点是效用下降和显著的计算成本,我们通过综合实证研究量化了差分隐私下训练深度学习模型的计算成本,并对旨在降低成本的方法进行了基准测试,其中包括更高效的 DP-SGD 实现和使用低精度进行训练,最后我们还研究了使用多达 80 个 GPU 的扩展行为。
Jun, 2024
本文着重研究了隐私预算的问题,提出了一套训练范式,通过调整噪声比例,使更多的噪声能被纳入隐私预算,从而在保护隐私和维护计算效用之间提供一种更好的平衡方案。
Oct, 2021
本文提出了 DP-SGD-JL 和 DP-Adam-JL,使用 Johnson-Lindenstrauss 投影来快速逼近每个样本的梯度范数,从而使优化器的训练时间和内存需求接近于其非 DP 版本,在 IMDb 数据集上实现了好的隐私与准确性折衷,并且隐私分析使用 Dong 等人提出的 f-DP 框架来证明。
Feb, 2021
我们提出了一种新的差分隐私算法,叫做加速差分隐私随机递归梯度下降(Accelerated-DP-SRGD),它能够在只对当前步骤的新信息进行隐私代价计算的情况下实现最优 DP - 随机凸优化(DP-SCO)错误,通过仅使用数据集上的单个时期并以 Nesterov 的加速速率收敛,解决了从 DP 持续计数中生成相关噪声的问题,最后还展示了我们的算法在 MNIST 和 CIFAR-10 上对多类逻辑回归的优越性。
Jun, 2024