本文着重研究了隐私预算的问题,提出了一套训练范式,通过调整噪声比例,使更多的噪声能被纳入隐私预算,从而在保护隐私和维护计算效用之间提供一种更好的平衡方案。
Oct, 2021
本文提出了动态 DP-SGD 算法,通过动态调整剪裁阈值和噪声幅度来降低性能损失,同时保持隐私,从而显著提高了模型的准确性。
本文探讨了确保差分隐私的两个算法 DP-SGD 和 DP-NSGD,并在非凸优化设定下分析了这两种算法的收敛行为及其梯度范数的速度,同时介绍了 DP-NSGD 的正则化因子如何控制偏差和噪声的平衡。
Jun, 2022
使用小批量随机梯度下降(SGD)训练深度神经网络(DNNs)相对于大批量训练具有卓越的测试性能。这种随机梯度下降的特定噪声结构被认为是导致这种隐式偏差的原因。使用差分隐私(DP)确保 DNN 的训练时,DP-SGD 会向截断梯度添加高斯噪声。然而,大批量训练仍然导致显著的性能下降,这构成了一个重要的挑战,因为强 DP 保证需要使用大规模批次。我们首先展示这种现象也适用于无噪声 SGD(无截断的 DP-SGD),表明随机性(而不是截断)是这种隐式偏差的原因,即使加入了额外的各向同性高斯噪声。我们在线性最小二乘和对角线线性网络设置中理论上分析了连续版本的无噪声 SGD 所得到的解,并揭示了隐式偏差确实被额外的噪声放大。因此,大批量 DP-SGD 训练的性能问题根源于 SGD 的相同潜在原则,为大批量训练策略的潜在改进提供了希望。
Feb, 2024
这篇论文通过建立 “迭代的隐私放大” 现象的统一框架,改进了先前分析的方法,有效地量化了差分隐私算法的隐私泄露,并扩展到各种设置和概念中,进而在 strongly convex optimization 领域中实现了第一个精确的隐私分析。
Mar, 2024
通过利用当前全局模型及其在搜索域中的位置的公共信息,我们提出了一种新方法来缓解传统梯度剪裁带来的偏差,从而实现了改进的梯度界限,进一步确定了灵敏度并调整了噪声水平,提供更好的差异性隐私保证,并进行了实证评估。
Oct, 2023
本文发展了一种新的 DP-SGD 分析方法,该算法能够更好地处理训练数据集中许多数据点的隐私泄露问题,具有更好的隐私保障,特别是对正确分类的数据点而言。
Jul, 2023
使用差分隐私和加噪声的方法对机器学习模型进行训练,通过对模型的权重添加噪声来实现隐私和效用的平衡,并通过实验证明了该方法的有效性,为在实际场景中部署差分隐私模型提供了一种实用的替代方案。
Jun, 2024
基于个性化采样机制的深度学习 DP-SGD 扩展算法,支持针对不同用户的个性化差分隐私保护,实验证明其性能和效率优于现有的 DP-SGD 和 PDP 机制。
May, 2023
基于 Spectral-DP 的差分隐私深度学习方法在训练和迁移学习设置中表现出一致更好的效果。