本文提出了一种自适应的(随机)梯度扰动方法用于差分隐私经验风险最小化,在每次迭代中将添加的随机噪声优化适应于步长;我们将这个过程称为自适应差分隐私(ADP)学习。 通过相同的隐私预算,我们证明了 ADP 方法相比于加入香草随机噪音的标准差分隐私方法,可以显著提高实用保证性能。 我们的方法特别适用于具有时间变化学习率的基于梯度的算法,包括 AdaGrad(Duchi 等,2011)的变体。 我们进行了大量的数字实验,以展示所提出的自适应差分隐私算法的有效性。
Oct, 2021
本文介绍了一种名为 IDP-SGD 的变体 DP-SGD 方法,它支持个性化隐私预算,旨在实现不同用户数据的个性化隐私保护,并通过提高隐私效益权衡的方法得到实证结果。
Mar, 2023
这篇论文通过建立 “迭代的隐私放大” 现象的统一框架,改进了先前分析的方法,有效地量化了差分隐私算法的隐私泄露,并扩展到各种设置和概念中,进而在 strongly convex optimization 领域中实现了第一个精确的隐私分析。
Mar, 2024
本研究提出了一种基于不同隐私的分散式深度学习方法,该方法对协作学习的数据进行隐私保护,保障节点之间数据的安全交换。实验结果表明,在稀疏图和不均匀数据分布下,不同隐私梯度跟踪具有抗干扰性,并且可在不向其他代理共享原始数据的情况下学习高准确性模型。
Jun, 2023
本文提出了一种分布式优化算法,通过引入差分隐私的方法来保护隐私信息,该算法通过加性噪声扰动公共信号,噪声的大小由投向用户指定约束条件的投影运算的灵敏度决定,将它视为随机梯度下降的一种实现,并通过对其次优性的边界估计来评估算法的性能,同时对电动汽车充电场景进行了数值模拟,评估了算法在实践中的使用效果,包括步长的选择、迭代次数以及隐私级别和子优延迟之间的权衡问题。
Nov, 2014
本文提出了动态 DP-SGD 算法,通过动态调整剪裁阈值和噪声幅度来降低性能损失,同时保持隐私,从而显著提高了模型的准确性。
基于个性化采样机制的深度学习 DP-SGD 扩展算法,支持针对不同用户的个性化差分隐私保护,实验证明其性能和效率优于现有的 DP-SGD 和 PDP 机制。
May, 2023
本研究提出了一种基于梯度追踪的本地差分隐私分布式在线学习算法,通过确保严格的本地差分隐私,该算法在均方意义下收敛于精确的最优解,即使在迭代次数趋向无穷的情况下,累积隐私预算也是有限的。在实验中,该算法在多个基准机器学习应用中表现良好,并且在训练和测试准确性方面均优于现有的对应方法。
Oct, 2023
本文研究带有隐私限制的分布式优化问题,即私有分布式优化(PDOP)问题,提出了一类迭代算法来解决该问题,并达到了差分隐私和优化值的收敛,同时分析了算法的准确性和隐私水平与参数之间的关系。
Jan, 2014
本文发展了一种新的 DP-SGD 分析方法,该算法能够更好地处理训练数据集中许多数据点的隐私泄露问题,具有更好的隐私保障,特别是对正确分类的数据点而言。
Jul, 2023