衡量成员隐私
本文提出了一种名为 “判别性对抗隐私”(DAP)的新型学习技术,该技术通过达到模型性能、速度和隐私之间的平衡来解决 DP 的局限性。DAP 依靠对抗训练,基于一种新的损失函数,该函数能够最小化预测误差并最大化 MIA 的误差。此外,我们引入了一种名为 “准确性隐私权”(AOP)的新指标来捕捉性能 - 隐私权衡。最后,为了验证我们的观点,我们将 DAP 与不同的 DP 情景进行比较,并从性能、时间和隐私保护角度分析结果。
Jun, 2023
本文研究了衡量数据集上 DP 机制对模型隐私保护的能力的新指标 - 隐私覆盖度,并提出了使用该指标排名训练集中样本隐私的方法,进而使用观察到的邻域分布的不可区分性转换来选择 epsilon 值。
Jun, 2023
预训练的基础模型经差分隐私微调可在下游任务中实现接近非隐私分类器的准确性,并且在四个数据集中实现与非隐私技术的准确性相差不多,包括两个医学成像基准数据集。此外,我们的隐私医学分类器在不同人口群体之间没有更大的性能差异。此里程碑使得差分隐私训练成为一项实用且可靠的技术,有潜力广泛应用于敏感数据的安全机器学习训练,同时保护个人隐私。
Aug, 2023
本文研究的 DP-SGD 算法在训练神经网络时,由于梯度裁剪和噪声加法等机制对复杂和少数类样本的影响更大,造成训练模型的准确率不公平,使 DP-SGD 算法不适用于存在不平衡类别数据的训练任务。
May, 2019
本文旨在探究如何使用差分隐私来训练机器学习模型,以 ImageNet 图像分类为例,展示如何使用方法和模型类型来让训练过程更好地进行。我们展示了一些方法,使我们能够使用 DP 来训练一个 ResNet-18,精度为 47.9%。虽然这比 “朴素” 的 DP 训练要好,但是离没有隐私的情况下的 75%精度还有很大的差距。
Jan, 2022
文章介绍了差分隐私的优点及其在交互式查询的数据使用中的应用,同时指出了其局限性,强调需要注意其在个人数据采集、发布以及机器学习等领域中的滥用。
Nov, 2020
我们通过对改进的 DPML 算法的效用和防御能力对成员推断攻击进行了整体度量,在图像分类任务中我们首次提出了具有机器学习生命周期其中改进的分类法的分类体系。我们通过使用实验来表明了 DP 能够有效地抵御成员推断攻击,并且敏感性绑定技术,如每个样本梯度剪辑,在防御中起着重要作用。 标签 DP 算法可以实现较小的效用损失,但对攻击十分脆弱。我们的研究结果可以支持数据拥有者使用 DPMLBench 部署 DPML 算法,并作为研究人员和实践者的基准工具。
May, 2023
通过研究选择性分类器在差分隐私约束下的效果,探讨深度学习模型的可靠性及隐私泄漏问题,发现最近的一种基于现成的深度学习模型生成检查点的方法在差分隐私下更为合适,使用差分隐私不仅会降低模型的效能,而且在隐私预算降低时需要付出相当大的覆盖成本。
May, 2023