差分隐私对模型准确性影响不一
本文研究机器学习中隐私性与公平性问题中,隐私增强技术可能会加剧模型中的不公平,导致数据中不同群体的差异性迅速增大;通过研究 DPSGD 不公平根源,本文提出一种新方法,通过防止 DPSGD 中梯度错位来降低不公平。
Jun, 2022
通过广泛的评估结果,我们证明不同隐私度对公平性的影响并非单调。相反,我们观察到准确性差异在机器学习过程中添加更多的差分隐私噪声(增强隐私)时初步增加,但在更高隐私水平下通过更多噪声后逐渐减小。此外,通过在差分隐私随机梯度下降机器学习方法中实施梯度剪裁,可以减轻隐私噪声对公平性的负面影响。这种缓和是通过较低的剪裁阈值来调节差异性增长实现的。
Apr, 2024
预训练的基础模型经差分隐私微调可在下游任务中实现接近非隐私分类器的准确性,并且在四个数据集中实现与非隐私技术的准确性相差不多,包括两个医学成像基准数据集。此外,我们的隐私医学分类器在不同人口群体之间没有更大的性能差异。此里程碑使得差分隐私训练成为一项实用且可靠的技术,有潜力广泛应用于敏感数据的安全机器学习训练,同时保护个人隐私。
Aug, 2023
本文主要研究采用差分隐私保护方法进行深度学习的训练,并在调优超参数以及利用一些技巧来提高信号传播和收敛速度的基础上,在图像分类任务中获得了新的最高精度,证明了采用过参数化模型的 DP-SGD 方法也可以实现更好的性能,这是在私有和非私有图像分类之间精度差距缩小的一个重要步骤。
Apr, 2022
本文针对机器学习中的差分隐私引入了『utility-privacy trade-off』,并提出了一种名为 DPSGD-F 的修改版随机梯度下降算法来消除差分隐私对受保护群体的不平等影响,具有『adaptive clipping』的特点。我们的实验证明了群体样本大小和群体剪辑偏差如何影响 DPSGD 中差分隐私的影响,以及 DPSGD-F 中如何采用自适应剪辑来减轻差分隐私造成的不平等影响。
Mar, 2020
本文旨在探究如何使用差分隐私来训练机器学习模型,以 ImageNet 图像分类为例,展示如何使用方法和模型类型来让训练过程更好地进行。我们展示了一些方法,使我们能够使用 DP 来训练一个 ResNet-18,精度为 47.9%。虽然这比 “朴素” 的 DP 训练要好,但是离没有隐私的情况下的 75%精度还有很大的差距。
Jan, 2022
差分隐私随机梯度下降(DP-SGD)是在差分隐私下训练机器学习模型的标准算法,其主要缺点是效用下降和显著的计算成本,我们通过综合实证研究量化了差分隐私下训练深度学习模型的计算成本,并对旨在降低成本的方法进行了基准测试,其中包括更高效的 DP-SGD 实现和使用低精度进行训练,最后我们还研究了使用多达 80 个 GPU 的扩展行为。
Jun, 2024
通过定量研究隐私保护机制差分隐私对机器学习模型公平性的影响,本研究提供了在不同的隐私级别和数据分布下,差分隐私能对模型公平性产生影响的界限,并确定了隐私减少歧视和增加歧视的情况,验证了理论发现在合成和现实世界数据集上的有效性。
May, 2024
本文比较了两种应用差分隐私机制(DP-SGD 和 PATE)训练深度学习模型的公平性表现,结果发现虽然 PATE 也存在公平性问题,但相对于 DP-SGD 影响更小。文章给出了一些可行的解决方向以取得更好的公平 - 隐私权衡。
Jun, 2021
机器学习中公平性和隐私性是两个重要的价值观,通过差分隐私机制来限制个体训练数据对结果模型的影响,但我们发现差分隐私会加剧性别、种族和宗教偏见,而反事实数据增强法可以缓解差分隐私所引发的偏见扩大,因此差分隐私和反事实数据增强法可以同时维护公平性和隐私。
Feb, 2024