ViP:面向计算机视觉的差分隐私基础模型
在这项工作中,我们通过图像字幕和扩大到互联网规模的多模态数据集,通过一系列的工程技巧,成功地从头开始训练了一个差分隐私图像字幕生成器(DP-Cap),并获得了前所未有的高质量图像特征,可用于各种下游视觉和视觉语言任务。
Mar, 2024
本文旨在探究如何使用差分隐私来训练机器学习模型,以 ImageNet 图像分类为例,展示如何使用方法和模型类型来让训练过程更好地进行。我们展示了一些方法,使我们能够使用 DP 来训练一个 ResNet-18,精度为 47.9%。虽然这比 “朴素” 的 DP 训练要好,但是离没有隐私的情况下的 75%精度还有很大的差距。
Jan, 2022
利用 API 来生成差分隐私合成数据的方法(DPSDA),不需要模型训练,通过 Private Evolution(PE)框架解决了这个问题,在 synthetic images 取得了很好的效果,同样适用于处理像 Stable Diffusion 这样的大型基础模型。
May, 2023
通过使用有限的公共数据,我们提出了一种新颖的差分隐私持续预训练策略,可以显著减轻差分隐私优化器的性能下降问题,并在 ImageNet-21k 上实现 41.5% 的差分隐私准确率(ε=8),以及在下游任务 Places365 和 iNaturalist-2021 上分别达到 55.7% 和 60.0% 的非差分隐私准确率,与当前最先进的标准预训练方法相媲美并且明显优于现有的差分隐私预训练模型。
Feb, 2024
预训练的基础模型经差分隐私微调可在下游任务中实现接近非隐私分类器的准确性,并且在四个数据集中实现与非隐私技术的准确性相差不多,包括两个医学成像基准数据集。此外,我们的隐私医学分类器在不同人口群体之间没有更大的性能差异。此里程碑使得差分隐私训练成为一项实用且可靠的技术,有潜力广泛应用于敏感数据的安全机器学习训练,同时保护个人隐私。
Aug, 2023
利用不同隐私保护方法在深度神经网络上进行私密训练,以实现维度较高的数据生成,并提出统一的方法以提供系统性的派生方法,满足不同用例的需求,探讨不同方法之间的优势、限制和内在相关性以启发未来研究,并提出前进的潜在途径以推动隐私保护学习领域的发展。
Sep, 2023
本文旨在通过比较隐私保护性训练和非隐私训练,在胸部放射图诊断方面评估两种方法的准确性和公平性,研究发现,在隐私预算为 7.89 的情况下,DP 卷积神经网络与非私有卷积神经网络相比,在保持较高准确性的前提下,性能仅下降了 2.6% 左右,同时,隐私保护训练并不会加剧针对年龄、性别或共病的歧视。
Feb, 2023
本文主要研究采用差分隐私保护方法进行深度学习的训练,并在调优超参数以及利用一些技巧来提高信号传播和收敛速度的基础上,在图像分类任务中获得了新的最高精度,证明了采用过参数化模型的 DP-SGD 方法也可以实现更好的性能,这是在私有和非私有图像分类之间精度差距缩小的一个重要步骤。
Apr, 2022