Feb, 2024

具有有限公共数据的差分隐私模型的预训练

TL;DR通过使用有限的公共数据,我们提出了一种新颖的差分隐私持续预训练策略,可以显著减轻差分隐私优化器的性能下降问题,并在ImageNet-21k上实现41.5%的差分隐私准确率(ε=8),以及在下游任务Places365和iNaturalist-2021上分别达到55.7%和60.0%的非差分隐私准确率,与当前最先进的标准预训练方法相媲美并且明显优于现有的差分隐私预训练模型。