Jun, 2024

扩散模型的差分隐私微调

TL;DR在此篇文章中,我们提出了一种为私有扩散模型优化参数效率的微调策略,通过减少可训练参数的数量来增强隐私 - 效用平衡,从而在 DP 合成方面取得了最先进的性能,在广泛研究的数据集上明显超过了先前的基准(如 CelebA-64 数据集上的小隐私预算下,仅有 0.47M 个可训练参数,在先前最先进结果上实现了超过 35% 的改进)。