ICMLMay, 2024

神经崩溃与差分隐私:NoisyGD 实现近乎完美的表示学习的奇异行为

TL;DR通过在公共数据集上进行预训练的大规模表示学习显著增强下游任务中的差分隐私学习,神经坍塌现象的理论解释,研究不同预训练模型下的特征质量及差分隐私微调的鲁棒性问题,以及采用特征归一化和维度降低方法改善差分隐私微调的策略。