Mar, 2022

带本地正则化和稀疏化的差分隐私联邦学习

TL;DR研究了在用户级差分隐私保证下联邦学习模型性能下降的原因,提出了两种技术:有界本地更新规则化和本地更新稀疏化,以提高模型质量。实验证明,我们的框架显著改善了联邦学习在用户级差分隐私保证下的隐私效用权衡。