Mar, 2024

差分隐私下的联邦迁移学习

TL;DR在这篇论文中,我们以一个联邦迁移学习框架解决了数据异构性和隐私保护这两个突出的挑战,旨在在遵守隐私约束的同时通过利用来自多个异构源数据集的信息来增强目标数据集上的学习能力。我们严格地提出了“联邦差分隐私”的概念,为每个数据集提供隐私保证而不依赖于可信任的中央服务器。在此隐私约束下,我们研究了三个经典的统计问题,即一维均值估计、低维线性回归和高维线性回归。通过研究极小化速率和确定这些问题的隐私成本,我们展示了联邦差分隐私是介于已确立的本地和中央模型差分隐私之间的一个中间隐私模型。我们的分析涵盖了数据异构性和隐私,突出了在联邦学习中二者的基本成本,并强调了跨数据集的知识迁移的好处。