Jan, 2024

分层联邦学习中的差分隐私:形式化分析与评估

TL;DR在该研究中,我们提出了差分私有分层联邦学习(DP-HFL),这是一种增强了隐私 - 效用权衡的联邦学习方法。通过在已建立的联邦学习层次结构的不同层级(边缘设备、边缘服务器和云服务器)上根据特定子网络的信任模型进行差分隐私噪声注入,我们对 DP-HFL 的收敛行为进行了全面分析,并揭示了收敛行为的参数调整条件,这些条件决定了模型训练过程收敛到一个静止间隙情况的速度,此间隙依赖于网络层次结构、信任模型和目标隐私水平。随后的数值评估表明,DP-HFL 在不同隐私预算下提高了收敛速度,并验证了网络配置对训练的影响。