Aug, 2024

通过模型预训练减轻差分隐私联邦学习中的噪声损害

TL;DR本研究解决了差分隐私联邦学习(DPFL)中噪声对模型准确性造成的损害问题。通过首次探索模型预训练在DPFL中的应用,研究表明头部微调(HT)和全微调(FT)方法显著降低了噪声影响,尤其是在隐私预算紧张或模型规模较大时,HT表现更优。这项工作为DPFL的增强和实际应用扩展提供了新视角。