保护隐私的联邦原始-对偶学习用于模型稀疏化的非凸和非平滑问题
这篇论文提出了一种新的联邦学习框架,采用随机稀疏化和梯度扰动来增强差分隐私保证,结合加速技术减少隐私代价,并利用 Renyi DP 紧密评估端到端 DP 保证。实验结果验证了该方法在隐私保证和通信效率方面的优于之前的方法。
Aug, 2020
本篇论文提出了一种名为 Fed-SMP 的新型差分隐私联邦学习方案,该方案采用 Sparsified Model Perturbation (SMP) 技术,在保持高模型准确性的同时,提供客户端级差分隐私保证,并使用 Renyi DP 提供紧密的隐私分析,并证明了 Fed-SMP 收敛性,通过实验数据证明了 Fed-SMP 提高了模型准确性并同时节省通信成本。
Feb, 2022
本研究介绍了一种名为 FedNew 的新型框架,通过引入两级框架、替换传统方法中需要从客户端传输 Hessian 信息的环节等方式解决了低通信效率、低隐私性等问题,并使用随机量化等方式将通信开销显著降低,在实际数据集上的实验显示出了优于现有方法的性能。
Jun, 2022
提出一个保护机制的通用学习框架,通过扭曲模型参数保护隐私,可以在联合学习中实现个性化的隐私保护与数据价值间的权衡。在理论和实验证明该算法有效,提高了隐私维护的联合学习方法。
May, 2023
Upcycled-FL是一种新颖的联邦学习框架,应用在每个偶数迭代中的一阶逼近,以在保持隐私的同时提高隐私-准确性平衡,并通过引入扰动机制来保护隐私。实验表明,Upcycled-FL在异构数据上持续优于现有方法,并且平均减少48%的训练时间。
Oct, 2023
该论文研究了在分布式样本中进行非参数回归的联邦学习,其中每个样本服务器都遵守不同的差分隐私约束。在考虑到不同服务器的变化样本大小和差分隐私约束的异构设置中,该论文同时考虑了全局和逐点估计,并建立了在Besov空间上的收敛最优速率。通过提出分布式隐私保护估计器并研究其风险性质,该论文还建立了匹配的极小下界,对于全局和逐点估计,在对数因子上与之相符。这些发现揭示了统计准确性与隐私保护之间的权衡,特别是在整个隐私框架中分发数据所带来的损失,除了隐私预算之外。这种洞察力捕捉到了在更大的样本中更容易保持隐私的民间智慧,并探索了在分布式隐私约束下逐点估计和全局估计之间的差异。
Jun, 2024
本文解决了联邦学习中隐私泄露和通信瓶颈的两个主要问题,提出了一种新的算法——差分隐私联邦立方正则牛顿(DP-FCRN)。通过利用二阶技术,该算法在迭代复杂度上优于一阶方法,同时在本地计算中加入噪声扰动以确保隐私,且通过稀疏化传输降低通信成本并增强隐私保证。本研究的重要发现是,新的算法在保护隐私的前提下,降低了所需的噪声强度,并在基准数据集上验证了其有效性。
Aug, 2024
本研究针对联邦学习中隐私保护不足的问题展开,探讨了现有对于噪声联邦差分隐私分析的局限性。通过引入 f-DP 分析方法,论文证明了 Noisy-FedAvg 方法在隐私保护中的收敛下界,以及 Noisy-FedProx 方法的稳定隐私下界,为联邦学习的隐私保护提供了理论支持,并可推广应用至其他差分隐私分析框架。
Aug, 2024
本研究解决了现有差分隐私联邦学习(DPFL)方法在数据异构环境下模型效用严重下降的问题。我们提出了一种新颖的DPFL方法DP$^2$-FedSAM,结合个性化部分模型共享和敏感度感知最小化优化器,有效提高了模型效用,同时保持隐私保护。实验结果表明,该方法在隐私与效用平衡方面优于现有方法,尤其在异构数据设置中表现突出。
Sep, 2024