跨领域用户级差分隐私的联邦学习 ULDP-FL
本研究探讨了分布式学习中的隐私保护问题,在特定的跨场景环境下,提出了基于局部数据交叉学习的个性化学习框架,并给出了实验证明其在隐私保护和数据异质性之间的平衡效果。
Jun, 2022
本文探讨了交叉跨层联合学习中数据隐私保护的问题,提出了基于 ISRL-DP 的加速算法,并在分类和回归任务中展示了较好的隐私 - 准确性平衡。
Jun, 2021
我们探索了记录级个性化差分隐私的跨域 FL 的未知领域,提出了一个名为 rPDP-FL 的新框架,采用两阶段混合抽样方案,通过客户端级别和非均匀记录级别抽样来满足不同的隐私需求。我们介绍了一个名为 Simulation-CurveFitting 的多功能解决方案,通过揭示 q 和 ε 之间的非线性相关性并推导出一个优雅的数学模型来解决问题。我们的评估表明,相比不考虑个性化隐私保护的基线,我们的解决方案可以提供显著的性能提升。
Jan, 2024
移动设备、隐私、实用性、联邦学习和差分隐私是该研究的主要关键词,研究通过在联邦学习中采用差分隐私的实验环境并使用基准数据集来探讨隐私与实用性之间的平衡问题。
Nov, 2023
通过个性化差分隐私框架和考虑各种异构性和属性调整的方法,该论文提出了一种高效地保护隐私的个性化差分隐私框架,并对联邦学习算法的收敛边界进行了分析,同时进一步研究了考虑时间变化的个性化因素的收敛性质。
Jun, 2024
这篇论文提出了一种新的联邦学习框架,采用随机稀疏化和梯度扰动来增强差分隐私保证,结合加速技术减少隐私代价,并利用 Renyi DP 紧密评估端到端 DP 保证。实验结果验证了该方法在隐私保证和通信效率方面的优于之前的方法。
Aug, 2020
本文研究了如何使用差分隐私技术来保护联邦学习中的隐私和鲁棒性,评估了局部差分隐私(LDP)和中心差分隐私(CDP)技术的可行性和有效性。实验证明,这两个差分隐私技术都可以有效防止后门攻击,并且较其他鲁棒性防御更加有效。同时,差分隐私还可以减轻白盒成员推理攻击。然而,这两个技术都无法防御属性推理攻击。
Sep, 2020
在该研究中,我们提出了差分私有分层联邦学习(DP-HFL),这是一种增强了隐私 - 效用权衡的联邦学习方法。通过在已建立的联邦学习层次结构的不同层级(边缘设备、边缘服务器和云服务器)上根据特定子网络的信任模型进行差分隐私噪声注入,我们对 DP-HFL 的收敛行为进行了全面分析,并揭示了收敛行为的参数调整条件,这些条件决定了模型训练过程收敛到一个静止间隙情况的速度,此间隙依赖于网络层次结构、信任模型和目标隐私水平。随后的数值评估表明,DP-HFL 在不同隐私预算下提高了收敛速度,并验证了网络配置对训练的影响。
Jan, 2024
我们展示了在不同类型的数据上,客户端数量和差分隐私机制的增加对模型性能的影响的实证基准,结果显示在分布式和差分隐私设置中,非独立同分布和小数据集的性能降低最为显著。
Feb, 2024