基于投票的差分隐私联邦学习方法
通过个性化差分隐私框架和考虑各种异构性和属性调整的方法,该论文提出了一种高效地保护隐私的个性化差分隐私框架,并对联邦学习算法的收敛边界进行了分析,同时进一步研究了考虑时间变化的个性化因素的收敛性质。
Jun, 2024
移动设备、隐私、实用性、联邦学习和差分隐私是该研究的主要关键词,研究通过在联邦学习中采用差分隐私的实验环境并使用基准数据集来探讨隐私与实用性之间的平衡问题。
Nov, 2023
本文研究基于联邦学习的隐私保护问题,提出了一种局部差分隐私机制,以解决当前机制存在的噪声数据接近原始值、估计平均数的方差过大和深度学习模型权重维数高导致隐私预算过大的问题。实验结果表明,该机制不仅具有优异的深度学习性能,而且能够提供强大的隐私保证。
Jul, 2020
这篇论文提出了一种新的联邦学习框架,采用随机稀疏化和梯度扰动来增强差分隐私保证,结合加速技术减少隐私代价,并利用 Renyi DP 紧密评估端到端 DP 保证。实验结果验证了该方法在隐私保证和通信效率方面的优于之前的方法。
Aug, 2020
HDP-VFL 是首个联邦学习中差分隐私的框架,实现了模型学习的隐私保护,其效果与非隐私保护的联邦学习相似,并且采用了同态加密和安全多方计算等协议以确保计算和训练的安全。
Sep, 2020
我们展示了在不同类型的数据上,客户端数量和差分隐私机制的增加对模型性能的影响的实证基准,结果显示在分布式和差分隐私设置中,非独立同分布和小数据集的性能降低最为显著。
Feb, 2024
在资源受限的情况下重新考虑差分隐私联邦学习的框架,并分析其在收敛性方面的情况,提出了自适应本地步差分隐私联邦学习 (ALS-DPFL) 算法。通过在 FashionMNIST 和 CIFAR-10 数据集上的实验,相对于以往的工作,我们取得了相当良好的性能。
Aug, 2023
本研究探讨联邦学习在医疗应用中的优势,分析其如何能够解决医疗数据隐私、安全及所有权等挑战,讨论如何通过本地步骤和沟通轮数的调整来进一步提高模型的性能,并提供了理论证明和实验评估的支持。
Apr, 2023
本文提出一种个性化图形联邦学习(PGFL)框架,通过分布式连接的服务器和它们的边缘设备协作学习设备或集群特定的模型,同时维护每个个体设备的隐私,通过利用不同模型之间的相似性,即使在数据分布和不成比例的数据集的情况下也提供更相关的体验。在此基础上,我们研究了一个变量 PGFL 实现,利用差分隐私,特别是零集中差分隐私,其中一个噪声序列扰乱模型的交换。我们的数学分析表明,所提出的支持隐私保护的 PGFL 算法在线性时间内收敛于每个集群的最优集群特定解。同时,我们的分析表明,利用集群之间的相似性会导致另一种输出,其与原始解的距离被限制,这个限制可以通过修改算法的超参数来调整。最后,我们还通过使用合成数据和 MNIST 数据集进行回归和分类的数值实验来检验所提出的 PGFL 算法的性能。
Jun, 2023