增强稀疏化隐私与自适应优化的联邦学习
本篇论文提出了一种名为 Fed-SMP 的新型差分隐私联邦学习方案,该方案采用 Sparsified Model Perturbation (SMP) 技术,在保持高模型准确性的同时,提供客户端级差分隐私保证,并使用 Renyi DP 提供紧密的隐私分析,并证明了 Fed-SMP 收敛性,通过实验数据证明了 Fed-SMP 提高了模型准确性并同时节省通信成本。
Feb, 2022
通过设计基于随机稀疏化算法的梯度稀疏化联邦学习框架,该框架在无线信道上进行训练,提升了训练效率且不牺牲收敛性能,同时降低了差分隐私所引起的性能下降和无线信道传输参数数量。
Apr, 2023
通过个性化差分隐私框架和考虑各种异构性和属性调整的方法,该论文提出了一种高效地保护隐私的个性化差分隐私框架,并对联邦学习算法的收敛边界进行了分析,同时进一步研究了考虑时间变化的个性化因素的收敛性质。
Jun, 2024
研究了在用户级差分隐私保证下联邦学习模型性能下降的原因,提出了两种技术:有界本地更新规则化和本地更新稀疏化,以提高模型质量。实验证明,我们的框架显著改善了联邦学习在用户级差分隐私保证下的隐私效用权衡。
Mar, 2022
在资源受限的情况下重新考虑差分隐私联邦学习的框架,并分析其在收敛性方面的情况,提出了自适应本地步差分隐私联邦学习 (ALS-DPFL) 算法。通过在 FashionMNIST 和 CIFAR-10 数据集上的实验,相对于以往的工作,我们取得了相当良好的性能。
Aug, 2023
通过梯度扰动和局部平坦模型来提高权重扰动鲁棒性和性能,进而减少感知信息泄露,DP-FedSAM 算法在 DPFL 中达到最先进的性能。
May, 2023
本文研究基于联邦学习的隐私保护问题,提出了一种局部差分隐私机制,以解决当前机制存在的噪声数据接近原始值、估计平均数的方差过大和深度学习模型权重维数高导致隐私预算过大的问题。实验结果表明,该机制不仅具有优异的深度学习性能,而且能够提供强大的隐私保证。
Jul, 2020
移动设备、隐私、实用性、联邦学习和差分隐私是该研究的主要关键词,研究通过在联邦学习中采用差分隐私的实验环境并使用基准数据集来探讨隐私与实用性之间的平衡问题。
Nov, 2023
我们展示了在不同类型的数据上,客户端数量和差分隐私机制的增加对模型性能的影响的实证基准,结果显示在分布式和差分隐私设置中,非独立同分布和小数据集的性能降低最为显著。
Feb, 2024
本研究探讨联邦学习在医疗应用中的优势,分析其如何能够解决医疗数据隐私、安全及所有权等挑战,讨论如何通过本地步骤和沟通轮数的调整来进一步提高模型的性能,并提供了理论证明和实验评估的支持。
Apr, 2023