通过健壮聚类减轻联邦学习中差异隐私的不平等影响
采用微分隐私概念,提出一种在模型聚合之前加入人工噪音的差分隐私框架,证明该框架可以在不同保护级别下满足差分隐私。同时,优化了聚合轮数、系统总参与用户数和随机选取的用户数,实现了在不同隐私保护和性能要求下的隐私保护联邦学习算法设计,并通过仿真实验证明了该理论的正确性。
Nov, 2019
本文研究了如何使用差分隐私技术来保护联邦学习中的隐私和鲁棒性,评估了局部差分隐私(LDP)和中心差分隐私(CDP)技术的可行性和有效性。实验证明,这两个差分隐私技术都可以有效防止后门攻击,并且较其他鲁棒性防御更加有效。同时,差分隐私还可以减轻白盒成员推理攻击。然而,这两个技术都无法防御属性推理攻击。
Sep, 2020
DP-FedSAM是一种新的DPFL算法,它利用梯度扰动来减轻DP的负面影响,并整合SAM优化器来生成具有更好稳定性和权重扰动鲁棒性的本地平坦模型,从而提高性能并提供隐私保证。
Mar, 2023
通过梯度扰动和局部平坦模型来提高权重扰动鲁棒性和性能,进而减少感知信息泄露,DP-FedSAM算法在DPFL中达到最先进的性能。
May, 2023
在资源受限的情况下重新考虑差分隐私联邦学习的框架,并分析其在收敛性方面的情况,提出了自适应本地步差分隐私联邦学习(ALS-DPFL)算法。通过在FashionMNIST和CIFAR-10数据集上的实验,相对于以往的工作,我们取得了相当良好的性能。
Aug, 2023
我们展示了在不同类型的数据上,客户端数量和差分隐私机制的增加对模型性能的影响的实证基准,结果显示在分布式和差分隐私设置中,非独立同分布和小数据集的性能降低最为显著。
Feb, 2024
在联邦学习中,差分隐私被用于保护数据隐私和提高模型效用,然而,在具有异质性要求和客户端批次/数据集大小差异的情况下,传统的聚合策略会降低效用。本文提出了一种名为Robust-HDP的方法,通过有效估计客户端模型更新中的噪声水平并显著减少聚合模型更新中的噪声水平,来提高效用和收敛速度,并对客户端的恶意行为进行安全处理。实验结果和理论分析验证了Robust-HDP的有效性。
Jun, 2024
本研究解决了在差分隐私联邦学习(DPFL)中客户隐私需求异质性的问题,该问题影响到客户选择的效率和模型性能。通过对DPFL的收敛性分析,提出了一种基于偏见客户选择的算法(DPFL-BCS),能够有效优化客户选择过程。实验结果表明,DPFL-BCS在模型实用性方面显著优于最先进的基线方法。
Aug, 2024
本研究针对联邦学习中隐私保护不足的问题展开,探讨了现有对于噪声联邦差分隐私分析的局限性。通过引入 f-DP 分析方法,论文证明了 Noisy-FedAvg 方法在隐私保护中的收敛下界,以及 Noisy-FedProx 方法的稳定隐私下界,为联邦学习的隐私保护提供了理论支持,并可推广应用至其他差分隐私分析框架。
Aug, 2024
本研究解决了现有差分隐私联邦学习(DPFL)方法在数据异构环境下模型效用严重下降的问题。我们提出了一种新颖的DPFL方法DP$^2$-FedSAM,结合个性化部分模型共享和敏感度感知最小化优化器,有效提高了模型效用,同时保持隐私保护。实验结果表明,该方法在隐私与效用平衡方面优于现有方法,尤其在异构数据设置中表现突出。
Sep, 2024