FedLog: 个性化联邦分类在通信更少和灵活性更高的情况下
本文提出了一种结合差分隐私和安全多方计算的联邦学习方法,在保证训练和最终模型的隐私性的同时,也能够保持较高的预测准确率,这个系统不仅能应用于多种机器学习模型的训练,而且在实验上验证了它的优越性。
Dec, 2018
本篇论文提出了一种名为 Fed-SMP 的新型差分隐私联邦学习方案,该方案采用 Sparsified Model Perturbation (SMP) 技术,在保持高模型准确性的同时,提供客户端级差分隐私保证,并使用 Renyi DP 提供紧密的隐私分析,并证明了 Fed-SMP 收敛性,通过实验数据证明了 Fed-SMP 提高了模型准确性并同时节省通信成本。
Feb, 2022
本文详细阐述了联邦学习的体系结构、应用问题、算法设计原则和安全问题,提出了一种更加通用的算法设计框架、攻击场景和防御方法,致力于将联邦学习与真实世界应用相集成并实现高性能、隐私保护和安全性。
Feb, 2023
通过从新的角度,即什么在联邦学习中共享,以模型效用、隐私泄露和通信效率为重点,系统调查了联邦学习方法的新分类、隐私攻击的脆弱性以及不同共享方法的性能与隐私保护的效力,并讨论了当前方法存在的潜在缺陷和未来改进的方向。
Jul, 2023
通过提出联邦私有局部训练算法(Fed-PLT),本文解决了联邦学习中昂贵的通信和隐私保护等挑战,通过局部参与和训练,在中央协调员和计算代理之间显著减少通信轮次,实现了局部训练对准确性的无影响匹配。同时,代理具有从不同局部训练求解器中选择的灵活性,如(随机)梯度下降和加速梯度下降,还探讨了如何利用局部训练来增强隐私,并推导了差分隐私边界及其与局部训练轮次的依赖关系,通过理论分析和分类任务的数值结果与其他技术进行比较,评估了所提算法的有效性。
Mar, 2024
FedMap是一种新颖的方法,通过协作学习逐渐稀疏全局模型,从而提高联邦学习系统的通信效率,适用于对隐私至关重要的医疗和金融领域。它采用迭代的振幅剪枝方法训练全局模型,以减少通信开销,避免了参数重新激活问题,实现了稳定的性能表现。FedMap在多样的设置、数据集、模型架构和超参数中进行了广泛评估,证明了在IID和非IID环境下的性能,并相较于基线方法,FedMap能够达到更稳定的客户端模型性能,并在不降低准确性的情况下至少实现80%的剪枝。
Jun, 2024
本研究针对联邦学习中隐私保护不足的问题展开,探讨了现有对于噪声联邦差分隐私分析的局限性。通过引入 f-DP 分析方法,论文证明了 Noisy-FedAvg 方法在隐私保护中的收敛下界,以及 Noisy-FedProx 方法的稳定隐私下界,为联邦学习的隐私保护提供了理论支持,并可推广应用至其他差分隐私分析框架。
Aug, 2024
本研究旨在解决传统联邦学习方法未能有效应对全局长尾数据的类别偏差问题,从而导致模型在处理头类别时忽视尾类别。我们提出了一种新方法FedLF,通过自适应Logit调整、连续类中心优化和特征去相关来优化本地训练阶段,实验证明该方法能够有效缓解数据异构性和长尾分布导致的模型性能下降。
Sep, 2024