提出一种新的联邦学习方法,利用预训练模型作为本地模型的骨架,使用完全连接的层组成头部来解决客户端数据分布和计算资源不同的问题,在客户端之间共享类别的嵌入向量,采用加噪声的隐私保护混合方法来保护隐私,最后在自建车辆数据集上进行全面评估。
Jan, 2023
提出了一种新的算法,通过差分隐私保护的联邦优化算法来处理联邦学习中的差分攻击问题,能够在只牺牲模型性能的小量代价下保持客户端差分隐私。
Dec, 2017
本文讨论分布式数据的非 IID 性质及其对联邦学习的训练造成的影响,同时对联邦学习与典型集中式梯度下降技术的不同之处进行比较,并在实践中演示样品数量和输出标签分布对联邦学习的影响。此外,本文证明了在模型大小不太大的情况下使用联邦学习框架具有成本优势。
Feb, 2022
本文讨论了联邦学习的隐私保护机制,分析了非独立同分布数据对水平和垂直联邦学习中参数和非参数机器学习模型的影响,概括了当前解决非独立同分布数据挑战的方法,并讨论了这些方法的优缺点。最后,提出了研究方向。
Jun, 2021
研究采用安全的联邦学习方法,提出了一种应对非独立同分布挑战的方法,并将差分隐私与混沌加密进行了比较。实验表明,联邦深度学习模型在差分隐私的保护下,在独立同分布和非独立同分布数据的情况下都能提高深度神经网络的平均性能度量。
Feb, 2024
本研究提出了一种新的基于分布式差分隐私的隐私保护联合学习方法,其可以有效避免联合攻击,以及 “Sybil” 攻击,并给出了相应的安全性证明。在模拟的 5000 个分布式网络客户端上的实验结果表明,该协议执行速度快,学习准确率高,且具有良好的隐私保护性能。
本文提供了一种系统的概述和分类,涵盖了联邦学习的现有安全挑战以及针对数据污染,推断攻击和模型毒化攻击的防御技术。此外,还探讨了处理非独立同分布数据、高维度问题和异构架构的联邦学习的当前训练挑战,并提出了解决相关挑战的几种解决方案。最后,我们讨论了联邦学习训练中剩余的挑战,并提出了针对开放问题的研究方向建议。
Apr, 2022
本文着重研究了在本地数据不 IID 的情况下联邦学习面临的统计挑战,提出了一个使用全局数据子集来提高非 IID 数据训练准确性的解决方案,并通过实验表明,使用仅占 5%的全局数据子集就可以将 CIFAR-10 数据集的准确性提高 30%。
Jun, 2018
在隐私领域,通过联邦协同训练和共享标签实现保护敏感数据的查探,提高模型质量并保护隐私免受常见的成员推理攻击。
Oct, 2023
本文调查了针对非独立同分布数据的个性化联邦学习的研究,此技术可让多方参与联合学习,从而达到隐私保护的目的。
Mar, 2020