LightSecAgg: 一种轻量级通用的用于联邦学习安全聚合的设计
Turbo-Aggregate是一个高效的分布式机器学习模型安全聚合框架,可以在具有N个用户的网络中实现安全聚合的开销为O(NlogN),同时具备一定程度的容错性和用户隐私保护。
Feb, 2020
本文提出了一种高效且具有鲁棒性的安全聚合协议FastSecAgg,该协议基于快速傅里叶变换的新型多秘密分享方案FastShare,可在保障数据隐私的同时,显著降低了计算和通信成本。FastSecAgg可以有效地防范恶意攻击,使得在联邦学习场景下,客户端的模型数据可以更加安全地聚合到服务端进行更新。
Sep, 2020
本研究提出一种具有多轮隐私保障的安全聚合框架,包括一个新的衡量指标来量化联邦学习的隐私保证,并开发了一种结构化的用户选择策略来保证每个用户的长期隐私(在任意数量的训练轮次下),并在MNIST和CIFAR-10数据集上进行了实验。
Jun, 2021
该研究论文探讨了安全聚合在联邦学习中的应用,发现不当使用安全聚合和缺乏参数校验等问题威胁着联邦学习的隐私和数据安全,提出了两种攻击手法,揭示了当前安全聚合在联邦学习领域中的薄弱之处。
Nov, 2021
本文介绍了一个基于轻量级加密和数据混淆的联邦学习系统,结合恰当的带宽效率优化和对云服务器主动攻击的安全保护机制,在保证客户端数据隐私的前提下,整合来自多源的数据进行联合训练,并在多项数据集(MNIST、CIFAR-10、CelebA)上验证该系统的可行性及精度。
Feb, 2022
本文研究了在联合学习中,如果服务端是恶意的但试图获得私人数据,会面临什么样的安全聚合漏洞,并提供了一种进一步防御此类恶意服务器的方法,并展示了防御针对已知攻击的有效性。
Nov, 2022
在联邦学习中,通过攻击聚合更新的方法进行数据泄漏,而过去的工作都将聚合更新视为一个更大的batch,由此导致了一定的资源开销。该研究提出了从多个单独的更新数据中攻击聚合数据的角度,并引入了稀疏性的概念,以减少模型大小和计算时间的开销以及维持77%的泄漏率。
Mar, 2023
FL解决隐私攻击的communication-efficient的secure aggregation方案Fluent,实验结果显示Fluent提高了普通客户端的计算成本至少75%,通信开销至少25%,并通过引入动态客户端加入提升了系统的灵活性和可扩展性。
Mar, 2024
通过对基于梯度的模型重建技术与Shapley值的贡献计算进行稳定性分析,本研究提出了FedRandom作为一种更公平分布的可行聚合技术,它不仅可以提高贡献评估的准确性,而且能够增强联邦学习系统的整体公平性和稳定性,尤其适用于参与者数量有限的联邦网络。
May, 2024