用户数据联邦学习的实用安全聚合
Turbo-Aggregate 是一个高效的分布式机器学习模型安全聚合框架,可以在具有 N 个用户的网络中实现安全聚合的开销为 O (NlogN),同时具备一定程度的容错性和用户隐私保护。
Feb, 2020
本文提出了一种高效且具有鲁棒性的安全聚合协议 FastSecAgg,该协议基于快速傅里叶变换的新型多秘密分享方案 FastShare,可在保障数据隐私的同时,显著降低了计算和通信成本。FastSecAgg 可以有效地防范恶意攻击,使得在联邦学习场景下,客户端的模型数据可以更加安全地聚合到服务端进行更新。
Sep, 2020
本研究提出一种具有多轮隐私保障的安全聚合框架,包括一个新的衡量指标来量化联邦学习的隐私保证,并开发了一种结构化的用户选择策略来保证每个用户的长期隐私(在任意数量的训练轮次下),并在 MNIST 和 CIFAR-10 数据集上进行了实验。
Jun, 2021
该论文提出了一个在混淆模型下更高效的隐私安全的聚合协议,可以使得通信量和误差只呈对数级增长,并且采用了一个称为 ' 隐身斗篷 ' 的新技术来实现此目的,该技术可以使得每个数据项与噪声几乎不可区分,同时对总和不会造成任何扭曲。
Jun, 2019
提出使用稀疏随机图而非完全图来设计共享节点拓扑的低复杂度方案,在保证可靠性和隐私性的前提下,相对于现有的安全解决方案大幅度降低了通信 / 计算资源使用量。
Dec, 2020
本文提出了一种基于离散高斯和安全聚合的训练模型方法,以保护私有数据。通过数据量化和添加离散高斯噪音,能够实现通信、隐私和准确性之间的复杂平衡,此方法在少于 16 位精度的情况下几乎能匹配集中式差分隐私的准确性水平。
Feb, 2021
这篇研究论文讨论了在保护用户数据隐私的同时,使用联邦学习和安全聚合对移动设备进行机器学习的方法。其中利用随机旋转和安全聚合技术,使得用户的模型更新能够更有效地量化和保护,从而提高联邦学习的效率和安全。
Nov, 2019
该研究论文探讨了安全聚合在联邦学习中的应用,发现不当使用安全聚合和缺乏参数校验等问题威胁着联邦学习的隐私和数据安全,提出了两种攻击手法,揭示了当前安全聚合在联邦学习领域中的薄弱之处。
Nov, 2021
本文介绍了一个基于轻量级加密和数据混淆的联邦学习系统,结合恰当的带宽效率优化和对云服务器主动攻击的安全保护机制,在保证客户端数据隐私的前提下,整合来自多源的数据进行联合训练,并在多项数据集(MNIST、CIFAR-10、CelebA)上验证该系统的可行性及精度。
Feb, 2022
在这篇论文中,我们通过将其视为每个本地更新的局部差分隐私机制,深入探讨了 SecAgg 的隐私影响。我们设计了一种简单的攻击方式,其中一个对抗性的服务器试图在 SecAgg 下的单一训练轮中辨别客户端提交的两个可能的更新向量之一。通过进行隐私审计,我们评估了该攻击的成功概率,并量化了 SecAgg 提供的局部差分隐私保证。我们的数值结果揭示,与普遍的声明相反,即使在单一的训练轮中,SecAgg 在成员推断攻击方面也提供了较弱的隐私。事实上,当高维度更新时,很难通过添加其他独立的本地更新来隐藏一个本地更新。我们的发现强调了在联邦学习中需要额外的隐私增强机制,比如噪声注入。
Mar, 2024