通过模型不一致性规避联邦学习中的安全聚合
本文研究了在联合学习中,如果服务端是恶意的但试图获得私人数据,会面临什么样的安全聚合漏洞,并提供了一种进一步防御此类恶意服务器的方法,并展示了防御针对已知攻击的有效性。
Nov, 2022
本研究提出一种具有多轮隐私保障的安全聚合框架,包括一个新的衡量指标来量化联邦学习的隐私保证,并开发了一种结构化的用户选择策略来保证每个用户的长期隐私(在任意数量的训练轮次下),并在 MNIST 和 CIFAR-10 数据集上进行了实验。
Jun, 2021
在这篇论文中,我们通过将其视为每个本地更新的局部差分隐私机制,深入探讨了 SecAgg 的隐私影响。我们设计了一种简单的攻击方式,其中一个对抗性的服务器试图在 SecAgg 下的单一训练轮中辨别客户端提交的两个可能的更新向量之一。通过进行隐私审计,我们评估了该攻击的成功概率,并量化了 SecAgg 提供的局部差分隐私保证。我们的数值结果揭示,与普遍的声明相反,即使在单一的训练轮中,SecAgg 在成员推断攻击方面也提供了较弱的隐私。事实上,当高维度更新时,很难通过添加其他独立的本地更新来隐藏一个本地更新。我们的发现强调了在联邦学习中需要额外的隐私增强机制,比如噪声注入。
Mar, 2024
本文介绍了一个基于轻量级加密和数据混淆的联邦学习系统,结合恰当的带宽效率优化和对云服务器主动攻击的安全保护机制,在保证客户端数据隐私的前提下,整合来自多源的数据进行联合训练,并在多项数据集(MNIST、CIFAR-10、CelebA)上验证该系统的可行性及精度。
Feb, 2022
本文设计了一种新的通信有效的安全聚合协议,适用于在移动设备上跨用户训练数据使用分布式随机梯度下降算法进行联邦学习模型的训练,从而保护每个用户的模型梯度,并且在大规模的高维数据上具有较好的性能表现。
Nov, 2016
本文提出了一种高效且具有鲁棒性的安全聚合协议 FastSecAgg,该协议基于快速傅里叶变换的新型多秘密分享方案 FastShare,可在保障数据隐私的同时,显著降低了计算和通信成本。FastSecAgg 可以有效地防范恶意攻击,使得在联邦学习场景下,客户端的模型数据可以更加安全地聚合到服务端进行更新。
Sep, 2020
为了解决隐私泄漏等问题,我们提出了一种用于联邦学习的高效多私钥安全聚合方案,使用修饰版 ElGamal 加密技术实现同态加法操作,加密性能高,同时能够保证数据的安全性,具有容错性。
Jun, 2023
针对联邦学习存在的毒化模型和后门攻击等安全威胁,我们提出了一种基于注意力机制的神经网络攻击自适应的聚合策略。我们的方法可以在数据驱动的方式下,有效应对各种攻击,特别是对图像和文本数据集中的模型毒化和后门攻击的防御具有竞争力的表现。
Feb, 2021
这篇研究论文讨论了在保护用户数据隐私的同时,使用联邦学习和安全聚合对移动设备进行机器学习的方法。其中利用随机旋转和安全聚合技术,使得用户的模型更新能够更有效地量化和保护,从而提高联邦学习的效率和安全。
Nov, 2019
提出使用稀疏随机图而非完全图来设计共享节点拓扑的低复杂度方案,在保证可靠性和隐私性的前提下,相对于现有的安全解决方案大幅度降低了通信 / 计算资源使用量。
Dec, 2020