在联邦学习中协调安全性和通信效率
这篇研究论文讨论了在保护用户数据隐私的同时,使用联邦学习和安全聚合对移动设备进行机器学习的方法。其中利用随机旋转和安全聚合技术,使得用户的模型更新能够更有效地量化和保护,从而提高联邦学习的效率和安全。
Nov, 2019
Turbo-Aggregate是一个高效的分布式机器学习模型安全聚合框架,可以在具有N个用户的网络中实现安全聚合的开销为O(NlogN),同时具备一定程度的容错性和用户隐私保护。
Feb, 2020
本文提出了一种高效且具有鲁棒性的安全聚合协议FastSecAgg,该协议基于快速傅里叶变换的新型多秘密分享方案FastShare,可在保障数据隐私的同时,显著降低了计算和通信成本。FastSecAgg可以有效地防范恶意攻击,使得在联邦学习场景下,客户端的模型数据可以更加安全地聚合到服务端进行更新。
Sep, 2020
提出使用稀疏随机图而非完全图来设计共享节点拓扑的低复杂度方案,在保证可靠性和隐私性的前提下,相对于现有的安全解决方案大幅度降低了通信/计算资源使用量。
Dec, 2020
本文提出了一种基于离散高斯和安全聚合的训练模型方法,以保护私有数据。通过数据量化和添加离散高斯噪音,能够实现通信、隐私和准确性之间的复杂平衡,此方法在少于16位精度的情况下几乎能匹配集中式差分隐私的准确性水平。
Feb, 2021
该研究论文探讨了安全聚合在联邦学习中的应用,发现不当使用安全聚合和缺乏参数校验等问题威胁着联邦学习的隐私和数据安全,提出了两种攻击手法,揭示了当前安全聚合在联邦学习领域中的薄弱之处。
Nov, 2021
本文介绍了一个基于轻量级加密和数据混淆的联邦学习系统,结合恰当的带宽效率优化和对云服务器主动攻击的安全保护机制,在保证客户端数据隐私的前提下,整合来自多源的数据进行联合训练,并在多项数据集(MNIST、CIFAR-10、CelebA)上验证该系统的可行性及精度。
Feb, 2022
本文研究了在联合学习中,如果服务端是恶意的但试图获得私人数据,会面临什么样的安全聚合漏洞,并提供了一种进一步防御此类恶意服务器的方法,并展示了防御针对已知攻击的有效性。
Nov, 2022
在联邦学习中,通过攻击聚合更新的方法进行数据泄漏,而过去的工作都将聚合更新视为一个更大的batch,由此导致了一定的资源开销。该研究提出了从多个单独的更新数据中攻击聚合数据的角度,并引入了稀疏性的概念,以减少模型大小和计算时间的开销以及维持77%的泄漏率。
Mar, 2023
在本研究中,我们提出了一种名为FedMPQ的新型上行通信压缩方法,它基于多共享码本乘积量化。通过利用前一轮的更新来生成足够强健的码本,我们实现了安全聚合。与以往的方法相比,我们的方法在数据不独立且分布不一致(non-IID)且缺乏足够的公共数据的情况下表现出更高的鲁棒性。对LEAF数据集进行的实验证明,我们提出的方法在减少上行通信量的同时,实现了基准模型的99%最终准确度。
Apr, 2024