FedPAQ是一种通讯高效、周期平均和量化的联邦学习方法,能很好地解决联邦学习中的通讯和可扩展性问题,且在强凸和非凸损失函数方面具有接近最优的理论保证和优秀的实际表现。
Sep, 2019
Turbo-Aggregate是一个高效的分布式机器学习模型安全聚合框架,可以在具有N个用户的网络中实现安全聚合的开销为O(NlogN),同时具备一定程度的容错性和用户隐私保护。
Feb, 2020
本文提出了首个单服务器拜占庭容错安全的聚合框架(BREA)用于安全联邦学习,包括完整的隐私保护和网络收敛保证,基于综合随机量化、可验证的异常检测和安全的模型聚合方法,并对网络规模、用户退化和隐私保护方面进行了理论和实验分析。
Jul, 2020
提出使用稀疏随机图而非完全图来设计共享节点拓扑的低复杂度方案,在保证可靠性和隐私性的前提下,相对于现有的安全解决方案大幅度降低了通信/计算资源使用量。
Dec, 2020
本文提出了一种基于离散高斯和安全聚合的训练模型方法,以保护私有数据。通过数据量化和添加离散高斯噪音,能够实现通信、隐私和准确性之间的复杂平衡,此方法在少于16位精度的情况下几乎能匹配集中式差分隐私的准确性水平。
Feb, 2021
本文提出了一种新的缓存异步聚合方法FedBuff,它结合了同步和异步federated learning的最佳属性,可在不影响系统隐私的情况下提高效率,大大缓解了跨设备联合学习中的可扩展性和隐私问题。
Jun, 2021
该研究论文探讨了安全聚合在联邦学习中的应用,发现不当使用安全聚合和缺乏参数校验等问题威胁着联邦学习的隐私和数据安全,提出了两种攻击手法,揭示了当前安全聚合在联邦学习领域中的薄弱之处。
Nov, 2021
本文介绍了一个基于轻量级加密和数据混淆的联邦学习系统,结合恰当的带宽效率优化和对云服务器主动攻击的安全保护机制,在保证客户端数据隐私的前提下,整合来自多源的数据进行联合训练,并在多项数据集(MNIST、CIFAR-10、CelebA)上验证该系统的可行性及精度。
Feb, 2022
本文解决了跨设备联邦学习中通信效率问题并提出了一种基于安全聚合的压缩方法,使得在保证通信安全的前提下能够实现高效联邦学习。
Jul, 2022
本文研究了在联合学习中,如果服务端是恶意的但试图获得私人数据,会面临什么样的安全聚合漏洞,并提供了一种进一步防御此类恶意服务器的方法,并展示了防御针对已知攻击的有效性。
Nov, 2022