在联邦学习中协调安全性和通信效率
这篇研究论文讨论了在保护用户数据隐私的同时,使用联邦学习和安全聚合对移动设备进行机器学习的方法。其中利用随机旋转和安全聚合技术,使得用户的模型更新能够更有效地量化和保护,从而提高联邦学习的效率和安全。
Nov, 2019
在本研究中,我们提出了一种名为 FedMPQ 的新型上行通信压缩方法,它基于多共享码本乘积量化。通过利用前一轮的更新来生成足够强健的码本,我们实现了安全聚合。与以往的方法相比,我们的方法在数据不独立且分布不一致(non-IID)且缺乏足够的公共数据的情况下表现出更高的鲁棒性。对 LEAF 数据集进行的实验证明,我们提出的方法在减少上行通信量的同时,实现了基准模型的 99% 最终准确度。
Apr, 2024
提出使用稀疏随机图而非完全图来设计共享节点拓扑的低复杂度方案,在保证可靠性和隐私性的前提下,相对于现有的安全解决方案大幅度降低了通信 / 计算资源使用量。
Dec, 2020
本文介绍了一个基于轻量级加密和数据混淆的联邦学习系统,结合恰当的带宽效率优化和对云服务器主动攻击的安全保护机制,在保证客户端数据隐私的前提下,整合来自多源的数据进行联合训练,并在多项数据集(MNIST、CIFAR-10、CelebA)上验证该系统的可行性及精度。
Feb, 2022
本文研究压缩技术对典型图像分类任务的联邦学习的影响,并证明了一种简单的方法可以在保持不到 1% 准确率损失的同时压缩 50% 的消息,与最先进的技术相媲美。
Oct, 2023
Federated Learning 的通信成本问题在该论文中通过动态权重聚类和服务器端知识蒸馏的组合方法 FedCompress 得到解决,从而实现了降低通信成本并获得高度可泛化模型的学习。
Jan, 2024
研究提出了一种基于联邦学习的量化算法 FTTQ 和三值联邦平均协议 T-FedAvg,能够显著降低联邦学习系统的通信成本,并在 IID 数据上实现微小的性能提升。
Mar, 2020