联邦剩余学习
本文提出了联邦重构(Federated Reconstruction)方法,这是第一个适用于大规模交叉设备设置的局部联邦学习模型通用框架,可用于训练和推断,并在移动键盘应用中成功实现了基于本方法的联邦协同过滤。
Feb, 2021
我们提出了一个新的去中心化个性化在线联邦学习设置,用于在在线环境中学习,在每个客户端上学习个性化模型,并在去中心化环境中学习。我们解决了两个技术挑战:如何通过优化本地模型的性能来聚合来自邻近客户端的共享模型参数,并通过学习的聚合权重选择最有帮助的邻居减少通信成本。
Nov, 2023
本文提出一种新型联邦学习框架,名为 Fed-RoD,它通过解耦模型的双重任务,即引入一族能够应对不同问题数据分布的损失函数,并将个性化预测器作为一个轻量级的自适应模块,使学习模型同时实现了最先进的通用和个性化的性能表现。
Jul, 2021
本文提出了一个新的联邦学习框架和算法,用于在客户之间学习共享的数据表示和每个客户的独特的本地头。我们的算法利用了跨客户的分布式计算能力,以便每次更新表示时进行许多针对低维本地参数的局部更新。我们证明该方法在线性设置中获得与地面实况表示的线性收敛,并获得接近最优样本复杂度,从而在每个客户端高效地降低问题维度。这个结果超出了联合学习,是一类希望在数据分布中学习共享的低维表示的问题的广泛兴趣,例如在元学习和多任务学习中。此外,广泛的实验结果显示了我们的方法在异构数据的联邦环境中相对于可选的个性化联邦学习方法的经验改进。
Feb, 2021
通过利用深度神经网络从非表格数据(如图像和文本)提取高质量特征向量来提出一种基于本地记忆的个性化机制,该机制与基于全局模型的交叉训练相结合,使用局部k- 近邻模型实现个性化,并且在二元分类情况下给出了一般化边界。在一系列联合数据集上实验证明了这种方法的准确性和公平性显著优于现有的状态 - of-the-art 方法。
Nov, 2021
本文介绍了一个基于轻量级加密和数据混淆的联邦学习系统,结合恰当的带宽效率优化和对云服务器主动攻击的安全保护机制,在保证客户端数据隐私的前提下,整合来自多源的数据进行联合训练,并在多项数据集(MNIST、CIFAR-10、CelebA)上验证该系统的可行性及精度。
Feb, 2022
该论文提出了一种基于原型的联邦学习框架,通过在典型的联邦学习进程的最后全局迭代中进行少量更改就能够实现更好的推理性能,从而在两个基准数据集上实现了更高的准确性和相对高效的通信。
Mar, 2023
通过在设备上联合学习一种新的联邦学习算法,可以通过仅传递参数来训练全局模型,从而保持设备数据的私密性,这可以减少通信参数的数量并降低数据方差和设备分布差异,同时兼顾对隐私和公平性的要求。
Jan, 2020
本篇论文提出了一种有效的联邦学习框架,用于保护隐私的新闻推荐,通过在服务器上维护一个大的新闻模型和在服务器和客户端共享的轻量级用户模型来分解新闻推荐模型,实现了客户端的计算和通信成本的降低,并通过隐私保护的安全聚合方法对梯度进行聚合。
Sep, 2021