本文提出了一个新的联邦学习框架和算法,用于在客户之间学习共享的数据表示和每个客户的独特的本地头。我们的算法利用了跨客户的分布式计算能力,以便每次更新表示时进行许多针对低维本地参数的局部更新。我们证明该方法在线性设置中获得与地面实况表示的线性收敛,并获得接近最优样本复杂度,从而在每个客户端高效地降低问题维度。这个结果超出了联合学习,是一类希望在数据分布中学习共享的低维表示的问题的广泛兴趣,例如在元学习和多任务学习中。此外,广泛的实验结果显示了我们的方法在异构数据的联邦环境中相对于可选的个性化联邦学习方法的经验改进。
Feb, 2021
本研究讨论了联邦学习中的数据异质性问题,并提出了一种个性化的联邦学习方法,名为 pFedPM,通过特征上传来减少通信成本和允许异构客户端模型,实验证明该方法在 MNIST、FEMNIST 和 CRIFAR10 数据集上的通信效率优于其他联邦学习方法。
Jun, 2024
通过表示学习的方法,将深度学习模型分解为更密集的部分,并应用适当的调度方法以解决数据和类别的异质性,从而提高个性化联邦学习算法的准确性并降低计算成本。
Apr, 2024
本研究提出一种鲁棒的联邦学习方案,通过并行优化、正则化等方法减小噪声影响,并从理论角度分析了其收敛性和准确性改善,仿真实验进一步验证了该方案的有效性。
Nov, 2019
本文提出了联邦重构(Federated Reconstruction)方法,这是第一个适用于大规模交叉设备设置的局部联邦学习模型通用框架,可用于训练和推断,并在移动键盘应用中成功实现了基于本方法的联邦协同过滤。
提出一种新的联邦学习方法,利用预训练模型作为本地模型的骨架,使用完全连接的层组成头部来解决客户端数据分布和计算资源不同的问题,在客户端之间共享类别的嵌入向量,采用加噪声的隐私保护混合方法来保护隐私,最后在自建车辆数据集上进行全面评估。
Jan, 2023
通过在设备上联合学习一种新的联邦学习算法,可以通过仅传递参数来训练全局模型,从而保持设备数据的私密性,这可以减少通信参数的数量并降低数据方差和设备分布差异,同时兼顾对隐私和公平性的要求。
Jan, 2020
针对联邦学习中参与者局部利益与数据准确度不匹配的问题,本文提出并比较了三种本地适应技术,并指出差分隐私和鲁棒聚合恶化了联邦模型的准确性。这三种技术分别为:微调、多任务学习和知识蒸馏。我们的实验结果表明,所有参与者都从本地适应中受益,并且本地模型表现不佳的参与者通过传统联邦方式得到了大幅提升。
Feb, 2020
提出了一种新的联邦学习方案,其中服务器与本地模型合作,通过交换类别的中心来保持一致的决策边界,实现了在网络中使用带有给定噪声的标签的一致决策边界。同时,还提出了选择有自信的样本来更新模型以及全局引导的伪标签方法来更新不自信的样本标签。在嘈杂的 CIFAR-10 数据集和 Clothing1M 数据集上的实验证明,该方法在使用有噪声的标签的联邦学习中非常有效。
Dec, 2020
使用球面限制措施的超球面联邦学习 (SphereFed) 框架,通过在联邦学习之前将数据点的表示限制到由客户端共享的单位超球面上,解决了非独立分布数据的处理问题,通过构建固定分类器来处理不类别分布的数据在不同客户端间的差异性并在最小化损失函数的过程中进行联邦学习,最终实现进一步的分类器校准。我们的实验证明 SphereFed 方法能够有效提高现有算法的准确性(在具有挑战性的数据集上达到 6% 以上),并增强计算和通信效率。
Jul, 2022