个性化联邦学习中的序列层扩展在表征学习中的应用
本文提出了一个新的联邦学习框架和算法,用于在客户之间学习共享的数据表示和每个客户的独特的本地头。我们的算法利用了跨客户的分布式计算能力,以便每次更新表示时进行许多针对低维本地参数的局部更新。我们证明该方法在线性设置中获得与地面实况表示的线性收敛,并获得接近最优样本复杂度,从而在每个客户端高效地降低问题维度。这个结果超出了联合学习,是一类希望在数据分布中学习共享的低维表示的问题的广泛兴趣,例如在元学习和多任务学习中。此外,广泛的实验结果显示了我们的方法在异构数据的联邦环境中相对于可选的个性化联邦学习方法的经验改进。
Feb, 2021
我们提出了一个新的去中心化个性化在线联邦学习设置,用于在在线环境中学习,在每个客户端上学习个性化模型,并在去中心化环境中学习。我们解决了两个技术挑战:如何通过优化本地模型的性能来聚合来自邻近客户端的共享模型参数,并通过学习的聚合权重选择最有帮助的邻居减少通信成本。
Nov, 2023
本文介绍了 FedPer,一种基本 + 个性化层式的联邦深度前馈神经网络训练方法,旨在对抗数据异质性的负面影响,提升联邦学习的训练效果。FedPer 的有效性在 CIFAR 数据集和 Flickr 个性化图像美学数据集上得到了证明。
Dec, 2019
本研究讨论了联邦学习中的数据异质性问题,并提出了一种个性化的联邦学习方法,名为 pFedPM,通过特征上传来减少通信成本和允许异构客户端模型,实验证明该方法在 MNIST、FEMNIST 和 CRIFAR10 数据集上的通信效率优于其他联邦学习方法。
Jun, 2024
本文提出了一种名为 RepPer 的独立的两阶段个性化联邦学习框架,其中包括非独立同分布数据(Non-IID data)对全局模型的表示学习的危害,并分离了表示学习和分类器学习,从而实现了个性化,并且在各种数据集和异构数据设置上的实验表明,RepPer 在非独立同分布数据上的灵活性和个性化方面优于其他方法。
Apr, 2022
提出一种新的联邦学习方法,利用预训练模型作为本地模型的骨架,使用完全连接的层组成头部来解决客户端数据分布和计算资源不同的问题,在客户端之间共享类别的嵌入向量,采用加噪声的隐私保护混合方法来保护隐私,最后在自建车辆数据集上进行全面评估。
Jan, 2023
本文提出了一种解决分散式学习中数据分布不一致、超参数调整等问题的两种方案,分别是特征匹配方案和自适应超参数调整方案,并在多个基准测试中证明,这两种方案可以显著提高性能和训练鲁棒性。
Dec, 2019
提出了一种新颖的个性化伪造脸部检测学习方法,旨在通过个性化表示学习每个客户的个性化表示,提高个体客户模型的检测性能;同时,利用个性化联合学习训练策略更新分布式检测模型的参数,通过多个分布式客户端设备进行协同训练,并将这些客户端模型的共享表示上传到服务器端进行聚合。与现有方法相比,该算法在多个公共脸部伪造检测数据集上展现出卓越的性能。
Jun, 2024
通过在线知识蒸馏使用对比损失的新方法,保证了参与者在不共享其输入数据的情况下学习相似类别的相似特征,并将平均最后隐藏层激活的特征表示发布到中央服务器,然后客户端使用对比目标在其个人模型中蒸馏其知识,从而比独立学习和其他联邦知识蒸馏 (FD) 方案提高了模型的效用,本框架在多个数据集上使用不同的模型架构进行了性能基准测试。
Nov, 2022