基于双语义对齐的对比个性化联邦学习的时空预测方法
设计了一个支持个性化语义通信的联邦对比学习 (FedCL) 框架,它通过在多个客户端之间协作训练本地语义编码器和基站所拥有的全局语义解码器来实现。该框架不需要客户端模型聚合,支持异构语义编码器。此外,为了解决分布式客户端间异构数据集引起的语义不平衡问题,我们采用对比学习训练语义质心生成器 (SCG)。该生成器获得代表性的全局语义质心,具有内语义紧凑性和跨语义可分离性。因此,它为学习有区分性的本地语义特征提供优越的监督。此外,我们进行了理论分析,量化了 FedCL 的收敛性能。仿真结果验证了所提出的 FedCL 框架在任务性能和稳健性方面相对于其他分布式学习基准的优越性,尤其在低信噪比和高度异构数据场景下。
Jun, 2024
本文提出了一种轻量级框架,使客户端通过融合多个预训练模型生成的表示而不是从头开始训练大规模模型来共同学习;我们设计了一种基于原型的对比学习(FedPCL)方法,以原型为共享信息进行知识传递,从而提高各个客户端利用现有模型的能力并保持通信效率。
Sep, 2022
MuPFL 是一种创新的个性化联邦学习框架,通过多层次结构完全利用不同层次的计算资源,解决数据异质性对模型偏差的影响,缓解过拟合、加速训练,提高分类准确性,并在非独立同分布和长尾条件下取得显著的有效性和效率方面的进展。
May, 2024
本文提出了一种名为 DFedAlt 的个性化联邦学习框架,采用分散的部分模型训练方法,取得了与目前最先进的基准模型相媲美或更好的状态。该算法通过依次更新共享和个性化参数,在点对点的方式构建局部个性化模型,同时采用局部 SAM(Sharpness Aware Minimization)优化器来更新共享参数,从而有效地解决了模型共享一致性不足和通信成本过高等问题。
May, 2023
我们提出了一种新颖的对比学习框架,以应对联邦学习中的数据异构性挑战。我们分析了本地训练期间客户端之间梯度更新的不一致性,并建立了其与特征表示分布的依赖性,从而导出了用于减轻局部偏差的监督式对比学习(SCL)目标。此外,我们表明,在联邦学习中简单采用 SCL 会导致表示坍缩,导致收敛缓慢且性能有限。为了解决这个问题,我们引入了一种放松的对比学习损失,对每个类别中过度相似的样本对施加差异惩罚。这种策略可以防止表示坍缩并增强特征可传递性,促进协作训练,并带来显著的性能提升。通过大量实验结果,我们的框架在标准基准上比所有现有的联邦学习方法都取得了巨大的优势。
Jan, 2024
联邦学习的普及与人工智能应用中对数据隐私的关注日益增长。联邦学习促进了多方合作的模型学习,同时确保了数据保密性。然而,由于不同客户数据分布导致的统计异质性问题,会带来一些挑战,例如不足的个性化和收敛速度慢。为了解决上述问题,本文简要总结了个性化联邦学习领域的当前研究进展,概述了个性化联邦学习的概念,审视了相关技术,并强调了当前的努力。此外,本文还讨论了个性化联邦学习的潜在进一步研究和障碍。
Feb, 2024
本文介绍了一个名为 pFedBreD 的基于贝叶斯学习方法的个性化联合学习框架,该框架针对异构数据问题进行建模,并应用 Bregman 散度约束来解决该问题。实验结果表明,在高斯先验和均值选择的一阶策略的前提下,pFedBreD 显著优于其他个性化联合学习算法。
Nov, 2022
本论文提出一种名为 FedSpa 的新型 PFL 方案,它采用个性化稀疏掩码来在边缘上自定义稀疏的本地模型,理论和实验表明,FedSpa 不仅节省了通信和计算成本,而且在模型准确性和收敛速度方面表现优异。
Jan, 2022