该论文提出了一种多层多融合策略框架,其中采用 L2 范数负指数相似度度量来计算每个客户端的特征提取层参数的融合权重,采用联合全局最优模型近似融合策略来解决对个性化的过拟合问题,提高了异构数据个性化协同效率,并经过实验结果验证优于现有方法。
Feb, 2023
提出了一种名为 Federated Multi-Level Prototypes (FedMLP) 的新型联邦学习框架,以应对异构数据分布和动态任务的联邦学习需求,并引入原型和语义原型来缓解概念漂移问题。
Dec, 2023
本文介绍了 FedPer,一种基本 + 个性化层式的联邦深度前馈神经网络训练方法,旨在对抗数据异质性的负面影响,提升联邦学习的训练效果。FedPer 的有效性在 CIFAR 数据集和 Flickr 个性化图像美学数据集上得到了证明。
Dec, 2019
该论文提出了一种基于原型的联邦学习框架,通过在典型的联邦学习进程的最后全局迭代中进行少量更改就能够实现更好的推理性能,从而在两个基准数据集上实现了更高的准确性和相对高效的通信。
Mar, 2023
本文提出一种多模态和半监督联邦学习框架,利用自编码器从不同本地数据模态中提取共享和相关表示,并使用多模态 FedAvg 算法聚合不同数据模态上训练的本地自编码器。实证结果表明,引入多模态数据可以提高联邦学习的分类性能。
Sep, 2021
该论文提出了一种新的联邦原型学习 (FedProto) 框架,借助全局原型而不是梯度来弥补跨客户端的异质性,从而提高局部模型的性能。
May, 2021
本研究讨论了联邦学习中的数据异质性问题,并提出了一种个性化的联邦学习方法,名为 pFedPM,通过特征上传来减少通信成本和允许异构客户端模型,实验证明该方法在 MNIST、FEMNIST 和 CRIFAR10 数据集上的通信效率优于其他联邦学习方法。
Jun, 2024
本文提出了一种新的基于 FCCL + 的联邦相关性和相似性学习方法,通过非目标蒸馏,在异构参与方之间利用不相关的未标记公共数据进行通信,构建了交叉相关矩阵并在逻辑和特征层面上对实例相似度分布进行对齐,旨在解决模型异质性和灾难性遗忘问题,并为此提出了一种综合评估标准,实验证明了该方法在各种场景下的优越性和模块的高效性。
Sep, 2023
提出一种新的联邦学习方法,利用预训练模型作为本地模型的骨架,使用完全连接的层组成头部来解决客户端数据分布和计算资源不同的问题,在客户端之间共享类别的嵌入向量,采用加噪声的隐私保护混合方法来保护隐私,最后在自建车辆数据集上进行全面评估。
Jan, 2023
我们介绍了一种名为 FedTSDP 的两阶段解耦式联邦学习算法,其中根据推理输出和模型权重两次进行客户端聚类。采用了修正的 Hopkins 采样来确定聚类的适时,并且使用公共未标记数据的采样权重。此外,我们开发了一种简单但有效的方法,根据不同程度的数据倾斜自适应调整个性化层。实验结果表明,我们提出的方法在 IID 和非 IID 场景下具有可靠的性能。
Aug, 2023