本文提出了 FedCollab,一种基于数据分布距离和数据数量对客户端进行聚类的新型联邦学习框架,可以有效地减轻负面转移问题,并在各种 FL 算法中始终优于其他聚类 FL 算法。
Jun, 2023
我们的论文提出了一种信息论的泛化框架来解决联邦学习中的分布不一致问题,并通过引入加权聚合方法和客户端选择策略来增强泛化能力。
Oct, 2023
该研究提出了一种新的算法,为参与联邦学习训练的客户分配自适应聚合权重,识别出最有利于特定学习目标的数据分布,实验证明通过该算法引导的合作在传统的联邦学习方法上取得了更好的表现,强调了客户选择的重要性。
Feb, 2024
通过减少客户端之间的异质性,本研究提出了一种传递知识的方法,利用客户端专用生成器为每个客户端生成样本,以减少与其他客户端模型的冲突,从而构建出具有良好泛化能力的全局模型。
Aug, 2023
本文针对联邦学习中算法稳定性的概念,研究了 FedAvg、SCAFFOLD 和 FedProx 在凸性和非凸性损失函数下的通用性能,并探讨了客户端数据的异质性和算法收敛行为对模型通用性能的影响。
本文提出了一种新的基于 FCCL + 的联邦相关性和相似性学习方法,通过非目标蒸馏,在异构参与方之间利用不相关的未标记公共数据进行通信,构建了交叉相关矩阵并在逻辑和特征层面上对实例相似度分布进行对齐,旨在解决模型异质性和灾难性遗忘问题,并为此提出了一种综合评估标准,实验证明了该方法在各种场景下的优越性和模块的高效性。
Sep, 2023
本文研究一种理性协作称作‘协作均衡’的范式,使用‘利益图’描述每个客户端与其他客户端合作的益处,并提出 Pareto 优化方法来识别最佳合作者,通过迭代图操作从利益图中达成协作均衡。在合成和真实数据集上进行的实验表明了我们的方法的有效性。
Aug, 2021
本文提出了一种名为 FedCLG 的新算法,它可以在类似于混合 FL 的情形下防止部分参与的限制,同时保护客户隐私并实现模型聚合。数值实验表明,该算法胜过现有方法。
Apr, 2023
该论文提出了一种基于原型的联邦学习框架,通过在典型的联邦学习进程的最后全局迭代中进行少量更改就能够实现更好的推理性能,从而在两个基准数据集上实现了更高的准确性和相对高效的通信。
Mar, 2023
本研究提出了一种适用于高度数据和系统异构的个性化联邦学习框架 PerFed-CKT,可使用不同的模型架构,通过簇内共同训练和知识传输来降低通信成本并在测试中获得高精度。
Sep, 2021