通过探索标签相关性的方法,仅使用正标签进行联邦学习
本文提出了一个通用的培训框架 FedaWS,它保证了类别在嵌入空间中分散,从而可以学习具有仅正标签的多类分类模型。这个框架可以几乎达到具有负标签访问权限的传统学习的性能。
Apr, 2020
本文提出了第一个针对不同客户的异构和相关可用性的 FedAvg 类 FL 算法的收敛分析,发现相关性如何不利地影响算法的收敛速率,并且介绍了一种新的算法 CA-Fed,在最大化收敛速度和最小化模型偏差之间寻求平衡,同时忽略了可用性低和相关性大的客户。实验结果表明,CA-Fed 在合成数据集和实际数据集上比 AdaFed 和 F3AST 等现有算法具有更高的时间平均准确性和更低的标准差。
Jan, 2023
该研究对联邦学习框架下聚合策略进行了全面的数学收敛分析,并通过与 FedAvg 进行分类任务的比较来评估其性能,得出了新的聚合算法,该算法可以通过区分客户端贡献的价值来修改其模型架构。
May, 2022
本论文提出了一种弹性约束方法,通过使用历史本地调整模型来限制内循环的方向,以改善联邦学习中元学习的不稳定性以及对于客户端的个性化更新,它通过适应本地数据分布,共同训练出效果更好的模型,此方法在三个公共数据集上取得了最佳效果。
Jun, 2023
该研究提出了一种新的算法,为参与联邦学习训练的客户分配自适应聚合权重,识别出最有利于特定学习目标的数据分布,实验证明通过该算法引导的合作在传统的联邦学习方法上取得了更好的表现,强调了客户选择的重要性。
Feb, 2024
提出了一种新的联邦学习方案,其中服务器与本地模型合作,通过交换类别的中心来保持一致的决策边界,实现了在网络中使用带有给定噪声的标签的一致决策边界。同时,还提出了选择有自信的样本来更新模型以及全局引导的伪标签方法来更新不自信的样本标签。在嘈杂的 CIFAR-10 数据集和 Clothing1M 数据集上的实验证明,该方法在使用有噪声的标签的联邦学习中非常有效。
Dec, 2020
本文提出了一种新的基于 FCCL + 的联邦相关性和相似性学习方法,通过非目标蒸馏,在异构参与方之间利用不相关的未标记公共数据进行通信,构建了交叉相关矩阵并在逻辑和特征层面上对实例相似度分布进行对齐,旨在解决模型异质性和灾难性遗忘问题,并为此提出了一种综合评估标准,实验证明了该方法在各种场景下的优越性和模块的高效性。
Sep, 2023
本研究提出一种名为联邦分类器平均(FedClassAvg)的个性化联邦学习方法,通过聚合分类器权重以增强特征空间的决策边界来使得有不同神经网络架构、实现非独立同分布数据(non-iid)学习任务的客户端可以学习稀缺标签,同时应用本地特征表示学习来稳定决策边界并利用局部特征提取能力提升客户端的表现,相较于已有方法仅要求客户端通信少量全连接层,因此高度通信效率,而且不需要额外的优化问题和计算开销,且在异构性个性化联邦学习任务方面表现优于现有最先进算法。
Oct, 2022
本文提出了一种使用集成学习做到在联邦学习中抵抗恶意攻击的方法,它使用多个模型进行多数表决确定预测结果,测试表明该方法可以在受到最多 20 个恶意客户端攻击时在 MNIST 数据集上获得 88%的可靠准确度。
Feb, 2021
本文提出了一种基于自然语言类名(class names)在非同分布(non-IID)数据上进行联邦学习(federated learning)的方法,将分类问题转化为数据表示和类名表示之间的匹配,并将分类模型分为数据编码器和标签编码器进行处理,通过更新类别表示来提高该算法在客户端独占类(client-exclusive classes)场景下的分类准确性。
Jan, 2023