FedDM:基于迭代分布匹配的通信高效联邦学习
该研究提出了一种新的联邦学习框架,利用无标签的开放数据集和基于蒸馏的半监督学习算法,实现了模型的交流和性能的提高,并通过熵的减少平均值来减少模型之间的异质性。实验结果表明,相对于 FL 基准,DS-FL 能降低高达 99% 的通信成本,同时达到相似甚至更高的分类准确性。
Aug, 2020
本文提出了一种基于 Ornstein-Uhlenbeck 过程的方案,在受通信限制的情况下,通过收集具有信息更新的客户端模型和估计没有通信的本地更新的方式来更新中央模型,实现了在保证性能的同时显著减少了通信量,为联邦学习提供了一种新的通信效率优化方案。
Jul, 2020
本文提出了一种自适应训练算法 AdaFL,该算法通过注意力机制和动态分数方法来平衡性能稳定性和通信效率,实验结果表明相对于 FedAvg 算法,AdaFL 算法在模型精度、性能稳定性和通信效率三个方面都有很大的提高。
Aug, 2021
本文提出了 Federated matched averaging (FedMA)算法,该算法用于联邦学习现代神经网络架构,如卷积神经网络(CNN)和长短时记忆网络(LSTM),该算法可以逐层构建全局模型,与通信负担比较低,同时在真实世界的数据集上表现比其他最先进的联邦学习算法更好。
Feb, 2020
本文从原始对偶优化角度提出一种新的机器学习算法策略来解决分布式学习过程中的非凸问题,使得此算法成为分布式学习架构中所有特性最优秀的算法框架,并且具有通信效率。
May, 2020
本文提出了一种新的 FedADMM 协议用于非凸目标函数下的联邦学习,利用双重变量解决统计异质性,该算法通过扩展 Lagrangian 以保持每轮相同的通信成本和推广 FedAvg/Prox。在真实数据集上的实验结果表明,FedADMM 在减少所需轮数的通信效率方面优于所有基线方法,尤其在大规模系统中其优势更为明显。
Apr, 2022
本文提出了一种数据驱动的通信高效联邦学习框架,重点在于设计了一个高效的提取模块 (EM),确保虚拟数据集对于精调聚合全局模型产生正面效果,并在实验证明了 FedINIBoost 在初始阶段对聚合全局模型的性能精调起到重要作用。
Jun, 2023
本文探讨了在通信成本和隐私保护的限制下联邦表示学习的可行性。首先证明了自监督对比本地训练的鲁棒性,然后基于此提出了一种新的 Federated representation Learning 框架,使用相似度蒸馏对全局模型进行训练。我们通过一系列实验验证了这种方法的有效性,并表明在多种数据集上,尽管受到更严格的限制,它仍能够以可比较的结果实现多种设置下的性能。
Sep, 2021
本文提出了基于差分隐私均值共享的联邦学习算法 FedDPMS,该算法使用变分自编码器在保护隐私的前提下,增强本地数据集合成多样化的数据以避免数据异构性对于联邦学习的负面影响,实验表明 FedDPMS 算法比其他面向异构数据的联邦学习算法性能更佳,特别适用于深度图像分类任务。
Jun, 2022
Federated Learning 的通信成本问题在该论文中通过动态权重聚类和服务器端知识蒸馏的组合方法 FedCompress 得到解决,从而实现了降低通信成本并获得高度可泛化模型的学习。
Jan, 2024