联邦多任务学习
本研究提出了一种称为联邦优化的新的分布式机器学习设置,其中优化定义的数据分布在大量节点之间,通过少量通信轮次训练高品质集中模型,本文提出的新算法对于稀疏凸问题的实验结果表现可圈可点,并为未来的联邦优化研究提供了借鉴。
Oct, 2016
提出一个称为 Ditto 的基本框架来解决联邦学习中的公平性和鲁棒性竞争的问题,并且在多项实验证明 Ditto 相对于其他竞争方法具有更高的准确性、鲁棒性和公平性。
Dec, 2020
本论文提出了两种算法FedU和dFedU,解决了非独立同分布数据分布导致联邦学习性能下降的问题,并在实验中表现出比现有算法更好的收敛速度和性能,同时指出所提出的联邦多任务学习问题可以用于常规FL和个性化FL任务。
Feb, 2021
该研究提出了一种基于混合模型假设的联邦多任务学习方法,该方法可以在设备上学习个性化模型并实现客户端和服务端两种架构下的联邦EM算法的收敛,同时在联邦学习基准测试中获得了更高的准确性和公平性。
Aug, 2021
本文提出了一种应用于多个下游任务的异步模型传输的联邦学习方法,通过引入调度张量来表征设备调度,并通过收敛性分析探究了资源分配、设备调度和个体模型状态等对机器学习性能的影响,进而通过非凸混合整数优化问题来调整资源分配和设备调度,以在能量消耗和性能之间达到高效平衡,并通过数值模拟揭示了该方法在模型性能和网络资源节约方面的优势。
May, 2023
本文提出一种名为FedBone的框架,它通过客户端-服务器分裂学习和梯度投影实现构建大规模模型,解决现有联合多任务学习方法所面临的问题,并提高不同任务之间的泛化性能。
Jun, 2023
提出一种用于协调和训练多个同时进行的联邦学习任务的系统,名为MAS(Merge and Split),通过多任务架构将多个任务合并为一个任务进行训练,并根据任务之间的亲和度在训练过程中将其拆分成两个或更多任务继续训练,实验证明MAS方法在性能优化方面胜过其他方法,同时减少训练时间2倍并降低40%的能源消耗。
Jul, 2023
借助FedHCA$^2$框架,该研究解决了异构客户机联邦多任务学习中的模型不一致性问题,并通过建模异构客户机之间的关系来允许个性化模型的联邦训练。实验证明FedHCA$^2$在各种异构客户机联邦多任务学习场景中相比其他方法具有更优越的性能。
Nov, 2023
提出了一个缓冲异步联邦同时训练算法 FedAST,通过克服模型缓慢和自适应分配异构任务的客户资源来解决瓶颈问题,实验证明与现有同时联邦学习方法相比,能够达到多任务训练时间的最多46.0%的减少。
Jun, 2024