Jun, 2020
联邦学习遇到多目标优化
Federated Learning Meets Multi-objective Optimization
Zeou Hu, Kiarash Shaloudegi, Guojun Zhang, Yaoliang Yu
TL;DR本文提出了一种将联邦学习设计为多目标优化问题的新算法 FedMGDA+,该算法可保证收敛于 Pareto 稳态解,以确保在保护用户隐私的同时,确保公平性和鲁棒性。实验结果表明,FedMGDA + 相对于现有的联邦学习算法具有更好的性能表现。
Abstract
federated learning has emerged as a promising, massively distributed way to
train a joint deep model over large amounts of edge devices while keeping
private user data strictly on device. In this work, motivated from ensuring
fairness among users and →
发现论文,激发创造
联邦多目标学习
提出一种新的联邦多目标学习 (FMOL) 框架,使多个客户端通过分布式和协作的方式解决多目标优化问题,同时保持其训练数据的私密性。该框架支持不同客户端之间的不同目标函数,将多目标优化的思想推广到联邦学习范式中,并提出两种新的联邦多目标优化算法,分别为联邦多梯度下降平均 (FMGDA) 和联邦随机多梯度下降平均 (FSMGDA)。这两种算法通过本地更新显著降低通信成本,并达到与单目标联邦学习的算法相同的收敛速度。大量实验证实了所提出的联邦多目标优化算法的有效性。
Oct, 2023
联邦优化:面向设备智能的分布式机器学习
本研究提出了一种称为联邦优化的新的分布式机器学习设置,其中优化定义的数据分布在大量节点之间,通过少量通信轮次训练高品质集中模型,本文提出的新算法对于稀疏凸问题的实验结果表现可圈可点,并为未来的联邦优化研究提供了借鉴。
Oct, 2016
混合分布下的联邦多任务学习
该研究提出了一种基于混合模型假设的联邦多任务学习方法,该方法可以在设备上学习个性化模型并实现客户端和服务端两种架构下的联邦 EM 算法的收敛,同时在联邦学习基准测试中获得了更高的准确性和公平性。
Aug, 2021
自适应联邦优化
本研究提出了联邦学习的自适应优化方法,包括 Adagrad,Adam 和 Yogi,并分析了它们在异构数据下的收敛性。研究结果突出了客户端异构性和通信效率之间的相互作用,并表明自适应优化器的使用可以显着提高联邦学习的性能。
Feb, 2020
基于预测 GAN 的混合联邦分割学习多目标优化
本文提出了一种混合联邦分裂学习框架来利用联邦学习与分裂学习的优势,在无线网络中将多工器并行更新和灵活的分裂相结合,并采用预测生成对抗网络算法对多目标优化进行求解。实验结果表明,该算法在找到帕累托最优解方面优于其他算法,并且所提出的 HFSL 的解支配 FL 的解。
Sep, 2022