Oct, 2023

联邦多目标学习

TL;DR提出一种新的联邦多目标学习 (FMOL) 框架,使多个客户端通过分布式和协作的方式解决多目标优化问题,同时保持其训练数据的私密性。该框架支持不同客户端之间的不同目标函数,将多目标优化的思想推广到联邦学习范式中,并提出两种新的联邦多目标优化算法,分别为联邦多梯度下降平均 (FMGDA) 和联邦随机多梯度下降平均 (FSMGDA)。这两种算法通过本地更新显著降低通信成本,并达到与单目标联邦学习的算法相同的收敛速度。大量实验证实了所提出的联邦多目标优化算法的有效性。