Apr, 2023

重新加权的 Softmax 交叉熵用于控制联邦学习中的遗忘

TL;DR本文研究了联邦学习中数据异构性问题所导致的分类器catastrophic forgetting问题以及一种基于客户端个性化方法的对策——对于交叉熵损失进行逐客户端的重新加权,以解决类别表示突变问题,实验证明可以缓解客户端遗忘问题和提高标准联合学习算法的一致性改进。