MMDec, 2023

面向快速稳定的联邦学习:通过知识锚实现异构性对抗

TL;DR在本文中我们通过系统分析每个类别在不同通信轮次中的本地训练中的遗忘程度,填补了对易受损类别及其影响因素的全面认识的空白。我们的观察是:(1) 不见类别和非主导类别在本地训练中都遭受到了相似的严重遗忘,而主导类别的性能有所改善。(2) 当动态减少一个主导类别的样本数量时,当其样本比例低于一定阈值时会突然发生灾难性遗忘,这表明本地模型在有效利用特定类别的少量样本以防止遗忘方面存在困难。受到这些发现的启发,我们提出了一种新颖且直接的算法称为 Federated Knowledge Anchor (FedKA)。在每个本地训练阶段之前,我们通过提取缺失类别的共享样本和随机选择每个非主导类别的一个样本构建知识锚。然后利用知识锚来校正每个小批量的梯度,以保留缺失和非主导类别的知识。大量的实验结果表明,我们提出的 FedKA 算法实现了快速稳定的收敛,在流行的基准测试中显著提高了准确性。