关键词continual federated learning
搜索结果 - 4
- EMNLP连续联邦学习的协调重放样本选择
连续联邦学习(CFL)结合了联邦学习(FL)和连续学习(CL),通过在各个客户端设备上进行集中模型学习来处理不会共享数据的问题,同时优化重新播放样本的选择,以提高性能和减少遗忘。
- 联邦正交训练:在连续联邦学习中减轻全局性灾难性遗忘
Federated Orthogonal Training (FOT) is a novel method proposed to address the issue of Global Catastrophic Forgetting in - HePCo: 数据无关的异构提示整合用于连续联邦学习
本文针对连续联邦学习中广泛存在、但鲜有研究的 “灾难性遗忘” 和数据异质性问题,提出一种基于提示的、轻量级的生成与蒸馏方案实现客户端模型同步,此方案仅需要发送提示和分类器头,不需要存储任何数据,实验结果表明在 CIFAR-100、Image - 面向时间演变异构数据的联邦学习
本研究提出 Continual Federated Learning (CFL) 框架来处理时变异构数据,该框架可以从过去的本地数据集中提取信息和逼近本地目标函数,从而比之前的 FL 方法在复杂和现实场景下具有更快的收敛速度。