EMNLPJan, 2022

自然语言处理的安全高效联邦学习框架

TL;DR本文介绍了一种名为 SEFL 的安全高效联邦学习框架,它消除了训练所需的可信实体,提高了模型准确性,又能适应客户端退出等问题。通过 NLP 任务的实验研究表明,SEFL 与现有的 FL 方案具有可比性,且提出的剪枝技术可以提高运行时性能高达 13.7 倍。