Jun, 2024

安全地使用私有数据:大规模语言模型的联邦学习框架

TL;DR我们提出了一种用于大型语言模型的联邦学习框架 FL-GLM,通过在本地客户端放置输入块和输出块以防止来自服务器的嵌入梯度攻击,使用密钥加密来防止来自对端客户端的逆向工程攻击,并采用客户端批处理或服务器分层等优化方法来提高训练效率。通过在 NLU 和生成任务上的实验结果,证明了 FL-GLM 与集中式 chatGLM 模型具有可比较的指标,验证了我们的联邦学习框架的有效性。