Dec, 2022
当联邦学习遇到预训练语言模型的参数高效调整方法
When Federated Learning Meets Pre-trained Language Models'
Parameter-Efficient Tuning Methods
TL;DR本文旨在探讨如何在隐私保护的前提下,同时减少通信开销和本地模型适应成本,在联邦学习范式下提高微调预训练语言模型效率和性能,为此我们引入了多种参数节约的微调方法(PETuning),并提供了适用于各种实验条件的实证研究和联邦微调框架 FedPETuning。