Apr, 2024

FeDeRA: 在联邦学习中利用权重分解实现语言模型的高效微调

TL;DR基于预训练语言模型 (PLMs) 的联邦学习 (federated learning) 中,引入参数高效微调 (PEFT) 方法,通过奇异值分解 (SVD) 初始化适配器模块的 FeDeRA,在多个任务和数据集上实验,与全参数微调 (FT) 方法相比,FeDeRA 表现出色,训练时间显著缩短。