Feb, 2024
PEMT:多任务相关导引的专家组合混合使得参数高效迁移学习
PEMT: Multi-Task Correlation Guided Mixture-of-Experts Enables Parameter-Efficient Transfer Learning
Zhisheng Lin, Han Fu, Chenghao Liu, Zhuo Li, Jianling Sun
TL;DR我们提出了一种基于多任务迁移学习的新型参数高效微调框架 (PEMT),通过在源任务上训练适配器的加权组合来捕捉可转移的知识,同时利用任务描述提示向量来衡量目标任务与每个源任务之间的相关性,以充分利用任务特定的知识并提高稀疏性。实验证明,我们的方法在各种任务上相较于完全微调、PEFT 和知识转移方法都取得了稳定的改进,突出了其能够充分利用多任务之间的知识和相关特征的有效性。