Jul, 2024

Pareto低秩适配器:具有偏好的高效多任务学习

TL;DR通过引入PaLoRA,我们提出了一种参数高效的方法,利用任务特定的低秩适配器不断参数化凸包,实现了Pareto前沿的连续参数化。实验证明,PaLoRA在各种数据集上优于MTL和PFL基线方法,能够扩展到大型网络,并在场景理解基准测试中与竞争PFL基线相比,内存开销降低了23.8-31.7倍。