ACLMay, 2023

一个网络,多个掩码:迈向更高效的参数转移学习

TL;DR本文提出了一种高效的参数共享迁移学习 (PROPETL) 方法,它可以在不同层间和任务间共享单一 PETL 模块,然后使用二进制掩码选择共享的原型网络的不同子网络,并将其应用为 PETL 模块进入不同的网络层中,从而达到大幅减少模型参数及存储的效果。实验证明我们提出的模型在各种下游任务上性能优异,模型参数仅为其他 PETL 方法的约 10%。