EMNLPOct, 2023

基于原型的超适配器用于高效的多任务调优

TL;DR基于 Protoype 的 HyperAdapter(PHA)是一个建立在 adapter-tuning 和超网络的新框架,它采用实例密集检索器和原型超网络以更有效地生成条件模块,从而在多任务学习和少样本迁移学习中与现有的参数有效微调(PEFT)方法相比具有可比较的性能改进,并在数据规模较小时,与其他强基准相比,取得了显著的优势。基于对各种数据集的大量实证实验,我们证明 PHA 在可训练参数、模型精度和样本效率之间取得了更好的平衡。