Dec, 2023

Context-PEFT: 高效多模态、多任务微调

TL;DR提出了一种用于多模态、多任务迁移学习的新型参数高效调参方法(PEFT)框架,它通过LoRA、BitFit和IA3等技术,在几乎不需要可训练参数和GPU内存的情况下,展示了与预训练模型完全微调相当的性能,然而,在多模态微调中,经常需要进行架构修改或完全微调。为了解决这个问题,我们提出了Context-PEFT,它根据令牌的领域学习不同的适配器参数组,这种方法使得可以实现类似LoRA的权重注入,而不需要额外的架构修改。我们的方法在COCO字幕任务上进行评估,在类似的数据限制下,优于完全微调,并同时提供了更高的参数效率和计算经济性的解决方案。