Dec, 2023
VMT-Adapter: 多任务强化学习的参数高效迁移学习
VMT-Adapter: Parameter-Efficient Transfer Learning for Multi-Task Dense
TL;DR大规模预训练模型已在各种计算机视觉任务中取得了显著成果。然而,与其它单一任务的适应性方法相比,在多任务适应方面的研究有限,这些方法往往表现出次优的训练和推理效率。本文首先提出了一种全能视觉多任务适配器(VMT-Adapter),其训练和推理效率与任务数量近似为O(1)。具体而言,VMT-Adapter通过共享多个任务的知识来增强跨任务交互,并通过独立知识提取模块保留了任务特定的知识。此外,本文还提出了VMT-Adapter-Lite,通过学习下投影和上投影之间的共享参数来进一步减少可训练参数。对四个密集场景理解任务的大量实验证明了VMT-Adapter(-Lite)的优越性,相比于单一任务的全面微调,它们分别实现了3.96%(1.34%)的相对改进,并仅利用了预训练模型的约1%(0.36%)的可训练参数。