Oct, 2023

大规模视觉变压器通过适配器重新组合的高效适应

TL;DR高容量预训练模型的出现改变了计算机视觉中的问题解决方式,专注于训练特定任务的模型转变为调整预训练模型,因而有效地将大型预训练模型适应下游任务成为一个重要的研究领域;本研究提出了一种新颖的适配器重组(ARC)策略,从新的角度解决了高效预训练模型的适应问题,通过考虑适应参数的可重用性并引入参数共享方案,通过利用对称的下 -/ 上映射构建瓶颈操作从而实现层间参数共享,通过学习低维度的重新缩放系数,可以有效地重新组合层自适应的适配器,这种参数共享策略在适配器设计中允许显著减少新参数数量,同时保持令人满意的性能,从而提供了一种有前景的压缩适应成本的方法,通过在 24 个下游图像分类任务上使用各种 Vision Transformer 变种进行实验以评估我们的方法,结果表明我们的方法在减少参数数量的同时实现了令人信服的迁移学习性能。