Conv-Adapter:探索参数高效的卷积神经网络迁移学习
通过适配器模块实现神经网络参数共享,避免针对每个任务都需要重新训练整个神经网络的问题。将适配器模块应用于 BERT Transformer 可以达到接近完全微调的性能,同时每个任务只需增加 3.6%的可训练参数,表现十分出色。
Feb, 2019
透過將輕量級適配器插入凍結的預訓練模型並使用低精度量化方法以減少存儲空間,本研究發現低精度的適配器達到與高精度適配器相當的性能,且 1 位精度就足夠。
Jul, 2023
本文提出了一种名为 E3VA 的参数、内存和时间高效的视觉适配器调节方法,通过梯度反向传播高速公路实现低秩适配器,可以在保持模型性能相当的情况下,节省高达 62.2% 的训练存储器和 26.2% 的训练时间。
Jun, 2023
本文提出使用卷积旁路(Convpass)在预训练的 Vision Transformer 中作为适应模块,这个方法只需要少量可训练参数即可适应大型 Vision Transformer,其表现优于当前的适应模块,并证明为了适应视觉模型需要定制视觉定向的适应模块。
Jul, 2022
本文旨在探索将 Parameter-Efficient Fine-Tuning (PEFT) 技术应用于基于图的任务,提出了一种名为 G-Adapter 的新型结构感知 PEFT 方法,并使用 Bregman Proximal Point 方法进一步缓解特征分布变化问题,研究结果表明,G-Adapter 相对于现有的 PEFT 方法,在 9 个基于图的基准数据集上获得了最先进的性能,并且相比于传统的方法提供了巨大的内存节省。
May, 2023
大规模预训练模型已在各种计算机视觉任务中取得了显著成果。然而,与其它单一任务的适应性方法相比,在多任务适应方面的研究有限,这些方法往往表现出次优的训练和推理效率。本文首先提出了一种全能视觉多任务适配器(VMT-Adapter),其训练和推理效率与任务数量近似为 O (1)。具体而言,VMT-Adapter 通过共享多个任务的知识来增强跨任务交互,并通过独立知识提取模块保留了任务特定的知识。此外,本文还提出了 VMT-Adapter-Lite,通过学习下投影和上投影之间的共享参数来进一步减少可训练参数。对四个密集场景理解任务的大量实验证明了 VMT-Adapter (-Lite) 的优越性,相比于单一任务的全面微调,它们分别实现了 3.96%(1.34%)的相对改进,并仅利用了预训练模型的约 1%(0.36%)的可训练参数。
Dec, 2023
Adapter-X 是一种新的框架,通过参数共享和动态分配,以及引入特定设计来提高适应性,在更少的参数下优于传统的微调方法。
Jun, 2024
本文针对跨模态参数高效的图像到视频传递学习进行了研究,并提出了一种新的适应器 ——Spatio-Temporal Adapter,可以在较小的成本下实现有关动态视频内容的空时推理能力,并在视频动作识别任务上匹配或超越完全微调策略和最先进的视频模型,同时又具有参数效率的优势。
Jun, 2022
该研究介绍了一种新的适应方法,使用 UniPELT 框架作为基础,并添加了 PromptTuning 层,从而在保持竞争力的同时显著减少了可训练参数的数量。该方法利用适配器实现了预训练模型向新任务的有效转移,无需重新训练基础模型参数。通过对三个不同数据集进行评估,研究结果表明,该基于适配器的方法在性能上与全模型微调、DAPT+TAPT 和 UniPELT 策略相当,而需要更少或相同数量的参数。这种参数效率不仅减轻了计算负担,还加快了适应过程。该研究强调了适配器在实现高性能以及显著节约资源消耗方面的潜力,为参数高效微调的未来研究方向提供了有益的提示。
May, 2024
本文研究了视觉变换器的参数高效模型适应策略,提出了一种基于局部内在维度的参数高效模型适应框架,并通过实验比较了不同方法在各项指标下的表现。结果表明,该框架在少样本下的 20 个图像分类数据集和全样本下的 7 个图像分类数据集上,在准确性和参数效率之间的平衡上表现最佳。
Mar, 2022