DTL:用于视觉识别的解耦式迁移学习
我们提出了一种参数和计算效率高的转移学习方法,通过动态架构跳过和增强学习来优化视觉语言预训练模型,以减少参数数量和计算冗余,并验证其在视觉语言任务中的优越性。
Sep, 2023
提出了一种基于新颖的 Ladder Side-Tuning (LST) 的参数高效转移学习技术,其不需要通过 backbone 网络进行反向传播,而只需通过侧网络和梯子连接进行反向传播,从而实现了更高的存储效率,同时在自然语言处理(NLP)和视觉 - 语言(VL)任务上取得了更高的准确度、更高的存储效率。
Jun, 2022
提出了一种名为 Universal Parallel Tuning (UniPT) 的新型内存高效 PETL 策略,通过轻量级的可学习并行网络进行传输过程,减少内存消耗,并在不同架构上在低内存场景下实现更高的性能。
Aug, 2023
参数有效的迁移学习 (PETL) 是一个新兴的研究领域,旨在将大规模预训练模型适应下游任务。我们提出了一个动态视觉提示调整框架 (DVPT),可以为每个图像生成动态的实例级标记,以捕捉每个图像的独特视觉特征,从而更适合下游视觉任务。通过对广泛的下游识别任务进行实验,我们发现 DVPT 方法在性能上优于其他 PETL 方法,甚至在 19 个下游任务中有 17 个超越了完全微调的性能,同时保持了高参数效率。
Sep, 2023
本文提出了一种高效的参数共享迁移学习 (PROPETL) 方法,它可以在不同层间和任务间共享单一 PETL 模块,然后使用二进制掩码选择共享的原型网络的不同子网络,并将其应用为 PETL 模块进入不同的网络层中,从而达到大幅减少模型参数及存储的效果。实验证明我们提出的模型在各种下游任务上性能优异,模型参数仅为其他 PETL 方法的约 10%。
May, 2023
我们在第一次研究中探索了用于 VLN 任务的 PETL 方法,并提出了一种名为 VLN-PETL 的 VLN 特定 PETL 方法。该方法通过设计两个 PETL 模块:历史交互增强器(HIB)和跨模态交互增强器(CIB),并将其与几种现有 PETL 方法相结合,形成集成 VLN-PETL。对四个主要的 VLN 任务(R2R,REVERIE,NDH,RxR)进行的广泛实验结果表明,我们提出的 VLN-PETL 方法的有效性,它在性能上与全面微调相当甚至更好,并以有希望的优势超过其他 PETL 方法。
Aug, 2023
通过参数高效的迁移学习方法,将自然领域的视觉 - 语言知识有效且高效地转移到遥感领域的图像 - 文本检索任务上,提出了一个新颖而复杂的参数高效转移学习框架,通过预训练的 CLIP 模型、多模态遥感适配器和混合多模态对比学习目标来解决遥感数据中高内部相似性的问题,并在 RSITR 任务上进行了全面的实证研究,结果表明该方法具有很大的应用潜力,可以在实际应用中实现大幅度的训练成本节省,超过传统方法 7-13% 的检索性能并达到与全面微调相媲美甚至更好的性能,为 RS 视觉 - 语言任务提供了新的思路和有用的见解。
Aug, 2023
本文提出了一种名为 E3VA 的参数、内存和时间高效的视觉适配器调节方法,通过梯度反向传播高速公路实现低秩适配器,可以在保持模型性能相当的情况下,节省高达 62.2% 的训练存储器和 26.2% 的训练时间。
Jun, 2023
提出了一种名为 “一次性迁移学习(DTL)” 的新转移学习范式,通过使用 Gradient Collision loss(GC loss)实现知识消除,从而在不降低目标任务性能的情况下,仅处理源任务,GC loss 训练的模型在目标任务上表现出色,且极大地降低了 “知识泄露” 风险。
Aug, 2023
本文提出了一种名为 REcurrent ADaption (READ) 的轻量级记忆型微调方法,可以在保持高模型质量的情况下,大大降低训练的内存消耗和 GPU 能源使用,特别适用于微调大型 Transformers 模型。
May, 2023