REP: 资源高效的设备上持续学习中的提示
通过在 Continual Learning 中引入 Prompt-tuning 方法,以更稳定的选择策略和适应机制,提出了一种能够优于最先进的方法的新模型,即使在与预训练模型存在显著领域差异的数据集上也适用。
Mar, 2024
通过引入一种单阶段的 PCL 框架,将中间层的标记嵌入作为提示查询,消除了查询 ViT 的额外前馈阶段,从而在训练和推理中将计算成本降低了约 50%,准确度仅下降不到 1%。此外,引入了查询池正则化损失(QR 损失),用于改进提示查询和提示池之间的关系,该损失仅在训练时应用,因此在推理阶段没有计算开销。通过引入 QR 损失,我们的方法在推理过程中仍然保持了约 50% 的计算成本降低,并且在包括 CIFAR-100、ImageNet-R 和 DomainNet 在内的公共类增量连续学习基准测试中优于之前的两阶段 PCL 方法约 1.4%。
Feb, 2024
本文介绍了一种名为 RECLIP 的方法,其最小化了用于 Contrastive Language Image Pretraining 的计算资源,实现了高效的语言监督预训练。该方法利用小图像高效地学习大规模语言监督,并在最后使用高分辨率数据进行微调,以降低训练资源要求,并展示了与现有方法相比极具竞争力的指标表现。
Apr, 2023
本论文提出了 RECO 模型,该模型通过外部记忆检索获取精细化知识,应用于现有视觉文本模型中,并在 Stanford Cars、CUB-2011 和 OVEN benchmark 等多项任务中取得了显著性能提升。
Jun, 2023
PRE 是一种简单而高效的方法,通过使用一种 prompt 编码器来重新参数化输入 prompt 嵌入,从而增强对从少量样本中探索任务特定知识的能力,其在新类上实现了 5.60% 的平均准确率提升和 3% 的调和平均数提升。
Sep, 2023
本论文提出了一种检索增强的提示学习方法(RePrompt),通过引入检索机制来对下游任务进行知识表示的缓存,该方法在 15 个视觉数据集上进行了广泛实验,包括 11 个在少样本设置下的下游任务和 4 个域泛化基准,在处理领域差异增加时取得了明显的改进。
Jun, 2023
本文首次探索了基于分层内存回放的连续学习在边缘设备上实现成本效益的设计空间,并提出了 Miro,一种系统运行时工具,通过动态配置连续学习系统以达到最佳成本效益,并在在线剖析与低开销的条件下适应最优数值,通过广泛的评估结果显示,Miro 在成本效益上显著优于基准系统。
Aug, 2023
提出了 ConvPrompt,一种新颖的卷积提示创建机制,通过维护逐层共享的嵌入,实现了层特定学习和更好的概念传递,从而克服了 Catastrophic Forgetting 在 Continual Learning 中的问题。通过使用卷积的智能化利用,可以保持较低的参数开销而不影响性能,并通过大型语言模型生成每个类别的细粒度文本描述,用于获取任务相似性并动态决定要学习的提示数量。在广泛的实验证明了 ConvPrompt 的优越性,并显著提高了 SOTA 约 3%,参数开销更少。同时进行了强有力的模块剥离以剖析不同组成部分的重要性。
Mar, 2024
提出了一种注意力机制的端到端关键查询方案,该方案使用输入为条件的权重来组装预置组件以生成输入为条件的提示,以解决在不断变化的训练数据中进行学习时出现的过度遗忘问题,并在多个基准测试中大幅提高了准确度。
Nov, 2022
通过在图像编码器之后或文本编码器之前在预训练的 CLIP 模型上增加附加层,我们提出了一种利用预训练视觉 - 语言模型进行进一步调整的方法,从而使其能够适应新任务而不仅仅是零样本学习。我们对线性适配器、自注意适配器以及修改 CLIP 文本编码器输入的提示调整进行了研究。此外,我们还提出了一种参数保留的方法,通过衡量参数重要性,在增量学习过程中更好地保持稳定性和可塑性。实验证明,最简单的解决方案 —— 一个具有参数保留的线性适配器层,获得了最佳结果。多个常规基准实验一致表明这种方法显著改进了现有技术水平。
Oct, 2023