无插值复习的连续学习一致提示
本文提出一种名为 CoPrompt 的 fine-tuning 方法,用于提高大规模 foundation 模型在 few-shot 场景下 fine-tuning 过程中的泛化能力,实现方法包括强制任务输出一致性约束、在两个受扰动的输入之间进行一致性约束、并结合提示和适配器两种调整模式的优势来调整额外参数。实验表明,CoPrompt 在基于新颖类别、领域泛化以及跨数据集评估任务上均优于现有方法。
Jun, 2023
本文介绍了一种无需复盘的延续学习新范式,称为分层提示(H-Prompts),包括三类提示 - 类提示、任务提示和通用提示。通过贝叶斯分布对齐来刻画过去类别的知识,通过跨任务知识挖掘来减少过去任务知识的遗忘,并利用自监督方式推导出高度概括的通用知识。在两个基准测试中,证明了所提出的 H-Prompts 的高效性,分别在 Split CIFAR-100 上达到了 87.8%的平均准确率,以及在 Split ImageNet-R 上达到了 70.6%的准确率。
Jan, 2024
提出了一种注意力机制的端到端关键查询方案,该方案使用输入为条件的权重来组装预置组件以生成输入为条件的提示,以解决在不断变化的训练数据中进行学习时出现的过度遗忘问题,并在多个基准测试中大幅提高了准确度。
Nov, 2022
提出了 ConvPrompt,一种新颖的卷积提示创建机制,通过维护逐层共享的嵌入,实现了层特定学习和更好的概念传递,从而克服了 Catastrophic Forgetting 在 Continual Learning 中的问题。通过使用卷积的智能化利用,可以保持较低的参数开销而不影响性能,并通过大型语言模型生成每个类别的细粒度文本描述,用于获取任务相似性并动态决定要学习的提示数量。在广泛的实验证明了 ConvPrompt 的优越性,并显著提高了 SOTA 约 3%,参数开销更少。同时进行了强有力的模块剥离以剖析不同组成部分的重要性。
Mar, 2024
本文提出了 Prompt Of Prompts (POP) 模型,它通过逐步学习一组任务特定 prompt 和一组全局 prompt 的方式来捕捉多个任务之间的信息集成,并证明这个模型在少样本情况下能够优于传统的 CL 方法。
Jun, 2023
DualPrompt 提出了一种无需 rehearsal buffer 的连续学习框架,通过学习使用预先训练好的模型进行有序任务学习的任务不变和任务特定的指示来达到目的,表现出卓越的性能。
Apr, 2022
利用 Progressive Prompts 方法解决语言模型领域中的连续学习问题,它以前向传递为基础,无需数据重放或大量的任务特定参数,并且其推动学习的方式有助于抵御灾难性遗忘,实验表明相对于 T5 模型的最佳方法,平均测试准确性提高了 20% 以上,即使在较长序列的任务中,我们的方法也明显优于之前的方法。
Jan, 2023
提出了利用动态提示 (L2P) 来训练更简洁的神经网络内存系统的方法,以管理任务不变和任务特定知识,从而在各种挑战性的图像分类基准测试中取得了比之前最先进方法更好的结果。
Dec, 2021
针对现代连续学习方法在处理不断增加的任务时其选择提示的固有噪音,我们改进了提示方法并提出了自定义提示的方法。实验结果表明,我们的方法在不同设置和不同数据集上都能持续改进,并且优于现有技术(最高可提升 16.2%)。
Apr, 2024
研究提出了对比原型提示 (CPP) 方法,通过任务特定的提示调整,在对比学习目标优化的基础上,有效地解决了随时间推移和原型干扰所导致的性能恶化问题,并在四项具有挑战性的类增量学习基准测试中表现出色,不需要排练缓冲区,并且在连续学习和线下联合学习之间大大缩小了性能差距,是一种有前途的改进方案。
Mar, 2023