POP:面向连续学习的提示
提出了 ConvPrompt,一种新颖的卷积提示创建机制,通过维护逐层共享的嵌入,实现了层特定学习和更好的概念传递,从而克服了 Catastrophic Forgetting 在 Continual Learning 中的问题。通过使用卷积的智能化利用,可以保持较低的参数开销而不影响性能,并通过大型语言模型生成每个类别的细粒度文本描述,用于获取任务相似性并动态决定要学习的提示数量。在广泛的实验证明了 ConvPrompt 的优越性,并显著提高了 SOTA 约 3%,参数开销更少。同时进行了强有力的模块剥离以剖析不同组成部分的重要性。
Mar, 2024
本文提出一种叫做上下文提示学习的框架,用于多模态学习中训练可对齐图像本地化特征并且能够适应当前任务的动态提示,通过应用于多个标准和少样本数据集上展示了比现有技术方法更优越的性能和强大的适用性。
Jul, 2023
通过在 Continual Learning 中引入 Prompt-tuning 方法,以更稳定的选择策略和适应机制,提出了一种能够优于最先进的方法的新模型,即使在与预训练模型存在显著领域差异的数据集上也适用。
Mar, 2024
利用 Progressive Prompts 方法解决语言模型领域中的连续学习问题,它以前向传递为基础,无需数据重放或大量的任务特定参数,并且其推动学习的方式有助于抵御灾难性遗忘,实验表明相对于 T5 模型的最佳方法,平均测试准确性提高了 20% 以上,即使在较长序列的任务中,我们的方法也明显优于之前的方法。
Jan, 2023
全球局部提示(GalLoP)是一种新的提示学习方法,通过学习多种多样的提示,利用全局和局部视觉特征,以提高视觉 - 语言模型在少样本图像分类中的准确性和鲁棒性。在不同的少样本设置和各种背景下,GalLoP 在准确性方面优于以前的提示学习方法,并且在域泛化和 OOD 检测方面表现出强大的鲁棒性,甚至优于专门的 OOD 检测方法。
Jul, 2024
提出了利用动态提示 (L2P) 来训练更简洁的神经网络内存系统的方法,以管理任务不变和任务特定知识,从而在各种挑战性的图像分类基准测试中取得了比之前最先进方法更好的结果。
Dec, 2021
在连续学习中,我们提出了 Prompt-based Continual Learning(LGCL)作为 Prompt-based 方法的插件,引入了任务级别和类别级别的语言引导,并通过广泛的实验表明,LGCL 能够持续提高 Prompt-based 连续学习方法的性能,实现了新的技术水平。此外,LGCL 还不需要额外的可学习参数。
Aug, 2023
本文介绍了一种无需复盘的延续学习新范式,称为分层提示(H-Prompts),包括三类提示 - 类提示、任务提示和通用提示。通过贝叶斯分布对齐来刻画过去类别的知识,通过跨任务知识挖掘来减少过去任务知识的遗忘,并利用自监督方式推导出高度概括的通用知识。在两个基准测试中,证明了所提出的 H-Prompts 的高效性,分别在 Split CIFAR-100 上达到了 87.8%的平均准确率,以及在 Split ImageNet-R 上达到了 70.6%的准确率。
Jan, 2024
本文提出了一种新的基于提示的方法,Consistent Prompting(CPrompt),用于更加一致的训练和测试,在多个持续学习基准测试中实现了最新的性能表现。
Mar, 2024
本文提出了一种称为 PromptSRC 的自正则化框架,以指导提示对特定任务和特定不可知通用表示进行优化,通过三种方法实现互相协调的学习,从而最大化下游任务的表现而不损害 CLIP 泛化能力。
Jul, 2023