DualPrompt:无需复习的连续学习的互补提示
提出了利用动态提示 (L2P) 来训练更简洁的神经网络内存系统的方法,以管理任务不变和任务特定知识,从而在各种挑战性的图像分类基准测试中取得了比之前最先进方法更好的结果。
Dec, 2021
本文介绍了一种无需复盘的延续学习新范式,称为分层提示(H-Prompts),包括三类提示 - 类提示、任务提示和通用提示。通过贝叶斯分布对齐来刻画过去类别的知识,通过跨任务知识挖掘来减少过去任务知识的遗忘,并利用自监督方式推导出高度概括的通用知识。在两个基准测试中,证明了所提出的 H-Prompts 的高效性,分别在 Split CIFAR-100 上达到了 87.8%的平均准确率,以及在 Split ImageNet-R 上达到了 70.6%的准确率。
Jan, 2024
提出了一种注意力机制的端到端关键查询方案,该方案使用输入为条件的权重来组装预置组件以生成输入为条件的提示,以解决在不断变化的训练数据中进行学习时出现的过度遗忘问题,并在多个基准测试中大幅提高了准确度。
Nov, 2022
利用 Progressive Prompts 方法解决语言模型领域中的连续学习问题,它以前向传递为基础,无需数据重放或大量的任务特定参数,并且其推动学习的方式有助于抵御灾难性遗忘,实验表明相对于 T5 模型的最佳方法,平均测试准确性提高了 20% 以上,即使在较长序列的任务中,我们的方法也明显优于之前的方法。
Jan, 2023
在连续学习中,我们提出了 Prompt-based Continual Learning(LGCL)作为 Prompt-based 方法的插件,引入了任务级别和类别级别的语言引导,并通过广泛的实验表明,LGCL 能够持续提高 Prompt-based 连续学习方法的性能,实现了新的技术水平。此外,LGCL 还不需要额外的可学习参数。
Aug, 2023
本研究提出了 S-Prompting 范式和两种方法,通过独立学习提示,从而高度减少领域增量学习(DIL)中的遗忘程度,实现了深度神经网络在连续学习中一个最典型的场景 -- 领域增量学习(DIL)中的最佳表现。
Jul, 2022
本文针对无需重复训练的联邦持续学习 (Rehearsal-free Federated Continual Learning, FCL) 的严重遗忘问题提出了 Fed-CPrompt 方法,该方法利用提示学习技术以通信有效的方式获取任务特定提示,该方法的两个关键组成部分异步提示学习和对抗持续损失分别处理异步任务到达和异构数据分布,并通过广泛的实验证明了 Fed-CPrompt 在实现最先进的无需重复学习 FCL 性能方面的有效性。
Jul, 2023
提出了 ConvPrompt,一种新颖的卷积提示创建机制,通过维护逐层共享的嵌入,实现了层特定学习和更好的概念传递,从而克服了 Catastrophic Forgetting 在 Continual Learning 中的问题。通过使用卷积的智能化利用,可以保持较低的参数开销而不影响性能,并通过大型语言模型生成每个类别的细粒度文本描述,用于获取任务相似性并动态决定要学习的提示数量。在广泛的实验证明了 ConvPrompt 的优越性,并显著提高了 SOTA 约 3%,参数开销更少。同时进行了强有力的模块剥离以剖析不同组成部分的重要性。
Mar, 2024
基于预训练模型的提示式方法在连续学习中与其他解决方案相比,在仅有很少可学习参数且无需内存缓冲区的情况下,展现出了防止灾难性遗忘的强大能力。本研究在理论上分析和解释了提示式学习的有效性,并提出了一种基于非线性残差门机制(NoRGa)的新型门机制,从而在保持参数效率的同时提高了连续学习性能。
May, 2024