DualPrompt 提出了一种无需 rehearsal buffer 的连续学习框架,通过学习使用预先训练好的模型进行有序任务学习的任务不变和任务特定的指示来达到目的,表现出卓越的性能。
Apr, 2022
利用 Progressive Prompts 方法解决语言模型领域中的连续学习问题,它以前向传递为基础,无需数据重放或大量的任务特定参数,并且其推动学习的方式有助于抵御灾难性遗忘,实验表明相对于 T5 模型的最佳方法,平均测试准确性提高了 20% 以上,即使在较长序列的任务中,我们的方法也明显优于之前的方法。
Jan, 2023
本文介绍了一种无需复盘的延续学习新范式,称为分层提示(H-Prompts),包括三类提示 - 类提示、任务提示和通用提示。通过贝叶斯分布对齐来刻画过去类别的知识,通过跨任务知识挖掘来减少过去任务知识的遗忘,并利用自监督方式推导出高度概括的通用知识。在两个基准测试中,证明了所提出的 H-Prompts 的高效性,分别在 Split CIFAR-100 上达到了 87.8%的平均准确率,以及在 Split ImageNet-R 上达到了 70.6%的准确率。
Jan, 2024
本文提出了一种连续的提示调整参数有效的框架,可避免对旧任务的遗忘并在任务之间实现知识转移,验证实验表明该方法在对话状态跟踪领域中具有有效性和高效性。
Mar, 2022
在连续学习中,我们提出了 Prompt-based Continual Learning(LGCL)作为 Prompt-based 方法的插件,引入了任务级别和类别级别的语言引导,并通过广泛的实验表明,LGCL 能够持续提高 Prompt-based 连续学习方法的性能,实现了新的技术水平。此外,LGCL 还不需要额外的可学习参数。
Aug, 2023
提出了一种注意力机制的端到端关键查询方案,该方案使用输入为条件的权重来组装预置组件以生成输入为条件的提示,以解决在不断变化的训练数据中进行学习时出现的过度遗忘问题,并在多个基准测试中大幅提高了准确度。
Nov, 2022
基于预训练模型的提示式方法在连续学习中与其他解决方案相比,在仅有很少可学习参数且无需内存缓冲区的情况下,展现出了防止灾难性遗忘的强大能力。本研究在理论上分析和解释了提示式学习的有效性,并提出了一种基于非线性残差门机制(NoRGa)的新型门机制,从而在保持参数效率的同时提高了连续学习性能。
May, 2024
本研究提出了 S-Prompting 范式和两种方法,通过独立学习提示,从而高度减少领域增量学习(DIL)中的遗忘程度,实现了深度神经网络在连续学习中一个最典型的场景 -- 领域增量学习(DIL)中的最佳表现。
Jul, 2022
我们提出了一种使用提示池方法的持续学习方案,能够在测试中自动识别任务和选择适当的提示,并结合回放缓冲区进一步提高模型性能。
Nov, 2023
本文提出了一种新的基于提示的方法,Consistent Prompting(CPrompt),用于更加一致的训练和测试,在多个持续学习基准测试中实现了最新的性能表现。
Mar, 2024