当基于提示的增量学习无法满足强预训练时
基于预训练模型的提示式方法在连续学习中与其他解决方案相比,在仅有很少可学习参数且无需内存缓冲区的情况下,展现出了防止灾难性遗忘的强大能力。本研究在理论上分析和解释了提示式学习的有效性,并提出了一种基于非线性残差门机制(NoRGa)的新型门机制,从而在保持参数效率的同时提高了连续学习性能。
May, 2024
本文提出一种基于提示的文本生成方法(PTG),采用预训练语言模型,在面对数据匮乏的情况下通过学习一组源提示并将其转移为目标提示执行目标生成任务,设计了一个自适应注意机制以得出目标提示,实验结果表明 PTG 针对多个任务产生了有竞争力的结果,源提示已开放并可用于未来研究。
May, 2022
本文提出了一种自适应提示构建策略,利用 seq2seq-attention 结构获取输入序列的语义信息,并动态构建自适应提示,可以改善提示的质量,且通过预训练的提示有效地推广至其他领域。在 FewCLUE 数据集上的实验证明了该方法的有效性和超过先前最先进方法的表现。
May, 2022
通过利用任务和提示的特征,AdaPrompt 使预训练语言模型不断预训练,提高了 NLP 方面几个基准测试中的表现,在零样本情况下相对误差降低了高达 26.35%。
Feb, 2022
作为预训练语言模型(PLM)的流行方法之一,为了解决其使用的计算成本过高的问题,我们研究了最近在自然语言处理领域中出现的一种潜在解决方案,即 prompt learning。我们发现现有的自动提示设计方法在代码智能任务中非常有限,无法达到预期效果。为了解决这两个问题,我们提出了一种名为 Genetic Auto Prompt(GenAP)的自动设计提示的细致遗传算法。GenAP 无需梯度或额外的计算成本,既无梯度又节约成本。此外,GenAP 在代码智能任务的理解和生成类型都有很好的适用性。我们对三个流行的代码智能 PLMs 进行了 GenAP 的实验,包括缺陷预测、代码摘要和代码翻译。实验结果表明,GenAP 可以有效自动化设计提示的过程,并在所有三个任务中优于其他方法(例如,缺陷预测的准确率平均提高了 2.13%)。据我们所知,GenAP 是第一个为代码智能 PLMs 自动设计提示的工作。
Mar, 2024
本文介绍了一个基于原型的新型学习方法 —— 原型提示学习法(PTP),用于在预先训练的视觉语言模型中进行少量样本的图像识别任务。通过定义图像原型和提示原型来实现相似图像的相似提示,从而有效地利用潜在知识并适应各种 PVLM。
Oct, 2022
本研究提出了 S-Prompting 范式和两种方法,通过独立学习提示,从而高度减少领域增量学习(DIL)中的遗忘程度,实现了深度神经网络在连续学习中一个最典型的场景 -- 领域增量学习(DIL)中的最佳表现。
Jul, 2022
本论文介绍了一种基于视觉提示学习的模型适应方法,提出了 Prompt Generation Network (PGN) 网络,通过从端到端学习的词汇表中采样生成高性能、与输入相关的提示,从而使得预先训练的模型更适应不同的数据集。实验表明,PGN 在 12 个数据集上均优于以前的方法,并且在 5 个数据集上甚至优于全微调,而只需要 100 倍以下的参数。
Oct, 2022
本文介绍了一种无需复盘的延续学习新范式,称为分层提示(H-Prompts),包括三类提示 - 类提示、任务提示和通用提示。通过贝叶斯分布对齐来刻画过去类别的知识,通过跨任务知识挖掘来减少过去任务知识的遗忘,并利用自监督方式推导出高度概括的通用知识。在两个基准测试中,证明了所提出的 H-Prompts 的高效性,分别在 Split CIFAR-100 上达到了 87.8%的平均准确率,以及在 Split ImageNet-R 上达到了 70.6%的准确率。
Jan, 2024
提出了一种自适应多模式提示学习方法,通过同时考虑样本内外的泛化性和掩盖无意义的图像区域来解决当前提示学习方法存在的局限性,实验结果表明该方法在不同下游任务中优于现有方法。
Nov, 2023