短文本分类的 Prompt-Learning
本文探讨了使用 cloze 风格的语言提示刺激预训练语言模型的通用知识,并在完全监督、few-shot 和 zero-shot 情况下,根据实体类型实现了细粒度实体类型的提示学习,其中包括构建面向实体的语言生成器和模板,进一步提出的一种自监督策略可以在提示学习中进行分布级别的优化,从而自动总结实体类型的信息,并表明当训练数据不足时,prompt-learning 方法明显优于 fine-tuning 基线。
Aug, 2021
本文提出了一种新的基于提示的学习方法 LabelPrompt,用于关系分类任务,通过定义附加令牌来表示关系标签,并构建提示模板方法,以及设计一个实体感知模块和注意查询策略来解决模型中的一些挑战,极大地提高了在缺乏标注数据情况下利用提示学习的适应能力,特别是在少样本场景中的表现超过了其他几种方法。
Feb, 2023
在本研究中,我们调查了小语言模型(具有不到 10 亿参数)与 prompt-learning 范例相结合,在零样本和少样本场景下针对零售业中客户 - 代理商互动的领域特定文本分类的潜力。我们的评估结果显示,在少样本设置下进行基于提示的模型微调时,220M 参数的典型小语言模型 T5-base 可以在有限的标记数据(高达全数据的 15%)上实现约 75% 的准确性,显示了小语言模型与 prompt-learning 的巨大潜力。基于此,我们进一步验证了主动少样本抽样和 prompt-learning 流程中的集成策略对显著性能提升的有效性。此外,在固定模型的零样本设置中,我们强调了一个关键的观察结果,即尽管具有约 1540B 参数的 GPT-3.5-turbo 可以达到 55.16% 的准确性,但当仅有 0.5% 参数的 FLAN-T5-large 使用经过优化的提示时,其准确性超过 31%,相比使用未经优化提示的准确性提升了近 13%。我们的发现强调了使用小语言模型进行 prompt-learning 的分类任务中的潜力,强调了主动少样本抽样和集成策略在少样本设置中的好处,并强调了零样本设置中提示工程的重要性。
Sep, 2023
本文提出了一种新的生成式提示调整方法,将关系分类重新构造为一种填充问题,旨在解决当前提示方法的局限性,并在推理期间设计实体导向的解码和判别关系评分以有效地生成和对齐关系,并在完全监督的设置和低资源设置下展示了我们方法的有效性。
Oct, 2022
提出基于任务语义角度构建的语境提示学习模型 STPrompt,其中两种基于语义依存关系树和任务特定元数据描述的新型提示被构建到提示增强池中,能自动选择合适的语义提示来激发提示学习过程,并在五种不同的少样本文本分类数据集上取得了最先进的性能。
Oct, 2022
本论文提出了一种检索增强的提示学习方法(RePrompt),通过引入检索机制来对下游任务进行知识表示的缓存,该方法在 15 个视觉数据集上进行了广泛实验,包括 11 个在少样本设置下的下游任务和 4 个域泛化基准,在处理领域差异增加时取得了明显的改进。
Jun, 2023
本文提出了 PromptClass 方法,它使用预训练语言模型通过零样本提示获取基于上下文文本理解的伪标签,同时使用两种基于 PLM 微调的策略迭代地训练分类器和更新伪标签,实验结果表明,PromptClass 在四个基准数据集上实现了优异的表现,并在情感分类任务上实现了与全监督分类器相似的性能。
May, 2023
CodePrompt 是一种新颖方法,利用 prompt 学习和注意机制从预训练模型中召回丰富的知识来提高源代码相关的分类任务的准确性。该方法避免了需要额外的神经网络层和降低计算成本,并采用注意机制来聚合多层相关知识作为最终特征,从而在准确度方面达到新的最佳性能,并具备节省计算成本的能力。
Jan, 2024
该研究论文调查和组织了一种新兴的自然语言处理范式,这种范式被称为 “基于提示的学习”,并在其中介绍了其基础知识和数学符号,以及其在预训练模型、提示和调整策略等方面的相关研究成果,该框架通过使用模板将输入 x 修改为具有一些未填充信息的文本字符串提示 x',并将语言模型用于填充未填充信息以获得最终字符串 x,从而实现零样本学习和少样本学习。
Jul, 2021