ZeroGen:通过数据集生成高效的零样本学习
本文研究了使用自然语言实现零样本模型对新任务的自适应性,通过社交评论平台的文本和元数据作为简单的预训练任务,并提供分类任务的自然语言描述作为输入训练语言模型,以生成正确答案的方式进行自然语言的模型推广,克服了多任务分类的缺点,在六个基准文本分类数据集上训练出具有零样本性能的生成性语言模型,结果显示语言可以作为任务自适应的简单而强大的描述符,这为文本问题的新元学习策略指明了方向。
Dec, 2019
该文章探讨了零标签学习在自然语言处理中的应用,介绍了基于预训练语言模型的一种新方法Unsupervised Data Generation,能够生成高质量的训练数据,无需人工标注。该方法使得用不带标签的数据训练具体任务的模型成为可能,并且当与带标签的数据混合使用时,能实现高效的数据增强,并达到了SuperGLUE基准测试的新最优结果。
Sep, 2021
本文提出了一种简单的方法,使用预训练语言模型 (Pretrained language models) 进行全零样本学习 (zero-shot learning) 自然语言理解任务 (NLU tasks)。该方法使用单向和双向 PLMs 生成和训练数据,其中训练数据是使用提示 (prompts) 引导的类别条件文本。使用这种方法,在 GLUE 数据集的七个分类任务中取得了强劲的表现 (例如在 MNLI-m/mm 上的 72.3/73.8,以及在 SST-2 上的 92.8),相对于零样本提示方法,甚至实现了与使用每类 32 个训练样本的强有力的少样本方法相当的结果。同时,采用了标签平滑和时间模型的融合技术以达到更好的泛化和稳定性。
Feb, 2022
本篇论文提出一种新的零样本学习范式,其适用于任何格式,并适用于一系列语言任务,如文本分类、常识推理、指代消解和情感分析,并将零样本学习转化为多选任务,从而避免大规模生成模型的问题。该方法不仅增加了模型的推广能力,而且显著减少了参数的数量,同时具有高效的训练和部署特点。经实验结果表明,该方法在多个基准测试中表现卓越,且仅使用了 235M 的参数,远小于拥有十亿参数的现有先进模型。
Oct, 2022
本文提出了一种渐进式的零样本数据集生成框架(ProGen),该框架利用任务特定模型的反馈通过上下文示例来指导生成新的训练数据,实验结果表明该方法在五个文本分类数据集上有效,并与没有上下文反馈的基线方法相比,只有1%的合成数据大小就可以达到与其相当或更好的性能。
Oct, 2022
本文挑战传统的生成建模方法,提出较好的判别式方法,实验结果表明,该方法在自然语言处理任务上具有更好的性能,无需复杂的提示即可获得最新的状态-良好的零-shot结果
Nov, 2022
本文提出了一种基于预训练语言模型的无参考学习方法NPPrompt,能够有效扩展一个预训练模型到多个语言理解任务,且不需要标注数据或附加未标注语料库进行微调。实验结果表明,NPPrompt 在文本分类和 GLUE 基准测试等任务中具有比以前最好的全零样本方法更高的绝对增益。
Dec, 2022
该论文提出了一个直觉有效的零样本学习框架ZeroNLG,它可以在英语、中文、德语和法语之间处理多个自然语言生成任务,包括图像到文本、视频到文本和文本到文本。该框架不需要任何标记的下游对来训练,并通过 bridging different domains and unsupervised multilingual auto-encoder 方法实现了目标句子在不同语言之间的生成。经过大量实验的验证,该框架生成的文本质量高,表现出色,优于现有的零样本方法。
Mar, 2023
Gen-Z是一种用于零食文本分类的生成提示框架,通过在标签的自然语言描述上依赖语言模型的可能性来改善任务性能,并在多个标准分类基准上展现了优越性能。
Nov, 2023