本文采用大型语言模型(LM)来进行零样式转移,提出了一种提示方法,称为增强的零样式学习,将样式转移作为句子重写任务,并仅需要自然语言指令,无需目标样式的模型微调或示例。增强的零样式学习简单易用,不仅在情感等标准样式转换任务上表现出色,而且可以进行任意变换,例如 “使其多愁善感” 或 “插入一个隐喻”。
Sep, 2021
在这篇论文中,我们通过对 16 个文本分类数据集进行大规模评估研究,比较了零样本和少样本的大型语言模型与微调较小语言模型在文本分类方面的表现。结果表明,更小且更高效的语言模型的微调仍然能胜过大型语言模型的少样本方法,在文本分类方面有改进的空间。
Mar, 2024
本文提出了一种理论框架,以解释在零 / 少样本场景下提示学习的功效,我们进一步假设语言差异可以衡量提示的质量,并且通过基于 perplexity 的注释无关模板选择方法,使我们能够提前预测提示性能。
Sep, 2022
该论文提出了元调谐(meta-tuning)方法,旨在直接针对零样本学习目标对预训练语言模型进行微调,应用于分类任务,并通过聚合 43 个现有的数据集和 441 个标签描述来构建元数据集。实验证明,相比基于自然语言推理的先前 SOTA 零样本学习系统以及同样大小的 QA 模型,元调整模型在新的任务上表现更好,同时我们认为,增加参数数量会进一步提升 AUC-ROC 分数。
Apr, 2021
本文探讨了如何利用未标记的数据以提高自然语言处理任务的零样本性能,并通过规范提示一致性来鼓励模型的一致预测,并取得了实验结果上的进展和成果。
Apr, 2022
本文提出了一种使用正则表达式从未标记语料库中挖掘标记示例的替代模板提示方法,通过微调预训练模型,相比模板提示方法更加灵活和可解释,在使用相似模板时在多个任务中表现出更好的性能。
Oct, 2022
本研究使用提示技术,对大量文本进行文体分析,得到了一组可解释的文体表示方法 LISA embeddings,为解决当前使用神经网络进行文体表示学习所面临的可解释性困境提供了新的解决方案。
May, 2023
在计算社会科学分类任务中,评估了 ChatGPT 和 OpenAssistant 两种公共可访问的 LLM 的零次效果,并研究了各种提示策略的影响。发现在零次设置下,当前 LLMs 无法与较小的经过微调的基线变压器模型(如 BERT)的性能匹配。此外,发现不同的提示策略可以显着影响分类准确性,准确性和 F1 分数的差异超过 10%。
本篇研究介绍了 StyLEx,一种使用人工识别的文体词汇作为预测句子文体的附加信息的模型,它不会牺牲原始并且跨域数据集上的句子级文体预测性能,同时可以提供类似于人类感知的文体词汇解释。
本文提出基于自我监督学习的新范式,通过使用无标签数据来调整语言模型,从而解决零样本文本分类任务,我们通过探索自由文本的内在结构,提出了一种新的学习目标,称为第一句预测,以弥合无标签数据和文本分类任务之间的差距。经过调整模型以学习基于其余部分预测段落中的第一句的能力后,模型能够在看不见的任务上进行零 - shot 推理,例如主题分类和情感分析。实验结果表明,我们的模型在 10 个任务中有 7 个优于最先进的基线模型。