通过将广泛多样的监督数据集转换为易读提示集合的方式,使用预先训练的编码器 - 解码器模型进行多任务学习可以直接导致强大的零 - shot 表现,该方法能够在多个标准数据集上表现出比同类模型大多数情况下强 16 倍的性能,并在 BIG-bench 基准测试中的某些任务上表现出比同类型模型强 6 倍的性能。
Oct, 2021
人类可以利用以往的经验从少量的演示中学习新的任务。我们提出了一种基于 Prompt-DT 的模型,它借助 Transformer 架构的序列建模能力和 prompt 框架,在离线 RL 中实现了少量样本的适应性。我们的实验表明,Prompt-DT 是一种强大的少量样本学习器,可以在目标任务上进行良好的泛化。
Jun, 2022
本文探讨了如何利用未标记的数据以提高自然语言处理任务的零样本性能,并通过规范提示一致性来鼓励模型的一致预测,并取得了实验结果上的进展和成果。
Apr, 2022
我们提出了一种零射击连续提示转移方法,通过将源提示编码为相对空间,并搜索相应的目标模型来传输,实验证实了我们方法的有效性,连续提示中的 “任务语义” 可以在各种语言模型中进行泛化。此外,我们发现从多个源模型中汇集 “任务语义” 可以进一步增强转移的泛化能力。
Oct, 2023
为了提高大型语言模型的零样本性能,我们提出了 PRoMPTd 方法,通过为每个测试输入重写任务提示来实现更具体、明确和完整的指导,实现了对不同任务的更好解决方案,并提供了更好的解释性以应对对抗性提示。
本文探索了通过提示调整获得的软提示如何在零样本推理中协助硬提示,以实现任务泛化。结果表明,此简单方法仅增加了 0.007%的额外参数,但在大型基准测试上提高了 2.39%的平均准确率,对不同评估提示的准确性和鲁棒性有更好的排名。
Oct, 2022
通过经典的 PAC-Bayes 界限解释所产生的离散提示的性能表现良好,这为手动设计和生成过程中引导工程实践提供了可能的理论解释。
本文提出了一种使用正则表达式从未标记语料库中挖掘标记示例的替代模板提示方法,通过微调预训练模型,相比模板提示方法更加灵活和可解释,在使用相似模板时在多个任务中表现出更好的性能。
使用 GPT-3 模型分析得出少量样例引导更接近于已学习的任务,本文探讨使用自然语言编程来优化引导,提出元引导概念后能够生成更多的任务自然语言引导,展望这些方法如何应用于实践应用。
Feb, 2021
该研究旨在在零 - shot 设置中找到高质量的 prompt。我们的自动化方法使用位置、推理和释义技术生成多个与基本 prompt 类似的 prompt,然后使用新的度量标准对这些 prompt 进行排名。我们实验证明,排名靠前的 prompt 是高质量的,显著优于基本 prompt 和使用 few-shot learning 生成的 prompt,适用于句子级情感分类任务。
May, 2023