通过研究,我们提出了一种自适应提示设计方法,能够使用只有少量未标记的数据和仅推理的 LLM 实现广泛的零 - shot 学习,该方法通过将 NLP 任务分类为三种类型,并使用相应的选择器选择最合适的查询和零 - shot 模型生成的响应作为伪证明,以完全自动化的方式将 ICL 推广到零 - shot 设置,从而呈现与少量 - shot 基线可比甚至优于的表现。
May, 2023
该研究发现预训练的大型语言模型可以成为良好的零样本推理器,提出了一种零样本的 CoT 方法,将其用于多种复杂的推理任务并取得了显著的性能提升。
May, 2022
大语言模型通过应用无需预先训练的思维链式促进方法展示了卓越的表现,并展示了出色的推理能力。本文介绍了一种新的零样本促进方法,利用进化算法为大语言模型动态生成多样的促进方式,通过选择适合的促进方式提高模型的理解能力。详细实验结果表明,相较于当前的零样本推理方法,在 GPT-3.5-turbo 和 GPT-4 上,我们的方法表现出更优越的性能。此外,深入的分析实验突显了本方法在各种推理任务中的适应性和有效性。
Feb, 2024
利用大规模预训练语言模型,通过迭代增强和定制提示来提升其在复杂任务中的性能。
Oct, 2023
在计算社会科学分类任务中,评估了 ChatGPT 和 OpenAssistant 两种公共可访问的 LLM 的零次效果,并研究了各种提示策略的影响。发现在零次设置下,当前 LLMs 无法与较小的经过微调的基线变压器模型(如 BERT)的性能匹配。此外,发现不同的提示策略可以显着影响分类准确性,准确性和 F1 分数的差异超过 10%。
对比提示(CP)显著提高了大语言模型在复杂推理方面的能力。零 - shot 对比提示在算术、常识和符号推理任务上提升了性能,无需手动设计少数训练示例,与当前最先进的 GPT-4 模型相比,在 GSM8K 的准确率从 35.9% 提升至 88.8%,在 AQUA-RAT 的准确率从 41.3% 提升至 62.2%。该方法不仅在大多数算术和常识推理任务上超过了零 - shot CoT 和少数 - shot CoT,还能与现有的提示方法无缝集成,得到改进或相当的结果。
Mar, 2024
通过使用 “Let's think step by step” 等输入提示来生成排列步骤,Plan-and-Solve (PS) Prompting 解决了 Zero-shot-CoT 存在的缺失计算错误,缺失步骤错误和语义误解错误,是一种有效的零次提示策略,能够在数学推理问题上与 8-shot CoT 提示相媲美,并优于 Zero-shot-CoT 和 Zero-shot-Program-of-Thought 提示。
通过引入跨语言提示和跨语言自洽提示,本研究提出了一种改进零 - shot 推理的链思维 (CoT) 方法,以在不同语言之间提高推理性能,并在多个基准测试中获得了最先进的结果。
本文探讨了如何利用未标记的数据以提高自然语言处理任务的零样本性能,并通过规范提示一致性来鼓励模型的一致预测,并取得了实验结果上的进展和成果。
Apr, 2022
该论文综述了大型语言模型在自然语言处理任务中的重要性,并聚焦于不同类型的提示(如离散、连续、少样本和零样本)及其对模型性能的影响。论文探讨了手动设计、优化算法和评估方法等多种提示设计方法,以优化模型在不同任务中的性能。此外,论文还讨论了评估提示性能所面临的挑战,并指出了提示设计在充分利用大型语言模型的潜力中的关键作用,为在自然语言处理任务中更有效、更高效地使用大型语言模型提供了启示。
Sep, 2023