角色扮演引导的零样本推理的改进
采用角色扮演零样本提示作为一种高效且经济有效的方法,本研究使用能遵守指令的多语言 LLM(Beeching 等,2023 年)进行开放领域对话,并设计了一个提示系统,与 Vicuna(Chiang 等,2023 年)模型相结合,产生与精调模型在两个不同任务的人类评估中相匹配甚至超越的对话代理。
Jun, 2024
对比提示(CP)显著提高了大语言模型在复杂推理方面的能力。零 - shot 对比提示在算术、常识和符号推理任务上提升了性能,无需手动设计少数训练示例,与当前最先进的 GPT-4 模型相比,在 GSM8K 的准确率从 35.9% 提升至 88.8%,在 AQUA-RAT 的准确率从 41.3% 提升至 62.2%。该方法不仅在大多数算术和常识推理任务上超过了零 - shot CoT 和少数 - shot CoT,还能与现有的提示方法无缝集成,得到改进或相当的结果。
Mar, 2024
大语言模型通过应用无需预先训练的思维链式促进方法展示了卓越的表现,并展示了出色的推理能力。本文介绍了一种新的零样本促进方法,利用进化算法为大语言模型动态生成多样的促进方式,通过选择适合的促进方式提高模型的理解能力。详细实验结果表明,相较于当前的零样本推理方法,在 GPT-3.5-turbo 和 GPT-4 上,我们的方法表现出更优越的性能。此外,深入的分析实验突显了本方法在各种推理任务中的适应性和有效性。
Feb, 2024
该论文主要研究大型语言模型在零 - shot 信息提取方面的性能,并提出针对命名实体识别的推理策略,包括分解式问答范式、句法增强和自一致性等方法,并在七个基准测试中取得了显著的改进,对错误类型进行了全面分析,并验证了这些方法在少样本情况和其他大型语言模型中的有效性。
Oct, 2023
通过使用 “Let's think step by step” 等输入提示来生成排列步骤,Plan-and-Solve (PS) Prompting 解决了 Zero-shot-CoT 存在的缺失计算错误,缺失步骤错误和语义误解错误,是一种有效的零次提示策略,能够在数学推理问题上与 8-shot CoT 提示相媲美,并优于 Zero-shot-CoT 和 Zero-shot-Program-of-Thought 提示。
May, 2023
通过使用 RankPrompt 方法,LLMs 可以自我评级其回答,从而显著提高 ChatGPT 和 GPT-4 的推理表现。
Mar, 2024
本研究提出了一种基于一致性的自适应提示设计方法,可以从大型语言模型的零样本输出中选择和构建示例,进而显著提高了零样本情况下三种不同大型语言模型的推理任务的性能。
May, 2023