该研究发现预训练的大型语言模型可以成为良好的零样本推理器,提出了一种零样本的CoT方法,将其用于多种复杂的推理任务并取得了显著的性能提升。
May, 2022
使用ASK ME ANYTHING(AMA)方法,通过开发多种不同的有效提示信息并进行权衡,采用弱监督程序结合这些提示信息来创造性地提高了大型语言模型的性能。该方法可以使开源GPT-J-6B模型在15个流行基准测试中优于few-shot GPT3-175B模型。
Oct, 2022
本论文提出一种基于链式推理的自动提问方法Auto-CoT,通过采样具有多样性的问题并生成推理链来构建演示,在十项公共基准推理任务中,Auto-CoT不断匹配或超越需要手动设计演示的CoT范例的性能。
本文提出了一种新的方法Active-Prompt,通过任务特定的示例提示来适应LLMs的不同任务,通过从特定的查询池中选择最不确定的问题进行注释来确定哪些问题是最重要和有帮助的。经验结果表明了我们提出的方法的优越性,取得了八项复杂推理任务的最新成果。
Feb, 2023
通过使用自动探索的 CoT prompt 对多个 LLMs 进行无监督语言生成,我们发现将该 prompt 应用于最新的 GPT-4 模型是最优的。
May, 2023
通过使用“Let's think step by step”等输入提示来生成排列步骤,Plan-and-Solve (PS) Prompting解决了Zero-shot-CoT存在的缺失计算错误,缺失步骤错误和语义误解错误,是一种有效的零次提示策略,能够在数学推理问题上与8-shot CoT提示相媲美,并优于Zero-shot-CoT和Zero-shot-Program-of-Thought提示。
通过链式思考促进的KBQG方法在低资源情况下提供了有效的少样本问题生成方法,比现有基线方法在KBQG任务上取得了显著的性能提升。
Oct, 2023
该研究介绍了一种半结构化提示方法,有效地整合了大型语言模型的参数记忆、文本文档的非结构化知识和知识图谱的结构化知识,并在开放领域的多跳问题回答数据集上进行实验证明了该提示方法显著优于现有技术,甚至超过了需要微调的方法。
Nov, 2023
使用大型语言模型在少样本学习Set中提高问题回答的性能。
May, 2024
本研究解决了现有语言模型在问答中对多步推理的依赖,从而提升了准确性。通过引入一种新的提示技术PREP,该方法结合了两个实例的语言模型来生成相关信息并回答问题,适用于多种领域的问题。实验结果表明,PREP在各类数据集上的准确率均高于其他测试方法,展现了其显著的提高潜力。
Sep, 2024