自适应提示提升零样本推理能力
通过研究,我们提出了一种自适应提示设计方法,能够使用只有少量未标记的数据和仅推理的LLM实现广泛的零-shot学习,该方法通过将NLP任务分类为三种类型,并使用相应的选择器选择最合适的查询和零-shot模型生成的响应作为伪证明,以完全自动化的方式将ICL推广到零-shot设置,从而呈现与少量-shot基线可比甚至优于的表现。
May, 2023
本文提出了Self-ICL,一种基于零-shot学习的简单框架,用于优化大型语言模型的内在能力,并创造了虚拟演示的概念以有效地进行ICL。通过在BIG-Bench Hard上进行的评估,该方法能够显着提高模型的性能。
May, 2023
该论文综述了大型语言模型在自然语言处理任务中的重要性,并聚焦于不同类型的提示(如离散、连续、少样本和零样本)及其对模型性能的影响。论文探讨了手动设计、优化算法和评估方法等多种提示设计方法,以优化模型在不同任务中的性能。此外,论文还讨论了评估提示性能所面临的挑战,并指出了提示设计在充分利用大型语言模型的潜力中的关键作用,为在自然语言处理任务中更有效、更高效地使用大型语言模型提供了启示。
Sep, 2023
为了提高大型语言模型的零样本性能,我们提出了PRoMPTd方法,通过为每个测试输入重写任务提示来实现更具体、明确和完整的指导,实现了对不同任务的更好解决方案,并提供了更好的解释性以应对对抗性提示。
Oct, 2023
大语言模型通过应用无需预先训练的思维链式促进方法展示了卓越的表现,并展示了出色的推理能力。本文介绍了一种新的零样本促进方法,利用进化算法为大语言模型动态生成多样的促进方式,通过选择适合的促进方式提高模型的理解能力。详细实验结果表明,相较于当前的零样本推理方法,在GPT-3.5-turbo和GPT-4上,我们的方法表现出更优越的性能。此外,深入的分析实验突显了本方法在各种推理任务中的适应性和有效性。
Feb, 2024
大语言模型 (LLM)在许多任务上展现出了令人印象深刻的性能。然而,为了实现最佳性能,仍然需要特殊设计的提示方法。在这项工作中,我们试图引入通用提示的概念,它在设计原则上旨在在广泛的任务范围内实现最佳或接近最佳的性能,同时消除了手动选择和定制面向特定问题的提示的需求。此外,我们提出了一种创新的提示方法 MeMo(心智模型),它设计简单但有效地满足通用提示的要求。MeMo将各种提示方法的要点提炼成个别的心智模型,并允许LLMs自主选择最合适的心智模型来解决问题,在零样本设置下在STEM、逻辑推理和常识推理等多种任务上达到或接近于最新的研究结果。我们希望本文所提出的见解能够激发更多对LLMs的通用提示方法的探索。
Feb, 2024
本文介绍了一种新颖的方法,可以将LLMs高效地提炼成更小的、面向特定应用的模型,显著降低运营成本和人工劳动。该方法利用LLMs的推理能力为无标签数据生成标签和自然语言解释,从而在有限数据和计算资源情况下增强模型的微调和提炼效果。其中关键贡献包括使用零样本提示获取教师模型的解释,减少手工制作的小样本示例的需求,并降低令牌数,这直接转化为主要技术公司LLM API的按令牌计费模式下的成本节约。此外,本文还研究了解释特性对提炼效率的影响,并证明了即使在整个数据集上未应用理由增强时也几乎不会导致性能损失,从而进一步减少了令牌数量。这项研究是朝向最小化人工干预、高效训练特定任务模型的一步,提供了大幅降低成本并保持甚至增强性能的可能性。
Mar, 2024
本研究解决了现有零-shot思维链提示在各个实例中统一应用的局限性,提出了一种实例自适应提示算法,以提升大型语言模型的推理性能。通过分析信息流,发现问题、提示和推理之间的相互作用对推理结果影响显著,从而提出的实例自适应提示策略在数学、逻辑和常识推理任务中均取得了显著提高,展示了其对零-shot思维链推理机制的重要贡献。
Sep, 2024