元认知强化的正向强化少样本提示
使用 GPT-3 模型分析得出少量样例引导更接近于已学习的任务,本文探讨使用自然语言编程来优化引导,提出元引导概念后能够生成更多的任务自然语言引导,展望这些方法如何应用于实践应用。
Feb, 2021
利用大型语言模型的少样本学习能力,我们提出了一种新颖的提示技术,即增强断言的少样本学习,以促进准确、详细的教育解释的生成。通过对 12 名在职教师的比较研究,我们证明了增强断言的少样本学习在解释准确性上提高了 15%,并且得到了教师评价中更高质量的解释。我们还进行了定性消融研究,以考察断言对生成感兴趣领域解释的影响,从而为教育者提供友好的提示指南。
Dec, 2023
本文提出了一种理论框架,以解释在零 / 少样本场景下提示学习的功效,我们进一步假设语言差异可以衡量提示的质量,并且通过基于 perplexity 的注释无关模板选择方法,使我们能够提前预测提示性能。
Sep, 2022
本文提出了一种称为 MetaPrompting 的通用软提示方法,它采用了公认的模型无关元学习算法来自动找到更好的提示初始化,有助于快速适应新的提示任务,并在四个不同的数据集上取得了显著的改进(1-shot 模式下精度提高了超过 6 个百分点),达到了新的最佳性能水平。
Sep, 2022
本文探讨了通过基于提示的少样本学习在对话任务中的应用,通过对多种大小的语言模型进行测试,提出一种新的无需微调的提示分类器,并结合技能选择器创建了一种称为 Few-Shot Bot 的端到端聊天机器人,只需使用少量对话示例便可以完成知识检索并生成人类般自然的响应。
Oct, 2021
该研究旨在通过使用大规模语言模型(LSLM)独特的少样本能力,借助于 Google 搜索返回的信息对语言模型进行少量提示,从而克服其与现实事实和最新信息相关性的挑战,从而使得模型在开放领域问题回答方面的性能优于相同或更大规模的封闭书模型,同时,增加推理时间的计算能力可以提高模型的性能。
Mar, 2022
通过使用元认知提示,通过系统性的结构化、自我意识评估,结合大量内在的知识和新的认识,可以提高大型语言模型的理解能力。实验结果表明,元认知提示始终优于现有的提示方法,并通过提高 GPT-4 的性能水平,增强了 GPT-4 在各种自然语言理解任务中的表现。
Aug, 2023
LM-BFF 提出了一种改进的面向小型语言模型的少样本 fine-tuning 方法以提升在多种 NLP 任务上的性能。通过与传统的 fine-tuning 方法相比,LM-BFF 组合的技术在低资源环境下具有显著改进,最高可达 30%,平均提高 11%。
Dec, 2020