利用少样本提示学习自动完成模型
通过使用指导微调的语言模型,构建了一个用于 few-shot 学习的方法,名为 AuT-Few,该方法可以自动选择适合的任务指令,并实现了较强的 prompt 稳健性和良好的分类性能。
May, 2023
本文研究了自动提示技术在六个不同的下游任务和更广泛的 K-shot 学习场景中的应用。我们发现,自动提示并不总是优于简单的手动提示。我们的研究表明,在这一领域的研究中,除了 fine-tuning 之外还应该使用手动提示作为基线。
Apr, 2023
LM-BFF 提出了一种改进的面向小型语言模型的少样本 fine-tuning 方法以提升在多种 NLP 任务上的性能。通过与传统的 fine-tuning 方法相比,LM-BFF 组合的技术在低资源环境下具有显著改进,最高可达 30%,平均提高 11%。
Dec, 2020
使用少量训练示例和任务说明来训练语言模型对于几乎所有任务都很重要,本文提出在极小数据量情境下调整 LM 可显著降低提示工程需求,使用 0.1% 参数更新的 bias terms 可以实现与标准调整相当甚至更好的准确性。
Jun, 2021
本文探讨了通过基于提示的少样本学习在对话任务中的应用,通过对多种大小的语言模型进行测试,提出一种新的无需微调的提示分类器,并结合技能选择器创建了一种称为 Few-Shot Bot 的端到端聊天机器人,只需使用少量对话示例便可以完成知识检索并生成人类般自然的响应。
Oct, 2021
该研究旨在通过使用大规模语言模型(LSLM)独特的少样本能力,借助于 Google 搜索返回的信息对语言模型进行少量提示,从而克服其与现实事实和最新信息相关性的挑战,从而使得模型在开放领域问题回答方面的性能优于相同或更大规模的封闭书模型,同时,增加推理时间的计算能力可以提高模型的性能。
Mar, 2022
在本研究中,我们调查了小语言模型(具有不到 10 亿参数)与 prompt-learning 范例相结合,在零样本和少样本场景下针对零售业中客户 - 代理商互动的领域特定文本分类的潜力。我们的评估结果显示,在少样本设置下进行基于提示的模型微调时,220M 参数的典型小语言模型 T5-base 可以在有限的标记数据(高达全数据的 15%)上实现约 75% 的准确性,显示了小语言模型与 prompt-learning 的巨大潜力。基于此,我们进一步验证了主动少样本抽样和 prompt-learning 流程中的集成策略对显著性能提升的有效性。此外,在固定模型的零样本设置中,我们强调了一个关键的观察结果,即尽管具有约 1540B 参数的 GPT-3.5-turbo 可以达到 55.16% 的准确性,但当仅有 0.5% 参数的 FLAN-T5-large 使用经过优化的提示时,其准确性超过 31%,相比使用未经优化提示的准确性提升了近 13%。我们的发现强调了使用小语言模型进行 prompt-learning 的分类任务中的潜力,强调了主动少样本抽样和集成策略在少样本设置中的好处,并强调了零样本设置中提示工程的重要性。
Sep, 2023
提出基于任务语义角度构建的语境提示学习模型 STPrompt,其中两种基于语义依存关系树和任务特定元数据描述的新型提示被构建到提示增强池中,能自动选择合适的语义提示来激发提示学习过程,并在五种不同的少样本文本分类数据集上取得了最先进的性能。
Oct, 2022
本论文提出 PromptMize 框架,通过 prompt signal 和 knowledge adapter 对 pre-trained language models 进行 few-shot table-to-text generation。实验结果表明较之前的方法有极大优势。
Feb, 2023
本文提出了一种理论框架,以解释在零 / 少样本场景下提示学习的功效,我们进一步假设语言差异可以衡量提示的质量,并且通过基于 perplexity 的注释无关模板选择方法,使我们能够提前预测提示性能。
Sep, 2022