基于无噪声通道语言模型的少样本文本分类
本文探讨了基于标准序列到序列模型的神经嘈杂信道建模方法,实验结果表明这种方法在四个语言对的翻译任务中表现优异,尤其在 WMT'17 的德英翻译任务中,其 BLEU 分数比直接模型高出 3.2 分。
Aug, 2019
在这篇论文中,我们通过对 16 个文本分类数据集进行大规模评估研究,比较了零样本和少样本的大型语言模型与微调较小语言模型在文本分类方面的表现。结果表明,更小且更高效的语言模型的微调仍然能胜过大型语言模型的少样本方法,在文本分类方面有改进的空间。
Mar, 2024
本研究提出使用大型预训练语言模型进行弱监督学习的策略,并使用 Snorkel 系统去噪声标签,得到的训练数据可提高分类器的准确性,相比于零样本方法,错误率平均降低 19.5%。此外,该方法所得分类器的准确度相当或高于手动设置的规则。
May, 2022
视觉语言模型通过大规模训练数据学习了一种通用的文本 - 图像嵌入。通过少量样本的提示调整,可以将视觉语言模型适应到新的分类任务中。我们发现,这种提示调整过程对标签噪声非常稳健,且具有鲁棒性。
Jul, 2023
本文利用循环神经网络来参数化源模型和信道模型,将序列到序列的转移问题表述为噪声信道译码问题。实验结果表明,相较于直接模型,噪声信道模型在抽象句子摘要、形态学拐点和机器翻译方面表现更佳,并且可以从未配对的输出数据中获得显著的收益。
Nov, 2016
该论文研究了少样本提示模型是否也利用了表象线索,发现在 MNLI、SNLI、HANS 和 COPA 数据集上,尽管模型在表象线索实例上表现良好,但在没有表象线索的实例上的性能往往低于或仅略优于随机准确度。
May, 2022
在本研究中,我们调查了小语言模型(具有不到 10 亿参数)与 prompt-learning 范例相结合,在零样本和少样本场景下针对零售业中客户 - 代理商互动的领域特定文本分类的潜力。我们的评估结果显示,在少样本设置下进行基于提示的模型微调时,220M 参数的典型小语言模型 T5-base 可以在有限的标记数据(高达全数据的 15%)上实现约 75% 的准确性,显示了小语言模型与 prompt-learning 的巨大潜力。基于此,我们进一步验证了主动少样本抽样和 prompt-learning 流程中的集成策略对显著性能提升的有效性。此外,在固定模型的零样本设置中,我们强调了一个关键的观察结果,即尽管具有约 1540B 参数的 GPT-3.5-turbo 可以达到 55.16% 的准确性,但当仅有 0.5% 参数的 FLAN-T5-large 使用经过优化的提示时,其准确性超过 31%,相比使用未经优化提示的准确性提升了近 13%。我们的发现强调了使用小语言模型进行 prompt-learning 的分类任务中的潜力,强调了主动少样本抽样和集成策略在少样本设置中的好处,并强调了零样本设置中提示工程的重要性。
Sep, 2023
本文提出了一种理论框架,以解释在零 / 少样本场景下提示学习的功效,我们进一步假设语言差异可以衡量提示的质量,并且通过基于 perplexity 的注释无关模板选择方法,使我们能够提前预测提示性能。
Sep, 2022
本文提出了一个度量标准,评估了一个固定提示对标签或给定属性的预测偏差,并提出了一种新的基于贪心搜索的搜索策略来确定最佳提示,以提高上下文学习的性能,并在多种下游任务中使用 GPT-3 等最先进的主流模型进行全面实验。结果表明,我们的方法可以有效提高模型的在上下文学习性能。
Mar, 2023
通过使用指导微调的语言模型,构建了一个用于 few-shot 学习的方法,名为 AuT-Few,该方法可以自动选择适合的任务指令,并实现了较强的 prompt 稳健性和良好的分类性能。
May, 2023