针对猜词挑战的零样本分类方法
在计算社会科学分类任务中,评估了 ChatGPT 和 OpenAssistant 两种公共可访问的 LLM 的零次效果,并研究了各种提示策略的影响。发现在零次设置下,当前 LLMs 无法与较小的经过微调的基线变压器模型(如 BERT)的性能匹配。此外,发现不同的提示策略可以显着影响分类准确性,准确性和 F1 分数的差异超过 10%。
May, 2023
本研究分析了基于大规模数据的视觉 - 语言模型的真正零样本能力及其属性基零样本学习能力,评估了现有模型对不同基准测试的性能表现及影响因素。结果表明该模型主要通过识别语言中的类标签实现零样本学习,属性数的变化会显著影响其表现。
Sep, 2022
Gen-Z 是一种用于零食文本分类的生成提示框架,通过在标签的自然语言描述上依赖语言模型的可能性来改善任务性能,并在多个标准分类基准上展现了优越性能。
Nov, 2023
本文研究了使用自然语言实现零样本模型对新任务的自适应性,通过社交评论平台的文本和元数据作为简单的预训练任务,并提供分类任务的自然语言描述作为输入训练语言模型,以生成正确答案的方式进行自然语言的模型推广,克服了多任务分类的缺点,在六个基准文本分类数据集上训练出具有零样本性能的生成性语言模型,结果显示语言可以作为任务自适应的简单而强大的描述符,这为文本问题的新元学习策略指明了方向。
Dec, 2019
本篇论文提出一种新的零样本学习范式,其适用于任何格式,并适用于一系列语言任务,如文本分类、常识推理、指代消解和情感分析,并将零样本学习转化为多选任务,从而避免大规模生成模型的问题。该方法不仅增加了模型的推广能力,而且显著减少了参数的数量,同时具有高效的训练和部署特点。经实验结果表明,该方法在多个基准测试中表现卓越,且仅使用了 235M 的参数,远小于拥有十亿参数的现有先进模型。
Oct, 2022
利用零样本学习采用递进性思维提示,与传统的问答格式相比,GPT 模型在文本分类问题上具备零样本分类器的能力,有效地利用提示策略在各种文本分类场景中展现出较好的性能。
Dec, 2023
该论文提出了元调谐(meta-tuning)方法,旨在直接针对零样本学习目标对预训练语言模型进行微调,应用于分类任务,并通过聚合 43 个现有的数据集和 441 个标签描述来构建元数据集。实验证明,相比基于自然语言推理的先前 SOTA 零样本学习系统以及同样大小的 QA 模型,元调整模型在新的任务上表现更好,同时我们认为,增加参数数量会进一步提升 AUC-ROC 分数。
Apr, 2021
本文探讨了使用零射击方式相对于微调方法的优势,并通过实验结果表明其在通用常识推理等二选一任务上表现出色。并且,作者认为此种方法的健壮性应从表征组合性的角度进行解释。
Jan, 2022
本文提出了一种使用正则表达式从未标记语料库中挖掘标记示例的替代模板提示方法,通过微调预训练模型,相比模板提示方法更加灵活和可解释,在使用相似模板时在多个任务中表现出更好的性能。
Oct, 2022