伪对数似然在自然语言评分中的应用
本篇论文提出一种新的零样本学习范式,其适用于任何格式,并适用于一系列语言任务,如文本分类、常识推理、指代消解和情感分析,并将零样本学习转化为多选任务,从而避免大规模生成模型的问题。该方法不仅增加了模型的推广能力,而且显著减少了参数的数量,同时具有高效的训练和部署特点。经实验结果表明,该方法在多个基准测试中表现卓越,且仅使用了 235M 的参数,远小于拥有十亿参数的现有先进模型。
Oct, 2022
通过我们的研究,我们发现了自然语言生成、零样本机器生成文本检测以及大型语言模型等关键词之间的显著相关性,同时我们还探讨了话题转变对零样本检测方法的影响,揭示了这些检测方法在各种不同话题下的适应性和鲁棒性。
Dec, 2023
本研究针对最近的大型语言模型探究了原本的零样本排名效果,发现这些仅基于非结构化文本数据进行预训练且没有经过监督指导微调的模型具备强大的零样本排名能力。此外,我们还提出了一个新颖的最先进排名系统,将基于大型语言模型的查询似然模型与混合式零样本检索器相结合,无论是在零样本还是少样本场景下都表现出卓越的效果。我们在 this https URL 上公开了我们的代码库。
Oct, 2023
本文研究了使用自然语言实现零样本模型对新任务的自适应性,通过社交评论平台的文本和元数据作为简单的预训练任务,并提供分类任务的自然语言描述作为输入训练语言模型,以生成正确答案的方式进行自然语言的模型推广,克服了多任务分类的缺点,在六个基准文本分类数据集上训练出具有零样本性能的生成性语言模型,结果显示语言可以作为任务自适应的简单而强大的描述符,这为文本问题的新元学习策略指明了方向。
Dec, 2019
利用零样本学习采用递进性思维提示,与传统的问答格式相比,GPT 模型在文本分类问题上具备零样本分类器的能力,有效地利用提示策略在各种文本分类场景中展现出较好的性能。
Dec, 2023
在计算社会科学分类任务中,评估了 ChatGPT 和 OpenAssistant 两种公共可访问的 LLM 的零次效果,并研究了各种提示策略的影响。发现在零次设置下,当前 LLMs 无法与较小的经过微调的基线变压器模型(如 BERT)的性能匹配。此外,发现不同的提示策略可以显着影响分类准确性,准确性和 F1 分数的差异超过 10%。
May, 2023
RoboShot 是一种完全零样本的方法,通过利用零样本语言模型(LMs)从任务描述中获得有用的见解,以优化预训练模型嵌入的健壮性,从而解决了预训练模型的继承偏差问题,并在九个图像和自然语言处理(NLP)分类任务上展示了 15.98% 的平均改进。
Sep, 2023
该论文提出了元调谐(meta-tuning)方法,旨在直接针对零样本学习目标对预训练语言模型进行微调,应用于分类任务,并通过聚合 43 个现有的数据集和 441 个标签描述来构建元数据集。实验证明,相比基于自然语言推理的先前 SOTA 零样本学习系统以及同样大小的 QA 模型,元调整模型在新的任务上表现更好,同时我们认为,增加参数数量会进一步提升 AUC-ROC 分数。
Apr, 2021
本文提出了一种利用生成模型在 Generalized Zero-Shot Learning (GZSL) 任务中识别新类别的技术,使用变分贝叶斯推理方法推导评估指标,借助 logit adjustment 融合生成的伪类别信息到分类器中,进一步提高了在 GZSL 任务的性能。
Apr, 2022
这篇论文提出了一种名为 Zemi 的基于半参数模型的语言模型,采用了一种新型的半参数多任务提示训练范式,并引入了增强融合模块,显著提高了零点泛化能力,且模型规模比已有模型小 3.9 倍。
Oct, 2022