用于零样本泛化的通用判别器
本研究提出了一种新颖的方法,通过生成适用于任意领域的数据集来实现小型任务模型的领域通用性,从而提高数据集生成模式的实际应用性。实验证明,该方法在使用比预训练语言模型小数个数量级的参数集的情况下,实现了在各种领域的泛化能力。
May, 2024
通过训练鉴别器来预测 NLP 模型在未见过的可能不同分布的数据上的准确性,从而得到一个上下界,无需使用未见过数据的真实标签。通过多个任务的实验证明了真实准确性在预测的上下界之间,并且这些上下界非常接近。
Nov, 2023
本文研究了使用自然语言实现零样本模型对新任务的自适应性,通过社交评论平台的文本和元数据作为简单的预训练任务,并提供分类任务的自然语言描述作为输入训练语言模型,以生成正确答案的方式进行自然语言的模型推广,克服了多任务分类的缺点,在六个基准文本分类数据集上训练出具有零样本性能的生成性语言模型,结果显示语言可以作为任务自适应的简单而强大的描述符,这为文本问题的新元学习策略指明了方向。
Dec, 2019
大型语言模型的广泛发展使得检测机器生成的文本变得前所未有的重要。本研究通过收集大范围的语言模型生成数据,训练神经检测器并测试其在未经训练的生成器输出上的性能,发现中等规模语言模型训练的检测器能够零样本推广到更大的版本。作为一个具体的应用,我们证明了可以在中等规模模型的训练数据集合上构建强大的检测器。
Oct, 2023
通过使用生成对抗网络(GAN)生成未见类别的语义嵌入辅助数据点,结合传统训练数据,利用模型选择机制使得泛零样本学习可以分为两个不相交的分类任务,以减少不平衡的数据分布,从而获得最先进的结果。
Nov, 2018
本文旨在探究利用两种新的有效的预训练策略(Implicit 和 Explicit pre-training)来改善 PLMs 在不同方面与领域的数据上泛化能力,特别是在零样本情况下进行文本分类的任务。作者通过引入 UTCD 数据集进行评估,证明了该方法在一系列零样本范式的挑战数据集上实现了更好的泛化能力。
May, 2023
通过使用扩散模型的去噪能力作为代理,将零样本分类器应用于 Imagen,探究其知识方面并与 CLIP 进行比较,结果显示 Imagen 与 CLIP 在零样本图像分类方面表现相当,同时在形状 / 纹理偏差测试方面取得了最先进的结果,能够成功地执行属性绑定,而 CLIP 则不能。因此,我们认为应该探索将生成预训练作为一种有吸引力的视觉和视觉语言问题的替代方法。
Mar, 2023
本篇论文提出一种新的零样本学习范式,其适用于任何格式,并适用于一系列语言任务,如文本分类、常识推理、指代消解和情感分析,并将零样本学习转化为多选任务,从而避免大规模生成模型的问题。该方法不仅增加了模型的推广能力,而且显著减少了参数的数量,同时具有高效的训练和部署特点。经实验结果表明,该方法在多个基准测试中表现卓越,且仅使用了 235M 的参数,远小于拥有十亿参数的现有先进模型。
Oct, 2022
本文研究了广义零样学习问题,提出了一种新的模型联合了三种不同的方法:视觉 -> 语义映射,语义 -> 视觉映射和度量学习,并且将它们统一在一个框架内,最终的实验结果表明该模型不仅在分类已知类别的图像上具有较高的准确性,而且在分类未知类别的图像上性能也比现有的最先进模型要更好。
Nov, 2018
本文研究了一种灵活高效的零样本学习方法 - 零样本生成(ZeroGen),基于预训练语言模型(PLMs)无监督生成数据集,并使用该数据集训练小型模型进行任务处理,从而实现高效推理。实验和分析表明, extsc {ZeroGen} 在文本分类、问答和自然语言推理等 NLP 任务中的有效性。
Feb, 2022