自动识别可用作少样本文本分类标签的单词
我们提出了一种使用 LLM 进行少样本文本分类的新方法,其中 LLM 为每个类别的重要特征描述提供提示,用户与 LLM 进行交互以共同撰写这些描述,我们的实验证明了我们的方法能够获得高准确度的分类器,并且用户能够构建适合其特定需求的个性化分类器,其平均准确度比现有技术提高了 15%。
Oct, 2023
本文介绍了使用外部知识来提升深度学习文本分类模型的 few-shot 学习能力,从而实现少量标注数据就能获得高性能的目的。作者在此基础上提出了一种新的参数生成网络,其能够利用外部知识生成关系网络参数,并将这些参数应用于多个任务中,以实现多个任务之间度量的转换。实验结果表明这种方法优于已有的 few-shot 文本分类模型。
Apr, 2020
为了解决深度学习中少样本学习的挑战,我们提出了一个简单而有效的框架,专门设计用于利用文本信息和语言模型,通过学习可调的提示来显式地利用预训练的语言模型的零样本能力,并且直接将视觉特征和文本特征进行推断而无需复杂设计的融合模块,进一步运用自集成和蒸馏来增强这些组件,在四个广泛使用的少样本数据集上进行了大量实验证明我们的简单框架取得了令人印象深刻的结果,特别值得注意的是,在 1-shot 学习任务中,我们的分类准确率平均超过基准方法 3.0%。
Jan, 2024
本文研究表明,结合简单的主题提取方法的有监督少样本学习可以在仅使用每个类别少量标记文档的情况下,优于无监督主题建模技术,生成连贯的主题。
Dec, 2022
本文探讨了只使用标签名训练分类模型的潜力,使用预训练的神经语言模型作为文档分类的表示学习模型,通过自学习的方式实现使用未标注数据实现对话题和情感分类超过 90% 的精确度。
Oct, 2020
本文介绍了一种半监督式的训练程序,称之为 PET,用来在低资源环境下学习某些 NLP 任务,并通过将输入示例转化为填空样式的短语来帮助语言模型理解给定任务
Jan, 2020
本研究提出了一种简单的方法来进一步提高零 - shot 分类准确性,即利用精心策划的微调数据集描述任务的标签,进而在多个文本域中获得强大的预测模型。
May, 2023
本文介绍了使用神经网络模型解决文本分类中少样本或无标注样本问题的方法,通过预训练 Siamese Networks 嵌入文本和标签的方式得到了与基于文本蕴含的方法相当的性能,同时增加了标签调整方法,可在少样本的情况下仅通过改变标签嵌入来完成模型调整。
Mar, 2022