零样本学习的联合意图和槽位标记
本文提出了两种基于胶囊网络的架构,分别为 INTENT-CAPSNET 和 INTENTCAPSNET-ZSL,可用于用户意图检测问题。使用这些模型可以在没有标记的语句的情况下检测出新兴的用户意图。在两个真实世界数据集上的实验证明了该模型的有效性。
Sep, 2018
探讨了用于意图识别的广义零射击模式,并使用句子对建模方法,通过任务转移进一步提高性能,使用语境编码器的预训练技术使模型适用于主要且适应不断变化的应用。
Jun, 2022
该研究提出了一种生成式框架,用于多个序列标记任务和句子级分类。与以往的判别式方法不同,该模型通过共享自然语言输出空间,自然地融合标签语义,并在任务之间共享知识。该框架具有通用性,可在 few-shot、低资源和高资源任务上表现良好,并在命名实体识别、槽位标记和意图分类等基准测试中展示了这些优势。
Sep, 2020
本研究提出一种基于 Zero-Shot Adaptive Transfer 方法的领域自适应对话代理模型,通过利用槽位描述信息实现可重用概念在领域之间的迁移,并避免了显式概念对齐的训练复杂度,实验结果表明此模型在多达 10 个领域的数据集上性能显著优于之前的最优系统,特别在低数据情况下表现更出色。
Aug, 2018
本篇论文提出一种新的零样本学习范式,其适用于任何格式,并适用于一系列语言任务,如文本分类、常识推理、指代消解和情感分析,并将零样本学习转化为多选任务,从而避免大规模生成模型的问题。该方法不仅增加了模型的推广能力,而且显著减少了参数的数量,同时具有高效的训练和部署特点。经实验结果表明,该方法在多个基准测试中表现卓越,且仅使用了 235M 的参数,远小于拥有十亿参数的现有先进模型。
Oct, 2022
本文探讨了在低资源环境下使用领域适应、数据增强、零样本分类以及参数高效的微调等四种方法来解决对话 NLU 提供商在扩展到数千个意图分类模型时遇到的存储空间限制问题,结果表明这些方法对于不同程度的低资金环境下效果有效,在使用 T-few 配方提出的参数高效昆虫微调语言模型的 Flan-T5 上获得了最佳性能,即使只有一个样本每意图。我们还展示了使用意图描述促进 LLM 的零样本方法。
May, 2023
本研究提出了使用零样本学习方法进行需求分类的可能性,使用了上下文词嵌入和基于 transformer 的语言模型,通过一系列实验展示了该方法在三项分类任务上取得了不俗的结果。这种零样本学习方法可以缓解在需求工程中数据短缺的问题。
Feb, 2023
利用仅有每个意图几个样本文本句子的泛化零样本音频到意图分类框架,该框架使用只有音频的数据,通过训练有监督的音频到意图分类器和利用神经音频合成器生成音频嵌入,使用余弦相似度对未见过的意图进行泛化零样本分类,并通过多模态训练策略将词汇信息融入音频表征来提高泛化零样本性能。相较于仅使用音频训练,我们的多模态训练方法提高了 SLURP 和内部目标导向对话数据集上未见过的意图的零样本意图分类准确率分别为 2.75%和 18.2%。
Nov, 2023
本文探讨了如何在缺乏足够资源的情况下,通过基于检索的方法完成少量样本学习并用于意图分类和填槽任务。我们提出了一种基于跨度级别检索的方法,通过一种新颖的批次 - softmax 目标函数,在相似的具有相同标签的跨度之间学习上下文化表示。我们的方法在 CLINC 和 SNIPS 基准测试中超过了先前的系统。
Apr, 2021
提出了一种新的零射击槽填充神经模型 LEONA,通过利用语言特征、命名实体识别提示、预训练语言模型的上下文嵌入,从而获得领域无关的上下文感知表示,通过三步骤 fine-tunes 产生独立于槽的标签,并使用可推广的上下文感知语句 - 槽相似特征将其上下文化以产生每个单词的针对特定槽的预测,总体而言,在 SNIPS、ATIS、MultiWOZ 和 SGD 数据集上,从未见过的领域平均表现优于 SOTA 模型 17.52%、22.15%、17.42% 和 17.95%
Jan, 2021