基于模板的零 - shot 意图识别方法
利用仅有每个意图几个样本文本句子的泛化零样本音频到意图分类框架,该框架使用只有音频的数据,通过训练有监督的音频到意图分类器和利用神经音频合成器生成音频嵌入,使用余弦相似度对未见过的意图进行泛化零样本分类,并通过多模态训练策略将词汇信息融入音频表征来提高泛化零样本性能。相较于仅使用音频训练,我们的多模态训练方法提高了 SLURP 和内部目标导向对话数据集上未见过的意图的零样本意图分类准确率分别为 2.75%和 18.2%。
Nov, 2023
本文提出了一种简单而有效的元学习范式,采用多种混合注意力机制来提取更好的话语特征,采用元学习策略来提高模型的泛化能力,从而在标准和广义零 - shot 意向分类任务上优于其他强基线
Jun, 2022
本文探讨了在低资源环境下使用领域适应、数据增强、零样本分类以及参数高效的微调等四种方法来解决对话 NLU 提供商在扩展到数千个意图分类模型时遇到的存储空间限制问题,结果表明这些方法对于不同程度的低资金环境下效果有效,在使用 T-few 配方提出的参数高效昆虫微调语言模型的 Flan-T5 上获得了最佳性能,即使只有一个样本每意图。我们还展示了使用意图描述促进 LLM 的零样本方法。
May, 2023
本研究提出一种基于 Zero-Shot Adaptive Transfer 方法的领域自适应对话代理模型,通过利用槽位描述信息实现可重用概念在领域之间的迁移,并避免了显式概念对齐的训练复杂度,实验结果表明此模型在多达 10 个领域的数据集上性能显著优于之前的最优系统,特别在低数据情况下表现更出色。
Aug, 2018
本文综述了现有零样本识别技术的方方面面,包括模型表示、数据集、评估方式等,并简要介绍了一些相关的识别任务,如一次性识别和开放集识别等。同时,我们也指出了现有方法的局限性以及未来的研究方向。
Oct, 2017
本研究提出一种使用对比学习和伪标签的方法来预训练文本编码器,旨在提高任务导向对话系统中意图分类的性能。通过在四个意图分类数据集上进行实验,我们的预训练意图感知编码器 (PIE) 模型相比于现有最先进的预训练句子编码器,在 N 路零 / 一次测试中获得了高达 5.4% 和 4.0% 的精度提高。
May, 2023
通过零样本学习的方法,实现了目的性对话系统中的意向分类和槽位标注任务。研究表明,将意向和槽位之间的依赖关系建模,以及通过神经网络将单词和句子转换成嵌入空间,是提高任务准确性的关键因素。
Nov, 2022
本篇论文提出一种新的零样本学习范式,其适用于任何格式,并适用于一系列语言任务,如文本分类、常识推理、指代消解和情感分析,并将零样本学习转化为多选任务,从而避免大规模生成模型的问题。该方法不仅增加了模型的推广能力,而且显著减少了参数的数量,同时具有高效的训练和部署特点。经实验结果表明,该方法在多个基准测试中表现卓越,且仅使用了 235M 的参数,远小于拥有十亿参数的现有先进模型。
Oct, 2022
本文提出了两种基于胶囊网络的架构,分别为 INTENT-CAPSNET 和 INTENTCAPSNET-ZSL,可用于用户意图检测问题。使用这些模型可以在没有标记的语句的情况下检测出新兴的用户意图。在两个真实世界数据集上的实验证明了该模型的有效性。
Sep, 2018
本文提出了一种对于细粒度、语义相似的意图进行 Few-shot 检测的方案,使用了对比自监督预训练和有监督对比学习的组合方式,在三种不同的具有挑战性的 Few-shot 意图检测数据集上实验,获得了最先进的表现。
Sep, 2021