学习类 - 转导意图表示以进行零样本意图检测
探讨了用于意图识别的广义零射击模式,并使用句子对建模方法,通过任务转移进一步提高性能,使用语境编码器的预训练技术使模型适用于主要且适应不断变化的应用。
Jun, 2022
本文提出一种基于双向映射的语义关系建模方案,实现跨模态的知识转移并解决领域转化问题,通过迭代更新使得分类器不断加强预测能力,实验结果在三个基准数据集上显著优于现有方法。
Mar, 2017
RIDE 是一种利用常识知识无监督方式来检测用户意图的模型,通过计算鲁棒且具有泛化性的关系元特征来捕获话语和意图标签之间的深层语义关系,从而实现对已见和未见意图的高精度检测。
Feb, 2021
利用仅有每个意图几个样本文本句子的泛化零样本音频到意图分类框架,该框架使用只有音频的数据,通过训练有监督的音频到意图分类器和利用神经音频合成器生成音频嵌入,使用余弦相似度对未见过的意图进行泛化零样本分类,并通过多模态训练策略将词汇信息融入音频表征来提高泛化零样本性能。相较于仅使用音频训练,我们的多模态训练方法提高了 SLURP 和内部目标导向对话数据集上未见过的意图的零样本意图分类准确率分别为 2.75%和 18.2%。
Nov, 2023
本文提出了一种简单而有效的元学习范式,采用多种混合注意力机制来提取更好的话语特征,采用元学习策略来提高模型的泛化能力,从而在标准和广义零 - shot 意向分类任务上优于其他强基线
Jun, 2022
利用创造力的灵感,提出了一个创造力启发模型 CIZSL-v1 和进一步改进的模型 CIZSL-v2,通过对无法识别的类别进行视觉学习来改善 Zero-shot Learning(ZSL)的判别能力,同时引入了类比于创造力文献的学习信号,可以在挖掘类别特征并保证视觉特征之间的差异性的前提下实现已知类别到未知类别的知识转移,提高了模型性能。
Jan, 2021
本文提出了两种基于胶囊网络的架构,分别为 INTENT-CAPSNET 和 INTENTCAPSNET-ZSL,可用于用户意图检测问题。使用这些模型可以在没有标记的语句的情况下检测出新兴的用户意图。在两个真实世界数据集上的实验证明了该模型的有效性。
Sep, 2018
我们提出了一种用于零样本学习的渐进式语义引导视觉 Transformer(ZSLViT),通过语义嵌入令牌学习改进视觉 - 语义对应关系,发现语义相关的视觉令牌,并且通过弱语义 - 视觉对应关系融合来舍弃与语义无关的视觉信息,从而在零样本学习中实现准确的视觉 - 语义交互作用,我们的 ZSLViT 在 CUB、SUN 和 AWA2 等三个常用基准数据集上取得了显著的性能提升。
Apr, 2024
本文提出了 Query-to-Intent-Description (Q2ID) 任务,利用 Contrastive Generation 模型 CtrsGen 生成自然语言 intent 描述,以解决 IR 中的搜索理解问题,通过对多个基准数据集的比较验证了模型的有效性。
Aug, 2020