使用双语句编码器的高效意图检测
该文提出了“开放式意图发现”任务并提出了双向LSTM+CRF模型、自注意力、对抗训练等新方法,在真实数据集上进行实验,证明了该方法的有效性并达到了领先水平。
Apr, 2019
本论文旨在提出一种有效的适应新领域的可扩展模型,该模型使用观察者和基于示例的训练方法提高了话语分类模型的概括能力,并实现在银行,CLINC150和HWU64上进行的语言意图识别中,采用以上方法获得了最先进的结果。
Oct, 2020
本文研究了识别出领域外意图的方法,通过对多种上下文编码器和方法进行对比发现,在只使用领域内数据的情况下,基于 Transformer 的编码器 fine-tuning 可以实现更好的性能,而Mahalanobis距离与来自Transformer-based编码器的话语表示相结合的方法在这方面表现优异
Jan, 2021
RIDE是一种利用常识知识无监督方式来检测用户意图的模型,通过计算鲁棒且具有泛化性的关系元特征来捕获话语和意图标签之间的深层语义关系,从而实现对已见和未见意图的高精度检测。
Feb, 2021
本文提出了一种用于多语言和跨语言口语数据意图检测的系统性研究,对该研究所介绍的一个新资源(MInDS-14)进行了利用,证明使用机器翻译模型和最先进的多语言句子编码器相结合能够在大多数MInDS-14所涵盖的目标语言中产生强大的意图检测器,并提供了针对不同维度(如零-shot学习与有限-shot学习、翻译方向、语音识别的影响)的比较分析。我们认为这项工作是在比以往的工作更广泛的语言范围内开发和评估多语意图检测器的重要一步。
Apr, 2021
本文研究了少样本意图分类预训练的有效性,发现仅使用公共数据集上的少量标记数据对BERT进行微调即可高效地生成一个预训练模型IntentBERT,其性能超过现有预训练模型,具有高泛化能力。
Sep, 2021
本文提出了ConvFiT框架,将经过预训练的语言模型转化为通用会话编码器和专门的句子编码器,能够在理解任务中达到类似语义相似性的结果,并在意图检测中实现了最先进的性能。
Sep, 2021
本研究提出一种使用对比学习和伪标签的方法来预训练文本编码器,旨在提高任务导向对话系统中意图分类的性能。通过在四个意图分类数据集上进行实验,我们的预训练意图感知编码器 (PIE) 模型相比于现有最先进的预训练句子编码器,在N路零/一次测试中获得了高达5.4%和4.0%的精度提高。
May, 2023
通过在多个任务上训练基于Transformer编码器的统一模型,并借助富输入在目标推理上对模型进行条件化,本文探索了解决对话系统中用户意图的不可预测性和插槽的异构性的假设,并表明将模型条件化于对同一语料库上的多个推理任务,如意图和多个插槽类型,可以学习到比单任务模型更丰富的语言交互;实验结果表明,将模型条件化于越来越多的对话推理任务可以提高性能,MultiWOZ数据集上,通过对意图进行条件化可以提高3.2%的联合意图和插槽检测性能,通过对插槽进行条件化可以提高10.8%的性能,同时对意图和插槽进行条件化可以提高14.4%的性能;此外,在与Farfetch客户的实际对话中,该条件化BERT可以在整个对话过程中实现高效的联合目标和意图检测性能。
Aug, 2023
通过使用三个任务(意图分类、意图聚类和新颖的三元组任务)来评估意图嵌入模型在语义理解方面的能力,研究使用预训练方法和数据增强来改善意图嵌入模型在实际对话系统中的性能。
Mar, 2024