低资源语言中的零样本槽位与意图检测
本文提出了跨语言意图和槽位检测的新基准,称为 xSID,并探讨了使用联合学习方法和机器翻译转移学习来处理数据稀缺的情况。结果表明,对于槽位填充任务,联合学习任务加遮掩语言模型是有效的,而机器翻译转移学习对于意图分类任务效果最好。
May, 2021
在本研究中,我们研究了无需显式标注的词级槽位注释的情况下,用于识别 Task-oriented Dialogue Systems 中的槽位边界的槽位感知(Slot Induction)任务,并提出利用无监督预训练语言模型(PLM)探测和对比学习机制,结合可从 Task-oriented Dialogue Systems 中获得的句级意图标签信号,从而在两个自然语言理解基准数据集上展现出有效性,同时能够填补与词级监督模型之间的差距。当推广到新兴意图时,我们的槽位感知目标还提供了改进的槽位标签表示,从而提高了槽位填充任务的性能。
Aug, 2023
本文提出了一种用于多语言和跨语言口语数据意图检测的系统性研究,对该研究所介绍的一个新资源(MInDS-14)进行了利用,证明使用机器翻译模型和最先进的多语言句子编码器相结合能够在大多数 MInDS-14 所涵盖的目标语言中产生强大的意图检测器,并提供了针对不同维度(如零 - shot 学习与有限 - shot 学习、翻译方向、语音识别的影响)的比较分析。我们认为这项工作是在比以往的工作更广泛的语言范围内开发和评估多语意图检测器的重要一步。
Apr, 2021
本文提出了一个基于 BERT 的多意图自然语言理解框架 SLIM,可以共同学习多意图检测和插槽填充,并引入显式的槽 - 意图分类器以学习槽和意图之间的多对一映射,实验结果表明,相对于现有技术,SLIM 在多意图 NLU 方面具有优越性,并且可以获得来自槽 - 意图分类器的好处。
Aug, 2021
本文提出了一种新颖的双向互相关联的联合意图检测和槽填充模型,通过引入 SF-ID 网络和全新的迭代机制来增强两个任务之间的双向关联,实验结果表明,在 ATIS 和 Snips 数据集上,与现有最先进的模型相比,本模型在句子级语义框架准确度上相对提高了 3.79% 和 5.42%。
Jun, 2019
本文提出了以越南语为主题的第一个公共意图检测和插槽填充数据集,同时提出了一种联合模型用于意图检测和插槽填充,并通过将意图上下文信息显式地纳入插槽填充中来扩展最新的 JointBERT+CRF 模型,实验结果表明,所提出的模型明显优于 JointBERT+CRF,并公开发布数据集和模型实现。
Apr, 2021
通过零样本学习的方法,实现了目的性对话系统中的意向分类和槽位标注任务。研究表明,将意向和槽位之间的依赖关系建模,以及通过神经网络将单词和句子转换成嵌入空间,是提高任务准确性的关键因素。
Nov, 2022
本文提出了一种通过多语言代码切换来增强 Transformer 的语言中立性的新方法,从而解决零样本学习中在未知目标语言下预测用户意图和检测相应选项的问题,并在多个语言上对 MultiATIS ++ 数据集进行实验,相较于现有技术,平均精度提高了 + 4.2%,F1 提高了 + 1.8%。通过收集英语和海地克里奥尔语的新人工标注推文数据集,本文将该方法应用于危机信息学。
Mar, 2021
本文介绍了 Bert-Joint,一种利用多语言联合文本分类和序列标注框架的模型,旨在利用 “无递归” 模型成功应用于口语自然语言理解的任务上,并通过实验验证了该模型在英语基准数据集上表现出了强大的性能,处理少量的标注数据时表现良好。此外,我们还为意大利语语言标注了一个新数据集,并观察到了类似的性能,而不需要更改模型。
Jul, 2019