基于胶囊神经网络的联合槽位填充与意图识别
本文提出了一种基于 BERT 的双向联合模型,通过 intent2slot 和 slot2intent 两个机制同时优化意图分类和位置填充,达到了当前公开数据集 ATIS(88.6%)和 SNIPS(92.8%)的最好结果,并显著提高了句子级语义框架的准确性。
Feb, 2022
本文综述了自然语言理解中重要的两个任务:目的意图分类和词槽填充。特别是联合模型已经成为达到最佳性能的方法,并揭示了两个任务之间的强关系。文章描述了意图分类和词槽填充在趋势、方法、问题、数据集、评估指标、性能、共享任务等方面的研究,其中包括不同维度的表格总结过去的研究。
Jan, 2021
本文提出了一种基于 BERT 的联合意图分类和槽填充模型,实验证明相对于基于注意力的循环神经网络模型和槽门控模型,在几个公共基准数据集上,我们的模型在意图分类准确性、槽填充 F1 值和句级语义框架精度方面显著提高。
Feb, 2019
提出了一种基于注意力机制的神经网络模型,用于同时执行关键步骤(意图检测、填充构構)进行语音理解和对话系统处理。该模型基于编码 - 解码框架,将对齐信息的注意力融合到了模型中,其表现优于传统模型。
Sep, 2016
本研究提出了一种新颖的基于监督学习的方法,它可以学习生成针对不同槽类型的特征以提高准确性,并提供了首个能够解释基于联合 NLU 模型的槽填充决策的方法,从而保证了模型的可解释性。实验结果表明,该方法在两个广泛使用的数据集上均取得了准确性改进,并提供了有关独占式槽解释性的详细分析。
Oct, 2022
本文重点考察了基于神经网络的研究,围绕自然语言理解在对话系统中的应用,着重研究了两个核心问题:slot filling 和 intent classification,并介绍了三种神经网络架构:独立模型、联合模型和迁移学习模型。提出了当前研究中面对的挑战。
Nov, 2020
本文提出了一个基于 BERT 的多意图自然语言理解框架 SLIM,可以共同学习多意图检测和插槽填充,并引入显式的槽 - 意图分类器以学习槽和意图之间的多对一映射,实验结果表明,相对于现有技术,SLIM 在多意图 NLU 方面具有优越性,并且可以获得来自槽 - 意图分类器的好处。
Aug, 2021
本文提出了一种新颖的双向互相关联的联合意图检测和槽填充模型,通过引入 SF-ID 网络和全新的迭代机制来增强两个任务之间的双向关联,实验结果表明,在 ATIS 和 Snips 数据集上,与现有最先进的模型相比,本模型在句子级语义框架准确度上相对提高了 3.79% 和 5.42%。
Jun, 2019
本文介绍了 Bert-Joint,一种利用多语言联合文本分类和序列标注框架的模型,旨在利用 “无递归” 模型成功应用于口语自然语言理解的任务上,并通过实验验证了该模型在英语基准数据集上表现出了强大的性能,处理少量的标注数据时表现良好。此外,我们还为意大利语语言标注了一个新数据集,并观察到了类似的性能,而不需要更改模型。
Jul, 2019
该研究提出了自然语言对话系统中自动推断语义意图和关键词槽位的新方法,通过应用 Apriori 算法,设计了一种包含角色标注,概念挖掘,模式挖掘三步的粗略到精细的三步流程,实验表明该方法不仅适用于领域内和领域间的数据,具有良好的适应性,而且大大减少了手动工作。
Mar, 2021