BERT 用于联合意图分类和槽填充
本文提出了一种基于 BERT 的双向联合模型,通过 intent2slot 和 slot2intent 两个机制同时优化意图分类和位置填充,达到了当前公开数据集 ATIS(88.6%)和 SNIPS(92.8%)的最好结果,并显著提高了句子级语义框架的准确性。
Feb, 2022
本文介绍了 Bert-Joint,一种利用多语言联合文本分类和序列标注框架的模型,旨在利用 “无递归” 模型成功应用于口语自然语言理解的任务上,并通过实验验证了该模型在英语基准数据集上表现出了强大的性能,处理少量的标注数据时表现良好。此外,我们还为意大利语语言标注了一个新数据集,并观察到了类似的性能,而不需要更改模型。
Jul, 2019
本文综述了自然语言理解中重要的两个任务:目的意图分类和词槽填充。特别是联合模型已经成为达到最佳性能的方法,并揭示了两个任务之间的强关系。文章描述了意图分类和词槽填充在趋势、方法、问题、数据集、评估指标、性能、共享任务等方面的研究,其中包括不同维度的表格总结过去的研究。
Jan, 2021
该文章提出了一种基于 BERT 的新方法,在识别复杂 token 中的语义信息时,通过提出的子词注意适配器(SAA)来保留整个话语信息。此外,我们还提出了一个意向注意适配器(IAA)来在模型中实现整句特征提取,从而改进了预测性能,最终,我们在两个公共基准数据集上取得了显著的性能提升。
Nov, 2022
本文提出了一个基于 BERT 的多意图自然语言理解框架 SLIM,可以共同学习多意图检测和插槽填充,并引入显式的槽 - 意图分类器以学习槽和意图之间的多对一映射,实验结果表明,相对于现有技术,SLIM 在多意图 NLU 方面具有优越性,并且可以获得来自槽 - 意图分类器的好处。
Aug, 2021
本文探讨在联合意图检测和槽位标注模型中通过利用意图标签特征提升槽位标注任务的性能,研究结果表明,将意图标签特征考虑进模型可以提高模型的性能。
May, 2022
本研究提出了基于 capsule 的神经网络模型,通过动态路由协议实现槽填充和意图检测,从而有效地利用了语义层次结构。实验表明,与其他模型结构以及现有自然语言理解服务相比,我们的模型具有更好的性能。
Dec, 2018
通过在多个任务上训练基于 Transformer 编码器的统一模型,并借助富输入在目标推理上对模型进行条件化,本文探索了解决对话系统中用户意图的不可预测性和插槽的异构性的假设,并表明将模型条件化于对同一语料库上的多个推理任务,如意图和多个插槽类型,可以学习到比单任务模型更丰富的语言交互;实验结果表明,将模型条件化于越来越多的对话推理任务可以提高性能,MultiWOZ 数据集上,通过对意图进行条件化可以提高 3.2%的联合意图和插槽检测性能,通过对插槽进行条件化可以提高 10.8%的性能,同时对意图和插槽进行条件化可以提高 14.4%的性能;此外,在与 Farfetch 客户的实际对话中,该条件化 BERT 可以在整个对话过程中实现高效的联合目标和意图检测性能。
Aug, 2023
本文提出了以越南语为主题的第一个公共意图检测和插槽填充数据集,同时提出了一种联合模型用于意图检测和插槽填充,并通过将意图上下文信息显式地纳入插槽填充中来扩展最新的 JointBERT+CRF 模型,实验结果表明,所提出的模型明显优于 JointBERT+CRF,并公开发布数据集和模型实现。
Apr, 2021
本研究提出了一种新颖的基于监督学习的方法,它可以学习生成针对不同槽类型的特征以提高准确性,并提供了首个能够解释基于联合 NLU 模型的槽填充决策的方法,从而保证了模型的可解释性。实验结果表明,该方法在两个广泛使用的数据集上均取得了准确性改进,并提供了有关独占式槽解释性的详细分析。
Oct, 2022