使用 BERT 增强意图特征的槽位标记任务导向自然语言理解
本文提出了一个基于 BERT 的多意图自然语言理解框架 SLIM,可以共同学习多意图检测和插槽填充,并引入显式的槽 - 意图分类器以学习槽和意图之间的多对一映射,实验结果表明,相对于现有技术,SLIM 在多意图 NLU 方面具有优越性,并且可以获得来自槽 - 意图分类器的好处。
Aug, 2021
本文提出了一种基于 BERT 的联合意图分类和槽填充模型,实验证明相对于基于注意力的循环神经网络模型和槽门控模型,在几个公共基准数据集上,我们的模型在意图分类准确性、槽填充 F1 值和句级语义框架精度方面显著提高。
Feb, 2019
本文提出了一种基于 BERT 的双向联合模型,通过 intent2slot 和 slot2intent 两个机制同时优化意图分类和位置填充,达到了当前公开数据集 ATIS(88.6%)和 SNIPS(92.8%)的最好结果,并显著提高了句子级语义框架的准确性。
Feb, 2022
本文介绍了 Bert-Joint,一种利用多语言联合文本分类和序列标注框架的模型,旨在利用 “无递归” 模型成功应用于口语自然语言理解的任务上,并通过实验验证了该模型在英语基准数据集上表现出了强大的性能,处理少量的标注数据时表现良好。此外,我们还为意大利语语言标注了一个新数据集,并观察到了类似的性能,而不需要更改模型。
Jul, 2019
本文综述了自然语言理解中重要的两个任务:目的意图分类和词槽填充。特别是联合模型已经成为达到最佳性能的方法,并揭示了两个任务之间的强关系。文章描述了意图分类和词槽填充在趋势、方法、问题、数据集、评估指标、性能、共享任务等方面的研究,其中包括不同维度的表格总结过去的研究。
Jan, 2021
该文章提出了一种基于 BERT 的新方法,在识别复杂 token 中的语义信息时,通过提出的子词注意适配器(SAA)来保留整个话语信息。此外,我们还提出了一个意向注意适配器(IAA)来在模型中实现整句特征提取,从而改进了预测性能,最终,我们在两个公共基准数据集上取得了显著的性能提升。
Nov, 2022
本研究提出了基于 capsule 的神经网络模型,通过动态路由协议实现槽填充和意图检测,从而有效地利用了语义层次结构。实验表明,与其他模型结构以及现有自然语言理解服务相比,我们的模型具有更好的性能。
Dec, 2018
本文提出了一种新颖的双向互相关联的联合意图检测和槽填充模型,通过引入 SF-ID 网络和全新的迭代机制来增强两个任务之间的双向关联,实验结果表明,在 ATIS 和 Snips 数据集上,与现有最先进的模型相比,本模型在句子级语义框架准确度上相对提高了 3.79% 和 5.42%。
Jun, 2019
本文提出了以越南语为主题的第一个公共意图检测和插槽填充数据集,同时提出了一种联合模型用于意图检测和插槽填充,并通过将意图上下文信息显式地纳入插槽填充中来扩展最新的 JointBERT+CRF 模型,实验结果表明,所提出的模型明显优于 JointBERT+CRF,并公开发布数据集和模型实现。
Apr, 2021