该研究旨在构建一种新型的自动预测语音理解系统,该系统利用历史对话信息预测口语意图、对话行为、说话人角色和情感等四种属性,并采用自回归模型和无序训练方法,以应对不同 SLU 任务的高效率和低延迟问题。实验证明,该系统与任务特定的分类器相当,并可有效整合对话环境以进一步提高 SLU 性能。
May, 2023
本文提出了一种新颖的双向互相关联的联合意图检测和槽填充模型,通过引入 SF-ID 网络和全新的迭代机制来增强两个任务之间的双向关联,实验结果表明,在 ATIS 和 Snips 数据集上,与现有最先进的模型相比,本模型在句子级语义框架准确度上相对提高了 3.79% 和 5.42%。
Jun, 2019
提出使用循环神经网络 (RNN) 基于增量处理的方式进行口语语言理解 (SLU) 的意图检测,从而实现系统延迟更低的效果,同时不会显著降低 SLU 系统的准确性。
Oct, 2019
本文研究口语理解技术中的语义解释提取问题,提出基于深度 RNN 的新型架构,通过在 ATIS 和 MEDIA 语料库上的实验,取得了较先前研究更优的最新成果。
Jun, 2017
本文研究基于语音指令的自然语言理解问题,提出了一种端到端联合 SLU 模型,可以提取语音中自然语言指令及相关的归属槽位参数或命名实体,并且能够在硬件受限的设备上运行,提高隐私保护并降低服务器成本。
Aug, 2020
该论文讨论了使用深度学习技术进行自然语言理解的联合任务,包括意图检测和槽填充,介绍了 Spoken Language Understanding/Natural Language Understanding(SLU/NLU)技术和用于解决该问题的最新自然语言处理和深度学习技术,以及如何提高性能的一些方法。
Dec, 2022
本文介绍了 Bert-Joint,一种利用多语言联合文本分类和序列标注框架的模型,旨在利用 “无递归” 模型成功应用于口语自然语言理解的任务上,并通过实验验证了该模型在英语基准数据集上表现出了强大的性能,处理少量的标注数据时表现良好。此外,我们还为意大利语语言标注了一个新数据集,并观察到了类似的性能,而不需要更改模型。
Jul, 2019
通过设计新的双模型基于 RNN 的语义框架解析网络结构,使用两个相关的双向 LSTMs 联合执行意图检测和槽位填充任务,取得了关于意图准确性提高了约 0.5% 和槽位填充提高了 0.9% 的最新成果。
Dec, 2018
本文提出了一种基于 BERT 的双向联合模型,通过 intent2slot 和 slot2intent 两个机制同时优化意图分类和位置填充,达到了当前公开数据集 ATIS(88.6%)和 SNIPS(92.8%)的最好结果,并显著提高了句子级语义框架的准确性。
Feb, 2022
本论文提出了一种新颖的基于改写的 SLU 模型,结合 RNN 和序列到序列的神经网络提出了两个改写生成器,并证明了模型对罕见和复杂的改写话语具有鲁棒性。
Sep, 2018