本论文提出了一种用于语音对话系统的有效的语言理解方法,它包括使用记忆网络来处理多个对话中的话语,以及使用循环神经网络进行上下文编码,以提高语义解析精度和计算效率。
Jul, 2018
该研究旨在构建一种新型的自动预测语音理解系统,该系统利用历史对话信息预测口语意图、对话行为、说话人角色和情感等四种属性,并采用自回归模型和无序训练方法,以应对不同 SLU 任务的高效率和低延迟问题。实验证明,该系统与任务特定的分类器相当,并可有效整合对话环境以进一步提高 SLU 性能。
May, 2023
本文研究口语理解技术中的语义解释提取问题,提出基于深度 RNN 的新型架构,通过在 ATIS 和 MEDIA 语料库上的实验,取得了较先前研究更优的最新成果。
Jun, 2017
该论文提出了一种基于注意力机制的网络,利用上下文和说话人角色进行时态信息的学习和自适应特征提取,从而显著提高了口语理解的性能。
Sep, 2017
提出使用循环神经网络 (RNN) 基于增量处理的方式进行口语语言理解 (SLU) 的意图检测,从而实现系统延迟更低的效果,同时不会显著降低 SLU 系统的准确性。
Oct, 2019
本论文介绍了一种基于端到端的神经网络转换器,可以在不需要中间层令牌预测架构的情况下,在音频信号中预测嵌入式变长域、意图和插槽向量,可高效提取所述话语所隐含的语义上下文。
Aug, 2020
本文研究了基于递归神经网络的联合模型在口语理解(SLU)中的应用,实验结果显示其在意图检测和语义插槽填充任务中表现良好,在嘈杂语音输入场景下也具有较好的性能。
Sep, 2016
这篇论文探讨了针对 Fluent Speech Commands 数据集的一系列递归架构,用于意图分类,通过结合深度递归架构和标准数据增强,不使用 ASR 级目标或预训练的 ASR 模型即可实现最先进的结果,并且探讨了其对新措辞的普适性,结果表明,该模型在训练期间未见过的措辞上也能表现得相当不错。
本文提出了一种将对话级别的语篇信息融入语言模型中的上下文语言模型,该模型在 Switchboard Dialog Act Corpus 上表现出比传统单轮 RNN 语言模型更好的性能。
Jan, 2017
本论文提出了一种新颖的基于改写的 SLU 模型,结合 RNN 和序列到序列的神经网络提出了两个改写生成器,并证明了模型对罕见和复杂的改写话语具有鲁棒性。
Sep, 2018