通过改写实现强大的口语理解
本文研究口语理解技术中的语义解释提取问题,提出基于深度 RNN 的新型架构,通过在 ATIS 和 MEDIA 语料库上的实验,取得了较先前研究更优的最新成果。
Jun, 2017
提出了一种多级多粒度的语音语义理解(SLU)框架 MMCL,应用对比学习在话语级、槽位级和词级三个层级上,实现意图和槽位之间的互相引导,通过对公开的多意图 SLU 数据集的实验结果和进一步分析,证明了模型取得了新的最先进结果,在 MixATIS 数据集上的整体准确率相比之前最好的模型提高了 2.6 个百分点。
May, 2024
通过利用大型语言模型与多任务能力展示有希望的结果,我们构建了一个名为 UniverSLU 的单一多任务学习模型,它在 12 个语音分类和序列生成任务、17 个数据集和 9 种语言上展现出了竞争性的性能并且超过了特定任务模型。同时,我们还初步探索了使用人类可解释的自然短语代替任务限定词作为离散提示,并测试了该模型对新的释意表达的泛化能力。
Oct, 2023
本文提出了一种新的基于递归神经网络(RNN)的序列化对话编码器网络,并将其与传统的语言理解系统和记忆网络进行了比较,实验证明该网络可以减少语义框架错误率。
May, 2017
本论文提出了一种用于语音对话系统的有效的语言理解方法,它包括使用记忆网络来处理多个对话中的话语,以及使用循环神经网络进行上下文编码,以提高语义解析精度和计算效率。
Jul, 2018
本文提出了一种基于半监督学习的、使用预先训练的端到端自动语音识别(E2E ASR)和自监督语言模型(如 BERT)进行微调的通用语义理解框架,该框架可从转录或未转录的语音中直接学习语义来解决一些 SLU 模型中的问题,如 ASR 错误、意图预测而不是词槽预测以及在大量训练数据不足的情况下训练。实验结果表明,该框架对于语义理解可以与使用 Oracle 文本作为输入的模型相媲美,具有良好的环境噪声鲁棒性,并且在训练集有限的情况下也能达到较好的效果。
Oct, 2020
该研究提出了一个自然语言生成系统,使用机器翻译和深度循环神经网络来生成语言交互和注释,并在 ASk 技能上评估其对 NLU 模型的影响,在未见过的技能中得到显着改善。
Jun, 2020
本文提出了一种利用对比目标、监督对比学习和自蒸馏相结合的方法来学习对语音识别中的错误具有鲁棒性的话语表示,并进一步增强了其泛化能力。在三个基准数据集上的实验表明了我们提出的方法的有效性。
May, 2022
本研究提出了一种新的减少训练数据量的语音理解模型,在预训练中通过预测单词和音素来学习关键特征,并使用新的 SLU 数据集 Fluent Speech Commands 进行实验以测试泛化能力。
Apr, 2019