基于基础模板的口语语言理解数据增强
本研究提出了一种数据增量方法,利用预训练语言模型提高生成话语的变异性和准确性,同时探讨和提出了两种在 SLU 中被忽视的半监督学习情况的解决方案。实证结果表明,我们的方法可以生成合成训练数据,在各种情况下提高了语言理解模型的性能。
Apr, 2020
本文提出了一种新的生成架构,旨在借助潜在变量模型的生成能力来共同合成完全注释的话语,并经过实验验证,通过人工合成数据集来训练 SLU 模型,在不同数据集和模型中获得了性能提升。
Sep, 2018
本文提出了一种通过机器学习方法处理低资源语言中语音理解数据的方法,通过多个模型同时对不同扩充的训练数据对彼此提供监督信号,实现了对数据的去噪处理,在两个基准数据集上的实验结果表明,我们的方法优于现有技术达 3.05% 和 4.24% 的性能表现。
Sep, 2021
本论文提出了一种基于元辅助学习的 ASR 和 NLU 联合训练方法,通过利用丰富的语音手动转录数据来提高低资源 SLU 任务的性能,无需访问任何语义注释,该算法的效率在公共 CATSLU 数据集上得到了证明。
Jun, 2022
本研究旨在通过对 SAMU-XLSR 模型进行领域特定语义丰富的专业化,探索这种模型在低资源语言移植中的使用效益,并研究该模型的跨领域能力,以更好地实现复杂口语理解任务中的语义提取。
Jul, 2023
本文介绍了一种使用少量的语音数据和大量的文本数据结合的方法,可以有效地构建端到端的语音理解系统,并在句意和实体两个任务上得到了验证,最终得出该方法可以在仅使用文本数据进行训练的情况下,达到与使用全部语音数据进行训练的系统性能相近的结果。
Feb, 2022
本文介绍如何通过在多语言之间传递数据以减少成本,从而提高对新语言的口语理解系统。我们的多任务 SLU 框架在不同语言上经过评估,结果表明我们的单语言模型优于最先进的技术,我们可以大大减少引导新语言口语理解系统所需的数据量,同时,虽然多任务训练比单独训练要好,但不同的权重转移设置可能对不同的 SLU 模块最有效。
Apr, 2019
本文提出使用基于混合数据增强策略的一致性正则化方法来提高多语言口语理解任务中意图检测和 slot 填充两个子任务的性能,实验结果表明该方法在 MASSIVE 数据集上的表现有明显的提升,在 MMNLU-22 竞赛的全数据集设置中排名第一。
Jan, 2023
本文提出了跨语言意图和槽位检测的新基准,称为 xSID,并探讨了使用联合学习方法和机器翻译转移学习来处理数据稀缺的情况。结果表明,对于槽位填充任务,联合学习任务加遮掩语言模型是有效的,而机器翻译转移学习对于意图分类任务效果最好。
May, 2021
本文提出了一种基于半监督学习的、使用预先训练的端到端自动语音识别(E2E ASR)和自监督语言模型(如 BERT)进行微调的通用语义理解框架,该框架可从转录或未转录的语音中直接学习语义来解决一些 SLU 模型中的问题,如 ASR 错误、意图预测而不是词槽预测以及在大量训练数据不足的情况下训练。实验结果表明,该框架对于语义理解可以与使用 Oracle 文本作为输入的模型相媲美,具有良好的环境噪声鲁棒性,并且在训练集有限的情况下也能达到较好的效果。
Oct, 2020