大型语言模型在扩展口语理解系统到新语言方面的应用
本文介绍如何通过在多语言之间传递数据以减少成本,从而提高对新语言的口语理解系统。我们的多任务SLU框架在不同语言上经过评估,结果表明我们的单语言模型优于最先进的技术,我们可以大大减少引导新语言口语理解系统所需的数据量,同时,虽然多任务训练比单独训练要好,但不同的权重转移设置可能对不同的SLU模块最有效。
Apr, 2019
本文研究提出了一种通用多语言模型的框架,该框架利用深度学习架构实现语音助手设备的自然语言理解,显著减少了单独开发每种语言模型所需要的努力和维护成本,并在多语种环境下取得了比单语种环境下更好的研究成果。
Dec, 2020
本文介绍了一种基于可预训练的差分可训练模型和使用 Transformer 的层次化系统的语音识别模型,旨在提高其在商用语音助理中的应用性能。实验表明,与基准系统相比,在一些神经网络模型和数据集之上达到了较好的表现。在对数据进行了重新标注并进行了人工评估后,本文提出的方法的语义准确率得到了大幅提高,这显示出本文提出的方法在商用语音助理中的应用价值。
Jun, 2021
本文研究了利用深度神经网络的端到端口语理解模型(E2E SLU)在非英语智能家居背景下使用的语言特性,证明了优良的E2E SLU表现并不总是需要完美的ASR能力,并且E2E模型相较于传统管道模型在处理背景噪声和语法变异等方面有更出色的性能。该研究还发现,E2E模型通过音调信息识别语音命令概念。
Jul, 2022
本文介绍了一个三阶段的方案,旨在解决自然语言理解中多语言系统的限制,并推进NLU技术发展。该方案发布了一个包含52种语言数据集的Multilingual Amazon SLU资源包,并组织了Massively Multilingual NLU 2022 Challenge和首个Massively Multilingual NLU工作坊,以此推进多语言NLU研究。
Dec, 2022
本研究基于自由可用的语音数据介绍了几种新的语音理解测试任务,包括问题回答、摘要、命名实体定位和对话行为分类,旨在补充现有基准测试并解决SLU评估领域的差距,为便于比较而发布了基准模型。
Dec, 2022
本研究通过利用大型语言模型(LLMs)进行多意图口语语言理解(SLU)的研究,提出一种独特的方法,充分利用LLMs的生成能力,在SLU环境中重构了实体槽位,引入了子意图指令(SII)的概念,增强了对复杂多意图通信的解析和解释,从而形成了名为LM-MixATIS和LM-MixSNIPS的结果数据集。我们的研究表明,LLMs可以匹配并潜在地超越当前最先进的多意图SLU模型的能力。此外,我们还介绍了两个开创性的度量标准,实体槽位准确度(ESA)和综合语义准确度(CSA),以深入分析LLMs在这一复杂领域的熟练程度。
Mar, 2024
本研究针对缺乏大规模多语言语音理解(SLU)数据集的问题,提出了Speech-MASSIVE,一个涵盖12种语言的多语言语音数据集,并包含意图预测和槽填充任务的注释。该数据集为基础模型的评估提供了多模态和多任务支持,其显著发现是适用于多种任务的基准测试,包括语音转录和语言识别。
Aug, 2024