E2E NLG Challenge 发现
本文分析了自然语言生成(NLG)的第一个端到端共享任务,并根据结果提出了未来研究的方向和建议。研究发现基于 sequence-to-sequence 模型的系统在词汇和人类自然性方面表现良好,但如果缺乏强大的语义控制机制,则通常无法正确表达给定的含义表达。
Jan, 2019
本文介绍了 E2E 数据集,该数据集针对餐厅领域训练端到端的数据驱动自然语言生成系统,比现有数据集大十倍。该数据集的引用文本表现出更多的词汇丰富性和句法变化,同时需要进行内容选择,因此从该数据集学习可以更自然、多样化且不像模板一般。我们还在该数据集上建立了一个基线模型,阐述了与该数据集相关的一些困难。
Jun, 2017
本研究提出了一种半监督深度学习算法,能够在缺乏注释数据的情况下,利用非注释数据进行学习,采用序列到序列模型的 NLG 和 NLU 模型进行联合学习来实现。实验结果表明,在有限的注释数据下,该方法可以不使用任何预处理或重新评分技巧就能够取得非常有竞争力的效果,为不断发展新的 E2E NLG 应用程序开拓了道路。
Sep, 2019
本文提出了一种多任务联合训练的端到端语音理解模型 “Audio-Text All-Task (AT-AT) Model”,该模型能够同时训练语音转文字、语音理解和文本理解任务,不仅可以在多个数据集上实现最优性能,还可用于零 - shot 端到端语音理解任务。
Dec, 2020
本文介绍了一种基于可预训练的差分可训练模型和使用 Transformer 的层次化系统的语音识别模型,旨在提高其在商用语音助理中的应用性能。实验表明,与基准系统相比,在一些神经网络模型和数据集之上达到了较好的表现。在对数据进行了重新标注并进行了人工评估后,本文提出的方法的语义准确率得到了大幅提高,这显示出本文提出的方法在商用语音助理中的应用价值。
Jun, 2021
本研究提出一个通过共享潜变量将自然语言理解和自然语言生成相结合的生成模型,可在平面和树形形式表示的两个对话数据集上达到最先进的性能,并展示了该模型可以利用未标记数据进行半监督学习以提高其性能。
Jun, 2020
本文研究了利用深度神经网络的端到端口语理解模型 (E2E SLU) 在非英语智能家居背景下使用的语言特性,证明了优良的 E2E SLU 表现并不总是需要完美的 ASR 能力,并且 E2E 模型相较于传统管道模型在处理背景噪声和语法变异等方面有更出色的性能。该研究还发现,E2E 模型通过音调信息识别语音命令概念。
Jul, 2022
本研究提出了一种基于语义控制 LSTM 结构的统计自然语言生成器,通过交叉熵训练标准优化句子规划和语言表现,可轻松实现语言变化,并通过两个不同测试域的客观评价和人工评分表明该方法相对于先前方法具有更好的性能和自然度。
Aug, 2015
本研究提出了一种利用神经模型、机器翻译、自然语言生成和元数据的迁移学习方法,用于生成长描述性摘要,旨在解决机器翻译、自然语言生成和元数据机器翻译等方面的挑战。实验结果表明,该方法可以优于现有技术,并在 WNGT 2019 中的 “文档生成和翻译” 任务中荣获全场第一。
Oct, 2019
本文介绍一种基于神经网络的端到端可训练的目标导向对话系统,以及一种新的数据收集方法,该方法基于一种新型的管道式 Wizard-of-Oz 框架。该方法可用于开发对话系统,帮助用户在餐厅搜索领域自然地交流并完成任务。
Apr, 2016