神经数据生成文本:管道与端到端架构的比较
比较了常用的自然语言生成方法,探讨模板模型、管道模型和神经网络模型在从结构化数据生成葡萄牙语文本时的表现,并发现中间步骤较多的方法能比端到端的神经网络模型生成更好的文本。
Oct, 2022
本文利用预处理语言模型进行通用领域训练,使用由维基百科构建的 WikiFluent 数据集,在 WebNLG 和 E2E 数据集上进行实验证明,使用单个项目描述生成 D2T 是可行的,且可以从 RDF 三元组中完成零 - shot D2T 生成。
Mar, 2022
该论文介绍了一种以实体为中心的神经体系结构,用于生成数据到文本的任务,并通过在 RotoWire 基准和棒球领域的新数据集上进行的实验,表明该模型在自动和人类评估上优于竞争基线。
Jun, 2019
本文介绍了多种扩展序列 - 序列模型的方法,旨在解决从结构化数据中生成流畅自然语言的问题,特别关注潜在内容选择过程的变体,包括复制注意力和覆盖解码。我们提出了一种基于多样集成的训练方法,以鼓励模型在训练过程中学习不同的句子模板,并通过比较其生成的文本在五个自动度量标准和人类评估中的结果,表明这些技术可以提高生成文本的质量。
Oct, 2018
本文提出了一种神经网络体系结构,它在不牺牲端到端训练的前提下,结合了内容选择和计划,通过将生成任务分解为两个阶段,根据数据记录生成内容计划并生成文档,在自动化和人类试验中都取得了优越表现,从而提高了最近发布的 RotoWire 数据集的最新技术。
Sep, 2018
比较基于单词和字符的序列到序列模型在数据到文本自然语言生成方面的表现,进一步分析了两者输入表示之间的差异和生成文本的差异性,并通过对模板产生的合成训练数据的控制性实验展示神经模型学习新组合模板的能力。
Oct, 2018
本研究比较了非流式和流式模式下三种端到端自动语音识别模型,包括循环神经网络转导器(RNN-T)、循环神经网络基于注意力的编码器 - 解码器(RNN-AED)和 Transformer-AED。研究表明,Transformer-AED 在流式和非流式模式下的精度最佳,并且在流式模式下如果其编码器可以正确初始化,RNN-T 也是一个具有竞争力的模型。与高度优化的混合模型相比,流式 RNN-T 和 Transformer-AED 模型均可以获得更好的精度。
May, 2020
本文提出了一种多任务联合训练的端到端语音理解模型 “Audio-Text All-Task (AT-AT) Model”,该模型能够同时训练语音转文字、语音理解和文本理解任务,不仅可以在多个数据集上实现最优性能,还可用于零 - shot 端到端语音理解任务。
Dec, 2020
本文介绍了深度学习在语音到文本翻译领域的应用,主要研究了不同端到端架构以及辅助性连接主义时间分类(CTC)损失函数的使用,着重探讨了预训练模型对最终性能的影响,实验证明预训练模型可以使 BLEU 指标提高 4%,TER 指标提高 5%,并且在 270 小时 IWSLT TED 演讲 En->De 和 100 小时 LibriSpeech Audiobooks En->Fr 上的实验结果表明,该方法可以超过当前的端到端最先进系统。
Nov, 2019