使用 RNN Seq2seq 模型学习跨序列转换和对齐
本文介绍了一种基于递归神经网络的端到端,概率序列转换系统,该系统可以将任意输入序列转换为任意的有限离散输出序列,并在 TIMIT 语音语料库上提供了音素识别的实验结果。
Nov, 2012
通过实证比较,证明 Seq2Seq 和 RNN-Transducer 模型在不使用语言模型的情况下都优于最佳的 CTC 模型,使得语音识别流程可以纯粹地表述为神经网络操作。我们还研究了编码器架构选择对三个模型性能的影响。
Jul, 2017
提出一种新的序列到序列模型 -- 一个 RNN transducer (RNN-T) 来解决名词实体识别 (NER) 的任务,利用对齐的人类标注信息作为特征来训练模型,并通过实验表明该方法可以提高 F1-score 的表现。
Feb, 2022
该研究通过在神经 seq2seq 模型中建模 segment-to-segment 对齐,提高了模型的系统化泛化能力,并在语义解析和机器翻译等任务上得到了较好的表现。
Jun, 2021
本文介绍了使用神经序列到序列模型在现有数据集上达到最先进或接近最先进的结果,以转录为重点组件的机器翻译系统和软件国际化。为了使机器转录易于使用,我们开放了一个新的阿拉伯文到英文的转录数据集和我们训练的模型。
Oct, 2016
本文提出使用多语言数据建立先前模型,结合迁移学习的方法,通过在 10 个 BABEL 语言中训练 seq2seq 模型来改进音频识别,同时在解码时加入循环神经网络语言模型 (RNNLM) 来进一步提高模型的表现,实验结果表明,将先前的多语言模型应用于 4 种其他 BABEL 语言可以有效提高识别的准确度,并且加入 RNNLM 辅助也可以带来显著的性能提升。
Oct, 2018
分析了增加堆栈功能的 RNN 模型的行为,研究它们在多个任务中的表现,并发现这些模型可以通过发现直观的基于堆栈的策略来解决这些任务。但是,与 LSTMs 等经典架构相比,堆栈 RNNs 更难训练,并且更复杂的网络通常会将栈用作非结构化内存来找到近似解。
Sep, 2018
该研究分析了一个基于注意力机制的序列到序列语音识别系统,提出了解决其预测过于自信和产生不完整转录的问题的实用解决方案,并在没有语言模型的情况下,其词错误率为 10.6%,与 trigram 语言模型一起达到了 6.7%的词错误率。
Dec, 2016
本文介绍最近相结合的 seq2seq,深度神经网络和加强学习模型,考虑如何在决策制定的 RL 方法中利用序列到序列模型的长期记忆能力来解决复杂的问题,提出并探讨 RL 方法解决序列到序列模型领域常见的曝光偏差而且在训练与测试的指标上也不一致的两个问题,并提供了大多数 RL 模型的源代码以支持抽象文本摘要的复杂任务。
May, 2018
本文对于近三十年来产生和实践了重要的循环神经网络(RNN),LSTM 和 BRNN 等模型的研究进行综述,旨在提供一个自成体系的最前沿阐述和历史视角,并引用了相关研究文献。
May, 2015