基于神经机器翻译的实时翻译学习
提出了一种多模式神经机器翻译方法,即多模式同时翻译 (MSNMT),能够在翻译过程中利用视频信息和实现实时多语言理解。实验证实,该方法可显著提高翻译效率,特别是在低延迟情况下,比单纯文本的模型更加优秀。此外,我们通过对 MSNMT 的对抗性评估研究发现了视频信息在解码过程中的重要性,并分析了源语言和目标语言之间不同的单词顺序对翻译结果的影响。
Apr, 2020
Google 发布的 GNMT 神经机器翻译系统采用 LSTM 深度学习网络,使用 attention 机制和残差连接,借助词元素 (wordpieces) 将单词划分为子单元,提高了稀有单词处理能力与整体系统精度。
Sep, 2016
提出了一种用于机器翻译的神经网络模型,其能够动态决定何时继续输入源文本或生成翻译文本,通过使用单向或双向编码器来处理实际语音和文本输入,使用词对齐方法生成分块训练数据,并在 IWSLT 2020 英 - 德任务上优于 wait-k 基线 2.6 到 3.7% BLEU 中的结果。
May, 2020
本文探讨了注意力机制的神经机器翻译在同时翻译中的应用,并引入一种新的解码算法 —— 同时贪心解码,可在接收到完整源句之前开始翻译。该方法与以往同时翻译的研究不同之处在于,它是基于分割和翻译同时进行的,以最大化翻译质量,并且每个片段的翻译都强烈依赖于之前所有片段。这项研究是基于神经机器翻译建立完整的同时翻译系统的第一步。
Jun, 2016
本文探讨神经机器翻译在低延迟语音翻译中遇到的问题,提出一种无需任务特定训练数据的适应方法,并通过构造人工数据和使用多任务学习技术成功降低了每次输出构建时所需的更正数量,同时保持了翻译质量。
Aug, 2018
本文旨在解决传统编码器 - 解码器架构中的长度固定向量制约所面临的性能瓶颈,并提出一种基于(软)搜索方式的新方法,在英法翻译任务中获得了与基于短语的模型相当的翻译性能,且(软)对齐结果与人类直觉相符。
Sep, 2014
本文提出了将 SMT 模型融入 NMT 框架,通过辅助分类器和门函数来结合 SMT 的推荐和 NMT 的生成,从而提高中英翻译的性能。实验结果表明,该方法在多个测试集上均显著优于现有的 NMT 和 SMT 系统。
Oct, 2016
本文追溯了现代神经机器翻译体系结构的起源,重点探讨了单个神经网络在翻译中的应用,其中涉及到 word 和 sentence embedding 以及编码器 - 解码器网络家族的早期示例,并总结了该领域的最新趋势。
Dec, 2019
使用词汇短语转换(phrase-based machine translation)方法预处理输入,进而提升神经机器翻译(NMT)的翻译质量,在英德翻译任务中,使用该方法的性能跃升 2 个 BLEU 分数,同时分析了初始系统质量对最终结果的影响。
Oct, 2016