学习解析和翻译改进神经机器翻译
该论文提出了一种新颖的神经机器翻译模型,可联合学习句子的翻译和源端的潜在图表示,通过端到端模型优化句子的潜在图解析器,实现了目标翻译优化,并在标准的英日翻译数据集上显著优于以前的最佳模型。
Feb, 2017
我们介绍了一种利用循环神经网络语法编码器和新颖的注意力递归神经网络解码器的模型,利用策略梯度强化学习来在源语言和目标语言上诱导无监督树结构,从而训练出在字符级数据集中相当不错的分割和浅层解析表现,接近注意力基准。
Sep, 2017
Google 发布的 GNMT 神经机器翻译系统采用 LSTM 深度学习网络,使用 attention 机制和残差连接,借助词元素 (wordpieces) 将单词划分为子单元,提高了稀有单词处理能力与整体系统精度。
Sep, 2016
本文提出了将 SMT 模型融入 NMT 框架,通过辅助分类器和门函数来结合 SMT 的推荐和 NMT 的生成,从而提高中英翻译的性能。实验结果表明,该方法在多个测试集上均显著优于现有的 NMT 和 SMT 系统。
Oct, 2016
本文旨在解决传统编码器 - 解码器架构中的长度固定向量制约所面临的性能瓶颈,并提出一种基于(软)搜索方式的新方法,在英法翻译任务中获得了与基于短语的模型相当的翻译性能,且(软)对齐结果与人类直觉相符。
Sep, 2014
我们提出了一种新的机制来将源信息分成已翻译的过去内容和未翻译的未来内容,并使用两个附加的循环层对其进行建模,从而为神经机器翻译系统提供已翻译和未翻译内容的知识,实验结果表明,该方法显著改善了中英、德英和英德翻译任务的翻译性能,具体来说,该模型在翻译质量和对齐误差率方面优于传统的覆盖模型。
Nov, 2017
在低资源环境中,提出了一种用于模拟复杂形态的框架解决方案,该方案采用了双层 Transformer 架构来编码输入端的形态学信息。同时通过多标签多任务训练和基于 beam search 的解码器,提高了机器翻译性能,并使用通用形式的注意力增强方案来整合预训练语言模型和源语言和目标语言之间的词序关系建模。通过评估多种数据增强技术,提高了在低资源环境中的翻译性能,最终在基纳卢旺达语 - 英语翻译任务中取得了有竞争力的性能,希望我们的结果能够鼓励更多在低资源的神经机器翻译中使用明确的形态学信息以及所提出的模型和数据增强方法。
Apr, 2024
本论文提出了一种基于神经机器翻译的实时翻译框架,通过代理决策来实现翻译输出实时化并且具有可控的翻译质量与延迟,通过在两种语言对上的实验结果表明了该方法在定量与定性方面的有效性。
Oct, 2016
本文追溯了现代神经机器翻译体系结构的起源,重点探讨了单个神经网络在翻译中的应用,其中涉及到 word 和 sentence embedding 以及编码器 - 解码器网络家族的早期示例,并总结了该领域的最新趋势。
Dec, 2019