- ICLR南非官方语言的神经机器翻译
该研究旨在解决针对非洲语言的神经机器翻译方法应用的空缺问题,通过在英语和南非其余十种官方语言之间创建 NMT 基准 BLEU 得分来进行研究。
- 同时翻译策略:从固定到自适应
通过简单的启发式组合一组固定策略,我们设计了一种算法来实现自适应策略,实验结果显示我们的自适应策略可以在相同延迟下比固定策略多达 4 个 BLEU 分数,并且甚至在贪心模式下超过了全句翻译的 BLEU 分数(接近 beam 模式),但延迟更 - 使用自我训练在句子级神经机器翻译模型中捕获文档上下文
该研究提出了一种基于自训练的方法,可以在不需要专门的并行文档级语料库和模型的情况下,将已训练好的句子级神经机器翻译模型应用于文档级机器翻译任务,并在三个文档级数据集上进行了评估,结果显示我们的方法在 BLEU 指标上具有更高的得分和更高的人 - 文本风格转换中的信息分解
本文探讨使用文本风格转换框架来有效分解不同方面的文本信息的潜在表示,并提出了几种经验方法来评估信息分解的质量,通过与几种最先进的文本风格转换方法验证了这些方法。 信息分解质量的提高与输出和人类编写的改写之间的双语评估的 BLEU 分数表现出 - EMNLP神经机器翻译的简单而有效的噪声信道建模
本文探讨了基于标准序列到序列模型的神经嘈杂信道建模方法,实验结果表明这种方法在四个语言对的翻译任务中表现优异,尤其在 WMT'17 的德英翻译任务中,其 BLEU 分数比直接模型高出 3.2 分。
- JUCBNMT 在 WMT2018 新闻翻译任务中的表现:基于字符的芬兰语到英语神经机器翻译
该论文描述了用于 WMT 2018 新闻翻译任务的系统,它使用了基于字符的神经机器翻译模型,进行从芬兰语到英语的新闻文本翻译,并获得了 12.9 的 BLEU 分数。
- 悉尼大学参加 WMT19 的机器翻译系统
本文介绍了悉尼大学参加 WMT 2019 共享新闻翻译任务的提交。通过将学术研究中的最新的有效策略(例如,BPE、回译、多特征数据选择、数据增强、贪婪模型集成、reranking、ConMBR 系统组合和后处理)与自注意力 Transfor - ACL机器翻译的深度 Transformer 模型学习
本篇研究论文提出了一种通过适当使用层归一化技术以及一种新的传递先前层组合方法,在机器翻译任务中,构建比 Transformer-Big 模型更深层的 Transformer 模型,并在 WMT'16 英德、NIST OpenMT'12 中英 - ACL带有句法感知词表示的句法增强神经机器翻译
本研究提出了一种基于依赖解析器的隐式语法表示方法,通过使用中间隐藏的依赖解析器表示来增强基础神经机器翻译模型,可以在中英文和英越翻译任务的基准数据集上显著提高 BLEU 打分表现,并超过了显式树状 RNN 和线性化方法。
- ACL基于丰富语义表达的神经文本生成
使用神经模型基于最小递归语义 (MRS) 的结构化表示,生成高质量文本,通过将基于依赖关系的 MRS 的线性化映射到英文文本,可以实现 BLEU 得分为 66.11,该方法可通过使用高精度的广覆盖语言模型生成训练语料库得到进一步提升,在完整 - ACLAMR 到文本生成的结构神经编码器
本文探讨了 AMR-to-text generation 在使用图编码器和树编码器处理 AMR 图时,对于包含多 parent nodes 的 reentrancies 的处理方式对生成文本的影响,并通过比较实验发现,对于 reentran - 提高低资源语言的零 - shot 翻译
本文提出一种简单的迭代训练过程,利用系统直接生成的翻译对零 - shot 方向进行翻译,以及原始并行数据,来重新训练多语言网络,有效提高了多语言模型的 BLEU 分数,并且在非零 - shot 语言方向上的性能也略有提升。
- EMNLP神经机器翻译到语言变体
通过使用具有共享表示的多语言任务解决英文到特定语言品种的神经机器翻译时可能遇到的问题,并利用标签化和非标签化的平行语料库,以及低资源条件对欧洲巴西葡萄牙语、欧洲 - 加拿大法语、克罗地亚 - 塞尔维亚语以及印度尼西亚 - 马来语这四种语言进 - EMNLP可解释神经机器翻译的操作序列模型
提出实现可解释的神经机器翻译(NMT)的方法,具体包括改变输出表示方式,提出新的 NMT 方案以通过源句子步进式走向生成目标句子,通过设定目标句子标记和移动目标端写入头来模拟单词重排序。与许多现代神经模型相比,我们的系统发出明确的单词对齐信 - ACL神经机器翻译的词袋模型作为目标
本文提出了一种以神经机器翻译、词袋模型、训练、中英文翻译和 BLEU 得分为关键词的方法,通过在训练阶段使用句子和词袋模型作为目标,鼓励该模型生成可能不在训练集中的正确句子,实验结果表明,我们的模型在中英文翻译数据集上的 BLEU 得分比强 - 定时多任务学习:从句法到翻译
提出了一种神经编码器 - 解码器机器翻译模型框架,该模型开始交替学习语法和翻译,逐渐将重点放在翻译上,实现了在相对较大的平行语料库(WMT14 英语到德语)和低资源(WIT 德语到英语)设置中的 BLEU 得分显着提高。
- NIPS期望 BLEU 得分的可微下限
本文提出一种计算期望 BLEU 分数的可微下限的方法,避免了使用强化学习(RL)框架的 REINFORCE 规则所需的计算昂贵的采样过程,并解决了语言处理任务中非可微度量指标和最优化所需目标的不匹配问题。
- 机器翻译加权变形器网络
本篇论文提出基于注意力机制的神经机器翻译新架构,采用自注意力和前馈神经网络层来避免递归和卷积,但是需要大量的参数和训练才能收敛。同时又提出了加权 Transformer 模型,通过修改注意力层架构,更快地提高 BLEU 得分表现,同时在英译 - ACL神经机器翻译中的词汇选择改进
本文提出两种方法解决神经机器翻译中罕见单词的误译问题,一为限制向量范数,避免高频词过度约束;二为引入词汇模块与其他模块联合训练得到更好的翻译结果。通过对 8 种语言对的数据进行测试,结果显示本文方法的 BLEU 分数提升了最高可达 +4.3 - 事件预测的序列到序列学习
本文提出了一种使用双向多层递归神经网络进行序列到序列学习的方法,以预测文本中前一句的事件描述。我们的方法在来自 WikiHow 和 DeScript 两个数据集中的 BLEU 得分方面显着优于先前的研究。由于 BLEU 得分不易解释为事件预