本论文研究了现代神经机器翻译模型的组成泛化问题,构建了包含 216k 个干净和一致的语句对的基准数据集 CoGnition,并通过复合翻译误差率定量分析了各种因素的影响,然后展示了神经机器翻译模型在组成泛化方面的表现欠佳,尽管在传统指标下表现出色。
May, 2021
本文提出用双向循环神经网络替代 NMT 源语言嵌入层,在任何所需的粒度水平上生成组合表示,从而解决基于统计的分词方法中可能导致的形态错误,实现了从字符 N-gram 组成词表示的 NMT 训练方法的一致逆袭。
May, 2018
本文研究了神经机器翻译中不同层面的向量表示的学习情况,并发现高层次对语义的学习更有效,而较低层次对词性标注的学习效果更好。
Jan, 2018
本文提出一个过程,用于研究神经机器翻译 (NMT) 系统生成的句子表示如何编码不同的语义现象,最终发现编码器最适合在语法 - 语义界面上支持推理,而不是需要世界知识的指代消解。
Apr, 2018
研究表明,通过在神经机器翻译中使用抽象意义表示(AMR)作为额外知识,可以显著改善一种强的基于注意力的序列到序列神经翻译模型在标准英德数据集上的翻译表现。
Feb, 2019
本研究探讨了机器翻译和语义解析中的复合通用性问题,并发现神经机器翻译模型在句法结构的通用性上存在困难,而语义解析和机器翻译具有不同的性能趋势。
Jun, 2024
本研究提出了利用句子上下文进行神经机器翻译的新方法,并在 WMT14 英德和英法基准测试中进行了实验,结果表明,通过利用句子上下文可以提高翻译性能,深度句子上下文可以形成更全面的上下文表示。
Jun, 2019
本文提出了一种基于一致性感知元学习的神经机器翻译(CoNMT)框架,旨在解决当前 NMT 系统中由源多样性现象导致的翻译错误,实验结果表明,该框架能有效提高翻译质量并可靠地处理输入的多样性。
Mar, 2023
本论文首次将源句子的谓词 - 论元结构(即语义角色表示)信息融入神经机器翻译中,利用图卷积网络将语义偏差注入到句子编码器中,在英语 - 德语语言对上取得了 BLEU 分数上的提高。
本研究探讨了神经机器翻译中组合性的两个具体表现:生产力和系统性,并通过一种简单的预训练机制减轻了编码器的表示不足而显著提高了 BLEU 分数。
Nov, 2019