多语言机器翻译解析
本研究介绍了一种使用统一方法构建多语言神经机器翻译框架的方法,不需要对网络架构进行特殊处理,能在标准训练方式下学习最少数量的自由参数,在资源匮乏的翻译场景中表现出显著的效果,同时在源语言和目标语言之间没有直接平行语料库的翻译任务中也具有有趣和有前途的结果。
Nov, 2016
本文提出了一种针对多语言机器翻译的替代方法,该方法基于特定于语言的编码器 - 解码器,可以更轻松地通过学习相应的模块来扩展到新语言。同时训练初始语言以促进通用 interlingua 表示,实验表明该方法平均优于通用编码器 - 解码器 3.28 BLEU 点,当添加新语言时,无需重新训练其余模块,因此推进了可灵活扩展的模块化多语机器翻译系统的发展。
Apr, 2020
该研究表明,预训练的单一语言模型(LM4MT)可以与强大的编码器 - 解码器 NMT 模型在标准机器翻译基准测试中取得可比较的性能,LM4MT 还可以轻松利用源侧文本作为额外的监督。LM4MT 可以为源语言和目标语言提供统一的表示形式,在跨语言知识转移方面表现更好,并在基于中间语言和零样本翻译任务中获得显著的优势。
Jun, 2021
本文主要研究 NLP 系统中的多语言支持,其中提到 Multilingual BERT 作为一个可应用于 104 种语言的替代方案,通过分析 Multilingual BERT 的行为和跨语言传输与这些模型的优化行为,提供更好的跨语言模型和跨语言传输理解。
Jul, 2022
通过对 NMT 模型的多个语言对进行实验,本文发现在自我关注和编码器解码器注意头方面的注意力头是对于特定的语言对的翻译比其他更加具有特定性,可以通过指标去评估其注意力权重的一些方面,同时还可以通过评估注意力头相对于翻译质量的重要性来对其进行系统排名,并发现最重要的注意力头在各种语言对中非常相似且几乎可以删除不那么重要的注意头而不严重影响翻译质量。
May, 2021
该研究论文探讨了语言模型和编码器 - 解码器模型在机器翻译中的性能影响,结果表明:语言模型在小规模下的表现差,但随着参数数量的增加,其性能逐渐接近于编码器 - 解码器模型,语言建模和原因屏蔽会对翻译质量产生不利影响,而当与全局可视屏蔽相配合时,语言模型在受监督的双语和多语言翻译任务中能够与编码器 - 解码器模型持平,并且在零翻译方向上表现得更好。
Feb, 2022
本文探讨了在低资源语言翻译中,利用高资源语言数据进行多语言转移的方法,通过提出一种基于字符 N-gram 的嵌入方法 DecSDE,使得从英语到四种不同语言的翻译 BLEU 值提高了最高 1.8 个百分点。
Oct, 2020
探讨了多语言翻译中双语模型和一对多多语言模型的在表示上的几何差异,发现多语言解码器的表示比双语解码器的表示具有更低的等向性,限制了剩余的表达能力,并分析了这种差异的原因。
May, 2023