基于注意力机制的印度语言神经机器翻译系统
我们使用深度学习技术开发了一种神经机器翻译系统,通过训练 Transformer 模型将印度语 Hindi 翻译成英语,通过实施回译增强训练数据并尝试使用 Byte Pair Encoding (BPE) 进行词汇划分,我们在 10 个不同的配置中训练 Transformer,在 IIT Bombay 英印语语料库的测试集中取得了 24.53 的最新 BLEU 分数。
Sep, 2023
本文提出了一个 MNMT 系统,通过各种增强策略改进它的性能,研究了方言、语言脚本等因素在提高低资源语言翻译表现中的作用,并展示了回译和领域适应对提高源语言和目标语言翻译质量的优势。通过这些方法,我们的模型在评价指标(即一组 IL 的 BLEU(双语评估协议)得分)方面比基线模型更高效。
Sep, 2022
Google 发布的 GNMT 神经机器翻译系统采用 LSTM 深度学习网络,使用 attention 机制和残差连接,借助词元素 (wordpieces) 将单词划分为子单元,提高了稀有单词处理能力与整体系统精度。
Sep, 2016
我们提出了一种基于可解释性的 NMT 训练方法,应用于无监督和有监督模型训练,用于翻译英语和三种不同资源的语言 —— 法语、古吉拉特语和哈萨克语。我们的结果表明,我们的方法在低资源条件下可以有希望,优于简单的训练基线;尽管改进只是微小的,但为进一步探索这种方法和参数以及其扩展到其他语言奠定了基础。
Nov, 2023
本文提出了将 SMT 模型融入 NMT 框架,通过辅助分类器和门函数来结合 SMT 的推荐和 NMT 的生成,从而提高中英翻译的性能。实验结果表明,该方法在多个测试集上均显著优于现有的 NMT 和 SMT 系统。
Oct, 2016
本文追溯了现代神经机器翻译体系结构的起源,重点探讨了单个神经网络在翻译中的应用,其中涉及到 word 和 sentence embedding 以及编码器 - 解码器网络家族的早期示例,并总结了该领域的最新趋势。
Dec, 2019
使用最大的公开可访问的印度语言平行数据集 Samanantar 进行实验,在二种印度语言 Hindi 和 Odia 上构建一个基准神经机器翻译系统,并通过消除数据集中的错误翻译来提高翻译质量,进而发现尽管 ILs-English 和 English-ILs 系统使用相同的数据集进行训练,但 ILs-English 在所有评估指标上的表现更好。
Jan, 2024
本文构建了 Indic-to-Indic 机器翻译模型,并且考察了语言相关性、借用相关语言以及不同语系对模型效率的影响,结果发现,使用相关语言对 WI 语系是有益的,而对 EI 语系可能是有害的,对 DR 语系影响不明确,但对 EN-IL 模型是有用的,并且转译还有助于提高模型的性能。
Jun, 2023
为了解决印地语交互下,由于语言间巨大的形态学复杂度而导致的低资源语言之间的翻译问题,本文提出了一种基于常见多语种拉丁编码的方法。使用这种方法,结合 Byte Pair Embedding,可以更好地利用印地语相似性,并通过将不同但相似的语言映射到同一正交 - 语音字符空间来改进翻译质量。在低资源条件下,我们验证了提出的方法,并且在大多数情况下得到了改进,在类似语言对(Gujarati-Hindi,Marathi-Hindi,Nepali-Hindi,Maithili - Hindi,Punjabi-Hindi 和 Urdu-Hindi)中,在一个案例中提高了约 10 BLEU 分数,而在远程和零 - shot 语言对中还提高了约 1 个 BLEU 分数。
May, 2023
我们提出了针对多种源语言和目标语言翻译的任务特定的注意力模型,旨在改进序列到序列神经机器翻译的质量。我们在欧洲议会语料库的四种语言上进行的实验表明,使用目标语言特定的注意力模型相对于参数共享模型提供了一致的翻译质量的提升,甚至在低资源的零 - shot 翻译方向上也观察到了翻译质量的改善。
Jun, 2018