基于规则的形态学变化改善神经术语翻译
在低资源环境中,提出了一种用于模拟复杂形态的框架解决方案,该方案采用了双层 Transformer 架构来编码输入端的形态学信息。同时通过多标签多任务训练和基于 beam search 的解码器,提高了机器翻译性能,并使用通用形式的注意力增强方案来整合预训练语言模型和源语言和目标语言之间的词序关系建模。通过评估多种数据增强技术,提高了在低资源环境中的翻译性能,最终在基纳卢旺达语 - 英语翻译任务中取得了有竞争力的性能,希望我们的结果能够鼓励更多在低资源的神经机器翻译中使用明确的形态学信息以及所提出的模型和数据增强方法。
Apr, 2024
本文研究机器翻译中针对形态丰富的目标语言面临的挑战以及采用词元标记策略和语言学知识进行目标语言语言建模的实验,结果表明词汇量限制、语法一致性和语言关联性问题仍然是机器翻译需要解决的重要问题。
Mar, 2022
本文提出了一种新颖的方法,在神经机器翻译中运行时注入自定义术语。作者通过训练神经机器翻译系统学习如何在输入时使用自定义术语,并比较实验证明这种方法不仅更有效,而且与自由约束解码一样快。
Jun, 2019
本文提出了一种新的方法,通过训练步骤来鼓励神经机器翻译满足词汇约束,其主要包括训练数据扩充、约束词汇掩码和交叉熵损失函数修改三个方面,实验表明该方法在 BLEU 分数和生成约束词汇的数量方面均优于其他算法。
Jun, 2021
提出一种针对低资源语言的自动词形变化生成方案,在神经网络方法、注意力机制、跨语言转移学习等方面做了改进并实现了 15% 的性能提升。发现了语言类别相似和通用表示是跨语言转移学习成功的关键因素。
Aug, 2019
本文提出了一种在神经机器翻译中加入词汇约束的简单有效算法,该算法可以在推理时注入术语约束,而不影响解码速度,并且无需修改训练流程,使用自定义字典即可运行,实验结果表明,我们的方法在英德 WMT 数据集上可以提高基线和之前方法的翻译质量。
Apr, 2020
本文提出了一种通过分层潜在变量模拟词态变化过程的方法,通过组合两个潜在表示(一个连续的表示和一组(近似)离散特征),逐个字符生成单词,从而使神经机器翻译在三种形态丰富的语言中的精度和资源利用率得到了提高。
Oct, 2019