May, 2018

Marian: C++ 实现的高质量低成本神经机器翻译

TL;DR本文介绍了 “Marian” 小组对 WNMT 2018 共享任务的提交。我们研究了在 GPU 和 CPU 上优化 Transformer 模型的各种方法,包括教师 - 学生训练、低精度矩阵积、自动调节等。通过进一步结合新的平均注意力网络,我们在 GPU 和 CPU 上创建了许多高质量、高性能的模型,支配了此共享任务的 Pareto 前沿。