XNMT: 可扩展的神经机器翻译工具包
该研究描述了一个优先考虑效率、模块化和可扩展性的神经机器翻译开源工具集,用于支持对模型架构、特征表示和源模态进行 NMT 研究,同时保持竞争性能和合理的训练要求。
Jan, 2017
本文介绍一个基于 Transformer 库的神经机器翻译(NMT)工具包 Yet Another Neural Machine Translation Toolkit(YANMTT),该工具包允许用户进行预训练、迁移学习、微调和可视化与分析,以及其他高级功能,例如文本多源 NMT 和压缩等。
Aug, 2021
THUMT 是一个开源的神经机器翻译工具包,采用基于注意力的编码器 - 解码器框架,在 Theano 上实现,并支持最大似然估计、最小风险训练和半监督训练三种训练标准。它还提供了一种可视化工具,用于显示神经网络中隐藏状态和上下文单词之间的关联,从而有助于分析 NMT 的内部工作原理。在中英数据集上的实验表明,使用最小风险训练的 THUMT 明显优于目前最先进的 NMT 工具 GroundHog。
Jun, 2017
Google 发布的 GNMT 神经机器翻译系统采用 LSTM 深度学习网络,使用 attention 机制和残差连接,借助词元素 (wordpieces) 将单词划分为子单元,提高了稀有单词处理能力与整体系统精度。
Sep, 2016
adaptNMT 是一个开源应用程序,它提供了对循环神经网络和 Transformer 模型的开发和部署的简化方法。该应用程序建立在广泛采用的 OpenNMT 生态系统之上,对于新进入该领域的人来说特别有用,因为它简化了开发环境的设置和创建训练、验证和测试分割。
Mar, 2024
adaptNMT 是一个开源应用程序,为机器翻译领域的技术和非技术用户简化了 RNN 和 Transformer 神经翻译模型的开发和部署过程。该应用程序建立在广泛采用的 OpenNMT 生态系统之上,特别适用于新入行人员,因为它极大地简化了开发环境的设置以及训练、验证和测试数据集的创建。它还提供了图形化的模型训练进展展示,使用 SentencePiece 来创建子词分割模型,通过直观的用户界面实现了超参数定制,以及一键模型开发的方法。开发的模型可以使用多种指标进行评估,并在应用程序内部作为翻译服务进行部署。为支持自然语言处理领域的生态友好研究,该应用程序还提供了绿色报告,标志模型开发过程中所产生的功耗和二氧化碳排放量。该应用程序免费提供。
Mar, 2024
本文追溯了现代神经机器翻译体系结构的起源,重点探讨了单个神经网络在翻译中的应用,其中涉及到 word 和 sentence embedding 以及编码器 - 解码器网络家族的早期示例,并总结了该领域的最新趋势。
Dec, 2019
我们致力于构建一款通用的神经机器翻译系统,通过构建一个单一的大规模多语言 NMT 模型,实现了 103 种语言之间的翻译,带有有效的迁移学习能力,显着提高了低资源语言的翻译质量,同时保持高资源语言翻译质量与竞争双语基线相当,为实现通用 NMT 模型的质量和实用性提供了多个方面的模型构建分析,并指出未来研究的方向和需进一步解决的问题。
Jul, 2019
本研究旨在分享我们在神经机器翻译领域的专业知识,创造出竞争力强且适用于不同用例的翻译引擎,在实际生产流程中实现特定领域的高效翻译。我们提供了一种同时发布多种语言在线演示程序的方法,并探索了不同的实用选项、网络架构和评估方法等。
Oct, 2016