OpenNMT:神经机器翻译开源工具包
THUMT 是一个开源的神经机器翻译工具包,采用基于注意力的编码器 - 解码器框架,在 Theano 上实现,并支持最大似然估计、最小风险训练和半监督训练三种训练标准。它还提供了一种可视化工具,用于显示神经网络中隐藏状态和上下文单词之间的关联,从而有助于分析 NMT 的内部工作原理。在中英数据集上的实验表明,使用最小风险训练的 THUMT 明显优于目前最先进的 NMT 工具 GroundHog。
Jun, 2017
本文介绍一个基于 Transformer 库的神经机器翻译(NMT)工具包 Yet Another Neural Machine Translation Toolkit(YANMTT),该工具包允许用户进行预训练、迁移学习、微调和可视化与分析,以及其他高级功能,例如文本多源 NMT 和压缩等。
Aug, 2021
adaptNMT 是一个开源应用程序,它提供了对循环神经网络和 Transformer 模型的开发和部署的简化方法。该应用程序建立在广泛采用的 OpenNMT 生态系统之上,对于新进入该领域的人来说特别有用,因为它简化了开发环境的设置和创建训练、验证和测试分割。
Mar, 2024
adaptNMT 是一个开源应用程序,为机器翻译领域的技术和非技术用户简化了 RNN 和 Transformer 神经翻译模型的开发和部署过程。该应用程序建立在广泛采用的 OpenNMT 生态系统之上,特别适用于新入行人员,因为它极大地简化了开发环境的设置以及训练、验证和测试数据集的创建。它还提供了图形化的模型训练进展展示,使用 SentencePiece 来创建子词分割模型,通过直观的用户界面实现了超参数定制,以及一键模型开发的方法。开发的模型可以使用多种指标进行评估,并在应用程序内部作为翻译服务进行部署。为支持自然语言处理领域的生态友好研究,该应用程序还提供了绿色报告,标志模型开发过程中所产生的功耗和二氧化碳排放量。该应用程序免费提供。
Mar, 2024
Google 发布的 GNMT 神经机器翻译系统采用 LSTM 深度学习网络,使用 attention 机制和残差连接,借助词元素 (wordpieces) 将单词划分为子单元,提高了稀有单词处理能力与整体系统精度。
Sep, 2016
在大型语言模型时代,自然语言处理正接近其能够处理的尺寸和信息上限,而模块化变得趋势,它是一种朝着设计具有专业功能的小型子网络和组件的方向迈出的必要步骤。本文介绍了 MAMMOTH 工具包:一个旨在规模化训练大规模多语言模块化机器翻译系统的框架,它最初是从 OpenNMT-py 派生而来,并经过改进以确保在计算集群中高效训练。我们展示了其在 A100 和 V100 NVIDIA GPU 集群上的效率,并讨论了我们的设计理念和未来的计划。该工具包可在网上公开获取。
Mar, 2024
本文追溯了现代神经机器翻译体系结构的起源,重点探讨了单个神经网络在翻译中的应用,其中涉及到 word 和 sentence embedding 以及编码器 - 解码器网络家族的早期示例,并总结了该领域的最新趋势。
Dec, 2019
本研究旨在分享我们在神经机器翻译领域的专业知识,创造出竞争力强且适用于不同用例的翻译引擎,在实际生产流程中实现特定领域的高效翻译。我们提供了一种同时发布多种语言在线演示程序的方法,并探索了不同的实用选项、网络架构和评估方法等。
Oct, 2016