使用 Python 库 Theano 开发而成的一款新的神经网络语言模型训练工具,在芬兰和英语会话语音识别任务中被评估,相对最佳的N-gram 模型取得显著的改进;芬兰任务的结果表明,与现有的 RNNLM 和 RWTHLM 工具包相比,同等或更好,而训练时间则缩短了一个数量级。
May, 2016
该研究描述了一个优先考虑效率、模块化和可扩展性的神经机器翻译开源工具集,用于支持对模型架构、特征表示和源模态进行NMT研究,同时保持竞争性能和合理的训练要求。
Jan, 2017
本研究对神经机器翻译(NMT)架构的超参数进行了首次大规模分析,并报告了标准WMT英德翻译任务上数百个实验结果和方差数,相当于超过25万GPU小时。通过这些实验,得出了新的见解和建议,建立了一个开源NMT框架,使研究人员可以轻松地实验新技术并重现最先进的结果。
Mar, 2017
本文研究通过引入更多本地依赖关系和使用单词对齐来学习翻译过程中的句子重新排序,在低资源语言中使用神经机器翻译(NMT)模型,产生仅使用7万个训练数据令人满意的翻译结果。
Aug, 2017
XNMT是一款开源的、基于模块化代码设计的神经机器翻译工具,可应用于机器翻译、语音识别和多任务翻译/解析等领域。
Mar, 2018
本论文提出一种结合了回译和多语言神经机器翻译技术的新技术,通过为一个语言对训练一个模型来改善在低资源和跨领域情况下的机器翻译效果,并且能显著降低培训和部署成本。
May, 2018
我们致力于构建一款通用的神经机器翻译系统,通过构建一个单一的大规模多语言NMT模型,实现了103种语言之间的翻译,带有有效的迁移学习能力,显着提高了低资源语言的翻译质量,同时保持高资源语言翻译质量与竞争双语基线相当,为实现通用NMT模型的质量和实用性提供了多个方面的模型构建分析,并指出未来研究的方向和需进一步解决的问题。
Jul, 2019
本文提出了一种使用序列级训练目标来训练非自回归神经机器翻译模型的方法,通过几种为非自回归定制的新型强化算法,基于BLEU等序列级评价指标优化NAT模型的训练;介绍了一种基于Bag-of-Ngrams(BoN)差异的NAT模型的新型训练目标;并通过三阶段训练策略将这两种方法结合起来应用,验证了该方法在多项任务中的鲜明表现。
Jun, 2021
本文介绍一个基于Transformer库的神经机器翻译(NMT)工具包Yet Another Neural Machine Translation Toolkit(YANMTT),该工具包允许用户进行预训练、迁移学习、微调和可视化与分析,以及其他高级功能,例如文本多源NMT和压缩等。
Aug, 2021
本文描述了皇家同花顺神经机器翻译系统提交至WMT 2022翻译效率任务,采用了两阶段的混合回归翻译系统,并且通过整合其他建模技术和大量工程努力,达到了与同样容量的AT对手相当的翻译性能,并且带来80%的推理速度提升。
Dec, 2022