AutoNMT: 简化 Seq2Seq 模型研究的框架
本文介绍一个基于 Transformer 库的神经机器翻译(NMT)工具包 Yet Another Neural Machine Translation Toolkit(YANMTT),该工具包允许用户进行预训练、迁移学习、微调和可视化与分析,以及其他高级功能,例如文本多源 NMT 和压缩等。
Aug, 2021
该研究描述了一个优先考虑效率、模块化和可扩展性的神经机器翻译开源工具集,用于支持对模型架构、特征表示和源模态进行 NMT 研究,同时保持竞争性能和合理的训练要求。
Jan, 2017
adaptNMT 是一个开源应用程序,为机器翻译领域的技术和非技术用户简化了 RNN 和 Transformer 神经翻译模型的开发和部署过程。该应用程序建立在广泛采用的 OpenNMT 生态系统之上,特别适用于新入行人员,因为它极大地简化了开发环境的设置以及训练、验证和测试数据集的创建。它还提供了图形化的模型训练进展展示,使用 SentencePiece 来创建子词分割模型,通过直观的用户界面实现了超参数定制,以及一键模型开发的方法。开发的模型可以使用多种指标进行评估,并在应用程序内部作为翻译服务进行部署。为支持自然语言处理领域的生态友好研究,该应用程序还提供了绿色报告,标志模型开发过程中所产生的功耗和二氧化碳排放量。该应用程序免费提供。
Mar, 2024
本文介绍了基于 Transformer 的自然语言生成模型在解码过程中存在推理速度瓶颈,提出了 FastSeq 框架以加速序列生成,采用了注意力缓存优化、重复 n-gram 检测、并行 IO 等优化技术,有效提升了推理速度,并且可以适用于多种 Transformer-based 模型,其中代表性的 T5、GPT2 和 UniLM 等。
Jun, 2021
本教程介绍了一组称为 “神经机器翻译” 或 “神经序列到序列模型” 的新而强大的技术,这些技术已被用于处理人类语言的许多任务,并可成为任何想要建模某种形式的连续数据的人员工具箱中的强大工具。教程假定读者了解数学和编程的基础知识,但不假定具有神经网络或自然语言处理方面的任何特定经验。它试图解释所涵盖各种方法的直觉,然后具体讲解它们的数学细节,并以建议实现练习作为高潮,读者可以在实践中测试他们是否理解了内容。
Mar, 2017
本研究从网络结构、训练策略和摘要生成算法三个方面全面综述了不同的 seq2seq 模型用于文本摘要生成的研究,并提出了一个名为 NATS 的开源工具包进行研究,对 CNN / Daily Mail 数据集进行了广泛的实验检验,在 Newsroom 和 Bytecup 数据集上测试了两个模型。
Dec, 2018
k-nearest-neighbor machine translation improves neural machine translation by utilizing a vector database of translation examples, and the paper presents an efficient framework called knn-seq to handle large datasets.
Oct, 2023
本文研究序列到序列 (seq2seq) 建模在机器翻译 (MT) 中的最新方法,提出了一种新的 RNN 模型 (RNMT+), 并且通过分析每种常见 seq2seq 架构的特点,设计出了一些混合架构来综合它们的优点,实验结果表明,混合架构进一步提高了 MT 的翻译性能。
Apr, 2018