本研究提出了一种利用神经模型、机器翻译、自然语言生成和元数据的迁移学习方法,用于生成长描述性摘要,旨在解决机器翻译、自然语言生成和元数据机器翻译等方面的挑战。实验结果表明,该方法可以优于现有技术,并在 WNGT 2019 中的 “文档生成和翻译” 任务中荣获全场第一。
Oct, 2019
本文调查了神经元数据到文本生成的方法、基准数据集和评估协议,突出了技术应用阶段及其在自然语言生成领域中的前景。
Jul, 2022
本论文介绍了使用预训练模型结合 Transformer 架构和过采样策略,对同时翻译和改写语言教育的共享任务的第三种方法。该系统在匈牙利语和葡萄牙语方面表现优异,比基准系统改进了 27% 和 33% 的宏平均 F1 得分。
May, 2020
这篇综述论文旨在总结文档级机器翻译的最新研究进展,重点讨论了神经网络模型、训练策略、评估指标等方面的创新,为该领域的研究者提供状态认知和未来方向。
Dec, 2019
这份文献调查追溯了神经机器翻译的起源和主要发展时间线,探究了重要的分支,对不同的研究方向进行分类,并讨论了该领域的一些未来研究趋势。
Feb, 2020
我们致力于构建一款通用的神经机器翻译系统,通过构建一个单一的大规模多语言 NMT 模型,实现了 103 种语言之间的翻译,带有有效的迁移学习能力,显着提高了低资源语言的翻译质量,同时保持高资源语言翻译质量与竞争双语基线相当,为实现通用 NMT 模型的质量和实用性提供了多个方面的模型构建分析,并指出未来研究的方向和需进一步解决的问题。
Jul, 2019
本文追溯了现代神经机器翻译体系结构的起源,重点探讨了单个神经网络在翻译中的应用,其中涉及到 word 和 sentence embedding 以及编码器 - 解码器网络家族的早期示例,并总结了该领域的最新趋势。
本文综述了 NMT 在代码生成中的应用,包括自然语言描述、二进制或汇编语言、源代码部分表示和其他语言的源代码等方面的输入。并且列举了已经探索的多种不同的方法和模型架构、优化技术、数据集和评估方法,最后讨论了现有方法的局限性和未来研究方向。
May, 2023
本研究提出了一种基于注意力机制的神经机器翻译(NMT)模型,并允许它在训练后访问整个平行句子对训练集。该模型由两个阶段组成:检索阶段和翻译阶段,实现了在源句子和一组检索的平行句子对之间的平滑翻译。在三种语言(En-Fr,En-De 和 En-Es)上的实证评估表明,该方法显著优于基准方法,并且当检索到更相关的平行句子对时,改进效果更为显著。
May, 2017
本文介绍了在大规模电子商务环境中,构建一个内部旅游领域的神经机器翻译系统,并对其进行优化、训练(包括不同的优化策略和语料库规模)、处理现实世界内容以及评估结果等三个主题进行了研究。
Sep, 2017