本文提出用双向循环神经网络替代 NMT 源语言嵌入层,在任何所需的粒度水平上生成组合表示,从而解决基于统计的分词方法中可能导致的形态错误,实现了从字符 N-gram 组成词表示的 NMT 训练方法的一致逆袭。
May, 2018
本文提出了一种更高效的字符级神经机器翻译解码方法,使用词和字符级别的分层解码结构,能够优化机器翻译性能并学习更长的上下文和语法依赖。
Oct, 2019
本论文通过设计深度模型对字符级信息进行序列到序列建模,并且验证了该模型优于传统的基于单词片段的模型,从而为字符级神经机器翻译提供了参考。同时,通过评估多种字符级 NMT 技术,发现它们不能与深层字符基线模型的表现相匹配。最后,我们还在该框架内进行了针对 NMT 的条件计算时间的第一次评估。
Aug, 2018
该研究提出了一个无需分词的神经机器翻译模型,在 WMT'15 数据集上使用多语言字符级编码器和基于字符卷积神经网络的模型,不仅速度快,泛化性能好,而且能够跨多语言实现高质量普适翻译,效果优于子词级编码器。
Oct, 2016
本研究介绍了一种基于字符级别表示的神经机器翻译模型,该模型使用注意力机制实现从字符级别到单词级别的翻译,并具有一定的词形识别与生成能力。
Nov, 2015
本文提出一种自动调节神经机器翻译中分词粒度的方法,可以在训练的同时引入新的词汇并优化语言分割,最终达到与最优表现相似的结果,并在训练效率和罕见词汇的表现方面带来了改进。
Oct, 2018
该研究提出了一种称为子词分节机器翻译(SSMT)的新方法,通过在单个可训练模型中联合学习目标句子单词的分割和目标句子生成,在生成翻译过程中采用动态解码算法进行细分操作,实验结果表明,SSMT 能提高粘着语言的 chrF 分数以及对于评估形态组成通用性构建的测试集的鲁棒性也更强。
May, 2023
该研究通过将输入句子自动分割成易于神经机器翻译模型翻译的短语来解决长句翻译时翻译质量下降的问题,并证明了这种方法在长句翻译质量上有显著提升。
Sep, 2014
本文探讨了使用字符级别的解码器和子词级别的编码器在神经网络机器翻译中能否生成一个不需要显式分段的字符序列,并使用 WMT'15 平行语料库对四种语言对 - En-Cs、En-De、En-Ru 和 En-Fi 进行了实验,结果表明具有字符级别解码器的模型在所有四种语言对上的表现均优于具有子词级别解码器的模型,在 En-Cs、En-De 和 En-Fi 上的神经网络插件比最先进的非神经机器翻译系统更为优秀,在 En-Ru 上性能相当。
Mar, 2016
本文提出将字节对编码(Byte Pair Encoding)引入到通用无监督框架中以解决翻译任务中由于罕见或未知单词对翻译效果的限制,经实验验证在德英和中英翻译任务中,使用 accessor variety 和 description length gain 进行优化能在不同程度上优于基线频率加权方案。
Jul, 2018