关键词document-level neural machine translation
搜索结果 - 7
- ACL文档级神经机器翻译的重要性感知数据增强
提出了一种基于重要性感知数据增强算法的文档级神经机器翻译方法,通过估计隐藏状态和训练梯度的法线来增加训练数据,并在常用文档级神经机器翻译基准数据集上获得了显著优于强基线模型和其他数据增强方法的结果,包括句子级和文档级 BLEU。
- EMNLP解决文档级神经机器翻译中的长度偏差问题
通过改进训练方法、注意机制和解码策略,我们提出了解决文档级神经机器翻译中长度偏差问题的方法,实验证明我们的方法在多个开放数据集上都取得了显著的改进,并且进一步分析显示我们的方法能够明显减轻长度偏差问题。
- ACL只需 5% 的注意力:高效的长距离文档级神经机器翻译
通过引入基于轻量级注意力的额外选择层,我们在保持翻译性能的同时加快了 20%的速度,能够实现将注意力仅集中在约 5%的令牌上,从而节省了 93%的计算成本。
- ACL论文档级神经机器翻译的搜索策略
本文研究如何利用上下文感知的翻译模型在解码时最佳应用。通过对比使用标准自动指标和三个标准的文档级翻译基准测试上的特定语言现象,我们发现大多数常用的解码策略表现相似,并且更高质量的上下文信息有潜力进一步改善翻译效果。
- ACL探究 Paracrawl 用于文档级神经机器翻译
本研究使用大规模平行语料库 Paracrawl 中抽取的平行段落为训练数据,研究了文档级神经机器翻译的效果,结果表明其在实际应用中优于句子级机器翻译,并且可以帮助上下文感知的代词翻译。
- 文档级神经机器翻译的话语衔接评估
该研究提出了一种文档的连贯性评估方法(DCoEM),在考虑了四种连贯方式(参考,连词,替换和词汇连贯)的情况下,为测量文档翻译的连贯性做出贡献,并通过最近的文档级 NMT 系统的评估结果表明我们的方法在评估文档级翻译方面是实用和必要的。
- ACL重新思考文档级神经机器翻译
通过合适的训练技术,使用原来的 Transformer 模型可以在涉及长度 2000 个单词的文档级别的翻译中取得比句子级别的模型更好的表现,并且在六种语言的九个文档级别和两个句子级别的数据集上,使用包括 BLEU,四个词法指标,三个新提出