本研究针对机器翻译系统在句子级别上操作的限制,提出了利用文档级单语数据构建上下文感知翻译系统的方法,并通过结合现有句子级翻译模型和文档级语言模型,改进了现有方法,并提出了新的权重技术以提高系统组合的灵活性和降低计算开销。通过对四个不同的翻译任务进行全面评估,结果显示我们的改进能够显著提高面向文档的评分,并在计算上更高效。但在大多数情况下,通过再训练翻译系统进行反向翻译可以获得更好的结果。最后,我们探索了基于大语言模型的语言模型融合,在最新的大语言模型进展的基础上取得了一定的潜力。
Oct, 2023
本文提出了一种通过解决模型架构、训练数据和评估指标三个问题开展文本背景机器翻译的方案,并在 DE$ ightarrow$EN,EN$ ightarrow$DE,EN$ ightarrow$FR 和 EN$ ightarrow$RU 等语种的大数据实验中表明这三项改进措施能够显著提高文本背景翻译的性能。
Apr, 2023
该研究提出了一种基于自训练的方法,可以在不需要专门的并行文档级语料库和模型的情况下,将已训练好的句子级神经机器翻译模型应用于文档级机器翻译任务,并在三个文档级数据集上进行了评估,结果显示我们的方法在 BLEU 指标上具有更高的得分和更高的人类偏好度。
Mar, 2020
这篇综述论文旨在总结文档级机器翻译的最新研究进展,重点讨论了神经网络模型、训练策略、评估指标等方面的创新,为该领域的研究者提供状态认知和未来方向。
Dec, 2019
通过合适的训练技术,使用原来的 Transformer 模型可以在涉及长度 2000 个单词的文档级别的翻译中取得比句子级别的模型更好的表现,并且在六种语言的九个文档级别和两个句子级别的数据集上,使用包括 BLEU,四个词法指标,三个新提出的辅助语言指标和人类评估在内的全面指标,证明了文档级别 Transformer 模型的优越性。
Oct, 2020
本文研究如何利用上下文感知的翻译模型在解码时最佳应用。通过对比使用标准自动指标和三个标准的文档级翻译基准测试上的特定语言现象,我们发现大多数常用的解码策略表现相似,并且更高质量的上下文信息有潜力进一步改善翻译效果。
Jun, 2023
本文介绍了微软译者参加 WMT19 新闻翻译的论文,重点关注基于深度转换模型的文档级神经机器翻译。研究团队通过数据过滤和噪声反向转换等方式构建大规模数据集,并探索了微调技术,更深层次的模型以及不同的集成策略,最终实现了对最大长度为 1000 个子词节选的文档级机器翻译。在人工评估中,研究人员发现文档级翻译系统的性能优于基于句子的翻译系统和人类参考翻译。
Jul, 2019
探索大型语言模型在文档级机器翻译中的适应过程及性能,研究了提示策略及精细调优方法对翻译结果的影响,发现部分专用模型的翻译性能甚至超过 GPT-4,但仍面临着偏离翻译问题的挑战,同时进行了深入分析,包括翻译错误、平行文件的规模关系、领域外泛化和零翻译跨语言转移等,为未来文档级机器翻译方面的研究提供了基础。
Jan, 2024
提出了一种结合不同长度的句子级和文档级翻译指令来微调大型语言模型(LLM)的方法,以显著增强 LLM 在文档级翻译中的能力,并有效解决文档级翻译中的句子覆盖问题,实验证明该方法在 10 种语言对上显著提高了翻译质量。
该研究提出了一种简单的方法将基于句子水平的翻译模型转化为基于上下文的模型,该方法使用点互信息来表示上下文信息。这种方法在三种语言对上得到了较好的效果。