关键词document-level machine translation
搜索结果 - 9
- 适应大型语言模型的文档级机器翻译
探索大型语言模型在文档级机器翻译中的适应过程及性能,研究了提示策略及精细调优方法对翻译结果的影响,发现部分专用模型的翻译性能甚至超过 GPT-4,但仍面临着偏离翻译问题的挑战,同时进行了深入分析,包括翻译错误、平行文件的规模关系、领域外泛化 - 非自回归文档级机器翻译(NA-DMT):探索有效方法、挑战和机遇
本文从文档级机器翻译的角度全面探讨了典型的非自回归翻译模型,实验证明尽管非自回归模型可以显著加速文档的文本生成,但是它们在文档水平上的表现并不如在句子级上的表现,作者提出了一个新的设计来弥补这种性能差距,重视句子级别的对齐和多模态问题,在此 - 基于大型语言模型的文档级机器翻译
本文研究利用 Chat-GPT 建立的大型语言模型在文档级机器翻译中的应用,通过评估话语建模的能力,比较它与商业翻译系统和高级文档级机器翻译方法的性能,发现 Chat-GPT 在人类评估方面表现优异,同时揭示了话语建模的挑战和机遇。
- TRIP: 多语言语言模型三角形式的文档级预训练
本文介绍了第一个将常规的单语和双语预训练扩展到三语环境的三角形文档级预训练(TRIP)方法,在对文档级机器翻译和跨语言抽象摘要的实验中,TRIP 在三项多语种文档级机器翻译基准和一个跨语言抽象摘要基准上提高了多达 3.65 d-BLEU 点 - EMNLP基于线性关注力模型建模上下文,实现可扩展的文档级翻译
本文研究了一种基于 Peng et al. (2021) 的线性注意力模型,并通过句子门促进最近归纳偏置,以提高文档级机器翻译的效能和翻译质量,并在 IWSLT 2015 和 OpenSubtitles 2018 上进行了评估和测试,结果表 - ACL学习记忆:用循环记忆的 Transformer 进行文档级机器翻译
介绍了一种新的循环记忆单元来加强 Transformer 框架下文档级机器翻译的一致性,提出了一种两阶段的训练策略,实现了在三个流行数据集上的优异表现,并在 TED 和 News 数据集上实现了比过去最好结果更好的结果。
- 文档级机器翻译方法比较
本文给出了关于文档级机器翻译的文献综述,对比了各种方法在两个文档级评估套件上的表现,并发现基于单语文档的回译方法在文档级评估和人类评估方面都能达到相同结果,因此不需要设计过于复杂的模型。
- COLING利用话语奖励进行文档级神经机器翻译
本文提出了一种基于强化学习目标的训练方法,明确优化词汇凝聚力和连贯性两个学术界公认的话语质量指标,实现了在不牺牲翻译忠实度的前提下,比其他竞争性方法更有效地提高了多语种、多领域文档翻译的凝聚和连贯性。在中英语言对中,词汇凝聚力和连贯性分别提 - IJCAI神经机器翻译中充分利用上下文的探索
通过引入全局上下文,我们提出了一种新的文档级 NMT 框架,用于处理包含任意数量句子的文档,并且可以在标准数据集上优雅地训练,结果表明我们的模型优于 Transformer 基线和之前的文档级 NMT 模型。