这项研究针对一家语言服务提供商的真实数据进行了首次大规模的翻译和修订速度调查,结果表明后期编辑通常比人工翻译更快,平均速度数值可能具有误导性,翻译速度高度可变,编辑距离不能作为后期编辑效率的代理因素,因为它与速度的相关性并不强。
Dec, 2023
在本文中,我们进行了一个试点研究,通过在翻译记忆中标记错误并提取类似的例子来引导大型语言模型(LLMs)在技术领域中进行术语翻译以提高翻译质量。实验证明,通过增加人工标记错误的翻译可以引导 LLM 集中于错误修正,相比于自动后期编辑(APE)和从头开始的机器翻译,有着持续的改进。
Jun, 2024
本文介绍一种个性化自动后编辑框架来解决机器翻译中反映个人喜好的挑战,其使用鉴别器模块和用户特定参数的模型,在四种不同指标(BLEU、TER、YiSi-1 和人类评估)上优于基线模型。
Sep, 2022
本研究测试了在专业翻译中使用神经机器翻译(NMT)是否能够节省人工处理时间,并发现更好的 MT 系统确实能够减少英文到捷克文翻译过程中的修改次数,但是质量和编辑时间之间的关系并不是直接的关系,并且与短语词汇表机器翻译不同的是,BLEU 不能稳定预测时间或最终输出质量。
Sep, 2021
MLQE-PE 为机器翻译质量评估和自动后编辑提供了新数据集,包含 11 种语言对,针对每种语言对的 10000 个翻译提供了人类标签,包括句子级别的直接评估和后编辑努力以及单词级别的好 / 坏标签,同时还提供了后编辑的句子、标题以及用于翻译文本的神经机器翻译模型。
Oct, 2020
本文介绍了自动矫正人为翻译错误的任务,并通过制作 Aced 语料库并建立三个 TEC 数据集,探究矫正人为翻译错误的模型的需要。我们发现人类错误比机器翻译的翻译流畅度错误更为多样,需要专门的 TEC 模型来矫正。通过在人类错误上的合成错误的预训练,我们的 TEC 系统在 F1 得分上获得了 5.1 个百分点的提升,并在人机交互实验中表现出卓越的能力。
Jun, 2022
这篇文章研究了如何自动提高机器翻译的文章质量,提出了可移植的 postediting 模块来替代改善某个系统内部的方法,并且通过学习算法构建了一个完整的文章选择自动 postediting 模块,并与人类表现进行了比较。
Jul, 1994
本研究探讨了翻译写作中机器翻译,后编辑和无辅助翻译等三种方式的创造性表现,并发现经由人的自然翻译创造性最高,机器翻译需要进一步改善。
Apr, 2022
本研究发现提前识别翻译技巧并应用于机器翻译过程可以进一步优化机器翻译,通过不同实验对从头翻译和后编辑两种翻译过程进行了预测,预测准确率分别达到 82% 和 93%。
Mar, 2024
该研究针对自动后编辑(APE)中数据稀缺的情况,通过数据增强的方式来生成大规模人工语料库构建人工数据域,以提高模型性能,报告表明高质量的人工语料库与生成的训练数据可以改善模型性能,同时在不同 MT 系统中 APE 的难度不同,模型在语法和语义添加问题上的表现良好,但容易出现实体和语义省略错误。