理解黑盒神经机器翻译的预编辑
本研究测试了在专业翻译中使用神经机器翻译(NMT)是否能够节省人工处理时间,并发现更好的 MT 系统确实能够减少英文到捷克文翻译过程中的修改次数,但是质量和编辑时间之间的关系并不是直接的关系,并且与短语词汇表机器翻译不同的是,BLEU 不能稳定预测时间或最终输出质量。
Sep, 2021
使用词汇短语转换(phrase-based machine translation)方法预处理输入,进而提升神经机器翻译(NMT)的翻译质量,在英德翻译任务中,使用该方法的性能跃升 2 个 BLEU 分数,同时分析了初始系统质量对最终结果的影响。
Oct, 2016
神经机器翻译需进行后编辑以提高翻译质量,后编辑可作为新的训练数据进行在线学习,本文提出新的优化算法并实验比较在线学习算法,结果表明翻译质量和工作量得到了显著提高。
Jun, 2017
这篇文章研究了如何自动提高机器翻译的文章质量,提出了可移植的 postediting 模块来替代改善某个系统内部的方法,并且通过学习算法构建了一个完整的文章选择自动 postediting 模块,并与人类表现进行了比较。
Jul, 1994
通过实证研究发现,即使是对于研究相对较少的语言对和系统适应所需的小量领域数据,采用神经机器翻译(NMT)后编辑可显著节省时间,并且能够实现等同或略有更好的翻译质量。
Jun, 2019
本研究针对多种语言数十款神经机器翻译模型,通过一项系统性的翻译后修订实验,对每种翻译成果进行了专业化评估,并公开了完整数据集,旨在进一步研究神经机器翻译系统的翻译能力。
May, 2022
机器翻译后编辑广泛应用于传播,其高生产率和质量优于从零开始的人工翻译。本研究通过计算分析比较后编辑和人工翻译在五个翻译方向上的不同翻译普遍规律,发现后编辑更简化、规则化,但受源语言干扰程度更高。
Jul, 2019
提出了一个计算机辅助文本编辑的框架,通过神经序列到序列建模和引入一个以输入句子和更改标记为输入的神经网络来解决翻译后编辑和改写问题,并通过用户研究评估了该模型的效果。
Nov, 2017
当前研究主要关注白盒大语言模型(LLMs)编辑,忽略了一个重要的场景:黑盒 LLMs 编辑,其中 LLMs 通过接口进行访问,仅有文本输出可用。为了解决现有评估不适用于黑盒 LLMs 编辑且不具备全面性的局限性,我们提出了一个多角度评估框架,首次加入了风格保留的评估。为了解决当前方法中的编辑数据隐私泄露和过度编辑风格的问题,我们引入了一种新的 postEdit 框架,通过下游后处理解决隐私问题,并通过细粒度编辑保持文本风格一致。两个基准实验和分析表明,postEdit 超过了所有对比基准并实现了强大的泛化性能,特别是在风格保留上获得了巨大的提升(平均提高了 20.82%)。
Feb, 2024