本文提出 DirectQE 框架,通过直接预训练来提高机器翻译质量估计(QE)任务的性能,其中生成器训练产生更接近真实 QE 数据的伪数据,检测器使用类似 QE 任务的新目标在这些数据上进行预先训练。在广泛使用的基准测试中,DirectQE 胜过现有方法,而且没有使用任何预训练模型,如 BERT。
May, 2021
本文研究了使用平行语料库来估计由数据驱动机器翻译系统产生的翻译质量,并展示了该简单直接的方法对机器翻译系统的翻译质量估计具有潜在的应用价值。
Jun, 2023
本文提出了一种基于质量评估的过滤方法,以从伪平行语料库中提取高质量的平行数据,并通过使用过滤后的语料库进行训练,改善了机器翻译系统的性能。该方法在英语 - 马拉地语、中文 - 英语和印地语 - 孟加拉语语言对中表现出了很好的效果,通过迁移学习在仅使用 500 个印地语 - 孟加拉语训练实例的情况下,相比基准模型提高了最多 0.6 个 BLEU 分数。
使用质量评估(QE)指标过滤训练数据的句子对可以提高翻译质量并减少训练规模一半。
Nov, 2023
提出了一种无监督方法来进行机器翻译的质量估计,该方法不需要大量专家注释数据、计算和时间来训练。该方法通过从机器翻译系统中提取有用的信息,并采用不确定性量化方法,实现了与人类判断质量的很好相关性,与最先进的监督质量估计模型相媲美。同时,他们还收集了第一个数据集,使得可以进行黑盒和白盒方法的质量估计的工作。
May, 2020
本文探讨了以往机器翻译的词汇质量评估模型的局限性,并提出了基于强大的预训练 Transformer 模型的跨语言通用性的词汇质量评估模型,证明其在跨语言模型训练、零样本 / 少样本数据归集的情况下,很好地泛化了,并且在实际应用中具有更广泛的应用前景。
研究了使用合成 TQE 数据和预训练多语言编码器的无监督句子级 TQE 方法的可用性,发现该方法在预测后编辑工作量和人工评估分数方面优于其他无监督 TQE 方法,并且在预测后编辑工作量上优于零资源翻译方向。
提出一种使用多任务训练、数据增强和对比学习相结合的方法,从而提高质量估计模型在现实应用中的鲁棒性,并在 Parallel Corpus Mining 样本集上进行了测试,结果表明该方法的效果比现有方法要好很多,在 PCM 精度上提高了超过 0.80,使用的数据量较少
Mar, 2022
本文介绍了一种基于跨语言 transformer 的简单句子级质量估计框架,实现了两种不同的神经网络架构,并表明当在 WMT 数据集上训练时,这些方法能够超越当前开源的质量估计框架,尤其在面对低资源语言时能够获得竞争性的结果
Nov, 2020
该论文旨在通过自监督的预训练方法以及标记修正策略,提高机器翻译的质量估计,避免传统质量评价准则的局限性,并通过人类专家的直接评注来构建不需要参考文献的数据集 HJQE 的实验结果证实了我们的方法的有效性。
Sep, 2022