机器翻译质量评估中的预测不确定性探讨
本研究提出了工具和度量方法来评估机器翻译模型中数据不确定性的捕捉,以及这种不确定性如何影响生成翻译的搜索策略。我们的结果表明,搜索功能表现出色,但模型往往在假设空间中分散了太多的概率质量。此外,我们还提出了评估模型校准的工具,并展示了如何轻松解决当前模型的一些缺陷。
Feb, 2018
提出了一种无监督方法来进行机器翻译的质量估计,该方法不需要大量专家注释数据、计算和时间来训练。该方法通过从机器翻译系统中提取有用的信息,并采用不确定性量化方法,实现了与人类判断质量的很好相关性,与最先进的监督质量估计模型相媲美。同时,他们还收集了第一个数据集,使得可以进行黑盒和白盒方法的质量估计的工作。
May, 2020
本文探讨了以往机器翻译的词汇质量评估模型的局限性,并提出了基于强大的预训练Transformer模型的跨语言通用性的词汇质量评估模型,证明其在跨语言模型训练、零样本/少样本数据归集的情况下,很好地泛化了,并且在实际应用中具有更广泛的应用前景。
May, 2021
本研究介绍了一种基于神经网络度量的机器翻译质量不确定性评估方法,并结合蒙特卡罗dropout和深度集成等两种不确定度估计方法,得出质量分数以及置信区间。通过对来自QT21数据集和WMT20度量任务的多语种数据进行实验,验证了该方法的性能,进一步探讨了不依赖参考文献的不确定性评估在发现可能的翻译错误中的应用。
Sep, 2021
本文将“玻璃箱质量评估”方法推广到黑箱和玻璃箱方法的不确定性量化,提出了基于预训练的跨语言语言模型的不确定性量化特征工程框架,并在WMT 2020 QE共享任务数据集上取得了最先进的性能。
Sep, 2021
我们研究了句子级机器翻译的质量估计(QE)问题,发现传统的基于回归的方法以及基于压缩模型的方法都不能很好地解决实际应用中的问题,而基于分类的方法可以更好地反映他们在实际应用中的性能表现。
Sep, 2021
本文提出了一种针对机器翻译Uncertainty Prediction的新型强大高效的不确定性预测器,在不同的数据集和应用场景中具有明显的降低计算成本和提高预测准确度的效果。
Apr, 2022
本文介绍了一种新的评估机器翻译不确定性的方法,通过同时评估翻译质量并提供可靠的置信度分数来实现。我们的方法利用符合性预测分布来生成具有保证覆盖率的预测区间,意味着对于任何给定的显著性水平,我们可以预期翻译的真实质量得分以$1-ε$的速率落在区间之外。在本文中,我们演示了我们的方法在六种不同的语言对中优于一个简单但有效的基线,从覆盖率和锐度的角度进行评估。此外,我们验证了我们的方法需要数据可交换性假设才能实现最佳性能。
Jun, 2023
本文研究机器翻译的不确定性评估方法,发现目前大多数方法对模型不确定性的估计较低,建议采用分布自由的合规预测法来保证覆盖度,并提出条件合规预测技术来获得每个数据子组的校准子集,从而实现覆盖率均衡。
Jun, 2023
在机器翻译中,为解决生成高质量和多样化的翻译的挑战,本文采用Gibbs分布的能量函数,并通过Metropolis-Hastings算法从高密度区域生成多个样本,提供了一种简单有效的方法来避免过度依赖噪声质量估计的问题。实验结果表明,所提出的方法在多种语言对(英语↔德语、俄语)和两个强解码器单模型(Alma-7b、Tower-7b)中产生了高质量和多样化的输出。
May, 2024