本研究提出了工具和度量方法来评估机器翻译模型中数据不确定性的捕捉,以及这种不确定性如何影响生成翻译的搜索策略。我们的结果表明,搜索功能表现出色,但模型往往在假设空间中分散了太多的概率质量。此外,我们还提出了评估模型校准的工具,并展示了如何轻松解决当前模型的一些缺陷。
Feb, 2018
本研究针对神经机器翻译存在的训练误差积累和过度校正问题,提出了一种从训练模型的预测序列中采样上下文词并使用句子级优化方法选择预测序列的训练策略,并在中英互译和 WMT'14 英德互译数据集上得到了显著提高。
Jun, 2019
本研究探讨在神经机器翻译中,针对某些属性(如单词大小写或性别)控制训练数据,以预测目标单词和属性,能够使翻译更忠实于这些属性的训练数据分布。通过在大写输入翻译和性别预测两个任务上的实验结果,证明该策略有助于在测试中镜像训练数据分布,并促进大写输入翻译任务的数据扩充。
Sep, 2021
本文描述了一种基于梯度的机器翻译模型训练方法,在去除了语言偏差和提高流畅度的基础上,使用反转和增强技术提高翻译模型的性能。
May, 2022
该研究提出一种基于可微序列级训练目标的方法,使用概率 n-gram 匹配来避免强化学习框架,该方法在训练中执行贪心搜索并使用预测的单词作为上下文,以缓解曝光偏差问题,实验结果表明,该方法在 NIST 中英文翻译任务中显着优于基于强化学习的算法,并在强基线系统上平均实现了 1.5 个 BLEU 点的改进。
Sep, 2018
本文提出了一种新的方法,通过训练步骤来鼓励神经机器翻译满足词汇约束,其主要包括训练数据扩充、约束词汇掩码和交叉熵损失函数修改三个方面,实验表明该方法在 BLEU 分数和生成约束词汇的数量方面均优于其他算法。
Jun, 2021
在这篇研究中,我们提出了一种方法来解决大型语言模型在翻译过程中因未对齐问题而导致的不准确翻译的困扰,该方法通过调整源语言和目标语言的注意力权重、压制无关目标前缀的影响以及避免过度依赖目标前缀来改善翻译质量,实验证明该方法在多种语言对上的效果显著,有效地减少幻觉式翻译,并促进准确翻译的生成。
Jun, 2024
提出一种新指标 FFLM,结合基于概率变化的方法评估生成模型的忠实度,相比于强基准模型 ChatGPT 拥有更少的参数,并在不一致性检测和忠实度评分方面表现出竞争性和优越性的改进。
Oct, 2023
使用神经网络在配对设置下进行机器翻译评估的框架,以从一对假设中选择更好的翻译为目标。该框架将参考和两个假设的词汇、句法和语义信息嵌入到紧凑的分布式向量表示中,并提供了一个与人类判断相关的 MT 评估度量。
Oct, 2017
本文提出了一种利用数据增强和鲁棒推理过程将单纯的 NLI 模型用于预测语言模型忠实度的方法,应用于 TRUE 基准来说效果显著且计算代价较小。
May, 2023