神经机器翻译幻觉成因探究
本文研究神经机器翻译中的幻觉,提出了两个关键的幻觉方式(源扰动下和语料级别噪声下),并阐述了数据生成过程中的幻觉放大现象,其中 Backtranslation 是一种常见的数据生成方法。
Apr, 2021
通过分析相对标记的贡献来确定神经序列生成模型的幻觉内在模型症状,使用这些症状设计出一个轻量级的幻觉检测器,在手动标注的英中和德英翻译测试上优于基于质量估计或大型预训练模型的分类器。
Jan, 2023
本文研究了神经机器翻译中的幻觉问题,提出了一种基于不确定性的检测方法,并探究了 DeHallucinator 方法在测试阶段缓解幻觉的效果。此外,作者还发布了一个标注数据集用于未来研究。
Aug, 2022
本文讨论如何通过优化传输和一个完全无监督的插件来检测 NMT 中的幻觉,并表明该检测器不仅优于所有先前的基于模型的检测器,而且与训练在数百万个样本上的大型模型的检测器有竞争力。
Dec, 2022
提出了一种通过评估翻译中源语言贡献百分比的方法,以解决神经机器翻译中出现的幻觉问题,并发现使用跨语言嵌入的句子相似性有助于提高检测精度。
Dec, 2022
本研究针对大规模多语言机器翻译,分析了 M2M 常规神经机器翻译模型和通用的 ChatGPT 模型中幻觉翻译的普遍性、特性和缓解措施,以期构建更加稳定和可信的机器翻译系统。
Mar, 2023
通过对 SiMT 中幻觉的两个角度进行综合分析,即对幻觉词的分布和目标端上下文使用进行理解,研究发现通过减少 SiMT 中目标端信息的过度使用,可以减轻幻觉现象。
Jun, 2024
此研究报告探讨了深度神经网络产生的幻觉是一类输出错误,在自动语音识别中幻觉的定义为模型生成的转录与源话语在语义上无关,但仍然流畅和连贯,幻觉与模型产生的自然语言输出相似性带来了误导的危险,并影响系统的可信度。为了解决这个问题,作者提出了一种基于干扰的方法来评估自动语音识别模型在测试时易于产生幻觉,该方法不需要访问训练数据集。作者展示了这种方法有助于区分在基准词错误率相似的情况下产生幻觉和不产生幻觉的模型。作者进一步探讨了自动语音识别错误类型与数据集噪声类型之间的关系,以确定最有可能产生幻觉输出的噪声类型。最后,作者通过给话语注入随机噪声的方式发现了诱导产生幻觉的方法。
Jan, 2024
本论文从三个数据集中的多个测试域的实验中,展示了暴露偏差对于幻觉的部分责任,并且证明了避免暴露偏差的 Minimum Risk Training 可以缓解幻觉问题,并说明了暴露偏差在领域转移下更加问题,并且将其与 Beam Search 问题联系起来。因此,即使暴露偏差算法不会增加在领域测试集上的性能,但它们可以提高模型对领域移位的鲁棒性。
May, 2020